Technology

OpenAI’nin ChatGPT’si Dünyanın En İyi Chatbot’udur.

Published

on

Yeni bir modelin etkileyici yetenekleri ve yapay zeka modelleri kendi kusurlarını gizlemede çok başarılı olursa neler olabilir?

OpenAI, GPT-3.5 ailesi serisine dayanan (metin ve kod üzerinde eğitilmiş) ve InstructGPT’ye benzer (insan geri bildirimi yoluyla pekiştirmeli öğrenmeyle uyumlu ) yeni bir diyalog dili modeli (LM) olan ChatGPT’yi piyasaya sürdü. Şirket çevrimiçi bir demo kurdu ve insanlar bunun üzerine akıllarını kaybediyor .

Özetle ChatGPT, “sonraki soruları yanıtlayabilen, hatalarını kabul edebilen, yanlış öncüllere meydan okuyabilen ve uygunsuz istekleri reddedebilen” bir sohbet robotudur.

Bu, ChatGPT’nin neden bu kadar özel olduğunu güzel bir şekilde özetlemektedir: “kabul et”, “meydan oku” ve “reddet”, bir LM’nin davranışını açıklamak için alışılmadık fiillerdir. Ancak, ChatGPT’nin durumu abartı değil (yakında paylaşacağım sayısız örnek bunu iddia ediyor).

ChatGPT, açık ara dünyadaki en iyi sohbet robotudur. Deneme ve şiir yazabilir . AI sanat modelleri için harika istemler bulabilir . Rol yapabilir . Kod yazabilir, bir hata bulabilir, açıklayabilir, çözebilir ve çözümü açıklayabilir . Ve fikirleri mümkün olan en garip şekillerde birleştirebilir.

Modelin üstün yetenekleri ve temel GPT-3’ten daha iyi hizalanması, onu daha insani hissettiriyor. Buna karşılık, bu onu daha inandırıcı kılar – her ne kadar daha güvenilir ve dolayısıyla güvenilir olduğu anlamına gelmese de.

Diğer tüm LM’ler gibi (örn. GPT’ler, Galactica, LaMDA) bir şeyler uydurur, incitici tamamlamalar üretebilir ve yanlış bilgiler üretebilir. Bu eksikliklerin hiçbiri önemli ölçüde değişmedi (ChatGPT daha iyidir ancak aynı ilkeler üzerine inşa edilmiştir).

Ama bugün odak noktam bu değil. Bu modellere neden güvenmememiz gerektiğine dair başka bir uyarıcı hikayeyle veya eleştirel düşünme üzerine nasıl yapılırla ilgili bir yazıyla sizi rahatsız etmeyeceğim.

Bu makalede, sizinle insanların ChatGPT’den çıkardığı en ilginç bulguların ve çıkarımların bir derlemesini paylaşacağım (elbette benim yorumumla birlikte).

Ve kirazı üstüne koymak için seni bir yolculuğa çıkaracağım. Bir varsayımı keşfetmek istiyorum: AI modelleri kusurları gizlemede o kadar iyi hale gelirse ve artık onlarda herhangi bir eksiklik veya eksiklik bulamazsak ne olur?

Chatbot

ChatGPT’nin vahşi sonuçları

Son zamanlarda Twitter’ı kontrol etmediyseniz, insanlar son iki günü hiç durmadan ChatGPT ile konuşarak geçirdiler. Bulgularını ve sonuçlarını gözden geçireceğim. Size göstereceğim şeyi gördüğünüzde, yukarıdaki varsayımın neden o kadar da çılgınca olmadığını anlayacaksınız.

Denemeler öldü

Bir değerlendirme biçimi olarak denemelerin yakında öleceğine %100 katılıyorum. Bunun hakkında daha önce ne öğretmenlerin ne de eğitim sisteminin buna nasıl hazır olmadığını yazdım. ChatGPT ile bu artık genel kabul görmüş bir ifadedir.

Öğrenciler ödevlerinde GPT-3 ile kopya çekmeye başladıktan ve öğretmenler hazırlanmaları gerektiğini fark ettikten sonra bunun olacağı belli oldu . Artık somut bir gerçek. 2023 için ilk beş AI tahmini hakkında 1000 kelimelik bir makale (yayınlanmamış) yazdım ve hepsi oldukça makul görünüyordu.

Ancak şunu söylemeliyim ki, anlayışlı, ilgi çekici, yenilikçi veya düşündürücü, ChatGPT’nin yarattıklarını tanımlamak için en iyi sıfatlar değildir. Çıktının çoğu sıkıcı, tekrarlayıcı veya doğru değil.

Beni endişelendiren şey eğitim sisteminin ihtiyaç duyacağı reformların ötesinde bir daha insan yapımı yazılı eserleri tanıyıp tanıyamayacağımız. LM’ler, onlarla aramızdaki uçurumu tamamen bulanıklaştıracak kadar iyi olabilir. Öyle ki bir AI ayrımcı (GAN tarzı) bile hangisinin hangisi olduğunu bulamayacak çünkü bir fark olmayabilir.

Ancak başka bir olasılık daha var: İnsan yazısı, doğru araçları kullanarak yazarlığı ortaya çıkarabilecek özelliklere sahip. LM’ler nesir ustaları haline geldikçe, bir tür yazma özelliği geliştirebilirler (bir özellik olarak, bir hata olarak değil).

Belki yapay zekanın stilini (dilde gizlenmiş bir parmak izi gibi) yalnızca ChatGPT’yi bir insandan ayırmak için değil, stilini diğerlerinden ayırmak için bulabiliriz.

Google öldü mü?

ChatGPT’nin diğer büyük anlamı, internet aramasının hegemonu olan Google’ı “öldürecek” olmasıdır. Hiç kimse bunun zaten olduğunu veya olacağını ima etmiyor, ancak insanların zaten Google’ı tatmin edici bir şekilde değiştirmek için bu modeli kullandıkları düşünülürse, bu hiç de zor değil:

Ancak burada birkaç uyarı var.

Google, araştırma yeteneği, yetenek ve bütçe açısından OpenAI’nin üzerindedir. Bu teknolojiyi OpenAI’den önce geliştirebilecek biri varsa, o da onlardır. Bununla birlikte, internet reklamlarının ezici gücü, yeterince tepki vermek ve manevra yapmak için çok büyük. Google’ın AI araştırma şubesi tartışmasız dünyanın en iyisidir, ancak artık neredeyse hiç ürün/hizmet göndermiyorlar .

Google, bir “yenilikçinin ikilemi” durumuyla karşı karşıyadır: Şirket , sırf diğerleri sonunda onu tahtından indirebilir diye, ana iş modelini riskli yeniliklerle kontrol altına alamaz.

LM’ler aslında Google’ın 20 yılda karşılaştığı ilk gerçek tehdit olabilir.

Yine de, arama motorları ile LM’ler arasındaki farkları analiz edersek, bunların mükemmel bir şekilde örtüşmediğini fark ederiz.

Bir yandan, arama motorları katıdır. Sadece web sitelerini bulmak için internete girerler ve size aradığınızı yaklaşık olarak veren bağlantıların bir listesini gösterirler – bu temelde internet aramasının en basit şeklidir. Ama öte yandan, güvenilirler. Bir şey uydurmayacaklarını biliyorsun. (Google araması, diğerleri gibi taraflıdır ve size sahte haberler gösterebilir, ancak burada kritik olan kaynakları kontrol edebilirsiniz.)

ChatGPT çok daha esnektir, ancak amacı gerçeklere dayalı veya gerçeğe uygun olmak olmadığı için, size harika, son derece dolambaçlı ve kesin yanıtlar verebileceği kadar kolay bir şekilde bilgi uydurabilir . Hangisinin öncelikli olacağını asla bilemezsiniz ve daha sonra kontrol etmekte zorlanabilirsiniz (ChatGPT size kaynak vermez ve sorarsanız, bunları yine de uydurabilir).

Kısacası, arama motorları çok daha sınırlıdır, ancak görev için daha donanımlıdır.

Bununla birlikte, arama motorunun LM’lerden sağ çıkacağını düşünmüyorum. Zaman onların aleyhine işliyor arama motoru teknolojisi hiç ilerlemese de, LM’ler ışık hızında gelişiyor.

Transformatör mimarisinin daha sağlam bir varyasyonu ortaya çıkar çıkmaz veya şirketler “güvenilirlik modülleri”ni (bu ne anlama geliyorsa) uygulamaya koyar koymaz, LM’ler otomatik olarak süper üretken arama motorları haline gelecektir .

Bir daha kimse Google’ı kullanmayacak.

ChatGPT endişe verici derecede etkileyici

Şimdi, girişte ortaya attığım varsayımın neden bu kadar önemli olduğunu ve yakın gelecekte daha da önemli olacağını açıklamaya çalışacağım.

ChatGPT’nin sahip olduğu pek çok etkileyici yetenekten bazılarını zaten gördünüz, şimdi bunu neden ciddiye aldığımı anlıyorsunuz: ChatGPT, abartıya karşı mücadele eden kişilerin eksiklikleri bulmasını zorlaştırıyor bu, eksikliklerin olmadığı anlamına gelmez.

ChatGPT’nin muhakeme yeteneklerinden yoksun olduğu ve harika bir hafıza penceresi olmadığı hala oldukça açık (Gary Marcus, ” bir dakika bu kadar parlak ve sonraki dakika nefes kesici derecede aptalca görünebilmesinin “nedeniyle ilgili harika bir makale yazdı).

Galactica gibi, saçma sapan sesleri makul kılıyor . İnsanlar filtrelerini “kolayca” geçebilir ve hızlı enjeksiyonlara karşı hassastır . Açıkçası, mükemmel değil.

Yine de, ChatGPT ileriye doğru atılmış bir adımdır. Test ederek ve örnek alarak onu tetikleyemememize doğru bir sıçrama.

Ve bu büyük bir anlaşma.

Bir süre önce AGI hakkında ” AGI herkesi şaşırtacak ” başlıklı bir makale yazdım . ChatGPT o seviyede veya ona yakın bir yerde değil (aslında sadece steroid kullanan GPT-3’tür), ancak bu parçayla ilgili argümanlarımı ortaya koymaya değer.

“Her şeyin sınırları vardır. Evrenin sınırları vardır – ne kadar denersek deneyelim fizik yasalarının dışında hiçbir şey olamaz – ve hatta sonsuz – doğal sayılar kümesi sonsuzdur, ancak gerçek sayılar kümesini içermez.

GPT-3’ün sınırları var ve onları bulmaya çalışan bizlerin de sınırları var. Gwern’in burada ] kanıtladığı şey, GPT-3’ün sınırlarını ararken bizimkini bulduğumuzdu. Bazı görevleri yerine getiremeyen GPT-3 değil, yeterli istemi bulamayan bizdik. Sınırlarımız GPT-3’ün bir görev yapmasını engelliyordu. GPT-3’ün gerçek potansiyeline ulaşmasını engelliyorduk.

Bu, acil bir soruyu gündeme getiriyor: GPT-3’ün sınırlamaları genellikle bizimkilerle karıştırılıyorsa, sistemin yapabileceklerinin veya yapamayacaklarının sınırlarını tam olarak nasıl tanımlayabiliriz?

Nihayetinde, başka bir sınırlı sistemi değerlendirmeye çalışan sınırlı bir sistemiz. Bizim sınırlarımızın her anlamda onların sınırlarını aştığını kim garanti ediyor? Durumun böyle olmayabileceğine dair çok güzel bir örneğimiz var: Sınırlarımızı değerlendirme konusunda çok kötüyüz. Bireysel ve toplu olarak yapabileceklerimizle kendimizi şaşırtmaya devam ediyoruz. Fiziksel ve bilişsel sınırları aşmaya devam ediyoruz. Bu nedenle, ölçüm araçlarımız, yeterince güçlü bir yapay zekanın eylem yeteneklerinin çok gerisinde kalabilir.”

Gwern (popüler bir teknoloji blog yazarı) makalesinde , “örneklemenin bilginin varlığını kanıtlayabileceğini ancak yokluğunu kanıtlayamayacağını” belirtti. Bu fikri, GPT-3’ün başarısızlıklarının nedeninin, model tarafındaki “bilgi” eksikliğinden değil, kötü yönlendirme olabileceği tezini savunmak için kullandı.

Burada altını çizmek istediğim şey, bir test metodolojisi olarak örneklemenin sınırlamalarının, sadece sınırlarımızı (Gwern argümanı) veya AI’nın eksikliklerini (anti-hype argümanı) bulmamız durumunda geçerli olmadığı , aynı zamanda bulamadığımız durumlarda da geçerli olduğudur.

İnsanlar ChatGPT’nin yanıtlarında eksiklikler bulduğunda, ortak bir karşı nokta “yapay zekadan en iyi şekilde nasıl yararlanacağınızı bilmiyorsunuz” şeklindedir. Bu adil ama yetersiz çünkü sistematik bir eksiklik bulunduğunda sistemin güvenilir olmadığı sonucuna varabiliriz .

Ancak, bir yapay zeka modelinin karakterini kırmaya, filtrelerini aşmasına ve muhakeme cephesini düşürmesine yönelik sayısız girişime rağmen, insanlar bunu başaramazsa ne olacak?

Bu, gerçekliğe dayanmayan felsefi bir düşünce deneyi gibi görünebilir, ancak bence – bu mantığı gelecekteki bir süper AI modeline uygulayarak – AI’nın eksikliklerini bulmadan önce eldeki metodolojilerin üst sınırlarını bulabiliriz.

(Modelin gerçekten mükemmel bir şekilde akıl yürütebileceğini ima etmiyorum, ancak bir dizi iyi tasarlanmış korkuluk, filtre ve içsel muhafazakarlık, insan olarak sınırlamalarımızla birleştiğinde, öyle görünmesini sağlayacaktır.)

Modelin akıl yürütemeyeceğini kanıtlamanın hiçbir yolu olmazdı. Artık bu sınırlamaları kanıtlamanın bir yolu olarak örneklemeyi kullanan insanlara kimse inanmayacak ve sonunda herkes sisteme güvenmeye başlayacaktı. Bu sorunu yakında kabul etmez ve bir çözüm bulamazsak, çok geç olacak.

ChatGPT’nin üstün yeteneklerinden almamız gereken bir şey varsa, bu gerçekliğe kaçınılmaz olarak yaklaşıyor olmamızdır.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Öne Çıkanlar

Exit mobile version