Perşembe, Mayıs 8


Yapay zeka sohbet robotları (chatbotlar) ilk ortaya çıktığından bu yana, yanıltıcı bilgiler ya da “halüsinasyonlar” sürekli bir sorun olmuştur.


Her yeni modelde, bu halüsinasyonların azalması beklenmişti. Ancak, OpenAI’nin son bulguları, bunun tersine, halüsinasyonların daha da arttığını gösteriyor.


Bir kamu figürleri testinde, GPT-o3, yanıtlarının yüzde 33’ünde yanlış bilgiler verdi; bu oran, önceki model GPT-o1’in hata oranının iki katı. Daha kompakt olan GPT o4-mini ise daha da kötü bir performans sergileyerek %48 oranında yanıltıcı bilgi üretti.


Yapay zeka çok mu düşünüyor?


Önceki modeller, akıcı metinler üretmekte oldukça başarılıydı, ancak o3 ve o4-mini, insan mantığını taklit etmek amacıyla adım adım düşünme programlamasıyla geliştirildi.


Ironik bir şekilde, bu yeni “düşünme” tekniği, sorunun kaynağı olabilir. Yapay zeka araştırmacıları, ne kadar fazla düşünme yaparsa, modelin yanlış yola sapma olasılığının o kadar arttığını belirtiyor.


Yüksek güvenli yanıtlara sahip eski sistemlerin aksine, bu yeni modeller karmaşık kavramlar arasında köprü kurmaya çalışırken yanlış ve tuhaf sonuçlara ulaşabiliyor.


Daha gelişmiş yapay zeka modelleri neden daha az güvenilir oluyor?


OpenAI, yapay zeka halüsinasyonlarındaki artışı, doğrudan düşünme biçimiyle değil, modellerin anlatımındaki kelime bolluğu ve cesaretle ilişkilendiriyor. Yapay zeka, faydalı ve kapsamlı olmaya çalışırken bazen tahminlerde bulunuyor ve teoriyi gerçekle karıştırabiliyor. Sonuçlar son derece ikna edici olabiliyor, ancak tamamen yanlış olabiliyor.


Yapay zeka halüsinasyonlarının gerçek dünya riskleri


Yapay zeka, hukuki, tıbbi, eğitim veya devlet hizmetlerinde kullanıldığında büyük riskler taşıyor. Bir mahkeme belgesinde ya da tıbbi raporda yanıltıcı bir bilgi, felakete yol açabilir.


Günümüzde ChatGPT nedeniyle avukatlar, uydurulmuş mahkeme alıntıları sağladıkları için yaptırımlara uğradılar. Peki ya bir iş raporunda, okul ödevinde veya devlet politikası belgesinde yapılan küçük hatalar?


Yapay zeka ne kadar hayatımıza entegre olursa, hata yapma olasılığı o kadar azalır. Ancak paradoks şudur: Ne kadar faydalı olursa, yapacağı hataların tehlikesi de o kadar büyür.

Paylaşmak
Exit mobile version