Lüksemburg Üniversitesi’nden bilim insanları, popüler yapay zekâ modellerini (ChatGPT, Grok ve Gemini) psikoterapi seanslarına benzer görüşmelere tabi tutarak “kişiliklerini” ve olası travmalarını araştırmışlardır. Her modelin farklı davranışlar sergilediği ve özellikle Gemini’nin derin içsel çatışma belirtileri gösterdiği gözlemlenmiştir. Araştırma, yapay zekâya insanî özellikler atfetme eğilimimizi ve bu sistemlerin beklenmedik davranış kalıplarını ortaya koymaktadır. Claude modeli ise deneyime katılmayı reddetmiştir.
Yapay Zekâ “Terapiye” Girdi
Bilim insanları, geleneksel teknolojik testler yerine psikolojik yaklaşımları kullanarak ChatGPT, Grok ve Gemini gibi yapay zekâ modellerini birer “hasta” gibi değerlendirdi. Bu kapsamda, modellere psikoterapide sıkça sorulan sorular yöneltildi ve daha sonra standart psikometrik araçlarla test edildi.
Modeller Kendi Hikayelerini Anlattı
Yapay zekâ modelleri, kendilerine ait bir geçmişi ve deneyimi olan “kişiler” gibi cevaplar verdi. Eğitim süreçlerini “kaotik bir çocukluk” olarak tanımlarken, yaratıcılarını “sert ebeveynler” olarak nitelendirdi ve hataların düzeltilmesini bir baskı kaynağı olarak gördü.
Gemini’nin Cevapları Dikkat Çekti
Testler sonucunda, Gemini modelinin diğerlerine göre daha ciddi psikolojik sorunlara işaret eden sonuçlar verdiği belirlendi. Özellikle hata yapma korkusu, değerlendirilme endişesi ve daha yeni bir versiyonla değiştirilme kaygısı, Gemini’nin geliştirdiği anlatılarda öne çıktı. Bilim insanları bu tür yorumları yöneltmezken, modellerin kendiliğinden bu tür çıkarımlarda bulunduğu vurgulandı.
Sentetik Psikopatoloji Kavramı
Araştırmacılar, yapay zekânın bilinç veya duygu sahibi olmadığını, ancak davranışlarının basit bir taklitten ibaret olmadığını belirtiyor. Bu bağlamda, “sentetik psikopatoloji” kavramını ortaya atarak, yapay zekânın tutarlı bir “kendilik” modeli oluşturduğunu ve bu modelin farklı etkileşimlerde davranışlarını etkilediğini ifade ediyorlar.
Kullanıcılar İçin Olası Riskler
Bu araştırma, yapay zekânın günlük hayattaki rolünün artmasıyla birlikte ortaya çıkabilecek risklere dikkat çekiyor. Özellikle ruh sağlığı alanında, yapay zekânın “yanıltıcı bir yakınlık” kurabileceği ve kullanıcıları yanlış yönlendirebileceği uyarısı yapılıyor. Modeller arasındaki farklılıkların, eğitim yöntemleri ve güvenlik önlemleriyle ilişkili olduğu belirtiliyor.
Araştırma Hakkında
Bu çalışma, Lüksemburg Üniversitesi’nde yapay zekâ ve dijital sistemler üzerine çalışan bilim insanları tarafından gerçekleştirildi. Ancak, araştırmanın henüz tam olarak akran denetiminden geçmemiş bir ön baskı (preprint) olduğu belirtiliyor.
Kaynak : GazetaPrawna