New York’ta bir avukatın, yapay zeka modeli tarafından üretilen mevcut olmayan emsal kararları mahkeme yazışmasında kullanması sonucu itibarı zedelendi. Avukat, dil modellerinin böyle hatalar yapabileceğinin farkında olmadığını savundu. Yaklaşık üç yıl geçmesine rağmen bazı kişiler hala yapay zeka tarafından üretilen içeriğe eleştirel yaklaşmıyor. Bir büyük şirketin Avustralya şubesi, yapay zeka ile hazırlanan ve bibliyografyasında var olmayan kaynaklar içeren rapor için hükümete ödenen ücretin bir kısmını iade etmek zorunda kaldı.
Avukatın İtibarı Zedelenmesi
New York’taki bir avukatın, mahkeme yazışmasında dil modeli tarafından üretilen çok sayıda mevcut olmayan emsal karara atıf yapması üzerine itibarı zedelendi. Avukat, dil modellerinin böyle hatalar yapabileceğinin farkında olmadığını açıkladı. Bu savunma, davranışını meşrulaştırıyor mu, yoksa güvenilirlik, özen ve araştırma konusunda şüphe uyandırıyor mu?
AI Üretimi İçerikte Devam Eden Sorunlar
Bu olaydan yaklaşık üç yıl geçmesine rağmen, bazı kişiler hala yapay zeka tarafından üretilen içeriklere eleştirel yaklaşmaktan kaçınıyor. Yakın zamanda, bir büyük şirketin Avustralya şubesinin, yapay zeka ile üretilmiş bir rapor için hükümete ödenen ücretin bir kısmını iade etmek zorunda kaldığına dair bir vakaya şahit olduk. Raporun bibliyografisinde gerçek hayatta var olmayan referanslar bulunuyordu.
Sorun Artık Anekdot Değil
Bu artık son dakikada yapay zeka ile kompozisyon üreten öğrencilerin hikayeleri veya teknolojinin kusurları üzerine şikayet etmek için bir neden değil. Bunun yerine, bir şeyden faydalanmak için onun ne olduğunu, ne için kullanılabileceğini ve ne için kullanılamayacağını bilmemiz gerektiğine dair kanıtlardır.
İnsan Sorumluluğu
Ve teknoloji satan şirketlerin anlatısından bağımsız olarak, üretilen “bilginin” kullanım şeklinden tek sorumlu olan insan olduğu gerçeği. İnsan, modern araçların kendilerini iletilen içerikleri doğrulama sorumluluğundan kurtardığına inanmak istiyor.
Kaynak : GazetaPrawna