Avukatların çalışma bağlamında “yapay zeka” olarak adlandırdığı teknolojinin büyük kısmı, büyük dil modelleridir. Bu modeller geniş (ve genellikle tartışmalı) veri setleri üzerinde çalışır ve kalite yerine “her şeyi” ödüllendirir. Öte yandan, hukukta “geleneksel yapay zeka” hala nadirdir ve nadiren gereklidir. Ayrıca, çeşitli sohbet robotlarından elde edilen içeriklerin önemli bir kısmı (%15 civarı) profesyoneller tarafından kullanılamayacak düzeydedir; en sık durumda ise basitçe yanlıştır.
Hukukta Yapay Zeka Gerçeği
Avukatların [https://www.gazetaprawna.pl/tagi/prawo] çalışma bağlamında “yapay zeka” olarak adlandırdığı şeyin büyük çoğunluğu, ya daha iyi ya da daha kötü büyük dil modelleridir. Bu modeller, büyük (ve sıkça tartışmalı) veri setleri üzerinde çalışır. Bunlar, neredeyse bir “sığınak” gibidir; olasılıklar, istatistikler ve pekiştirmeli öğrenmeden oluşan bir yapıdır ve burada kalite yerine “her şey” ödüllendirilir. Ne yazık ki bu acı bir gerçek çünkü avukatların çalışmasında “gerçek yapay zeka” (geleneksel) hala nadirdir ve aslında neredeyse hiçbir şey için gerekli değildir. Belki gelecek ne getirecekti… Nitekim bu mesleğin de dönüşümü beklemektedir. Konunun ana hatlarına dönelim.
ChatGPT’nin Yaygın Hataları
Büyük dil modelleri hakkında yazdıklarım, çeşitli sohbet robotlarından aldığımız şeyin önemli bir kısmını (diyelim ki %15) “sadece çöp” oluşturduğu anlamına gelir. Profesyoneller tarafından kullanılamayacak bir şey, ve en sık durumunda ise basitçe yanlış bir şey. Artık avukat olmayanlarla konuştuğumda ChatGPT’nin var olmayan mahkeme kararları ürettiğini sıkça duyuyorum. Bu tür olguların ölçeği giderek büyüyor, bu da hukukçuların yine de bu tür hataları, kusurları ve yanlışlıklar üreten materyalleri kullanmaya devam etmesini engellemiyor.
Kaynak : GazetaPrawna



