Site icon Polonya Haber

Yapay Zeka ile Oluşturulan Müstehcen İçeriklere Karşı Yasal İşlem Başlatıldı

yapay zeka ile olusturulan mustehcen i ceriklere karsi yasal i slem baslatildi 55943

Polonya Veri Koruma Kurumu (UODO) Başkanı, bir öğretmenin görüntüsünün yapay zeka kullanılarak müstehcen hale getirilip sosyal medyada yayınlanması üzerine savcılığa suç duyurusunda bulundu. Olay, kişisel verilerin korunması yasasının ihlali olarak değerlendiriliyor. Avrupa Parlamentosu da yapay zeka ile “çıplaklaştırma” yapan sistemlere yönelik yasaklama kararı aldı.

Öğretmenin Görüntüsü Yapay Zeka ile Değiştirildi

Polonya Veri Koruma Kurumu (UODO) Başkanı, sosyal medyada bir öğretmenin fotoğrafının yapay zeka kullanılarak müstehcen hale getirilerek yayınlanması üzerine Varşova-Śródmieście Bölge Savcılığı’na suç duyurusunda bulundu. UODO, öğretmenin olayla ilgili olarak “Fotoğrafım birileri tarafından yapay zeka ile (ÇIPLAKLANDIRILDI) ve internette yayınlandı. Kendimi çok kötü hissediyorum, incinmiş hissediyorum ve bunun benim bedenim olmadığını kendime söylemek bile pek yardımcı olmuyor” şeklinde bir açıklama yaptığını bildirdi.

Kişisel Verilerin Korunması Yasası İhlali

UODO, bu eylemin Polonya Kişisel Verilerin Korunması Yasası’nın 107. maddesini ihlal ettiğini değerlendiriyor. Söz konusu maddeye göre, yetkisiz veri işleme durumunda para cezası, kısıtlılık veya iki yıla kadar hapis cezası öngörülüyor. UODO, bu tür bir eylemin kamu davası açılması gereken bir suç olduğunu vurguladı.

Yasal Dayanak ve Deepfake Tanımı

UODO, Polonya hukukunda bu tür olayları tanımlayan bir yasal düzenlemenin henüz bulunmadığını ve bu nedenle Avrupa Birliği mevzuatına başvurmak zorunda kaldıklarını belirtti. Bu bağlamda, yapay zeka ile oluşturulan veya değiştirilen görüntü, ses veya video içeriklerini tanımlayan Avrupa Birliği Yapay Zeka Yönetmeliği’nin (AI Act) 3. maddesinin 60. paragrafındaki “deepfake” tanımına atıfta bulunuldu.

Deepfake’ler ve Cinsel İstismar

Olay, mağdurun rızası olmadan, kamuya açık fotoğrafları kullanılarak yapay zeka araçlarıyla manipüle edilmiş bir görüntü oluşturulması nedeniyle, “rıza dışı sentetik samimi görüntü” (NSII) olarak sınıflandırılıyor. Yapılan araştırmalar, deepfake’lerin %90’ından fazlasının cinsel istismar amaçlı olduğunu ve mağdurların neredeyse tamamının kadın olduğunu gösteriyor. Bu durum, toplumsal cinsiyet stereotiplerini pekiştirerek kadınların nesneleştirilmesine katkıda bulunuyor.

Avrupa Parlamentosu’ndan Yasaklama Kararı

Avrupa Parlamentosu, yapay zeka ile “çıplaklaştırma” yapan sistemlere yönelik bir yasaklama kararını onayladı. Bu yasak, yapay zekanın kullanılarak müstehcen veya samimi içerikli görüntüler oluşturulmasını veya değiştirilmesini, özellikle de tanınabilir gerçek kişilerin rızası olmadan yapılmasını kapsıyor.

Kaynak : GazetaPrawna

Exit mobile version