Avrupa Birliği’nin (AB) Yapay Zeka Yasası (AI Act), şirketlerin yapay zeka sistemlerini kullanma biçimini önemli ölçüde değiştirebilir. Özellikle insan kaynakları, finans ve sigortacılık gibi alanlarda faaliyet gösteren şirketlerin, yüksek riskli sistemlere ilişkin düzenlemelere uyum sağlaması gerekiyor. Yasanın aşamalı olarak uygulanması planlanıyor ve 2026 yılı, çoğu kuralın yürürlüğe gireceği kritik bir tarih olarak öne çıkıyor. Şirketlerin, kullandıkları yapay zeka araçlarının potansiyel risklerini değerlendirmesi ve gerekli önlemleri alması önem taşıyor.
### Yapay Zeka Yasası Şirketleri Bekliyor: Risk Odaklı Yaklaşım
Yapay Zeka Yasası (AI Act), artık sadece büyük teknoloji şirketlerinin hukuk departmanlarının ilgilendiği bir konu olmaktan çıkıyor. Uygulamada, kendi yapay zeka modellerini geliştirmeyen ancak iş süreçlerinde hazır araçları kullanan işletmeler de yeni yükümlülüklerle karşı karşıya kalabilir. Özellikle istihdam, finansal hizmetlere erişim, risk değerlendirmesi veya sigorta koşulları gibi insan hayatını etkileyen uygulamalar bu kapsamda değerlendirilecek.
### Uygulama Takvimi ve Digital Omnibus’un Etkisi
Avrupa Komisyonu’nun resmi takvimine göre, AI Act kademeli olarak uygulanacak. 2 Şubat 2025’ten itibaren genel kurallar, yapay zeka alanındaki yeterlilik gereksinimleri ve belirli uygulamaların yasaklanması yürürlüğe girecek. 2 Ağustos 2025’ten itibaren genel amaçlı modeller ve AB yönetim sistemi için kurallar geçerli olacak. 2 Ağustos 2026’da ise yüksek riskli sistemlere ilişkin kurallar ve şeffaflık gereksinimleri uygulanmaya başlayacak. Tamamen uygulanması ise 2 Ağustos 2027’de planlanıyor. Bu takvim, Digital Omnibus paketiyle revize edilebilir.
### Sadece Üretici Değil, Kullanıcılar da Sorumlu
AI Act, sadece yapay zeka üreticilerini değil, aynı zamanda hazır araçları kullanan şirketleri de kapsıyor. Özellikle bu sistemler çalışanlar, iş başvuruları, müşteriler veya finansal hizmetlere erişim gibi konularda kararları etkiliyorsa, şirketlerin de sorumluluk alması gerekiyor.
### Sektör Değil, Uygulama Önemli
AI Act’ye ilişkin düşüncede önemli bir değişiklik, bir şirketin hangi sektöre ait olduğunun tek başına yükümlülüklerini belirlemediği. Önemli olan, yapay zeka sisteminin ne için kullanıldığı. Bir şirket teknoloji sağlayıcısı olmasa bile, yapay zekayı AI Act tarafından özellikle hassas kabul edilen süreçlerde kullanıyorsa düzenlemeler kapsamına girebilir.
### Yüksek Riskli Sistemler ve İnsan Kaynakları
AI Act’nin III. Ekinde (EUR-Lex) yer alan yüksek riskli sistemler arasında, istihdam ve çalışan yönetimi için kullanılan araçlar da bulunuyor. Bu, işe alım, aday seçimi, başvuru analizi ve değerlendirmesi gibi süreçlerde kullanılan sistemleri kapsıyor. Aynı grup, terfi, işten çıkarma, görevlendirme veya çalışanların izlenmesi ve değerlendirilmesi gibi konuları etkileyen çözümleri de içeriyor. Bu durum, insan kaynakları departmanlarının otomatik özgeçmiş tarama araçları kullanırken, AI Act’nin sadece yazılım üreticisini değil, aynı zamanda aracın nasıl uygulandığını, nihai kararı kimin verdiğini, hangi verilerin işlendiğini ve şirketin süreci kontrol edebildiğini de dikkate alması gerektiğini gösteriyor.
### Finans, Sigortacılık ve Kredi Değerlendirmesi Alanında Dikkat
Yüksek riskli bir diğer alan ise, vatandaşların yaşamı veya mali durumu için önemli olan hizmetler. AI Act, bireylerin kredi değerliliğini değerlendiren veya kredi skorlarını belirleyen sistemleri kapsıyor (finansal dolandırıcılığı tespit etmek için kullanılan araçlar hariç). Bu tür sistemlerin, finansal kaynaklara veya konut, enerji ve telekomünikasyon gibi temel hizmetlere erişimi etkileyebileceği belirtiliyor. Hayat ve sağlık sigortalarında risk değerlendirmesi ve fiyatlandırma için kullanılan sistemler de yüksek riskli olarak kabul ediliyor. Yanlış tasarlanmış veya kötüye kullanılmış araçların ayrımcılığa, finansal dışlanmaya veya diğer ciddi sonuçlara yol açabileceği vurgulanıyor. Bankaların, fintech şirketlerinin ve sigortacıların sadece doğrudan karar alan sistemleri değil, aynı zamanda analistleri, underwriter’ları, danışmanları veya danışmanları destekleyen araçları da gözden geçirmesi gerekiyor.
### Digital Omnibus ve Takvim Belirsizliği
Komisyon’un mevcut takvimine göre, yüksek riskli sistemlere ilişkin kurallar 2 Ağustos 2026’da uygulanmaya başlayacak. Ancak, Digital Omnibus paketi kapsamında, yüksek riskli sistemlere ilişkin kuralların uygulanmasının uygun destek araçlarının (uygunlaştırılmış standartlar dahil) mevcudiyetine bağlanması öneriliyor. Digital Omnibus, 19 Kasım 2025’te yayınlandı ve AI Act’nin bazı hükümlerinin daha verimli ve orantılı bir şekilde uygulanmasını sağlamayı amaçlayan bir dizi basitleştirmeyi içeriyor. AB Konseyi 13 Mart 2026’da pozisyonunu kabul etti ve Avrupa Parlamentosu IMCO ve LIBE komisyonları 18 Mart 2026’da ortak bir rapor yayınladı. Bu rapor, yüksek risk gereksinimleri için standartlar, kılavuzlar ve uyumluluk araçlarındaki gecikmeleri ele alıyor. Bu durum, şirketler için belirsizlik yaratıyor ancak hareketsizlik için bir neden değil. Takvim ertelenirse şirketler ek zaman kazanacak, aksi takdirde sistemlerin önceden envanterinin çıkarılmaması organizasyonel, hukuki ve itibar sorunlarına yol açabilir.
Kaynak : GazetaPrawna



