AB Yapay Zeka Yasası: Dünyadaki ilk “Yapay Zeka Yasası” Kabul Edilmek Üzere

AB Yapay Zeka Yasası

Share This Post

AB’nin Yapay Zeka Yasası, onaylanmasının ardından bir yandan araştırma ve endüstriyel kapasiteyi arttırmayı, bir yandan da yapay zekayı güvenilir ve insan merkezli hale getirerek temel hakları korumayı amaçlayan dünyanın ilk Yapay Zeka Yasası haline gelecektir. Yasa teklifinin üzerinden iki yıl geçtikten sonra Parlamento, ChatGPT gibi piyasadaki yeni yapay zeka uygulamaları etrafında dönen ve süreçte gecikmeye neden olan yoğun tartışmalar sonucunda 27 Nisan 2023 tarihinde taslak üzerinde anlaşmaya varmıştır.

11 Mayıs 2023 tarihinde önde gelen komitelerin taslağı oylamasının ardından büyük ölçüde konsolide edilmiş olan dosya şimdi Haziran ayı ortasında gerçekleşecek olan nihai oylamaya tabidir.

Bu makalede, Yapay Zeka Yasasına göre Yapay Zeka’nın tanımı, Yapay Zeka Yasasının neleri düzenlediği ve Yapay Zeka Yasasından kimlerin etkilendiği gibi bu dönüm noktası niteliğindeki AB teklifine genel bir bakış sunacağız.

Yapay Zeka Yasası neleri düzenlemektedir?

Yapay Zeka Yasası, biyometrik tanımlama ve kategorizasyon sistemleri, ulaşım ve enerji sistemleri gibi kritik altyapılar, eğitim ve mesleki eğitim sistemleri, istihdam, işçi ve insan kaynakları yönetim sistemleri, kolluk kuvvetleri ve yargı sistemleri, pazarlama ve reklam sistemleri, işe alım ve insan kaynakları sistemleri ile sosyal puanlama sistemleri dahil, ancak bunlarla sınırlı olmamak üzere, birçok Yapay Zeka uygulamasını kapsamaktadır.

Yapay Zeka Yasası ayrıca, AB genelinde kanunun uygulanmasını ve yürütülmesini denetlemekten sorumlu bir Avrupa Yapay Zeka Kurulu oluşturmaktadır.

Yapay Zeka sistemleri risk seviyelerine göre sınıflandırılmış olup, etik ilkeler ve sertifikasyon için asgari gereklilikler belirlenmiştir. Ayrıca, yönetmeliğin gerekliliklerine ve standartlarına uymak için uygun izleme ve gözetim otoriteleri de oluşturulmuştur.

Risk Tabanlı Yaklaşım

Bu hedeflere ulaşmak için Komisyon, kabul edilemez risk, yüksek risk, sınırlı risk ve minimum risk tanımlarını yaparak risk temelli bir yaklaşım önermiştir.

Kabul Edilemez Risk: Hükümetlerin tehlikeli davranışları teşvik etmek için sesli yardım kullanarak oyuncaklara sosyal puanlama yapması gibi insanların güvenliği ve haklarına açık bir tehdit oluşturan durumlar kabul edilemez risk kapsamına girer.

Yüksek Risk: Şunlar örnek olarak verilebilir;

– Ulaşım gibi vatandaşların hayatını ve sağlığını riske atan kritik altyapı,

– Bir kişinin hayatında eğitime ve mesleki kursa erişimine karar verebilecek eğitim veya mesleki eğitim, örneğin sınavların puanlanması,

– Bu tür ürünlerin güvenlik bileşenleri (örneğin robot destekli cerrahide yapay zeka kullanımı),

– İstihdam, çalışanların yönetimi ve serbest mesleklere erişim amacıyla CV sıralama yazılımı şeklinde işe alım süreçlerinde yapay zekanın kullanılması,

– Kredi puanlaması gibi vatandaşların kredi başvurularını reddedilmesini sonuçlayabilecek temel özel ve kamu hizmetleri, ,

– Kanıtların güvenilirliğinin değerlendirilmesi gibi insanların temel haklarına müdahale edebilecek kanun uygulamaları,

– Seyahat belgelerinin gerçekliğinin doğrulanması gibi göç ve sınır kontrol yönetimi,

– Adaletin idaresi ve hukukun önemli bir dizi olguya uygulanması gibi demokratik süreçler.

Yasa ayrıca, aşağıda belirtilen yüksek yapay zeka sistemlerinin piyasaya sürülmeden önce katı sorumluluklarının da sınırını çizmektedir;

– Yeterli risk değerlendirme ve azaltma sistemleri,

– Riskleri ve ayrımcı sonuçları azaltmak için veri setlerinin yüksek kalitesi,

– Sonuçların izlenebilirliğini güvence altına almak için faaliyet kaydı,

– Yetkililerin uygunluğu değerlendirebilmesi için sistem ve amacı hakkında gerekli tüm bilgiler açısından ayrıntılı dokümantasyon sağlanması,

– Kullanıcıya açık ve yeterli bilgi,

– Riskleri en aza indirmek için uygun insani gözlem önlemleri,

– Yüksek düzeyde sağlamlık, güvenlik ve doğruluk.

Her türlü uzaktan tanımlama sistemi yüksek riskli olarak kabul edilir ve bu nedenle katı gereklilikler gerektirir. Uzaktan biyometrik tanımlamanın kamuya açık alanlarda kolluk kuvvetleri amacıyla kullanılması yasaktır.

Bununla birlikte, kayıp bir çocuğu aramak, belirli terör tehditlerini engellemek veya ciddi bir suçun failini veya şüphelisini tespit etmek, bulmak, tanımlamak veya kovuşturmak için gerekli olduğu durumlar gibi çok açık bir şekilde belirlenmiş dar istisnalar vardır.

Sınırlı Risk: Bu kategori, belirli şeffaflık gereksinimleri olan Yapay Zeka sistemlerine girer. Örneğin, sohbet robotlarını kullanan kullanıcılar bir makine ile etkileşime girdiklerinin farkında olmalıdır, böylece devam edip etmeme konusunda bilinçli bir karar verebilirler.

Minimal Risk: Şu anda AB’de kullanılmakta olan Yapay Zeka sistemlerinin büyük çoğunluğu, Yapay Zeka destekli video oyunları ve ya spam filtreleri gibi bu kategorinin kapsamına girmektedir.

Yapay Zeka sistemlerinin piyasaya sürülmesinin ardından, yetkililer piyasa gözetiminden sorumludur, kullanıcılar insan izlemesini sağlamıştır ve sağlayıcılar da bir piyasa sonrası izleme sistemine sahiptir. Hem sağlayıcılar hem de kullanıcılar ciddi olayları ve arızaları rapor etmelidir.

Yapay Zeka Yasasından kimler etkileniyor?

Geliştiriciler ve sağlayıcılar, kullanıcılar ve operatörler, düzenleyiciler ve denetleyici makamlar, tüketiciler ve vatandaşlar gibi çok çeşitli paydaşlar Yapay Zeka ile ilgili süreçlere dahil olacaktır.

Bu bağlamda, Yapay Zeka sistemlerinin geliştiricileri, sağlayıcıları, kullanıcıları ve operatörleri yönetmelikte belirtilen gerekliliklere ve yükümlülüklere tabidir. Bu kapsamda, AB’deki ulusal makamlar düzenlemeyi uygulamakla yükümlü olacak, Avrupa Yapay Zeka Kurulu ise bu makamlara rehberlik ve destek sağlayacaktır.

Öte yandan, AB’deki tüketicilerin ve vatandaşların hakları ve çıkarları, şeffaf yapay zeka sistemleri ve bu yapay zeka ürünlerinin kullanımı hakkında bilgilendirilmiş kullanıcılar tarafından korunacaktır.

Benimsenmesi ve geliştirilmesiyle birlikte AB Yapay Zeka Yasası, tüketicilerin ve vatandaşların hak ve menfaatlerinin güvenliğini sağlayarak araştırma ve endüstriyel kaynakları artırmak için endüstri ve düzenleyicilerin güçlerini en iyi elde edilebilir sonuçlar açısından güçlerini nasıl birleştireceklerini bize gösterecektir.

Ayrıca bakınız; https://jurcom.nl/gelecegi-kesfetmek-gdpr-isiginda-noroteknoloji-ve-saglik-teknolojilerinin-gelisimi/

More To Explore