Avrupa Birliği’nin yapay zeka uygulamalarına ilişkin dönüm noktası niteliğindeki risk bazlı düzenlemesi olan AB Yapay Zeka Yasası’nın tam ve son metni bloğun Resmi Gazetesinde yayınlandı.
20 gün sonra, yani 1 Ağustos’ta, yeni yasa yürürlüğe girecek ve 24 ay içinde, yani 2026’nın ortalarına doğru, hükümleri genel olarak yapay zeka geliştiricileri için tamamen geçerli olacak. Ancak yasa, AB’nin yapay zeka kural kitabının uygulanmasına yönelik aşamalı bir yaklaşım benimsiyor; bu, farklı yasal hükümlerin uygulanmaya başlanacağı için şu an ile o zaman arasında ve hatta bazıları daha sonra da çeşitli dikkat edilmesi gereken son tarihler olduğu anlamına geliyor.
AB milletvekilleri geçen yıl Aralık ayında bloğun yapay zekaya yönelik ilk kapsamlı kural kitabı üzerinde siyasi bir anlaşmaya vardılar.
Çerçeve, kullanım senaryolarına ve algılanan riske bağlı olarak yapay zeka geliştiricilerine farklı yükümlülükler getiriyor. Yapay zeka kullanımlarının büyük bir kısmı, düşük riskli olarak kabul edildiğinden düzenlenmeyecek ancak yapay zekaya yönelik az sayıda potansiyel kullanım durumu yasa kapsamında yasaklandı.
Yapay zekanın biyometrik kullanımları veya kolluk kuvvetlerinde, istihdamda, eğitimde ve kritik altyapıda kullanılan yapay zeka gibi sözde “yüksek riskli” kullanım örneklerine yasa kapsamında izin veriliyor ancak bu tür uygulamaların geliştiricileri, veri kalitesi ve anti-güvenlik gibi alanlarda yükümlülüklerle karşı karşıya kalıyor. ön yargı.
Üçüncü bir risk katmanı, yapay zeka sohbet robotları gibi araçların üreticileri için daha hafif şeffaflık gereklilikleri de uyguluyor.
OpenAI’nin GPT’si (ChatGPT’nin temelini oluşturan teknoloji) gibi genel amaçlı AI (GPAI) modellerinin yaratıcıları için bazı şeffaflık gereksinimleri de vardır. Genellikle bilgi işlem eşiğine göre belirlenen en güçlü GPAI’lerin sistemik risk değerlendirmesi yapması da gerekebilir.
Yapay zeka endüstrisinin bazı unsurlarının, bir avuç Üye Devlet hükümeti tarafından desteklenen yoğun lobi çalışmaları, yasanın Avrupa’nın ABD ve Çin’deki rakiplerle rekabet edebilmek için kendi ülkesinde yetişen yapay zeka devleri üretme yeteneğini engelleyebileceği endişeleri nedeniyle GPAI’lere ilişkin yükümlülükleri hafifletmeye çalıştı.
Aşamalı uygulama
Öncelikle yapay zekanın yasaklı kullanımları listesi yasanın yürürlüğe girmesinden altı ay sonra, yani 2025’in başlarında geçerli olacak.
Yakın zamanda yasadışı hale gelecek olan yapay zekaya yönelik yasaklı (veya “kabul edilemez risk”) kullanım örnekleri arasında Çin tarzı sosyal kredi puanlaması; İnternet veya CCTV’nin hedefsiz bir şekilde taranması yoluyla yüz tanıma veritabanlarının derlenmesi; Kayıp veya kaçırılan kişilerin aranması gibi çeşitli istisnalardan biri geçerli olmadığı sürece, kamuya açık yerlerde kolluk kuvvetleri tarafından gerçek zamanlı uzaktan biyometri kullanılması.
Daha sonra, yürürlüğe girdikten dokuz ay sonra, yani Nisan 2025 civarında, uygulama kuralları, kapsam dahilindeki yapay zeka uygulamalarının geliştiricileri için geçerli olacak.
Kanunla kurulmuş bir ekosistem oluşturma ve gözetim organı olan AB’nin Yapay Zeka Ofisi, bu kuralların sağlanmasından sorumludur. Ama kim yapacak Aslında Yönergeleri yazmak hala soruları gündeme getiriyor.
Bu ayın başlarında yayınlanan bir Euractiv raporuna göre AB, kuralların taslağını hazırlayacak danışmanlık firmaları arıyor ve bu da sivil toplumun yapay zeka endüstrisi oyuncularının kendilerine uygulanacak kuralların şeklini etkileyebileceği yönündeki endişelerini tetikliyor. Daha yakın zamanda MLex, Avrupa Parlamentosu üyelerinin süreci kapsayıcı hale getirme yönündeki baskısını takiben Yapay Zeka Ofisinin, genel amaçlı yapay zeka modelleri için uygulama kurallarının taslağını hazırlamak üzere seçilmiş paydaşlara yönelik bir ilgi beyanı çağrısı başlatacağını bildirdi.
Bir diğer önemli son tarih, kanunun şeffaflık gerekliliklerine uyması gereken GPAI’lere ilişkin kurallarının uygulanmaya başlayacağı, yürürlüğe girdikten 12 ay sonra veya 1 Ağustos 2025’te sona eriyor.
Yüksek riskli yapay zeka sistemlerine en cömert uyumluluk son tarihi verildi ve yürürlüğe girdikten sonra 36 ay (2027’ye kadar) yükümlülüklerini yerine getirmelerine izin verildi. Diğer yüksek riskli sistemlerin 24 ay sonra, daha erken bir zamanda uyum sağlaması gerekmektedir.
Kaynak: https://techcrunch.com/2024/07/12/eus-ai-act-gets-published-in-blocs-official-journal-starting-clock-on-legal-deadlines/