YAPAY ZEKÂNIN DÜZENLENMESİNDE YENİ BİR DÖNEM: AB YAPAY ZEKÂ YASASI
AB Yapay Zekâ Yasası (2024/1689), 12.07.2024 tarihli AB Resmî Gazetesi’nde yayımlandı. Yapay zekânın potansiyel risklerini ve bu teknolojinin toplum üzerindeki etkilerini ele almak amacıyla oluşturulan ve dünya genelinde yapay zekâya ilişkin kapsamlı ilk yasal çerçeve olan bu düzenlemenin getirdiği temel kurallar ile yapay zekâ sistemlerinin temel haklara, güvenliğe ve etik ilkelere saygı göstermesini sağlamak ve güçlü/etkili yapay zekâ modellerinin risklerini ele alarak Avrupa'da ve ötesinde güvenilir yapay zekânın teşvik edilmesi amaçlanmaktadır.
Düzenleme kapsamında, farklı gereklilikler ve yükümlülüklere tabi yapay zekâ sistemleri için “risk temelli yaklaşıma” uygun bir sınıflandırma sunulmaktadır. Bu çerçevede örneğin; “kabul edilemez” riskler ortaya çıkaran birtakım yapay zekâ sistemleri yasaklanırken; bireylerin sağlığı, güvenliği veya temel hakları üzerinde zararlı etkiler doğurabilecek “yüksek riskli” yapay zekâ sistemlerine, belirli yükümlülüklerin yerine getirilmesi koşuluyla, izin verilmektedir.
Bu çerçevede yazının devamında; mevcut düzenlemenin amacı ve kapsamı, getirdiği yenilikler ve ortaya çıkardığı temel zorluklar, risk kategorilerine göre yapay zekâ sistemlerinin sınıflandırılması ve ihlal durumunda öngörülen yaptırımlar gibi hususlar, IAPP AI Governance Center tarafından hazırlanan "EU AI ACT:101" başlıklı çalışma üzerinden özetlenmiştir.
YAPAY ZEKÂ YASASI'NIN AMACI
YAPAY ZEKÂ YASASI'NIN GETİRECEĞİ TEMEL DEĞİŞİKLİKLER
YAPAY ZEKÂ YASASI'NIN ORTAYA ÇIKARDIĞI TEMEL ZORLUKLAR
YAKLAŞMAKTA OLAN ÖNEMLİ TARİHLER
KAPSAM İÇİNDEKİ KURULUŞLAR: Üçüncü bir ülkede yerleşik olsa dahi, AB pazarına yerleştirilen, AB pazarında hizmete sunulan veya AB’de kullanılan yapay zekâ sistemlerinin veya genel amaçlı yapay zekâ modellerinin sağlayıcıları, ithalatçıları ve dağıtıcıları.
"YAPAY ZEKÂ SİSTEMİ"NİN TANIMI: Değişken düzeylerde özerklikle çalışacak şekilde tasarlanmış, dağıtım sonrası adaptasyon sergileyebilen ve aldığı girdilere dayanarak açık veya örtülü hedefler doğrultusunda tahmin, içerik, tavsiye veya kararlar gibi çıktılar üreten, bu çıktılarla fiziksel veya sanal ortamları etkileyebilen makine tabanlı bir sistem.
RİSK DÜZEYLERİ/KATEGORİLERİ
A. Yasaklanmış Yapay Zekâ Uygulamaları
Temel hakları ihlal etmesi nedeniyle AB değerlerine aykırı olan zararlı yapay zekâ kullanımlarının sınırlı bir kümesi olup şunları içermektedir:
B. Yüksek Riskli Yapay Zekâ Sistemleri
Sağlık, güvenlik veya temel haklar açısından önemli risk taşıyan yapay zekâ sistemleri, aşağıdaki kategoriler dahil olmak üzere:
Bir ürünün güvenlik bileşeni olarak kullanılan veya kendisi bir ürün olan ve ilgili AB sektörel ürün güvenliği yasaları tarafından düzenlenen yapay zekâ sistemleri.
C. Genel Amaçlı Yapay Zekâ Modelleri
Önemli bir genellik sergileyen, piyasada nasıl konumlandırıldıklarından bağımsız olarak çok çeşitli görevleri yetkin bir şekilde yerine getirme kapasitesine sahip olan ve çeşitli alt sistemlere ya da uygulamalara entegre edilebilen yapay zekâ modelleri.
D. Sistemik Riskler Taşıyan Genel Amaçlı Yapay Zekâ Modelleri
İleri düzey genel amaçlı yapay zekâ modellerinde kaydedilen yeteneklere eş değer veya bu yetenekleri aşan “yüksek etki kapasitesi”ne sahip genel amaçlı yapay zekâ modelleri.
Bu modeller aşağıdakilerden biri olmalıdır:
E. Şeffaflık Gereklilikleri
Belirli yapay zekâ sistemlerinin sağlayıcıları ve dağıtıcılarına (deployers) özel şeffaflık yükümlülükleri getirilmektedir.
Bir yapay zekâ sistemi; hem şeffaflık gerekliliklerine hem de yüksek riskli yapay zekâ sistemleri veya genel amaçlı yapay zekâ modellerine ilişkin gerekliliklere tabi olabilir.
LinkedIn tarafından öneriliyor
TEMEL GEREKLİLİKLER
A. Yasaklanmış Yapay Zekâ Uygulamaları
Bu tür yapay zekâ sistemleri, Yapay Zekâ Yasası kapsamında yasaklanmıştır.
B. Yüksek Riskli Yapay Zekâ Sistemleri
Bu tür sistemlerde sağlayıcıların, aşağıdakileri temin etmeleri gerekmektedir:
C. Genel Amaçlı Yapay Zekâ Modelleri
Sağlayıcıların, aşağıdakileri temin etmeleri gerekmektedir:
Sistemik risk taşıyan genel amaçlı yapay zekâ modelleri, daha fazla test ve raporlama gerekliliklerine tabidir.
D. Sistemik Riskler Taşıyan Genel Amaçlı Yapay Zekâ Modelleri
Sistemik riskler taşıyan genel amaçlı yapay zekâ modelleri için belirli yükümlülükler şunları içermektedir:
E. Şeffaflık Gereklilikleri
Gerçek kişilerle doğrudan etkileşime giren yapay zekâ sistemlerinin sağlayıcıları, bireysel kullanıcıların bir yapay zekâ sistemi ile etkileşimde olduklarının farkında olmalarını garanti edecek şekilde yapay zekâ sistemleri tasarlamalı ve geliştirmelidir.
Sentetik ses, görüntü, video veya metin içeriği üreten ve genel amaçlı yapay zekâ sistemlerinin sağlayıcıları, çıktıların makine tarafından okunabilir bir formatta işaretlendiğinden ve yapay zekâ tarafından oluşturulduğunda veya manipüle edildiğinde bunun tespit edilebildiğinden emin olmalıdır.
Duygu tanıma veya biyometrik sınıflandırma sistemlerinin dağıtıcıları (deployers), sistemin işleyişi hakkında gerçek kişileri bilgilendirmelidir.
Kamuyu ilgilendiren konularda kamuyu bilgilendirmek amacıyla deepfake üreten veya metinleri değiştiren yapay zekâ sistemlerinin dağıtıcıları, açıklama gerekliliklerine uymalıdırlar.
ÖNEMLİ HÜKÜMLER
Şeffaflık: Belirli yapay zekâ sistemlerine, örneğin sohbet botlarının kullanımı aracılığıyla manipülasyon riskinin açık olduğu durumlar gibi, gereklilikler getirilmiştir. Kullanıcılar, bir makine ile etkileşimde olduklarının farkında olmalıdırlar.
Temel Haklar Etki Değerlendirmeleri: Kamu hukuku tüzel kişileri, kamu hizmeti sağlayan özel operatörler ve kredibiliteyi, acil durum çağrılarını ya da hayat ve sağlık sigortası risk ve fiyatlandırmasını değerlendirmek için yapay zekâ sistemlerini kullanan özel operatörler, dağıtımdan önce, sistemlerin temel haklar üzerindeki etkisini değerlendirmelidir. Veri koruma etki değerlendirmesi gereken durumlarda, temel haklar etki değerlendirmesi, söz konusu veri koruma etki değerlendirmesi ile birlikte yürütülmelidir.
Uygunluk Değerlendirmeleri: Ürünlerin güvenlik bileşenleri olan veya kendileri de AB ürün güvenliği yasaları kapsamında bulunan yapay zekâ sistemleri için, bu sistemler AB pazarına sürülmeden önce veya yüksek riskli bir yapay zekâ sistemi önemli ölçüde değiştirildiğinde uygunluk değerlendirmeleri gerçekleştirilmelidir. Yapay zekâ sistemlerinin ithalatçıları, yabancı sağlayıcının, öncesinde uygunluk değerlendirmesi prosedürünü uygun bir şekilde yürüttüğünden emin olmalıdır.
Üretici Yapay Zekâ: Sentetik ses, görüntü, video veya metin içeriği üreten sağlayıcılar, içeriğin makine tarafından okunabilir bir formatta işaretlenmesini ve yapay olarak üretilmiş veya manipüle edilmiş olarak tespit edilebilir olmasını sağlamalıdırlar.
UYGULAMA VE CEZALAR
Avrupa Komisyonu bünyesinde yer alan Yapay Zekâ Ofisi, model ve sistemin aynı sağlayıcı tarafından temin edildiği genel amaçlı yapay zekâ modellerine dayalı yapay zekâ sistemlerini denetleyecektir. Bu Ofis, pazarın gözetim otoritesinin yetkilerine sahip olacaktır. Ulusal pazar gözetim otoriteleri, diğer tüm yapay zekâ sistemlerinin denetiminden sorumludur.
Yapay Zekâ Ofisi, üye ülkeler arasındaki yönetişimi koordine etmek ve genel amaçlı yapay zekâ ile ilgili kuralların uygulanmasını denetlemek için çalışacaktır.
Üye devlet otoriteleri, uyarılar ve parasal olmayan tedbirler de dahil olmak üzere, cezalar ve diğer uygulama tedbirlerine ilişkin kuralları belirleyecektir.
Bireyler, pazar gözetimi faaliyetlerini başlatabilecek yetkili ulusal makama, ihlal durumuna yönelik olarak şikâyette bulunabilirler. Yasa’da bireysel zararlar öngörülmemektedir.
Şunlar için cezalar öngörülmektedir:
Yapay Zekâ Kurulu; düzenlemenin uygulanması konusunda tavsiyelerde bulunacak, ulusal otoriteler arasında koordinasyon sağlayacak ve öneriler ile görüşler yayımlayacaktır.
DAHA FAZLA DÜZENLEME YAPILMASI
Komisyon, aşağıdaki konularda düzenlemeler çıkarabilir:
Yapay Zekâ Ofisi, genel amaçlı yapay zekâ modelleri sağlayıcılarının yükümlülüklerini kapsayacak, ancak bunlarla sınırlı olmayacak şekilde, uygulama kuralları hazırlayacaktır. Uygulama kuralları, düzenlemenin yürürlüğe girmesinden sonraki en geç dokuz ay içerisinde hazır olmalı ve uygulanmaya başlamadan önce en az üç aylık bir süre tanınmalıdır.
Hatunoğlu Hukuk Arabuluculuk Bürosu / Law Mediation Office Şirketinde Avukat / Attorney - Arabulucu / Mediator BAU LLB-LLM WIPO Young Member- ISTAC Young Member- AIPPI Member- DPO
5ayFaydalı paylaşım için teşekkürler.