Cenevre'de sağlanan kırılgan mutabakat, anıtsal bir ileri adım olmaktan ziyade geçici bir ateşkes gibi hissediliyor. 2026 Yapay Zeka Etki Zirvesi'nde bir hafta süren yoğun, perde arkası müzakerelerin ardından, küresel liderler göl kenarındaki güneş ışığında gözlerini kırpıştırarak "Algoritmik Gözetime İlişkin Cenevre Anlaşması"nı tanıttılar. Bu belge, yapay zeka destekli gözetimin en sinsi biçimlerini kontrol altına almayı amaçlayan çığır açan bir sözleşme olarak savunuluyor. Ancak, bu teknolojinin hızlı ve çoğu zaman endişe verici yükselişini yakından takip eden herkes için, belge maalesef, etkisi yürürlüğe girmeden çok önce onu etkisiz hale getirme riski taşıyan tavizlerle dolu.
Dünya artık yerleşmiş bir stratejiye sahip. Önemli soru şu: Acaba yanlış strateji mi?
Özünde, Cenevre Anlaşması, daha on yıl önce bilim kurgu alanında yer alan ancak şimdi şehirlerimize, işyerlerimize ve dijital yaşamlarımıza sorunsuz bir şekilde entegre olan teknolojiler etrafında net sınırlar belirlemeye yönelik iddialı bir çabayı temsil ediyor. Bu anlaşma, devlet destekli, temel hizmetlere erişimi belirleyen sosyal puanlama sistemleri gibi ve kritik olmayan tehditler için kamu alanlarında gerçek zamanlı, uzaktan biyometrik tanımlama gibi "insan onuruna aykırı" kabul edilen birkaç uygulamayı açıkça yasaklayan katmanlı bir risk çerçevesi getiriyor. Kağıt üzerinde bu, demokratik uluslar içinde bile dijital otoriterliğe kayma konusunda sürekli uyarıda bulunan insan hakları savunucuları için bir zafer anlamına geliyor.
Ancak, daha yakından incelendiğinde farklı bir hikaye ortaya çıkıyor. Zirvenin asıl anlatısı, neyin yasaklandığı hakkında değil, nihayetinde neye izin verildiği hakkında olabilir.
Deliklerle Dolu Bir Kalkan
Anlaşma'nın en çok övülen hükmü, küresel bir Yapay Zeka Kayıt Sistemi ve uygun bir şekilde "Algoritmik İnceleme Konseyi" (ARC) olarak adlandırılan bağımsız bir denetim organının kurulmasıdır. Bu konsey, imzacı uluslar tarafından kullanılan yüksek riskli yapay zeka sistemlerini denetlemekle görevlidir. Kolluk kuvvetleri, kritik altyapı yönetimi veya yargısal inceleme gibi uygulamalar için yapay zeka kullanan hükümetler ve şirketler, sistemlerinin eğitim verilerini, amaçlarını ve belgelenmiş hata oranlarını ayrıntılı olarak açıklayan şeffaflık raporları sunmakla yükümlü olacaklardır.

