Fizikçi Max Tegmark, yapay süper zekânın kontrolden çıkma ihtimalinin ciddiyetine dikkat çekerek, bu olasılığı ölçmek için "Compton sabiti" adını verdiği bir kavram ortaya attı. Tegmark, 1945'teki Trinity nükleer testi öncesinde Arthur Compton’un yaptığı gibi, şirketlerin de yapay zekâ risklerini matematiksel olarak hesaplaması gerektiğini savunuyor.

Fransa’da camide saldırı: Aboubakar Cisse’yi öldüren zanlı tutuklandı Fransa’da camide saldırı: Aboubakar Cisse’yi öldüren zanlı tutuklandı

“Artık hisler değil, sayılar konuşmalı” diyen Tegmark, bu sabitin farklı firmalarca hesaplanıp üzerinde uzlaşılması durumunda küresel yapay zekâ güvenlik protokollerinin oluşturulabileceğini belirtti. Tegmark'a göre, bu risk %90 gibi ciddi bir seviyede olabilir ve kontrolsüz yapay zekâ yarışının yaratabileceği varoluşsal tehditler için acil önlemler alınmalı.

Tegmark, OpenAI ve Google DeepMind gibi öncü şirketlerin katkısıyla hazırlanan "Singapore Consensus" raporunda, güvenli yapay zekâ gelişimi için üç öncelikli araştırma alanı belirlendi:

Mevcut ve gelecekteki sistemlerin etkisini ölçmek,

Yapay zekâ davranışlarını net şekilde tanımlamak ve yönlendirmek,

Sistem davranışlarını yönetmek ve kontrol altında tutmak.

Bu adımların, yapay zekâ teknolojilerinin toplum üzerindeki olumsuz etkilerini en aza indirmek ve daha güvenli bir gelecek inşa etmek için kritik olduğu vurgulanıyor.

Muhabir: Said Aydın