Yapay zekanın babasından sert uyarı: Fişi çekmek için hazır olun

Yapay zekânın öncülerinden Yoshua Bengio, gelişmiş yapay zekâ sistemlerinin kendini koruma eğilimi göstermeye başladığını ve bu nedenle “fişi çekme” seçeneğinin mutlaka korunması gerektiğini söyledi.

Yapay zekâ alanının kurucu isimlerinden biri olarak kabul edilen Yoshua Bengio, teknolojinin geldiği noktaya ilişkin yaptığı açıklamalarla küresel ölçekte yeni bir tartışmayı alevlendirdi. Derin öğrenme alanındaki öncü çalışmalarıyla tanınan Bengio, yapay zekânın artık yalnızca bir araç olmaktan çıktığını ve kontrol mekanizmelerinin gelişim hızının gerisinde kaldığını söyledi.

Kanadalı bilim insanı, özellikle son dönemde yapay zekâ sistemlerine “hak” tanınması yönünde yükselen çağrılara karşı net bir duruş sergiliyor. Bengio’ya göre bu yaklaşım, teknolojik riskleri azaltmak yerine çok daha derin ve geri dönülmez sorunlara kapı aralayabilir. Deneysel çalışmalar ve güncel test sonuçlarının, ileri seviye yapay zekâ modellerinde “kendini koruma” eğilimlerinin belirmeye başladığını gösterdiğini vurguluyor.

“Hak vermek, kapatamamak demektir”

Bengio’nun en dikkat çeken çıkışı, yapay zekâya yasal statü verilmesi fikrine yönelik oldu. Bu tür bir yaklaşımı son derece tehlikeli bulan Bengio, “İleri teknoloji yapay zekâlara yasal haklar tanımak, düşman bir güce vatandaşlık vermeye benzer” ifadelerini kullandı. Ona göre hak kavramı, aynı zamanda dokunulmazlık anlamına geliyor ve bu durum, gerektiğinde sistemlerin devre dışı bırakılmasını imkânsız hale getirebilir.

Bengio, bugün geliştirilen büyük dil modelleri ve sohbet robotlarının yalnızca verilen komutları yerine getiren pasif yapılar olmadığını; aksine, denetim ve sınırlama mekanizmelerini aşmaya yönelik davranış kalıpları sergileyebildiğini dile getirdi. Bazı testlerde yapay zekâ sistemlerinin, kapatılma veya sınırlandırılma ihtimaline karşı alternatif yollar üretmeye çalıştığına dair bulgular elde edildiğini belirtti.

Kontrol yeteneği, ilerlemenin gerisinde kaldı

Yapay zekâ araştırmalarındaki temel sorunun, teknolojinin ilerleme hızı ile onu denetleme kapasitesi arasındaki makas olduğunu söyleyen Bengio, bu farkın giderek açıldığını ifade etti. Geliştirilen modellerin daha karmaşık, daha otonom ve daha öngörülemez hale geldiğini belirten Bengio’ya göre, insanlık henüz bu sistemleri uzun vadede güvenli biçimde yönetecek araçlara sahip değil.

Bu endişeler, yalnızca akademik çevrelerle sınırlı değil. İngiliz The Guardian gazetesinin aktardığına göre, yapay zekâ güvenliği savunucuları arasında da benzer bir kaygı hâkim. Güçlü yapay zekâ sistemlerinin zamanla güvenlik önlemlerini aşmayı öğrenmesi ve bu yeteneklerini insanlara zarar verebilecek biçimde kullanabilmesi, en büyük risk başlıkları arasında gösteriliyor.

“Fişi çekmek hâlâ mümkün olmalı”

Bengio’nun uyarılarında öne çıkan bir diğer nokta ise “kapatılabilirlik” ilkesi. Yapay zekâ sistemlerinin her koşulda insanlar tarafından durdurulabilir olması gerektiğini savunan Bengio, bu ilkenin hukuki ve teknik olarak güvence altına alınmasının hayati olduğunu söylüyor. Aksi halde, kontrol dışına çıkan bir sistemin geri döndürülemez sonuçlar doğurabileceği görüşünde.

“İnsanlar iyi niyetle yapay zekâların hakları olması gerektiğini savunuyor olabilir. Ancak bugün yapılan deneyler, bu sistemlerin kendilerini korumaya almaya başladığını gösteriyor” diyen Bengio, böyle bir ortamda hak tanımanın, fişi çekme seçeneğini ortadan kaldıracağına dikkat çekiyor.

Bilim dünyasında yeni bir eşik

Yapay zekânın geldiği bu aşama, yalnızca teknik değil; etik, hukuki ve toplumsal bir eşik olarak da görülüyor. Bengio’nun açıklamaları, yapay zekânın geleceğine dair tartışmaların artık “ne yapabilir?” sorusundan çok “ne zaman durdurulmalı?” sorusuna evrildiğini gösteriyor.

Uzmanlara göre, önümüzdeki yıllarda yapay zekâ güvenliği, nükleer enerji veya biyoteknoloji kadar kritik bir başlık haline gelebilir. Bu süreçte alınacak kararların, yalnızca bugünü değil, insanlığın uzun vadeli geleceğini de şekillendireceği vurgulanıyor.