Yapay zeka alanında önemli bir aktör olan Anthropic’in CEO’su ve kurucu ortağı Dario Amodei, yapay zekanın potansiyel tehlikelerine dikkat çekmek amacıyla yayımladığı yeni denemesinde acil önlemler alınması gerektiğini vurguladı. Amodei’nin kişisel internet sitesinde paylaşılan 38 sayfalık metin, “süper zekaya” sahip yapay zeka sistemlerinin ortaya çıkabileceği riskleri kapsamlı bir şekilde ele alıyor.
“Teknolojinin Ergenlik Çağı” ve Gelecek Tehditler
Amodei, “Teknolojinin Ergenlik Çağı” başlıklı yazısında, kendi kendini geliştirebilen yapay zeka sistemlerinin önümüzdeki bir ila iki yıl içinde ortaya çıkabileceğini iddia ediyor. Bu durumun, insanlığın köleleştirilmesi ve kitlesel yıkım gibi ciddi sonuçlar doğurabileceğine dair uyarılarda bulunuyor. Yapay zeka kaynaklı risklerin hem bilinen hem de öngörülemeyen boyutlarına dikkat çeken Amodei, yapay zeka destekli biyoterörizm, kötü niyetli yapay zekalar tarafından yönetilen drone orduları ve yapay zekanın insan emeğini işlevsiz hale getirmesi gibi olasılıkları detaylandırıyor.
Çözüm Önerileri ve Sektör İçindeki Tartışmalar
Bu tehditlere karşı önerilen çözümler arasında, sektörde özdenetim mekanizmalarının güçlendirilmesinden ABD Anayasası’nda değişiklik yapılmasına kadar geniş bir yelpaze yer alıyor. Ancak Amodei'nin yaklaşımı, yapay zekanın insan benzeri varlıklar olarak ele alınması gerektiği düşüncesini de beraberinde getiriyor. Bu noktada, mevcut dil modellerinin “iyi bir insan” olma yönünde bir öz-kimlik geliştirdiği iddiasında bulunuyor. Eleştirmenler, bu bakış açısının, Dario Amodei’nin kendisinin uyardığı tehlikelerle çeliştiğini savunuyor.
Uzman Görüşleri ve Eleştiriler
Amodei, daha önce 2024 yılında benzer bir yazıda, süper zekanın bir veya iki yıl içinde ortaya çıkabileceğini belirtmişti. Zamanla bu öngörünün tekrarı, yapay zeka alanındaki “kıyamet senaryolarının” sürekli ertelendiği fakat bir türlü gerçekleşmediği yönündeki yorumlara yol açıyor. Uzmanlar, büyük dil modellerinin (LLM) güçlü araçlar olduğunu kabul etse de, bu sistemlerin bilinç, duygu veya gerçek empatiye sahip olmadığını vurguluyor. Apple’ın gerçekleştirdiği bir araştırma, bu modellerin yalnızca “düşünme yanılsaması” sunduğunu ortaya koymuştu.
Bazı yorumcular, yapay zekanın yol açtığı somut sorunlara odaklanılması gerektiğini savunarak, Skynet benzeri kıyamet senaryolarının gerçekte mevcut olan zorlukların üstünü örtmemesi gerektiğine dikkat çekiyor.