Oxford ve Google’dan yapay zeka uyarısı: İnsanları ortadan kaldırabilir

Bilgin

Global Mod
Global Mod
Independent’ın haberine bakılırsa, Oxford Üniversitesi ve Google’ın yapay zeka kısmı DeepMind’dan araştırmacılar, gelişmiş yapay zeka formlarının “Dünya’daki ömür için varoluşsal bir tehlike” yaratma mümkünlüğünün yüksek olduğunu sav etti.

Hakemli bir mecmua olan AI Magazine’de yakın vakitte yayınlanan bir makalede araştırmacılar, belli yapay zeka casuslarının gelişmeninin devam etmesi halinde “felaket sonuçlar” doğabileceği ikazında bulundu.

Oxford Üniversitesi’nden Nick Bostrom üzere önde gelen filozoflar daha evvel de gelişmiş yapay zeka formlarının yarattığı tehditten kelam etmişlerdi, lakin yeni makalenin müelliflerinden biri bu cins ihtarların gereğince anlaşılmadığını tez ediyor.

‘Sadece mümkün değil, hem de muhtemel

Yapay genel zeka güvenlik araştırmacısı Michael Cohen makaleyi paylaştığı Twitter iletisinde, “Bostrom, Russell ve öbürleri gelişmiş yapay zekanın insanlık için bir tehdit oluşturduğunu savundular. Tanımladığımız şartlar altında, vardığımız sonuç evvelki yayınlardan hayli daha kuvvetli, varoluşsal bir felaket yalnızca mümkün değil, hem de muhtemel” diye yazdı.

İnsanlığın rakibi olabilir

Sözkonusu makale, yapay zeka casusunun evvelde programlandığı bir mükafatı almak için hile yapma stratejisi belirlediği bir senaryo önerdi. Yapay zekanın ödül alma ihtimalini en üst seviyeye çıkarmak için, elde etmesi mümkün olduğu kadar fazlaca güce gereksinim duyduğu aktarıldı. Fikir deneyi, insanlığın nihayetinde güç kaynakları için yapay zekaya karşı rekabet edebileceğini gösterdi.

Cohen kelamlarına, “Bizden epeyce daha zeki bir şeye karşı oynarken ‘mevcut gücün son kesimini kullanma’ yarışını kazanmak muhtemelen hayli sıkıntı olacaktır. Kaybetmek ise ölümcül olabilir. Teorik de olsa bu olasılıklar, daha kuvvetli bir yapay zeka maksadına gerçek temkinli ilerlememiz gerektiği manasına geliyor” formunda devam etti.

‘Büyük kırmızı düğme’

DeepMind bu biçimde bir olasılığa karşı “büyük kırmızı düğme” ismini verdiği bir tedbir önermişti. Yapay zeka firması 2016 yılında yayınladığı “Güvenli Bir Formda Kesintiye Uğratılabilir Ajanlar” başlıklı makalesinde, gelişmiş makinelerin kapatma komutlarını göz arkası etmesini ve denetimden çıkmış bir haydut casus haline gelmesini önlemeye yönelik çerçeve çizmişti.

‘İlerlememesi büyük trajedi olur’

Profesör Bostrom daha evvel, yapay zeka muvaffakiyetleri içinde Go oyununda insan şampiyonları yenmek ve nükleer füzyonu manipüle etmek de bulunan DeepMind’ı insan seviyesinde yapay zeka yaratmaya en yakın şirket olarak tanımlamıştı.

İsveçli araştırmacı ayrıyeten, hastalıkları tedavi etme ve uygarlığı öteki türlü mümkün olmayan bir süratte ilerletme potansiyeline sahip olduğu için yapay zeka gelişmeninin devam etmemesinin “büyük bir trajedi” olacağını söylemişti.