Yeni nesil silahlanma yarışı, nükleer savaşa benzer bir ‘yok oluşa’ neden olabilir, salgın: teknoloji şefi

Şaibe

Member
Bir AI güvenlik kar amacı gütmeyen kuruluşun kurucu ortağı Haberler’e verdiği demeçte, ülkeler ve şirketler arasında en güçlü AI makinelerini kimin geliştirebileceğini görmek için yapay zeka silahlanma yarışının insanlık için varoluşsal bir tehdit oluşturabileceğini söyledi.

Center for AI Safety İcra Direktörü Dan Hendrycks, “AI, yok olma riski oluşturabilir ve bunun nedenlerinden biri, şu anda bir AI silahlanma yarışında kilitlenmiş olmamızdır.” Dedi. “Giderek daha güçlü teknolojiler inşa ediyoruz ve onları nasıl tamamen kontrol edeceğimizi veya anlayacağımızı bilmiyoruz.”



OpenAI CEO’su Sam Altman, Yapay Zeka Güvenliği Merkezi’nin yapay zekanın insanlık için varoluşsal bir tehdit oluşturduğunu belirten bildirisini imzaladı. (Getty Images aracılığıyla Bill Clark/CQ-Roll Call, Inc)


“Aynısını nükleer silahlar için de yaptık” diye devam etti. “Varoluşsal risk ve yok olma riski konusunda hepimiz aynı gemideyiz.”

AI SİLAHLANMA YARIŞI YOK OLABİLİRİNSANLIK İÇİN SEVİYE ETKİNLİK: AI GÜVENLİK DİREKTÖRÜ


DAHA FAZLA FOX HABERİNİN DİJİTAL ORİJİNALLERİNİ BURADAN İZLEYEBİLİRSİNİZ

Hendrycks’in firması Salı günü uyarıda bulunan bir bildiri yayınladı “[m]Yapay zekanın yok olma riskini azaltmak, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.” OpenAI CEO’su Sam Altman ve “Yapay Zekanın Babası” Geoffrey Hinton gibi birçok üst düzey yapay zeka araştırmacısı, geliştiricisi ve yöneticisi , bildiriyi imzaladı.

Altman geçtiğimiz günlerde hükümetin, teknolojinin ortaya koyduğu riskleri “hafifletmek” için Kongre önündeki ifadesinde yapay zekayı düzenlemesini savundu.

Kuruluşunun bildirisini imzalayan Hendrycks, Haberler’e verdiği demeçte, “Yapay zeka geliştirmenin nispeten kontrolsüz bir süreç olduğundan ve yapay zekaların işleri otomatikleştirmede çok iyi oldukları için toplumda daha fazla etkiye sahip olmalarından endişe duyuyorum.” “Birbirleriyle rekabet ediyorlar ve birçok işlemi yürüten bu ajan ekosistemi var ve bu sürecin kontrolünü kaybedebiliriz.”

“Bu bizi ikinci sınıf bir tür yapabilir veya Neandertallerin yoluna gidebilir” diye devam etti.

5 YIL İÇİNDE MİLYONLARCA HIZLI GIDA ÇALIŞANI İŞİNİ KAYBOLABİLİR. İŞTE NEDENİ

Tesla CEO’su Elon Musk, teknolojinin “uygarlık yıkımına” veya seçim müdahalesine yol açabileceğini söyleyerek potansiyel AI tehditleri hakkında açıkça konuşuldu. Musk ayrıca Mart ayında büyük AI deneylerinin durdurulmasını savunan bir mektup imzaladı.


Elon Musk


Elon Musk, yapay zekanın “medeniyet yıkımına” neden olabileceği konusunda uyardı. (Justin Sullivan/Getty Images)


Ancak mektup, OpenAI, Microsoft ve Google gibi büyük AI geliştiricilerini deneyleri askıya almaya teşvik edemedi.

Hendrycks, “Bizi potansiyel olarak nükleer silahlanma yarışında olduğu gibi felaketin eşiğine getirebilecek bir yapay zeka silahlanma yarışı yaşıyoruz” dedi. “Yani bu, bu sorunun küresel bir önceliğine ihtiyacımız olduğu anlamına geliyor.”

HABERLER SUNULDU

Ancak Hendrycks, dünyanın en güçlü AI sistemlerini yaratan kuruluşların gelişmeleri yavaşlatmak veya duraklatmak için teşvikleri olmadığı konusunda uyardı. Yapay Zeka Güvenliği Merkezi, açıklamasının insanları yapay zekanın güvenilir ve önemli bir risk oluşturduğu konusunda bilgilendireceğini umuyor.

Hendrycks, Haberler’e “Umarım uluslararası anlaşmalar veya düzenlemeler gibi diğer küresel öncelikler gibi ele alınabilmesi için konuşmayı başlatabiliriz” dedi. “Bu riskleri azaltmak için bunu daha büyük bir öncelik, sosyal bir öncelik ve teknik bir öncelik olarak ele almalıyız.”

Hendrycks ile yapılan röportajın tamamını izlemek için buraya tıklayın.



Jon Michael Raasch, Haberler Digital Originals’da yardımcı yapımcı/yazardır.