OpenAI liderleri, AI’nın sonunda uluslararası bir otoriteye ihtiyaç duyacağını söylüyor

Şaibe

Member
OpenAI’nin kurucusuna göre, yapay zeka alanının gelecekteki süper zekayı düzenlemek için uluslararası bir bekçi köpeğine ihtiyacı var.

CEO Sam Altman ve şirket liderleri Greg Brockman ve Ilya Sutskever’in bir blog gönderisinde grup, potansiyel varoluşsal risk göz önüne alındığında, teknolojiyi nükleer enerjiyle karşılaştırarak dünyanın “sadece reaktif olamayacağını” söyledi.

Bu amaçla, önde gelen kalkınma çabaları arasında koordinasyon önerdiler ve büyük hükümetler tarafından kurulan bir proje veya yıllık büyüme oranlarına sınırlamalar da dahil olmak üzere “bunun uygulanabileceği birçok yol” olduğunun altını çizdiler.

“İkincisi, süper zeka çabaları için eninde sonunda IAEA gibi bir şeye ihtiyacımız olacak; belirli bir yetenek (veya bilgi işlem gibi kaynaklar) eşiğinin üzerindeki herhangi bir çabanın, sistemleri inceleyebilen, denetim gerektirebilen, uygunluk testi yapabilen uluslararası bir otoriteye tabi olması gerekecektir. güvenlik standartlarıyla, dağıtım derecelerine ve güvenlik seviyelerine vb. kısıtlamalar getirin.” ileri sürdüler.

SAM ALTMAN, YZ’NİN 10 YIL İÇİNDE DENEYİMLİ PROFESYONELLERİN YERİNİ ALACAĞI KADAR GÜÇLÜ OLABİLECEĞİNİ UYARDI



OpenAI CEO’su Sam Altman, 24 Mayıs 2023 Çarşamba günü University College London, Birleşik Krallık’ta bir ocak başı sohbeti sırasında. (Getty Images aracılığıyla Chris J. Ratcliffe/Bloomberg)


Uluslararası Atom Enerjisi Ajansı, ABD’nin üye devlet olduğu nükleer alanda uluslararası işbirliği merkezidir.

Yazarlar, bilgi işlem ve enerji kullanımının izlenmesinin uzun bir yol kat edebileceğini söyledi.

“İlk adım olarak, şirketler gönüllü olarak böyle bir kurumun ihtiyaç duyabileceği unsurları uygulamaya başlamayı kabul edebilir ve ikinci olarak, tek tek ülkeler bunu uygulayabilir. Böyle bir kurumun varoluşsal riski azaltmaya odaklanması önemli olacaktır. Bir yapay zekanın ne söylemesine izin verilmesi gerektiğini belirlemek gibi, tek tek ülkelere bırakılması gereken sorunlar” diye devam etti blog.

Üçüncüsü, bir “süper zekayı güvenli” hale getirmek için teknik yeteneğe ihtiyaçları olduğunu söylediler.


Bir telefonda OpenAI


12 Ocak 2023’te Brooklyn’de bir akıllı telefondaki OpenAI logosu. (Getty Images aracılığıyla Gabby Jones/Bloomberg)


CHATGPT’NİN SON SÜRÜMÜ, RADYOLOJİ KURULU TARZI SINAVINI GEÇTİ, AI’NIN ‘BÜYÜME POTANSİYELİNİ’ ÖNE ÇIKARDI, ÇALIŞMA BULGULARI

Bazı yönler “kapsam dışında” olmakla birlikte – tanımladıkları “düzenleme türü olmadan” önemli bir yetenek eşiğinin altındaki modellerin geliştirilmesine izin verilmesi ve “endişelendikleri” sistemlerin “benzerleri uygulanarak” sulandırılmaması dahil. teknoloji standartlarının bu çubuğun çok altında” – en güçlü sistemlerin yönetişiminin güçlü bir kamu gözetimine sahip olması gerektiğini söylediler.


Sam Altman'ın yandan görünüşü


Sam Altman, 16 Mayıs 2023 Salı günü Washington DC’de Senato Yargı Alt Komitesi duruşmasında konuşuyor. (Getty Images aracılığıyla Eric Lee/Bloomberg)


“Dünyanın dört bir yanındaki insanların yapay zeka sistemlerinin sınırları ve varsayılanları konusunda demokratik olarak karar vermesi gerektiğine inanıyoruz. Henüz böyle bir mekanizmayı nasıl tasarlayacağımızı bilmiyoruz, ancak geliştirmeyi denemeyi planlıyoruz. sınırlar, bireysel kullanıcıların kullandıkları AI’nın nasıl davrandığı üzerinde çok fazla kontrole sahip olması gerekir” dediler.

Üçlü, AI sistemlerinin önümüzdeki on yıl içinde çoğu alanda uzman beceri düzeyini aşacağının makul olduğuna inanıyor.

Öyleyse neden yapay zeka teknolojisinin getirdiği riskleri ve zorlukları göz önünde bulundurarak inşa edelim?

HABERLER SUNULDU

Yapay zekanın “bugün hayal edebileceğimizden çok daha iyi bir dünyaya” yol açacağını ve bunun “sezgisel olmayan bir şekilde riskli ve süper zekanın yaratılmasını durdurmanın zor” olacağını iddia ediyorlar.

“Çünkü artıları çok büyük, onu inşa etmenin maliyeti her yıl düşüyor, onu inşa eden aktörlerin sayısı hızla artıyor ve doğası gereği üzerinde bulunduğumuz teknolojik yolun bir parçası, onu durdurmak için küresel bir gözetleme rejimi gibi bir şey gerekir. ve bunun bile işe yarayacağı garanti değil. Bu yüzden doğru yapmalıyız” dediler.



Julia Musto, Haberler ve Fox Business Digital için bir muhabirdir.