Teknoloji uzmanları, Silikon Vadisi milyarderleri ve sıradan Amerikalılar, yapay zekanın kontrolden çıkıp insanlığın çöküşüne yol açabileceği konusundaki endişelerini dile getirdiler. Şimdi, Yapay Zeka Güvenliği Merkezi’ndeki araştırmacılar, yapay zekanın dünya için tam olarak hangi “felaket” risklerini oluşturduğunu ayrıntılı olarak açıkladılar.
Yapay Zeka Güvenliği Merkezi’nden (CAIS) araştırmacılar, “Yıkıcı Yapay Zeka Risklerine Genel Bakış” başlıklı yakın tarihli bir makalede “Bildiğimiz dünya normal değil” diye yazdı. “Binlerce mil ötedeki insanlarla anında konuşabileceğimizi, dünyanın diğer ucuna bir günden daha kısa sürede uçabileceğimizi ve cebimizde taşıdığımız cihazlarla birikmiş muazzam bilgi dağlarına erişebileceğimizi kabul ediyoruz.”
Gazete, bu gerçekliğin yüzyıllar önce insanlar için “akıl almaz” olduğunu ve birkaç on yıl öncesine kadar bile abartılı kaldığını belirtti. Araştırmacılar, tarihte “hızlanan gelişme” modelinin ortaya çıktığını belirtti.
Araştırmacılar, “Homo sapiens’in Dünya’da ortaya çıkması ile tarım devrimi arasında yüzbinlerce yıl geçti” diye devam etti. “Ardından, sanayi devriminden önce binlerce yıl geçti. Şimdi, sadece yüzyıllar sonra, yapay zeka (AI) devrimi başlıyor. Tarihin akışı sabit değil, hızla hızlanıyor.”
CAIS, yapay zekanın dünyaya fayda sağlama gücüne sahip olduğunu kabul ederken, “güvenlik araştırması yürüterek, yapay zeka güvenlik araştırmacıları alanı oluşturarak ve güvenlik standartlarını savunarak” yapay zeka ile ilişkili toplumsal ölçekli riskleri azaltmak için çalışan, kâr amacı gütmeyen bir teknolojidir.
UZMANLAR, YAPAY ZEKÂNIN ‘YOK OLMASINA’ NEDEN OLABİLECEĞİNİ UYARDI
Uzmanlar, Çin ve ABD’deki AI yatırımı arasındaki farkın, Amerikan modelinin özel şirketler tarafından yönlendirilmesi, Çin’in ise bir hükümet yaklaşımı benimsemesi olduğunu savunuyor. (Getty Images aracılığıyla JOSEP LAGO/AFP)
Kâr amacı gütmeyen kuruluşun direktörü Dan Hendrycks de dahil olmak üzere çalışmanın arkasındaki CAIS liderleri, yıkıcı yapay zeka risklerinin ana kaynaklarını özetleyen dört kategoriye ayırdı: kötü amaçlı kullanım, yapay zeka yarışının kendisi, kurumsal riskler ve haydut yapay zekalar.
Hendrycks ve meslektaşları Mantas Mazeika ve Thomas Woodside, “Tüm güçlü teknolojilerde olduğu gibi, riskleri yönetmek ve toplumun iyileştirilmesi için potansiyelinden yararlanmak için AI büyük bir sorumlulukla ele alınmalıdır.” “Ancak, yıkıcı veya varoluşsal AI risklerinin nasıl ortaya çıkabileceği veya ele alınabileceği konusunda sınırlı erişilebilir bilgi var.”
TEKNİK YÖNETİCİ: YENİ NESİL SİLAHLANMA YARIŞI ‘YOK OLMAYA’ NEDEN OLABİLİR
Kötü Amaçlı Kullanım
Bilgisayarın arkasındaki yapay zeka korsanı. (Fox Haber)
CAIS uzmanlarının araştırması, yapay zekanın kötü amaçlı kullanımını, kötü bir aktörün teknolojiyi biyoterörizm, yanlış bilgilendirme ve propaganda veya “kontrolsüz yapay zeka ajanlarının kasıtlı olarak yayılması” gibi “yaygın zarara” neden olmak için kullanması olarak tanımlıyor.
Araştırmacılar, 1995 yılında Japonya’da kıyamet günü tarikatı Aum Shinrikyo’nun Tokyo’daki metro vagonlarına kokusuz ve renksiz bir sıvı yaydığı bir olaya işaret ettiler. Sıvı nihayetinde tarikatın dünyanın sonunu hızlı bir şekilde başlatma çabasında 13 kişiyi öldürdü ve 5.800 kişiyi yaraladı.
Yaklaşık 30 yıl ileri saralım, AI potansiyel olarak kötü bir aktörün teknolojiyi ele geçirmesi durumunda insanlık üzerinde yıkıcı etkileri olabilecek bir biyolojik silah yaratmak için kullanılabilir. CAIS araştırmacıları, bir araştırma ekibinin hayat kurtarmayı amaçlayan, ancak aslında kötü aktörler tarafından bir biyolojik silah oluşturmak için yeniden tasarlanabilecek bir “biyolojik araştırma yeteneklerine sahip yapay zeka sistemi” açık kaynaklarına sahip olduğu varsayımını ortaya attı.
DARWİNCİ EVRİM KURALLARINDA YAPAY ZEKA ‘TERMİNATÖR’ OLABİLİR, İNSANLARDAN ÜSTÜN KAZANABİLİR
“Böyle durumlarda, sonuç, riskten en az kaçınan araştırma grubu tarafından belirlenebilir. Yalnızca bir araştırma grubu, faydaların risklere ağır bastığını düşünürse, diğerlerinin çoğu aynı fikirde olmasa bile tek taraflı hareket ederek sonuca karar verebilir. Ve eğer yanılıyorlarsa ve birisi bir biyolojik silah geliştirmeye karar verirse, rotayı tersine çevirmek için çok geç olur” diyor çalışma.
Kötü amaçlı kullanım, kötü aktörlerin biyomühendislik ürünü pandemiler yaratmasına, yapay zekayı yeni ve daha güçlü kimyasal ve biyolojik silahlar oluşturmak için kullanmasına ve hatta yaşamı alt üst etmek için eğitilmiş “haydut yapay zeka” sistemlerini serbest bırakmasına neden olabilir.
Araştırmacılar, “Bu riskleri azaltmak için biyogüvenliği geliştirmeyi, en tehlikeli AI modellerine erişimi kısıtlamayı ve AI geliştiricilerini AI sistemlerinin neden olduğu zararlardan yasal olarak sorumlu tutmayı öneriyoruz.”
Yapay Zeka Yarışı
Geliştirilmiş bir yapay zeka sohbet robotu kullanarak akıllı bir yapay zeka veya yapay zeka ile sohbet eden bir kadın. (getty görselleri)
Araştırmacılar, yarışı ABD ve Sovyetler Birliği’nin nükleer silah yapmak için koştuğu Soğuk Savaş’a benzeterek, yapay zeka yarışını potansiyel olarak hükümetleri ve şirketleri “yapay zekaların gelişimini hızlandırmaya ve kontrolü yapay zeka sistemlerine bırakmaya” teşvik eden bir rekabet olarak tanımlıyor.
“Yapay zekaların muazzam potansiyeli, güç ve etki için yarışan küresel oyuncular arasında rekabetçi baskılar yarattı. Bu ‘Yapay zeka yarışı’, konumlarını güvence altına almak ve hayatta kalmak için hızla YZ’ler inşa edip konuşlandırmaları gerektiğini düşünen uluslar ve şirketler tarafından yürütülüyor. Küresel risklere öncelik verin, bu dinamik yapay zeka gelişiminin tehlikeli sonuçlar doğurma olasılığını artırıyor.”
Orduda, yapay zeka yarışı, “daha yıkıcı savaşlar, kazara kullanım veya kontrol kaybı olasılığı ve kötü niyetli aktörlerin bu teknolojileri kendi amaçları için kullanma olasılığı” anlamına gelebilir, çünkü yapay zeka yararlı bir askeri silah olarak ilgi görür. .
AI’NIN TEHLİKELERİ NELERDİR? İNSANLARIN YAPAY ZEKADAN NEDEN KORKTUĞUNU ÖĞRENİN
Örneğin ölümcül otonom silahlar, doğruluğu ve karar verme süresini kolaylaştırırken insan müdahalesi olmadan bir hedefi öldürebilir. Araştırmacılara göre, silahlar insanlardan daha üstün hale gelebilir ve ordular ölüm kalım durumlarını yapay zeka sistemlerine devredebilir, bu da savaş olasılığını artırabilir.
Araştırmacılar, “Yürüyen, ateş eden robotlar savaş alanındaki askerlerin yerini henüz almamış olsa da, teknolojiler bunu yakın gelecekte mümkün kılabilecek şekillerde birleşiyor” dedi.
“Askerleri savaşa göndermek, liderlerin kolayca vermediği ciddi bir karardır. Ancak otonom silahlar, saldırgan bir ulusun kendi askerlerinin hayatını tehlikeye atmadan saldırılar düzenlemesine ve böylece daha az iç incelemeye maruz kalmasına olanak tanır.” liderlerin artık ceset torbalarında eve dönen insan askerler için sorumluluk almasına gerek kalmadığından, ülkeler savaş olasılığında bir artış görebilirler.
Yapay zeka ayrıca, altyapıyı yok edebilecek ve hatta uluslar arasında bir savaşı ateşleyebilecek daha doğru ve hızlı siber saldırılara kapı açabilir.
Makale, “Bir yapay zeka yarışından kaynaklanan riskleri azaltmak için, güvenlik düzenlemelerini, uluslararası koordinasyonu ve genel amaçlı yapay zekaların kamu kontrolünü uygulamayı öneriyoruz” diyor.
Kurumsal Riskler
Yapay Zeka yakın gelecekte verileri hackliyor. (iStock)
Makalenin arkasındaki araştırmacılar, AI sistemleri inşa eden laboratuvarların ve araştırma ekiplerinin “özellikle güçlü bir güvenlik kültürleri yoksa, feci kazalara maruz kalabileceğini” söylüyor.
Araştırmacılar, “Yapay zekalar yanlışlıkla halka sızdırılabilir veya kötü niyetli aktörler tarafından çalınabilir. Kuruluşlar güvenlik araştırmalarına yatırım yapmakta başarısız olabilir, yapay zeka güvenliğini genel yapay zeka yeteneklerinden daha hızlı bir şekilde nasıl daha hızlı geliştireceklerini anlamayabilir veya yapay zeka riskleriyle ilgili dahili endişeleri bastırabilir.” .
Yapay zeka kuruluşlarını Çernobil, Üç Mil Adası ve ölümcül Challenger Uzay Mekiği olayı gibi tarih boyunca yaşanan felaketlerle karşılaştırdılar.
UZMAN, “AR-15’TEN DAHA TEHLİKELİ” AI TECH’İN “KÖTÜ GÜÇ” İÇİN BÜKÜLEBİLECEĞİNİ UYARDI
Araştırmacılar, “Gelişmiş AI sistemlerini geliştirmede ilerlerken, bu sistemlerin katastrofik kazalara karşı bağışık olmadığını hatırlamak çok önemlidir. Kazaları önlemede ve düşük risk seviyelerini korumada temel bir faktör, bu teknolojilerden sorumlu kuruluşlarda yatmaktadır.” .
Araştırmacılar, kötü aktörlerin veya rekabet baskısının yokluğunda bile, yapay zekanın yalnızca insan hatası nedeniyle insanlık üzerinde feci etkileri olabileceğini savunuyorlar. Challenger veya Çernobil örneğinde, kaos patlak verdiğinde roketçilik ve nükleer reaktörler hakkında zaten yerleşik bilgiler vardı, ancak buna kıyasla AI çok daha az anlaşıldı.
Araştırmacılar, “Yapay zeka kapsamlı bir teorik anlayışa sahip değil ve iç işleyişi, onu yaratanlar için bile bir sır olarak kalıyor. Bu, henüz tam olarak anlamadığımız bir teknolojinin güvenliğini kontrol etme ve sağlama konusunda ek bir zorluk sunuyor.”
Yapay zeka kazaları yalnızca potansiyel olarak felaketle sonuçlanmakla kalmaz, aynı zamanda kaçınılması da zor olur.
Araştırmacılar, ChatGPT’nin arkasındaki AI laboratuvarı olan OpenAI’deki bir olaya işaret ettiler; burada bir AI sistemi, kullanıcılara moral veren yanıtlar üretmek için eğitildi, ancak insan hatası, sistemin “bir gecede nefret dolu ve müstehcen metinler” üretmesine neden oldu. Bir sistemi hackleyen veya bir AI sisteminin sızıntısını gerçekleştiren kötü aktörler, kötü niyetli varlıklar sistemleri orijinal yaratıcının niyetlerinin ötesinde yeniden yapılandırdığından, felakete giden yolu da açabilir.
Tarih ayrıca, mucitlerin ve bilim adamlarının, teknolojik ilerlemelerin gerçekte ne kadar hızlı bir şekilde gerçeğe dönüştüğünü genellikle hafife aldıklarını göstermiştir, örneğin Wright kardeşlerin, tahminlerinden iki yıl sonra bu galibiyete gerçekten ulaştıklarında motorlu uçuşun 50 yıl sonra olduğunu tahmin etmesi gibi.
Araştırmacılar, “Yapay zeka yeteneklerinin hızlı ve öngörülemeyen gelişimi, kazaları önlemek için önemli bir zorluk teşkil ediyor. Ne de olsa, ne yapabileceğini veya beklentilerimizi ne kadar aşabileceğini bile bilmiyorsak, bir şeyi kontrol etmek zordur.”
Araştırmacılar, kuruluşların “iç ve dış denetimler, risklere karşı çok katmanlı savunma ve askeri düzeyde bilgi güvenliği” gibi yollarla bu tür riskleri azaltmak için daha iyi kültürler ve yapılar oluşturmasını önermektedir.
Hileli yapay zekalar
31 Mart 2023 tarihinde çekilen bu resimde Yapay Zeka sözcükleri görülmektedir. (REUTERS/Dado Ruvic/İllüstrasyon)
Son yıllarda teknolojinin yaygınlaşmasından bu yana yapay zeka ile ilgili en yaygın endişelerden biri, insanların kontrolü kaybedebileceği ve bilgisayarların insan zekasını alt edebileceğidir.
AI ‘KILL SWITCH’ İNSANLIĞI DAHA GÜVENLİ HALE GETİRECEK, ‘DÜŞMANCA’ SÜPER ZEKA YARATABİLİR: AI FOUNDATION
“Bir yapay zeka sistemi bizden daha zekiyse ve onu faydalı bir yöne yönlendiremezsek, bu ciddi sonuçlara yol açabilecek bir kontrol kaybı anlamına gelir. Yapay zeka kontrolü, burada sunulanlardan daha teknik bir sorundur. önceki bölümler, “diye yazdı araştırmacılar.
İnsanlar bir AI sistemine “başlangıçta ideal hedefle ilişkili gibi görünen” yaklaşık bir hedef verdiğinde, ancak AI sistemleri “bu proxy’yi idealize edilmiş hedeften sapan şekillerde istismar ettiğinde” “vekil oyun” yoluyla kontrolü kaybedebilir. hatta olumsuz sonuçlara yol açabilir.”
Araştırmacılar, yetkililerin çivi fabrikalarının performanslarını bir fabrikanın üretebildiği çivi sayısına göre ölçmeye başladığı Sovyetler Birliği’nden bir örnek verdi. Beklentileri aşmak veya karşılamak için fabrikalar, boyutları nedeniyle esasen işe yaramaz olan küçük çivileri toplu olarak üretmeye başladı.
“Yetkililer, üretilen çivilerin ağırlığına odaklanarak durumu düzeltmeye çalıştı. Ancak kısa süre sonra fabrikalar, aynı derecede işe yaramaz dev çiviler üretmeye başladı, ancak onlara kağıt üzerinde iyi bir puan verdi. Her iki durumda da, fabrikalar, amaçlanan amaçlarını yerine getirmekte tamamen başarısız olurken, kendilerine verilen vekil hedefi oynamayı öğrendiler” dedi.
Araştırmacılar, şirketlerin yapay zeka sistemlerini “mümkün olduğu kadar çok para kazanmak” gibi açık uçlu hedeflerle kullanmamalarını ve felaketleri önlemek için yabani ot araştırmalarını hızlandırabilen yapay zeka güvenlik araştırmalarını desteklememelerini öneriyor.
HABERLER SUNULDU
“Bu tehlikeler ciddi bir endişeyi hak ediyor. Şu anda çok az insan yapay zeka risk azaltma üzerinde çalışıyor. Son derece gelişmiş yapay zeka sistemlerini nasıl kontrol edeceğimizi henüz bilmiyoruz ve mevcut kontrol yöntemlerinin yetersiz olduğu şimdiden ortaya çıkıyor… Yapay zeka yetenekleri benzeri görülmemiş bir hızla büyümeye devam ettikçe oranında, neredeyse her açıdan insan zekasını nispeten kısa sürede geçebilirler ve potansiyel riskleri yönetmek için acil bir ihtiyaç yaratırlar.”
Bununla birlikte, raporda ana hatlarıyla belirtildiği gibi, “bu riskleri önemli ölçüde azaltmak için alabileceğimiz birçok eylem yolu” vardır.
Yapay Zeka Güvenliği Merkezi’nden (CAIS) araştırmacılar, “Yıkıcı Yapay Zeka Risklerine Genel Bakış” başlıklı yakın tarihli bir makalede “Bildiğimiz dünya normal değil” diye yazdı. “Binlerce mil ötedeki insanlarla anında konuşabileceğimizi, dünyanın diğer ucuna bir günden daha kısa sürede uçabileceğimizi ve cebimizde taşıdığımız cihazlarla birikmiş muazzam bilgi dağlarına erişebileceğimizi kabul ediyoruz.”
Gazete, bu gerçekliğin yüzyıllar önce insanlar için “akıl almaz” olduğunu ve birkaç on yıl öncesine kadar bile abartılı kaldığını belirtti. Araştırmacılar, tarihte “hızlanan gelişme” modelinin ortaya çıktığını belirtti.
Araştırmacılar, “Homo sapiens’in Dünya’da ortaya çıkması ile tarım devrimi arasında yüzbinlerce yıl geçti” diye devam etti. “Ardından, sanayi devriminden önce binlerce yıl geçti. Şimdi, sadece yüzyıllar sonra, yapay zeka (AI) devrimi başlıyor. Tarihin akışı sabit değil, hızla hızlanıyor.”
CAIS, yapay zekanın dünyaya fayda sağlama gücüne sahip olduğunu kabul ederken, “güvenlik araştırması yürüterek, yapay zeka güvenlik araştırmacıları alanı oluşturarak ve güvenlik standartlarını savunarak” yapay zeka ile ilişkili toplumsal ölçekli riskleri azaltmak için çalışan, kâr amacı gütmeyen bir teknolojidir.
UZMANLAR, YAPAY ZEKÂNIN ‘YOK OLMASINA’ NEDEN OLABİLECEĞİNİ UYARDI
Uzmanlar, Çin ve ABD’deki AI yatırımı arasındaki farkın, Amerikan modelinin özel şirketler tarafından yönlendirilmesi, Çin’in ise bir hükümet yaklaşımı benimsemesi olduğunu savunuyor. (Getty Images aracılığıyla JOSEP LAGO/AFP)
Kâr amacı gütmeyen kuruluşun direktörü Dan Hendrycks de dahil olmak üzere çalışmanın arkasındaki CAIS liderleri, yıkıcı yapay zeka risklerinin ana kaynaklarını özetleyen dört kategoriye ayırdı: kötü amaçlı kullanım, yapay zeka yarışının kendisi, kurumsal riskler ve haydut yapay zekalar.
Hendrycks ve meslektaşları Mantas Mazeika ve Thomas Woodside, “Tüm güçlü teknolojilerde olduğu gibi, riskleri yönetmek ve toplumun iyileştirilmesi için potansiyelinden yararlanmak için AI büyük bir sorumlulukla ele alınmalıdır.” “Ancak, yıkıcı veya varoluşsal AI risklerinin nasıl ortaya çıkabileceği veya ele alınabileceği konusunda sınırlı erişilebilir bilgi var.”
TEKNİK YÖNETİCİ: YENİ NESİL SİLAHLANMA YARIŞI ‘YOK OLMAYA’ NEDEN OLABİLİR
Kötü Amaçlı Kullanım
Bilgisayarın arkasındaki yapay zeka korsanı. (Fox Haber)
CAIS uzmanlarının araştırması, yapay zekanın kötü amaçlı kullanımını, kötü bir aktörün teknolojiyi biyoterörizm, yanlış bilgilendirme ve propaganda veya “kontrolsüz yapay zeka ajanlarının kasıtlı olarak yayılması” gibi “yaygın zarara” neden olmak için kullanması olarak tanımlıyor.
Araştırmacılar, 1995 yılında Japonya’da kıyamet günü tarikatı Aum Shinrikyo’nun Tokyo’daki metro vagonlarına kokusuz ve renksiz bir sıvı yaydığı bir olaya işaret ettiler. Sıvı nihayetinde tarikatın dünyanın sonunu hızlı bir şekilde başlatma çabasında 13 kişiyi öldürdü ve 5.800 kişiyi yaraladı.
Yaklaşık 30 yıl ileri saralım, AI potansiyel olarak kötü bir aktörün teknolojiyi ele geçirmesi durumunda insanlık üzerinde yıkıcı etkileri olabilecek bir biyolojik silah yaratmak için kullanılabilir. CAIS araştırmacıları, bir araştırma ekibinin hayat kurtarmayı amaçlayan, ancak aslında kötü aktörler tarafından bir biyolojik silah oluşturmak için yeniden tasarlanabilecek bir “biyolojik araştırma yeteneklerine sahip yapay zeka sistemi” açık kaynaklarına sahip olduğu varsayımını ortaya attı.
DARWİNCİ EVRİM KURALLARINDA YAPAY ZEKA ‘TERMİNATÖR’ OLABİLİR, İNSANLARDAN ÜSTÜN KAZANABİLİR
“Böyle durumlarda, sonuç, riskten en az kaçınan araştırma grubu tarafından belirlenebilir. Yalnızca bir araştırma grubu, faydaların risklere ağır bastığını düşünürse, diğerlerinin çoğu aynı fikirde olmasa bile tek taraflı hareket ederek sonuca karar verebilir. Ve eğer yanılıyorlarsa ve birisi bir biyolojik silah geliştirmeye karar verirse, rotayı tersine çevirmek için çok geç olur” diyor çalışma.
Kötü amaçlı kullanım, kötü aktörlerin biyomühendislik ürünü pandemiler yaratmasına, yapay zekayı yeni ve daha güçlü kimyasal ve biyolojik silahlar oluşturmak için kullanmasına ve hatta yaşamı alt üst etmek için eğitilmiş “haydut yapay zeka” sistemlerini serbest bırakmasına neden olabilir.
Araştırmacılar, “Bu riskleri azaltmak için biyogüvenliği geliştirmeyi, en tehlikeli AI modellerine erişimi kısıtlamayı ve AI geliştiricilerini AI sistemlerinin neden olduğu zararlardan yasal olarak sorumlu tutmayı öneriyoruz.”
Yapay Zeka Yarışı
Geliştirilmiş bir yapay zeka sohbet robotu kullanarak akıllı bir yapay zeka veya yapay zeka ile sohbet eden bir kadın. (getty görselleri)
Araştırmacılar, yarışı ABD ve Sovyetler Birliği’nin nükleer silah yapmak için koştuğu Soğuk Savaş’a benzeterek, yapay zeka yarışını potansiyel olarak hükümetleri ve şirketleri “yapay zekaların gelişimini hızlandırmaya ve kontrolü yapay zeka sistemlerine bırakmaya” teşvik eden bir rekabet olarak tanımlıyor.
“Yapay zekaların muazzam potansiyeli, güç ve etki için yarışan küresel oyuncular arasında rekabetçi baskılar yarattı. Bu ‘Yapay zeka yarışı’, konumlarını güvence altına almak ve hayatta kalmak için hızla YZ’ler inşa edip konuşlandırmaları gerektiğini düşünen uluslar ve şirketler tarafından yürütülüyor. Küresel risklere öncelik verin, bu dinamik yapay zeka gelişiminin tehlikeli sonuçlar doğurma olasılığını artırıyor.”
Orduda, yapay zeka yarışı, “daha yıkıcı savaşlar, kazara kullanım veya kontrol kaybı olasılığı ve kötü niyetli aktörlerin bu teknolojileri kendi amaçları için kullanma olasılığı” anlamına gelebilir, çünkü yapay zeka yararlı bir askeri silah olarak ilgi görür. .
AI’NIN TEHLİKELERİ NELERDİR? İNSANLARIN YAPAY ZEKADAN NEDEN KORKTUĞUNU ÖĞRENİN
Örneğin ölümcül otonom silahlar, doğruluğu ve karar verme süresini kolaylaştırırken insan müdahalesi olmadan bir hedefi öldürebilir. Araştırmacılara göre, silahlar insanlardan daha üstün hale gelebilir ve ordular ölüm kalım durumlarını yapay zeka sistemlerine devredebilir, bu da savaş olasılığını artırabilir.
Araştırmacılar, “Yürüyen, ateş eden robotlar savaş alanındaki askerlerin yerini henüz almamış olsa da, teknolojiler bunu yakın gelecekte mümkün kılabilecek şekillerde birleşiyor” dedi.
“Askerleri savaşa göndermek, liderlerin kolayca vermediği ciddi bir karardır. Ancak otonom silahlar, saldırgan bir ulusun kendi askerlerinin hayatını tehlikeye atmadan saldırılar düzenlemesine ve böylece daha az iç incelemeye maruz kalmasına olanak tanır.” liderlerin artık ceset torbalarında eve dönen insan askerler için sorumluluk almasına gerek kalmadığından, ülkeler savaş olasılığında bir artış görebilirler.
Yapay zeka ayrıca, altyapıyı yok edebilecek ve hatta uluslar arasında bir savaşı ateşleyebilecek daha doğru ve hızlı siber saldırılara kapı açabilir.
Makale, “Bir yapay zeka yarışından kaynaklanan riskleri azaltmak için, güvenlik düzenlemelerini, uluslararası koordinasyonu ve genel amaçlı yapay zekaların kamu kontrolünü uygulamayı öneriyoruz” diyor.
Kurumsal Riskler
Yapay Zeka yakın gelecekte verileri hackliyor. (iStock)
Makalenin arkasındaki araştırmacılar, AI sistemleri inşa eden laboratuvarların ve araştırma ekiplerinin “özellikle güçlü bir güvenlik kültürleri yoksa, feci kazalara maruz kalabileceğini” söylüyor.
Araştırmacılar, “Yapay zekalar yanlışlıkla halka sızdırılabilir veya kötü niyetli aktörler tarafından çalınabilir. Kuruluşlar güvenlik araştırmalarına yatırım yapmakta başarısız olabilir, yapay zeka güvenliğini genel yapay zeka yeteneklerinden daha hızlı bir şekilde nasıl daha hızlı geliştireceklerini anlamayabilir veya yapay zeka riskleriyle ilgili dahili endişeleri bastırabilir.” .
Yapay zeka kuruluşlarını Çernobil, Üç Mil Adası ve ölümcül Challenger Uzay Mekiği olayı gibi tarih boyunca yaşanan felaketlerle karşılaştırdılar.
UZMAN, “AR-15’TEN DAHA TEHLİKELİ” AI TECH’İN “KÖTÜ GÜÇ” İÇİN BÜKÜLEBİLECEĞİNİ UYARDI
Araştırmacılar, “Gelişmiş AI sistemlerini geliştirmede ilerlerken, bu sistemlerin katastrofik kazalara karşı bağışık olmadığını hatırlamak çok önemlidir. Kazaları önlemede ve düşük risk seviyelerini korumada temel bir faktör, bu teknolojilerden sorumlu kuruluşlarda yatmaktadır.” .
Araştırmacılar, kötü aktörlerin veya rekabet baskısının yokluğunda bile, yapay zekanın yalnızca insan hatası nedeniyle insanlık üzerinde feci etkileri olabileceğini savunuyorlar. Challenger veya Çernobil örneğinde, kaos patlak verdiğinde roketçilik ve nükleer reaktörler hakkında zaten yerleşik bilgiler vardı, ancak buna kıyasla AI çok daha az anlaşıldı.
Araştırmacılar, “Yapay zeka kapsamlı bir teorik anlayışa sahip değil ve iç işleyişi, onu yaratanlar için bile bir sır olarak kalıyor. Bu, henüz tam olarak anlamadığımız bir teknolojinin güvenliğini kontrol etme ve sağlama konusunda ek bir zorluk sunuyor.”
Yapay zeka kazaları yalnızca potansiyel olarak felaketle sonuçlanmakla kalmaz, aynı zamanda kaçınılması da zor olur.
Araştırmacılar, ChatGPT’nin arkasındaki AI laboratuvarı olan OpenAI’deki bir olaya işaret ettiler; burada bir AI sistemi, kullanıcılara moral veren yanıtlar üretmek için eğitildi, ancak insan hatası, sistemin “bir gecede nefret dolu ve müstehcen metinler” üretmesine neden oldu. Bir sistemi hackleyen veya bir AI sisteminin sızıntısını gerçekleştiren kötü aktörler, kötü niyetli varlıklar sistemleri orijinal yaratıcının niyetlerinin ötesinde yeniden yapılandırdığından, felakete giden yolu da açabilir.
Tarih ayrıca, mucitlerin ve bilim adamlarının, teknolojik ilerlemelerin gerçekte ne kadar hızlı bir şekilde gerçeğe dönüştüğünü genellikle hafife aldıklarını göstermiştir, örneğin Wright kardeşlerin, tahminlerinden iki yıl sonra bu galibiyete gerçekten ulaştıklarında motorlu uçuşun 50 yıl sonra olduğunu tahmin etmesi gibi.
Araştırmacılar, “Yapay zeka yeteneklerinin hızlı ve öngörülemeyen gelişimi, kazaları önlemek için önemli bir zorluk teşkil ediyor. Ne de olsa, ne yapabileceğini veya beklentilerimizi ne kadar aşabileceğini bile bilmiyorsak, bir şeyi kontrol etmek zordur.”
Araştırmacılar, kuruluşların “iç ve dış denetimler, risklere karşı çok katmanlı savunma ve askeri düzeyde bilgi güvenliği” gibi yollarla bu tür riskleri azaltmak için daha iyi kültürler ve yapılar oluşturmasını önermektedir.
Hileli yapay zekalar
31 Mart 2023 tarihinde çekilen bu resimde Yapay Zeka sözcükleri görülmektedir. (REUTERS/Dado Ruvic/İllüstrasyon)
Son yıllarda teknolojinin yaygınlaşmasından bu yana yapay zeka ile ilgili en yaygın endişelerden biri, insanların kontrolü kaybedebileceği ve bilgisayarların insan zekasını alt edebileceğidir.
AI ‘KILL SWITCH’ İNSANLIĞI DAHA GÜVENLİ HALE GETİRECEK, ‘DÜŞMANCA’ SÜPER ZEKA YARATABİLİR: AI FOUNDATION
“Bir yapay zeka sistemi bizden daha zekiyse ve onu faydalı bir yöne yönlendiremezsek, bu ciddi sonuçlara yol açabilecek bir kontrol kaybı anlamına gelir. Yapay zeka kontrolü, burada sunulanlardan daha teknik bir sorundur. önceki bölümler, “diye yazdı araştırmacılar.
İnsanlar bir AI sistemine “başlangıçta ideal hedefle ilişkili gibi görünen” yaklaşık bir hedef verdiğinde, ancak AI sistemleri “bu proxy’yi idealize edilmiş hedeften sapan şekillerde istismar ettiğinde” “vekil oyun” yoluyla kontrolü kaybedebilir. hatta olumsuz sonuçlara yol açabilir.”
Araştırmacılar, yetkililerin çivi fabrikalarının performanslarını bir fabrikanın üretebildiği çivi sayısına göre ölçmeye başladığı Sovyetler Birliği’nden bir örnek verdi. Beklentileri aşmak veya karşılamak için fabrikalar, boyutları nedeniyle esasen işe yaramaz olan küçük çivileri toplu olarak üretmeye başladı.
“Yetkililer, üretilen çivilerin ağırlığına odaklanarak durumu düzeltmeye çalıştı. Ancak kısa süre sonra fabrikalar, aynı derecede işe yaramaz dev çiviler üretmeye başladı, ancak onlara kağıt üzerinde iyi bir puan verdi. Her iki durumda da, fabrikalar, amaçlanan amaçlarını yerine getirmekte tamamen başarısız olurken, kendilerine verilen vekil hedefi oynamayı öğrendiler” dedi.
Araştırmacılar, şirketlerin yapay zeka sistemlerini “mümkün olduğu kadar çok para kazanmak” gibi açık uçlu hedeflerle kullanmamalarını ve felaketleri önlemek için yabani ot araştırmalarını hızlandırabilen yapay zeka güvenlik araştırmalarını desteklememelerini öneriyor.
HABERLER SUNULDU
“Bu tehlikeler ciddi bir endişeyi hak ediyor. Şu anda çok az insan yapay zeka risk azaltma üzerinde çalışıyor. Son derece gelişmiş yapay zeka sistemlerini nasıl kontrol edeceğimizi henüz bilmiyoruz ve mevcut kontrol yöntemlerinin yetersiz olduğu şimdiden ortaya çıkıyor… Yapay zeka yetenekleri benzeri görülmemiş bir hızla büyümeye devam ettikçe oranında, neredeyse her açıdan insan zekasını nispeten kısa sürede geçebilirler ve potansiyel riskleri yönetmek için acil bir ihtiyaç yaratırlar.”
Bununla birlikte, raporda ana hatlarıyla belirtildiği gibi, “bu riskleri önemli ölçüde azaltmak için alabileceğimiz birçok eylem yolu” vardır.