Çalışma bulgularına göre yapay zeka, bu tek anahtar bileşen olmadan insan benzeri seviyelere ulaşamayacak

Şaibe

Member
Birleşik Krallık’taki araştırmacılar, programlar robotlara bağlı olmadığı ve evrimsel ilkelerle tasarlanmadığı sürece yapay zekanın insan benzeri bilişe ulaşmayacağını buldu.

Çılgınca popüler olan ChatGPT gibi insan konuşmasını taklit eden devrim niteliğindeki AI platformları, büyük sinir ağlarına ve üzerinde eğitildikleri büyük veri kümelerine rağmen, bedensiz kaldıkları ve yalnızca bilgisayar ekranlarında göründükleri takdirde asla insan benzeri bilişe ulaşamayacaklar. Sheffield Üniversitesi yeni bir çalışmada bildirdi.

Yapay zeka platformuna istemler sağlayan insan kullanıcılarla konuşmaları simüle edebilen bir sohbet robotu olan ChatGPT, denetimli ve denetimsiz öğrenme yoluyla insan çocuklara benzer şekilde öğrenir. Denetimsiz öğrenme, sistemin deneme yanılma yoluyla öğrenmesini gerektirir; örneğin, bir insanın chatbot’a bir istemin cevabının yanlış olduğunu söylemesi ve bu bilgilerden yola çıkarak inşa edilmesi. Denetimli öğrenme, okula giden ve gerekli materyali öğrenen çocuklara daha benzerdir – AI destekli sohbet robotları, programın öğrendiği önceden belirlenmiş çıktılara sahip girdiler üzerinde eğitilir.

Sheffield Üniversitesi bilgisayar bilimi profesörleri Tony Prescott ve Stuart Wilson, yapay zekanın insanların nasıl öğrendiğini taklit etme yeteneğine sahip olmasına rağmen, gerçek dünyayı yapay olarak hissetme ve algılama fırsatı verilmedikçe programların tamamen insanlar gibi düşünmesinin pek olası olmadığını keşfettiler.

DARWİNCİ EVRİM KURALLARINDA YAPAY ZEKA ‘TERMİNATÖR’ OLABİLİR, İNSANLARDAN ÜSTÜN KAZANABİLİR



Yapay Zeka yakın gelecekte verileri hackliyor. (iStock)


“ChatGPT ve diğer büyük nöral ağ modelleri, yapay zekada insan dilinin yapısını öğrenmek gibi gerçekten zor sorunların çözülebileceğini gösteren heyecan verici gelişmeler. Prescott, araştırmayla ilgili bir Sheffield Üniversitesi basın açıklamasına göre, “Aynı yöntemlerle tasarlanmaya devam ederlerse insan beyni gibi düşünün” dedi.

TOPAZ LABS CEO’SU: YZ, İNSAN SANATÇILARIN YERİNİ ALMAZ, ŞİMDİYE KADAR YAPILAN ‘EN HAYAL GÜCÜ’ İŞLERE YOL AÇABİLİR

Science Robotics araştırma dergisinde yayınlanan çalışma, insan zekasının, tüm omurgalıların paylaştığı beynin karmaşık alt sistemleri nedeniyle geliştiğini savundu. Araştırmacılar, beynin bu mimarisinin, bir insanın gerçek dünyadaki evrim yoluyla öğrenme ve gelişme deneyimiyle birleştiğinde, yapay zeka sistemleri oluştururken nadiren dahil edilen bir şey olduğunu savundu.


GhatGPT openAI logosu çizimi


4 Mayıs 2023’te çekilen bu resimde ChatGPT logosu ve AI Yapay Zeka sözcükleri görülüyor. (Reuters/Dado Ruvic/İllüstrasyon)


“Yapay zeka sistemlerinin, gerçek dünyayla olan bağlantılarını kullanarak insan beyninin yaptığına benzer şekilde öğrenen ve gelişen mimarilerle inşa edilirlerse, insan benzeri biliş geliştirmesi çok daha olasıdır. Robot bilimi, yapay zeka sistemlerine bunları sağlayabilir. örneğin, kameralar ve mikrofonlar gibi sensörler ve tekerlekler ve kıskaçlar gibi aktüatörler aracılığıyla. Yapay zeka sistemleri daha sonra çevrelerindeki dünyayı algılayabilecek ve insan beyni gibi öğrenebilecek,” diye devam etti Prescott.

İNSANLAR GERÇEK VEYA AI-OLUŞTURULAN GÖRÜNTÜLER ARASINDAKİ FARKI GÖRDÜLER: ÇALIŞMA

Bu tür yapay zekalar, belirli algılama, düşünme ve planlama türlerinde iyi olabilir, ancak eylemlerinin etik sonuçlarını anlama ve akıl yürütme konusunda zayıf olabilir. Bu nedenle, bu daha genel amaçlı sistemleri oluştururken yapay zekayı güvenli bir şekilde düşünmemiz ve yapay zekanın işletim sisteminin kalbine güvenliği koymamız önemlidir.”



Prescott, Haberler Digital’e yaptığı açıklamada, sistemleri çevreleyen “önemli bir riskin” öğrenmenin şeffaf olmadığı durumlardan kaynaklandığını ekledi ve “yapay zeka geliştiren şirketlerden daha iyi yönetişimin yanı sıra daha fazla şeffaflık görmek istediğini söyledi. etkili olmak için uluslararası.”

“Şeffaf olmayan yapay zekalar beklemediğimiz şekillerde davranabilir. Gerçek beyinlerin gerçek bedenleri nasıl kontrol ettiğine dair bir anlayış uygulayarak, bu sistemlerin daha şeffaf hale getirilebileceğini ve daha iyi hareket edebilen yapay zekalara sahip olmaya doğru ilerleyebileceğimizi düşünüyoruz.” nasıl karar aldıklarını açıklayın,” dedi Prescott.

Profesör ayrıca, “bazı alanlarda insan yeteneğiyle eşleşebilecek veya onu aşabilecek, ancak diğerlerinde muhtemelen çok az gelişmiş olacak” bir tür “genel amaçlı zeka” etrafında muhtemelen riskler olabileceğini kaydetti.

“Örneğin, bu tür yapay zekalar belirli algılama, düşünme ve planlama türlerinde iyi olabilir, ancak eylemlerinin etik sonuçlarını anlama ve akıl yürütme konusunda zayıf olabilir. Bu nedenle, bunları daha genel oluştururken yapay zeka hakkında dikkatli bir şekilde düşünmemiz önemlidir. amaçlı sistemler ve güvenliği yapay zeka işletim sisteminin kalbine koy. Bu mümkün olmalı. Uçakları, arabaları ve elektrik santrallerini güvenli hale getirebildiğimiz gibi, aynısını yapay zekalar ve robotlar için de yapabilmeliyiz. Bence bu aynı zamanda, diğer sektörlerde olduğu gibi, güvenlik gerekliliklerinin doğru bir şekilde ele alındığından emin olmak için müzakereye ihtiyacımız olacağı anlamına geliyor” dedi.


Beyin nöronları illüstrasyonu


İnsan beyni stimülasyonu veya nöron yakın plan 3 boyutlu çizimi olan aktivite. Nöroloji, biliş, nöronal ağ, psikoloji, nörobilim bilimsel kavramlar. (iStock)


Araştırmacılar, teknolojiye gerçek dünyaya doğrudan bir hat verecek robotlar için AI platformları oluşturma konusunda bazı ilerlemeler olduğunu, ancak platformların insan beyninin mimarisini taklit etmekten hala çok uzak olduğunu söyledi.

HABERLER SUNULDU

“Robotlar için yapay beyinler inşa ederek gerçek beyinlerin vücutları nasıl kontrol ettiğini anlama çabaları, son on yıllarda robotik ve nörobilimde heyecan verici gelişmelere yol açtı. Esas olarak yapay beyinlerin nasıl öğrenebileceğine odaklanan bu çabalardan bazılarını gözden geçirdikten sonra, düşünüyoruz. AI’daki bir sonraki atılımlar, gerçek beyinlerin nasıl geliştiğini ve geliştiğini daha yakından taklit etmekten gelecek” dedi.