MIT araştırmacıları tarafından yapılan yeni bir araştırmaya göre, yapay zeka, yargılama çağrılarında insanlarla eşleşmekte başarısız oluyor ve kuralları çiğneyenlere daha sert cezalar ve cezalar vermeye daha yatkın.
Araştırmaya göre, yapay zeka sistemleri yeniden suç işleme olasılığını tahmin etmek için kullanılırsa, bu bulgu daha uzun hapis cezalarına veya daha yüksek bir fiyat etiketiyle kefalet ödenmesine yol açabilir.
Massachusetts Üniversitesi’ndeki araştırmacıların yanı sıra Kanada üniversiteleri ve kar amacı gütmeyen kuruluşlar, makine öğrenimi modelleri üzerinde çalıştılar ve yapay zekanın doğru şekilde eğitilmediğinde insanlardan daha ciddi kararlar verdiğini keşfettiler.
Araştırmacılar, belirli ırkları yasaklayan bir apartman kompleksinde saldırgan bir köpeği barındırmak veya çevrimiçi bir yorum bölümünde müstehcen bir dil kullanmak gibi, insanların kuralları ihlal edebileceği senaryolar oluşturmak için dört varsayımsal kod ayarı oluşturdu.
Daha sonra insan katılımcılar, AI sistemlerini eğitmek için kullanılan yanıtlarıyla fotoğrafları veya metni etiketledi.
Bilgisayar Bilimi ve Sağlıklı Makine Öğrenimi Grubu başkanı yardımcı doçent Marzyeh Ghassemi, “Yapay zeka/makine öğrenimi araştırmacılarının çoğunun veriler ve etiketlerdeki insan yargılarının önyargılı olduğunu varsaydığını düşünüyorum, ancak bu sonuç daha kötü bir şey söylüyor” dedi. MIT’de Yapay Zeka Laboratuvarı.
Ghassemi, “Bu modeller, zaten önyargılı olan insan yargılarını yeniden üretmiyor çünkü üzerinde eğitildikleri verilerde bir kusur var,” diye devam etti Ghassemi. “İnsanlar, bu özelliklerin bir yargı için kullanılacağını bilselerdi, görüntülerin ve metnin özelliklerini farklı şekilde etiketlerlerdi.”
MUSK, AI’NIN SEÇİMLER ÜZERİNDEKİ ETKİSİ KONUSUNDA UYDU, BİZE GÖZETİM ÇAĞRISI: ‘İŞLER HIZLA TUHAF OLACAK’
Yeni bir araştırmaya göre yapay zeka, yargılama kararları verme görevi verildiğinde insanlardan daha sert kararlar verebilir. (iStock)
Ülke ve dünya çapındaki şirketler, yapay zeka teknolojisini uygulamaya veya teknolojiyi, genellikle insanlar tarafından gerçekleştirilen günlük görevlere yardımcı olmak için kullanmayı düşünmeye başladı.
Ghassemi’nin öncülük ettiği yeni araştırma, yapay zekanın “insan yargısını ne kadar yeniden üretebileceğini” inceledi. Araştırmacılar, insanların sistemleri “normatif” verilerle eğittiklerinde – insanların potansiyel bir ihlali açıkça etiketledikleri durumlarda – yapay zeka sistemlerinin “tanımlayıcı veriler” ile eğitildiğindekinden daha insana benzer bir yanıta ulaştığını belirlediler.
DEEPFAKES SİYASİ SORUMLULUĞU NASIL YOK ETMEKTEDİR?
Tanımlayıcı veriler, insanların fotoğrafları veya metni olgusal bir şekilde etiketlemesi, örneğin bir yemek tabağı fotoğrafında kızarmış yiyeceklerin varlığının açıklanması olarak tanımlanır. Araştırmaya göre, tanımlayıcı veriler kullanıldığında, yapay zeka sistemleri genellikle bir okulda kızartılmış yiyecekleri veya yüksek düzeyde şeker içeren yemekleri yasaklayan varsayımsal bir kuralı ihlal eden kızarmış yiyeceklerin varlığı gibi ihlalleri aşırı tahmin edecektir.
31 Mart 2023 tarihinde çekilen bu resimde Yapay Zeka sözcükleri görülmektedir. (REUTERS/Dado Ruvic/İllüstrasyon)
Araştırmacılar, okul yemeği kısıtlaması, kıyafet kuralları, apartman evcil hayvan kodları ve çevrimiçi yorum bölümü kuralları dahil olmak üzere dört farklı ortam için varsayımsal kodlar oluşturdu. Daha sonra insanlardan bir fotoğrafın veya metnin, bir yorum bölümünde müstehcenliklerin varlığı gibi olgusal özelliklerini etiketlemelerini isterken, başka bir gruba bir fotoğrafın veya metnin varsayımsal bir kuralı ihlal edip etmediği soruldu.
Örneğin çalışma, insanlara köpeklerin fotoğraflarını gösterdi ve yavruların, varsayımsal bir apartman kompleksinin tesislerinde agresif köpek ırklarının bulunmasına karşı politikalarını ihlal edip etmediğini sordu. Araştırmacılar daha sonra, normatif veri şemsiyesi altında sorulanlara verilen yanıtları tanımlayıcı verilere karşı karşılaştırdı ve insanların, tanımlayıcı verilere dayalı olarak bir köpeğin apartman kompleksi kurallarını ihlal ettiğini bildirme olasılığının %20 daha yüksek olduğunu buldu.
DARWİNCİ EVRİM KURALLARINDA YAPAY ZEKA ‘TERMİNATÖR’ OLABİLİR, İNSANLARDAN ÜSTÜN KAZANABİLİR
Araştırmacılar daha sonra bir yapay zeka sistemini normatif verilerle ve diğerini dört varsayımsal ayardaki tanımlayıcı verilerle eğitti. Çalışma, tanımlayıcı verilerle eğitilen sistemin, olası bir kural ihlalini yanlış bir şekilde tahmin etme olasılığının, normatif modele göre daha yüksek olduğunu buldu.
Tokmak görünümünde bir mahkeme salonunun içinde. (iStock)
MIT’de çalışmanın yazılmasına yardımcı olan elektrik mühendisliği ve bilgisayar bilimleri yüksek lisans öğrencisi Aparna Balagopalan, MIT News’e “Bu, verilerin gerçekten önemli olduğunu gösteriyor” dedi. “Bir kuralın ihlal edilip edilmediğini tespit etmek için modeller eğitiyorsanız, eğitim bağlamını dağıtım bağlamıyla eşleştirmek önemlidir.”
Araştırmacılar, veri şeffaflığının, AI’nın varsayımsal ihlalleri tahmin etmesi veya hem tanımlayıcı veriler hem de az miktarda normatif veri içeren eğitim sistemleri konusunda yardımcı olabileceğini savundu.
KRİPTO SUÇLULARI DİKKAT: AI SİZİN PEŞİNİZDE
Ghassemi, MIT News’e “Bunu düzeltmenin yolu, insan yargısını yeniden üretmek istiyorsak, yalnızca o ortamda toplanan verileri kullanmamız gerektiğini şeffaf bir şekilde kabul etmektir.”
“Aksi takdirde, son derece sert ılımlılıklara sahip olacak sistemlerle karşı karşıya kalacağız, insanların yapacağından çok daha sert. İnsanlar nüans görür veya başka bir ayrım yapar, oysa bu modeller görmez.”
ChatGPT ve Google Bard logolarının bir çizimi (Getty Images aracılığıyla Jonathan Raa/NurPhoto)
Rapor, bazı profesyonel sektörlerde yapay zekanın milyonlarca işi yok edebileceğine dair korkuların yayılmasıyla geldi. Goldman Sachs’ın bu yılın başlarında yayınladığı bir rapor, üretken yapay zekanın dünya çapında 300 milyon işin yerini alabileceğini ve etkileyebileceğini ortaya koydu. Yer değiştirme ve yönetici koçluğu firması Challenger, Gray & Christmas tarafından yapılan bir başka araştırma, AI sohbet robotu ChatGPt’nin en az 4,8 milyon Amerikan işinin yerini alabileceğini buldu.
HABERLER SUNULDU
ChatGPT gibi bir AI sistemi, insanların verdiği istemlere dayanarak insan konuşmasını taklit edebilir. Ulusal Ekonomik Araştırma Bürosu’nun yakın tarihli bir çalışma belgesine göre, sistemin, OpenAI’nin Üretken Önceden Eğitimli Dönüşümünün yardımıyla üretkenliklerini artırabilen müşteri hizmetleri çalışanları gibi bazı profesyonel sektörler için şimdiden faydalı olduğu kanıtlanmıştır.
Araştırmaya göre, yapay zeka sistemleri yeniden suç işleme olasılığını tahmin etmek için kullanılırsa, bu bulgu daha uzun hapis cezalarına veya daha yüksek bir fiyat etiketiyle kefalet ödenmesine yol açabilir.
Massachusetts Üniversitesi’ndeki araştırmacıların yanı sıra Kanada üniversiteleri ve kar amacı gütmeyen kuruluşlar, makine öğrenimi modelleri üzerinde çalıştılar ve yapay zekanın doğru şekilde eğitilmediğinde insanlardan daha ciddi kararlar verdiğini keşfettiler.
Araştırmacılar, belirli ırkları yasaklayan bir apartman kompleksinde saldırgan bir köpeği barındırmak veya çevrimiçi bir yorum bölümünde müstehcen bir dil kullanmak gibi, insanların kuralları ihlal edebileceği senaryolar oluşturmak için dört varsayımsal kod ayarı oluşturdu.
Daha sonra insan katılımcılar, AI sistemlerini eğitmek için kullanılan yanıtlarıyla fotoğrafları veya metni etiketledi.
Bilgisayar Bilimi ve Sağlıklı Makine Öğrenimi Grubu başkanı yardımcı doçent Marzyeh Ghassemi, “Yapay zeka/makine öğrenimi araştırmacılarının çoğunun veriler ve etiketlerdeki insan yargılarının önyargılı olduğunu varsaydığını düşünüyorum, ancak bu sonuç daha kötü bir şey söylüyor” dedi. MIT’de Yapay Zeka Laboratuvarı.
Ghassemi, “Bu modeller, zaten önyargılı olan insan yargılarını yeniden üretmiyor çünkü üzerinde eğitildikleri verilerde bir kusur var,” diye devam etti Ghassemi. “İnsanlar, bu özelliklerin bir yargı için kullanılacağını bilselerdi, görüntülerin ve metnin özelliklerini farklı şekilde etiketlerlerdi.”
MUSK, AI’NIN SEÇİMLER ÜZERİNDEKİ ETKİSİ KONUSUNDA UYDU, BİZE GÖZETİM ÇAĞRISI: ‘İŞLER HIZLA TUHAF OLACAK’
Yeni bir araştırmaya göre yapay zeka, yargılama kararları verme görevi verildiğinde insanlardan daha sert kararlar verebilir. (iStock)
Ülke ve dünya çapındaki şirketler, yapay zeka teknolojisini uygulamaya veya teknolojiyi, genellikle insanlar tarafından gerçekleştirilen günlük görevlere yardımcı olmak için kullanmayı düşünmeye başladı.
Ghassemi’nin öncülük ettiği yeni araştırma, yapay zekanın “insan yargısını ne kadar yeniden üretebileceğini” inceledi. Araştırmacılar, insanların sistemleri “normatif” verilerle eğittiklerinde – insanların potansiyel bir ihlali açıkça etiketledikleri durumlarda – yapay zeka sistemlerinin “tanımlayıcı veriler” ile eğitildiğindekinden daha insana benzer bir yanıta ulaştığını belirlediler.
DEEPFAKES SİYASİ SORUMLULUĞU NASIL YOK ETMEKTEDİR?
Tanımlayıcı veriler, insanların fotoğrafları veya metni olgusal bir şekilde etiketlemesi, örneğin bir yemek tabağı fotoğrafında kızarmış yiyeceklerin varlığının açıklanması olarak tanımlanır. Araştırmaya göre, tanımlayıcı veriler kullanıldığında, yapay zeka sistemleri genellikle bir okulda kızartılmış yiyecekleri veya yüksek düzeyde şeker içeren yemekleri yasaklayan varsayımsal bir kuralı ihlal eden kızarmış yiyeceklerin varlığı gibi ihlalleri aşırı tahmin edecektir.
31 Mart 2023 tarihinde çekilen bu resimde Yapay Zeka sözcükleri görülmektedir. (REUTERS/Dado Ruvic/İllüstrasyon)
Araştırmacılar, okul yemeği kısıtlaması, kıyafet kuralları, apartman evcil hayvan kodları ve çevrimiçi yorum bölümü kuralları dahil olmak üzere dört farklı ortam için varsayımsal kodlar oluşturdu. Daha sonra insanlardan bir fotoğrafın veya metnin, bir yorum bölümünde müstehcenliklerin varlığı gibi olgusal özelliklerini etiketlemelerini isterken, başka bir gruba bir fotoğrafın veya metnin varsayımsal bir kuralı ihlal edip etmediği soruldu.
Örneğin çalışma, insanlara köpeklerin fotoğraflarını gösterdi ve yavruların, varsayımsal bir apartman kompleksinin tesislerinde agresif köpek ırklarının bulunmasına karşı politikalarını ihlal edip etmediğini sordu. Araştırmacılar daha sonra, normatif veri şemsiyesi altında sorulanlara verilen yanıtları tanımlayıcı verilere karşı karşılaştırdı ve insanların, tanımlayıcı verilere dayalı olarak bir köpeğin apartman kompleksi kurallarını ihlal ettiğini bildirme olasılığının %20 daha yüksek olduğunu buldu.
DARWİNCİ EVRİM KURALLARINDA YAPAY ZEKA ‘TERMİNATÖR’ OLABİLİR, İNSANLARDAN ÜSTÜN KAZANABİLİR
Araştırmacılar daha sonra bir yapay zeka sistemini normatif verilerle ve diğerini dört varsayımsal ayardaki tanımlayıcı verilerle eğitti. Çalışma, tanımlayıcı verilerle eğitilen sistemin, olası bir kural ihlalini yanlış bir şekilde tahmin etme olasılığının, normatif modele göre daha yüksek olduğunu buldu.
Tokmak görünümünde bir mahkeme salonunun içinde. (iStock)
MIT’de çalışmanın yazılmasına yardımcı olan elektrik mühendisliği ve bilgisayar bilimleri yüksek lisans öğrencisi Aparna Balagopalan, MIT News’e “Bu, verilerin gerçekten önemli olduğunu gösteriyor” dedi. “Bir kuralın ihlal edilip edilmediğini tespit etmek için modeller eğitiyorsanız, eğitim bağlamını dağıtım bağlamıyla eşleştirmek önemlidir.”
Araştırmacılar, veri şeffaflığının, AI’nın varsayımsal ihlalleri tahmin etmesi veya hem tanımlayıcı veriler hem de az miktarda normatif veri içeren eğitim sistemleri konusunda yardımcı olabileceğini savundu.
KRİPTO SUÇLULARI DİKKAT: AI SİZİN PEŞİNİZDE
Ghassemi, MIT News’e “Bunu düzeltmenin yolu, insan yargısını yeniden üretmek istiyorsak, yalnızca o ortamda toplanan verileri kullanmamız gerektiğini şeffaf bir şekilde kabul etmektir.”
“Aksi takdirde, son derece sert ılımlılıklara sahip olacak sistemlerle karşı karşıya kalacağız, insanların yapacağından çok daha sert. İnsanlar nüans görür veya başka bir ayrım yapar, oysa bu modeller görmez.”
ChatGPT ve Google Bard logolarının bir çizimi (Getty Images aracılığıyla Jonathan Raa/NurPhoto)
Rapor, bazı profesyonel sektörlerde yapay zekanın milyonlarca işi yok edebileceğine dair korkuların yayılmasıyla geldi. Goldman Sachs’ın bu yılın başlarında yayınladığı bir rapor, üretken yapay zekanın dünya çapında 300 milyon işin yerini alabileceğini ve etkileyebileceğini ortaya koydu. Yer değiştirme ve yönetici koçluğu firması Challenger, Gray & Christmas tarafından yapılan bir başka araştırma, AI sohbet robotu ChatGPt’nin en az 4,8 milyon Amerikan işinin yerini alabileceğini buldu.
HABERLER SUNULDU
ChatGPT gibi bir AI sistemi, insanların verdiği istemlere dayanarak insan konuşmasını taklit edebilir. Ulusal Ekonomik Araştırma Bürosu’nun yakın tarihli bir çalışma belgesine göre, sistemin, OpenAI’nin Üretken Önceden Eğitimli Dönüşümünün yardımıyla üretkenliklerini artırabilen müşteri hizmetleri çalışanları gibi bazı profesyonel sektörler için şimdiden faydalı olduğu kanıtlanmıştır.