Milletvekilleri yavaş hareket ederken, hakimler muhtemelen AI kurallarını kendi ellerine alacak: uzmanlar

Şaibe

Member
Uzmanlar, hakimlerin yapay zeka konusundaki endişelerini muhtemelen kendi ellerine alacaklarını ve mahkeme salonlarında teknoloji için kendi kurallarını oluşturacaklarını söylüyor.

Teksas’ın Kuzey Bölgesi’nden ABD Bölge Yargıcı Brantley Starr, geçen hafta mahkeme salonuna çıkan avukatlardan, insan kontrolü olmadan dosyalarını hazırlamak için ChatGPT gibi yapay zeka programları kullanmadıklarını tasdik etmelerini talep ederek bir öncü olmuş olabilir. kesinlik.

Trump tarafından atanan bir yargıç olan Starr, Reuters’e verdiği demeçte, “En azından, başka türlü fark edilmeyecek olan avukatları bu veritabanlarına öylece güvenemeyecekleri konusunda uyarıyoruz.” “Aslında geleneksel bir veri tabanı aracılığıyla kendilerinin doğrulaması gerekiyor.”

Haberler Digital ile konuşan uzmanlar, yargıcın avukatlar için bir yapay zeka taahhüdü oluşturma hamlesinin “mükemmel” olduğunu ve daha da güçlü yapay zeka platformları oluşturmaya yönelik teknoloji yarışının ortasında muhtemelen kendini tekrar edecek bir eylem planı olduğunu savundu.

TEKAS HAKİMİ, AVUKATLAR İNSAN TARAFINDAN DOĞRULANMIŞ OLDUĞUNU ONAYLAMADIĞI SÜRECE MAHKEMEDE AI YOKTUR SÖYLEDİ



Uzmanlar Haberler Digital’e mahkeme salonlarında AI rehberliğinin bireysel hakimlere bırakılabileceğini söyledi. (iStock)


Liberty Blockchain’in baş iletişim yetkilisi Christopher Alexander, “Bence bu, AI’nın düzgün bir şekilde kullanılmasını sağlamak için mükemmel bir yol” dedi. “Yargıç, eski ‘güven ama doğrula’ atasözünü kullanıyor.”

Alexander, “Mantık, hata veya yanlılık riskinin çok büyük olması muhtemeldir” diye ekledi. “Yasal araştırma, bir hesap makinesine sayıları girmekten çok daha karmaşıktır.”

Starr, planı avukatlara AI’nın halüsinasyon görebileceğini ve davalar uydurabileceğini gösterecek şekilde hazırladığını söyledi ve mahkemenin web sitesinde, chatbot’ların avukatlar gibi yasayı sürdürmek için yemin etmediğini belirten bir açıklama yaptı.

RAPOR, YZ’nin ABD’DE YAKLAŞIK 4.000 KİŞİYE MAL OLDUĞUNU SÖYLEDİ

Bildiride, “Mevcut hallerinde bu platformlar halüsinasyonlara ve önyargılara eğilimlidir. Halüsinasyonlar hakkında bir şeyler uydururlar – hatta alıntılar ve alıntılar.”

Bildiri, “Herhangi bir görev, onur veya adalet duygusuyla bağlı olmayan bu tür programlar, inançtan çok bilgisayar koduna göre, ilkeden çok programlamaya dayalı olarak hareket eder” diye devam etti.


AI işareti


Uzmanlar, hakimlerin yapay zeka konusundaki endişelerini muhtemelen kendi ellerine alacaklarını ve mahkeme salonlarında teknoloji için kendi kurallarını oluşturacaklarını söylüyor. (Getty Images aracılığıyla Josep Lago/AFP)


Toplumsal afetlere hazırlığı geliştirmek için simülasyon oyunlarını ve yapay zekayı kullanmaya odaklanan kar amacı gütmeyen bir kuruluş olan CAPTRS’nin (Gelişmiş Hazırlık ve Tehdit Müdahalesi Merkezi) kurucusu Phil Siegel, yargıcın yapay zeka taahhüdü gerekliliği konusunda ihtiyatlı olduğunu söyledi ve yapay zekanın bir Gelecekteki adalet sistemindeki rolü.

Siegel, “Bu noktada, bir yargıcın alması mantıklı bir pozisyon. Büyük dil modelleri halüsinasyon görecek çünkü insanlar da öyle” dedi.

“Yine de, bu sorunu çözen daha odaklı veri kümeleri ve modellerin ortaya çıkması uzun sürmeyecek,” diye devam etti. “Hukuk gibi en spesifik alanlarda, aynı zamanda mimarlık, finans vb.

Hukuk alanında, yargı alanına göre tüm içtihat ve medeni ceza yasalarını toplayan ve bir yapay zeka modeli eğitmek için kullanılan bir veri kümesinin nasıl oluşturulabileceğine işaret etti.

YZ, KOLEJ ÖĞRENCİLERİ TEKNOLOJİ KAVŞAĞINDA BULUNURKEN SİLAH TARTIŞMASINA BENZER OLDU

Siegel, “Bu veritabanları, bir insanın veya yapay zekanın halüsinasyon görmesini veya yanlış alıntı yapmasını zorlaştıracak belirli bir kongre şemasını izleyen alıntı işaretçileri ile oluşturulabilir.” Dedi. “Ayrıca, yasaların kendi yetki alanları ile koordine edilmesini sağlamak için iyi bir şemaya sahip olması gerekecek. Bir alıntı gerçek olabilir, ancak ilgisiz bir yargı alanından geldiğinde mahkemede kullanılamaz. Bu noktada bu veri seti ve eğitimli AI mevcut, karar tartışmalı hale gelecektir.”


ChatGPT öğrencisinin kopya çekmesi


Teksaslı bir yargıç, mahkeme salonundaki avukatlardan, bir insan doğruluğunu kontrol etmeden dosyalarını hazırlamak için ChatGPT gibi yapay zeka programlarını kullanmadıklarını tasdik etmelerini istediğinde bir öncü olmuş olabilir. (Getty Images)


“Önce Amerika’nın gelecek nesil liderlerini belirlemek, eğitmek ve geliştirmek için” çalışan muhafazakar bir sivil toplum kuruluşu olan Bull Moose Project’in başkanı Aiden Buzzetti, yapay zekayı çevreleyen mevzuat ve korkulukların olmaması nedeniyle Starr’ın gereksiniminin şaşırtıcı olmadığını söyledi.

Buzzetti, “Yapay zeka tarafından oluşturulan ürünlerin kalitesini sağlamak için proaktif mevzuatın yokluğunda, bireylerin ve kurumların yapay zeka malzemelerinin kullanımına ilişkin kendi kurallarını oluşturması tamamen anlaşılır bir durumdur.” Dedi. “Bu eğilim muhtemelen daha uzun yasa koyucular diğer mesleklerin içerdiği riskleri göz ardı ettikçe artacaktır.”

ESKİ NESİLLER AI KNOW-HOW ÜZERİNDE ULUS İZİNİ YAŞAR: ANKET

Starr’ın planı, New York’taki bir yargıcın, sahte davalara atıfta bulunan bir mahkeme brifinginde ChatGPT’yi kullanması nedeniyle bir avukatı cezalandırmakla tehdit etmesinden sonra geldi.

Ancak Teksas yargıcı, olayın kararını etkilemediğini söyledi. Bunun yerine, 5. Daire ABD Temyiz Mahkemesi tarafından düzenlenen bir konferansta teknoloji üzerine bir panel sırasında yapay zeka kurallarını oluşturmaya başladı.

ÖĞRETMENLER, TEKNOLOJİNİN OKULLAR İÇİN ‘EN BÜYÜK TEHDİT’ OLUŞTURDUĞU UYARISI ORTASINDA YZ YZ KONUSUNU KENDİ ELLERİNE ALDI


Bir ABD sınıfı


PEN America CEO’su Suzanne Nossel yaptığı açıklamada, okul kütüphanelerinden kitapların kaldırılmasının öğrencilere bunların tehlikeli olduğunu öğrettiğini söyledi. (iStock)


İngiltere’deki öğretmenler de dahil olmak üzere diğer alanlardaki liderler de yapay zeka ve güçlü teknolojiyle ilgili düzenlemelerin eksikliği konusundaki endişeleri kendi ellerine aldı. Öğrenciler ve öğretmenler için yararlı bir araç olan teknolojinin riskleri, okulların “en büyük tehdidi” olarak görülüyor.

Eğitimciler, eğitimcilerin çalışmalarında göz ardı etmeleri gereken yapay zeka bileşenlerini belirlemek için kendi danışma kurullarını oluşturuyor.

HABERLER SUNULDU

İngiltere’deki öğretmenler koalisyonu The Times’a yazdığı bir mektupta, “Devlet ve bağımsız okullardaki liderler olarak, yapay zekayı öğrencilerimiz, personelimiz ve okullarımız için en büyük tehdit ama aynı zamanda potansiyel olarak en büyük fayda olarak görüyoruz.” “Okullar, AI’daki çok hızlı değişim oranı karşısında şaşkına dönüyor ve ilerlemenin en iyi yolu için güvenli rehberlik istiyor, ancak kimin tavsiyesine güvenebiliriz?”