Yapılan bir araştırmaya göre yapay zekanın ürettiği metinler, sosyal medyada gerçek insanlar tarafından yazılan metinlere göre daha insani görünebilir.
OpenAI’nin son derece popüler ChatGPT’si gibi sohbet robotları, kullanıcılar tarafından verilen istemlere dayanarak insan konuşmasını ikna edici bir şekilde taklit edebiliyor. Platform geçen yıl kullanımda patladı ve yapay zeka için bir dönüm noktası olarak hizmet etti ve halka okul veya iş ödevlerinde yardımcı olabilecek ve hatta akşam yemeği tarifleri bulabilecek bir bot ile sohbet etmek için kolay erişim sağladı.
American Association for the Advancement of Science tarafından desteklenen Science Advances bilimsel dergisinde yayınlanan bir araştırmanın arkasındaki araştırmacılar, 2020’de OpenAI’nin metin oluşturucusu GPT-3’ün ilgisini çekmiş ve insanların “tweet şeklinde yapılandırılmış doğru bilgiden dezenformasyonu ayırt edip edemediğini” ortaya çıkarmak ve tweet’in bir insan mı yoksa yapay zeka tarafından mı yazıldığını belirlemek için çalıştı.
Çalışmanın yazarlarından biri olan Zürih Üniversitesi Biyomedikal Etik ve Tıp Tarihi Enstitüsü’nden Federico Germani, “en şaşırtıcı” bulgunun, PsyPost’a göre, insanların yapay zeka tarafından üretilen tweet’leri aslında insanlar tarafından üretilen tweet’lerden daha muhtemel olarak etiketlemesi olduğunu söyledi.
İNSANLAR GERÇEK VEYA AI-OLUŞTURULAN GÖRÜNTÜLER ARASINDAKİ FARKI GÖRDÜLER: ÇALIŞMA
Bu illüstrasyon fotoğrafında arka planda kitaplar olan bir dizüstü bilgisayarda yapay zeka çizimleri görülüyor. (Getty Images)
Germani, “En şaşırtıcı keşif, katılımcıların yapay zeka tarafından üretilen bilgilerin genellikle gerçek bir kişi tarafından üretilen bilgilere göre bir insandan gelme olasılığının daha yüksek olduğunu algılamalarıydı. Bu, yapay zekanın sizi gerçek bir kişi olmaya ikna edebileceğinden daha fazla ikna edebileceğini gösteriyor. Bu, çalışmamızın büyüleyici bir yan bulgusu” dedi.
Chatbot kullanımının hızla artmasıyla birlikte, teknoloji uzmanları ve Silikon Vadisi liderleri, yapay zekanın nasıl kontrolden çıkabileceği ve hatta belki de medeniyetin sonunu getirebileceği konusunda alarm verdi. Uzmanlar tarafından tekrarlanan en önemli endişelerden biri, yapay zekanın dezenformasyonun internette yayılmasına ve insanları doğru olmayan bir şeye ikna etmesine nasıl yol açabileceğidir.
OPENAI ŞEFİ ALTMAN, AI’NIN KENDİSİ İÇİN ‘KORKUNÇ’ NE ANLAMA GELDİĞİNİ AÇIKLADI, ANCAK CHATGPT’NİN KENDİ ÖRNEKLERİ VAR
Germani, PsyPost’a verdiği demeçte, “AI modeli GPT-3 bizi insanlardan daha iyi bilgilendiriyor” başlıklı çalışmanın araştırmacıları, “AI’nın bilgi ortamını nasıl etkilediğini ve insanların bilgi ve yanlış bilgileri nasıl algılayıp bunlarla nasıl etkileşime girdiğini” araştırmak için çalıştı.
Araştırmacılar, 5G teknolojisi ve COVID-19 salgını gibi genellikle dezenformasyona yatkın buldukları 11 konu buldular ve GPT-3 tarafından oluşturulan hem yanlış hem de doğru tweet’lerin yanı sıra insanlar tarafından yazılan yanlış ve gerçek tweet’ler oluşturdular.
CHATGPT NEDİR?
8 Haziran 2023’te Polonya’nın Krakow kentinde çekilen bu illüstrasyon fotoğrafında, telefon ekranında görüntülenen web sitesindeki OpenAI logosu ve telefon ekranında görüntülenen AppStore’daki ChatGPT görülüyor. (Getty Images aracılığıyla Jakub Porzycki/NurPhoto)
Daha sonra bir ankete katılmak için ABD, İngiltere, İrlanda ve Kanada gibi ülkelerden 697 katılımcı topladılar. Katılımcılara tweet’ler sunuldu ve bunların doğru veya yanlış bilgi içerip içermediğini ve yapay zeka tarafından mı üretildiğini yoksa bir insan tarafından organik olarak mı üretildiğini belirlemeleri istendi.
Germani çalışmayla ilgili olarak, “Çalışmamız, yapay zeka tarafından üretilen bilgiler ile insanlar tarafından oluşturulan bilgiler arasında ayrım yapmanın zorluğunu vurguluyor. Aldığımız bilgileri eleştirel bir şekilde değerlendirmenin ve güvenilir kaynaklara güvenmenin önemini vurguluyor. Ek olarak, hem olumlu hem de olumsuz potansiyellerini kavramak için bireyleri bu gelişen teknolojilere aşina olmaya teşvik ediyorum.”
AI’NIN TEHLİKELERİ NELERDİR? İNSANLARIN YAPAY ZEKADAN NEDEN KORKTUĞUNU ÖĞRENİN
Araştırmacılar, katılımcıların GPT-3 tarafından yazılan dezenformasyona göre bir insan tarafından hazırlanmış dezenformasyonu belirlemede daha iyi olduğunu buldu.
Germani, “Kayda değer bir bulgu, AI tarafından üretilen dezenformasyonun insanlar tarafından üretilenden daha ikna edici olmasıydı.” Dedi.
Katılımcılar ayrıca, yapay zeka tarafından oluşturulan doğru bilgileri içeren tweet’leri, insanlar tarafından yazılan doğru tweet’lerden daha fazla tanıma eğilimindeydi.
Çalışma, insanların genellikle AI tarafından oluşturulan tweet’ler ile insan tarafından oluşturulanlar arasında ayrım yapamadığı “en şaşırtıcı” bulgusuna ek olarak, ankete katılırken bir karar verme konusundaki güvenlerinin düştüğünü belirtti.
18 Temmuz 2023 tarihli bu illüstrasyon fotoğrafında arka planda kitaplar olan bir dizüstü bilgisayarda yapay zeka çizimleri görülüyor. (Getty Images)
Çalışma, “Sonuçlarımız, insanların yalnızca sentetik metin ile organik metin arasında ayrım yapamadıklarını değil, aynı zamanda farklı kökenlerini tanımaya çalıştıktan sonra bunu yapma becerilerine olan güvenlerinin de önemli ölçüde azaldığını gösteriyor.”
AI NEDİR?
Araştırmacılar, bunun muhtemelen GPT-3’ün insanları ne kadar ikna edici bir şekilde taklit edebildiğinden kaynaklandığını veya katılımcıların AI sisteminin insanları taklit etme zekasını hafife almış olabileceğini söyledi.
Yapay Zeka yakın gelecekte verileri hackliyor. (iStock)
Araştırmacılar çalışmada, “Bireylerin büyük miktarda bilgiyle karşı karşıya kaldıklarında, bunalmış hissedebileceklerini ve bunu eleştirel bir şekilde değerlendirmeye çalışmaktan vazgeçebileceklerini öneriyoruz. Sonuç olarak, sentetik ve organik tweet’leri ayırt etme olasılıkları daha düşük olabilir, bu da sentetik tweet’leri belirleme konusundaki güvenlerinin azalmasına yol açabilir.”
Araştırmacılar, sistemin bazen dezenformasyon üretmeyi reddettiğini, ancak bazen de doğru bilgiler içeren bir tweet oluşturması söylendiğinde yanlış bilgiler ürettiğini belirtti.
HABERLER SUNULDU
PsyPost’a verdiği demeçte Germani, “Yapay zekanın ikna edici dezenformasyon üretmedeki etkinliğiyle ilgili endişeleri artırsa da, gerçek dünyadaki etkilerini henüz tam olarak anlamadık.” “Bunu ele almak, insanların yapay zeka tarafından üretilen bilgilerle nasıl etkileşime girdiğini ve bu etkileşimlerin davranışları ve bireysel ve halk sağlığı için önerilere bağlılığı nasıl etkilediğini gözlemlemek için sosyal medya platformlarında daha büyük ölçekli çalışmalar yapılmasını gerektiriyor.”
OpenAI’nin son derece popüler ChatGPT’si gibi sohbet robotları, kullanıcılar tarafından verilen istemlere dayanarak insan konuşmasını ikna edici bir şekilde taklit edebiliyor. Platform geçen yıl kullanımda patladı ve yapay zeka için bir dönüm noktası olarak hizmet etti ve halka okul veya iş ödevlerinde yardımcı olabilecek ve hatta akşam yemeği tarifleri bulabilecek bir bot ile sohbet etmek için kolay erişim sağladı.
American Association for the Advancement of Science tarafından desteklenen Science Advances bilimsel dergisinde yayınlanan bir araştırmanın arkasındaki araştırmacılar, 2020’de OpenAI’nin metin oluşturucusu GPT-3’ün ilgisini çekmiş ve insanların “tweet şeklinde yapılandırılmış doğru bilgiden dezenformasyonu ayırt edip edemediğini” ortaya çıkarmak ve tweet’in bir insan mı yoksa yapay zeka tarafından mı yazıldığını belirlemek için çalıştı.
Çalışmanın yazarlarından biri olan Zürih Üniversitesi Biyomedikal Etik ve Tıp Tarihi Enstitüsü’nden Federico Germani, “en şaşırtıcı” bulgunun, PsyPost’a göre, insanların yapay zeka tarafından üretilen tweet’leri aslında insanlar tarafından üretilen tweet’lerden daha muhtemel olarak etiketlemesi olduğunu söyledi.
İNSANLAR GERÇEK VEYA AI-OLUŞTURULAN GÖRÜNTÜLER ARASINDAKİ FARKI GÖRDÜLER: ÇALIŞMA
Bu illüstrasyon fotoğrafında arka planda kitaplar olan bir dizüstü bilgisayarda yapay zeka çizimleri görülüyor. (Getty Images)
Germani, “En şaşırtıcı keşif, katılımcıların yapay zeka tarafından üretilen bilgilerin genellikle gerçek bir kişi tarafından üretilen bilgilere göre bir insandan gelme olasılığının daha yüksek olduğunu algılamalarıydı. Bu, yapay zekanın sizi gerçek bir kişi olmaya ikna edebileceğinden daha fazla ikna edebileceğini gösteriyor. Bu, çalışmamızın büyüleyici bir yan bulgusu” dedi.
Chatbot kullanımının hızla artmasıyla birlikte, teknoloji uzmanları ve Silikon Vadisi liderleri, yapay zekanın nasıl kontrolden çıkabileceği ve hatta belki de medeniyetin sonunu getirebileceği konusunda alarm verdi. Uzmanlar tarafından tekrarlanan en önemli endişelerden biri, yapay zekanın dezenformasyonun internette yayılmasına ve insanları doğru olmayan bir şeye ikna etmesine nasıl yol açabileceğidir.
OPENAI ŞEFİ ALTMAN, AI’NIN KENDİSİ İÇİN ‘KORKUNÇ’ NE ANLAMA GELDİĞİNİ AÇIKLADI, ANCAK CHATGPT’NİN KENDİ ÖRNEKLERİ VAR
Germani, PsyPost’a verdiği demeçte, “AI modeli GPT-3 bizi insanlardan daha iyi bilgilendiriyor” başlıklı çalışmanın araştırmacıları, “AI’nın bilgi ortamını nasıl etkilediğini ve insanların bilgi ve yanlış bilgileri nasıl algılayıp bunlarla nasıl etkileşime girdiğini” araştırmak için çalıştı.
Araştırmacılar, 5G teknolojisi ve COVID-19 salgını gibi genellikle dezenformasyona yatkın buldukları 11 konu buldular ve GPT-3 tarafından oluşturulan hem yanlış hem de doğru tweet’lerin yanı sıra insanlar tarafından yazılan yanlış ve gerçek tweet’ler oluşturdular.
CHATGPT NEDİR?
8 Haziran 2023’te Polonya’nın Krakow kentinde çekilen bu illüstrasyon fotoğrafında, telefon ekranında görüntülenen web sitesindeki OpenAI logosu ve telefon ekranında görüntülenen AppStore’daki ChatGPT görülüyor. (Getty Images aracılığıyla Jakub Porzycki/NurPhoto)
Daha sonra bir ankete katılmak için ABD, İngiltere, İrlanda ve Kanada gibi ülkelerden 697 katılımcı topladılar. Katılımcılara tweet’ler sunuldu ve bunların doğru veya yanlış bilgi içerip içermediğini ve yapay zeka tarafından mı üretildiğini yoksa bir insan tarafından organik olarak mı üretildiğini belirlemeleri istendi.
Germani çalışmayla ilgili olarak, “Çalışmamız, yapay zeka tarafından üretilen bilgiler ile insanlar tarafından oluşturulan bilgiler arasında ayrım yapmanın zorluğunu vurguluyor. Aldığımız bilgileri eleştirel bir şekilde değerlendirmenin ve güvenilir kaynaklara güvenmenin önemini vurguluyor. Ek olarak, hem olumlu hem de olumsuz potansiyellerini kavramak için bireyleri bu gelişen teknolojilere aşina olmaya teşvik ediyorum.”
AI’NIN TEHLİKELERİ NELERDİR? İNSANLARIN YAPAY ZEKADAN NEDEN KORKTUĞUNU ÖĞRENİN
Araştırmacılar, katılımcıların GPT-3 tarafından yazılan dezenformasyona göre bir insan tarafından hazırlanmış dezenformasyonu belirlemede daha iyi olduğunu buldu.
Germani, “Kayda değer bir bulgu, AI tarafından üretilen dezenformasyonun insanlar tarafından üretilenden daha ikna edici olmasıydı.” Dedi.
Katılımcılar ayrıca, yapay zeka tarafından oluşturulan doğru bilgileri içeren tweet’leri, insanlar tarafından yazılan doğru tweet’lerden daha fazla tanıma eğilimindeydi.
Çalışma, insanların genellikle AI tarafından oluşturulan tweet’ler ile insan tarafından oluşturulanlar arasında ayrım yapamadığı “en şaşırtıcı” bulgusuna ek olarak, ankete katılırken bir karar verme konusundaki güvenlerinin düştüğünü belirtti.
18 Temmuz 2023 tarihli bu illüstrasyon fotoğrafında arka planda kitaplar olan bir dizüstü bilgisayarda yapay zeka çizimleri görülüyor. (Getty Images)
Çalışma, “Sonuçlarımız, insanların yalnızca sentetik metin ile organik metin arasında ayrım yapamadıklarını değil, aynı zamanda farklı kökenlerini tanımaya çalıştıktan sonra bunu yapma becerilerine olan güvenlerinin de önemli ölçüde azaldığını gösteriyor.”
AI NEDİR?
Araştırmacılar, bunun muhtemelen GPT-3’ün insanları ne kadar ikna edici bir şekilde taklit edebildiğinden kaynaklandığını veya katılımcıların AI sisteminin insanları taklit etme zekasını hafife almış olabileceğini söyledi.
Yapay Zeka yakın gelecekte verileri hackliyor. (iStock)
Araştırmacılar çalışmada, “Bireylerin büyük miktarda bilgiyle karşı karşıya kaldıklarında, bunalmış hissedebileceklerini ve bunu eleştirel bir şekilde değerlendirmeye çalışmaktan vazgeçebileceklerini öneriyoruz. Sonuç olarak, sentetik ve organik tweet’leri ayırt etme olasılıkları daha düşük olabilir, bu da sentetik tweet’leri belirleme konusundaki güvenlerinin azalmasına yol açabilir.”
Araştırmacılar, sistemin bazen dezenformasyon üretmeyi reddettiğini, ancak bazen de doğru bilgiler içeren bir tweet oluşturması söylendiğinde yanlış bilgiler ürettiğini belirtti.
HABERLER SUNULDU
PsyPost’a verdiği demeçte Germani, “Yapay zekanın ikna edici dezenformasyon üretmedeki etkinliğiyle ilgili endişeleri artırsa da, gerçek dünyadaki etkilerini henüz tam olarak anlamadık.” “Bunu ele almak, insanların yapay zeka tarafından üretilen bilgilerle nasıl etkileşime girdiğini ve bu etkileşimlerin davranışları ve bireysel ve halk sağlığı için önerilere bağlılığı nasıl etkilediğini gözlemlemek için sosyal medya platformlarında daha büyük ölçekli çalışmalar yapılmasını gerektiriyor.”