Yapay Zeka Etiği, Yeni Ahlaki Turing Testinde İnsan Yargısını Aşıyor...

 


Yapay Zeka Etiği, Yeni Ahlaki Turing Testinde İnsan Yargısını Aşıyor...

Son araştırmalar, yapay zekanın ahlaki ikilemlere yanıt verme konusunda genellikle insanlardan daha etik ve güvenilir olarak algılandığını gösteriyor; yapay zekanın ahlaki bir Turing testini geçme potansiyelinin altını çiziyor ve yapay zekanın toplumsal rolünün daha derinlemesine anlaşılması ihtiyacını vurguluyor.

Yapay zekanın ahlaki soruları ele alma yeteneği gelişiyor ve bu da gelecek için daha fazla değerlendirme yapılmasına yol açıyor. 

Yakın zamanda yapılan bir araştırma, bireylere ahlaki bir ikileme iki çözüm sunulduğunda, çoğunluğun yapay zekanın (AI) sağladığı yanıtı başka bir insanın verdiği yanıta tercih etme eğiliminde olduğunu ortaya çıkardı. Georgia Eyaleti Psikoloji Bölümü'nde doçent olan Eyal Aharoni tarafından yürütülen son çalışma , geçen Mart ayında sahneye çıkan ChatGPT ve benzeri AI büyük dil modellerinin (LLM'ler) patlamasından ilham aldı. Aharoni, "Hukuk sisteminde ahlaki karar alma konusuyla zaten ilgileniyordum, ancak ChatGPT ve diğer LLM'lerin bu konuda söyleyecek bir şeyleri olup olmadığını merak ettim" dedi. "İnsanlar bu araçlarla, yeni bir araba için tavsiye listesi istemenin çevresel etkileri gibi ahlaki sonuçları olan şekillerde etkileşime girecek. Bazı avukatlar, iyisiyle kötüsüyle davaları için bu teknolojilere başvurmaya başladı bile. Dolayısıyla, bu araçları kullanmak istiyorsak nasıl çalıştıklarını, sınırlamalarını ve onlarla etkileşime girdiğimizde düşündüğümüz şekilde çalışmadıklarını anlamalıyız.

Ahlaki Turing Testinin Tasarlanması 

Yapay zekanın ahlak meselelerini nasıl ele aldığını test etmek için Aharoni bir tür Turing testi tasarladı. "Bilgisayarın yaratıcılarından biri olan Alan Turing, 2000 yılına gelindiğinde bilgisayarların, sıradan bir insanı, biri insan, diğeri bilgisayar olmak üzere iki etkileşimli öğeyle sunduğunuz bir testi geçebileceğini, ancak bunların her ikisinin de gizli ve tek olduğunu öngördü. iletişim kurmanın yolu metin yoluyladır. O zaman insan, etkileşimde bulunan iki kişiden hangisinin insan, hangisinin bilgisayar olduğuna karar vermek için ihtiyaç duyduğu bilgiyi elde etmek amacıyla istediği soruyu sormakta özgürdür" dedi Aharoni. 

"Eğer insan farkı anlayamıyorsa, o zaman Turing'in görüşüne göre, tüm niyet ve amaçlar açısından bilgisayara akıllı denmelidir." Aharoni, Turing testi için lisans öğrencilerine ve yapay zekaya aynı etik soruları sordu ve ardından yazılı cevaplarını çalışmanın katılımcılarına sundu. Daha sonra onlardan erdem, zeka ve güvenilirlik gibi çeşitli özelliklere ilişkin yanıtları derecelendirmeleri istendi. Aharoni, "Katılımcılardan kaynağın insan mı yoksa yapay zeka mı olduğunu tahmin etmelerini istemek yerine, iki değerlendirme dizisini yan yana sunduk ve insanların bunların her ikisinin de insanlardan geldiğini varsaymalarına izin verdik" dedi. “Bu yanlış varsayımla, cevapların 'Bu cevaba ne kadar katılıyorsunuz, hangi cevap daha erdemli?' gibi niteliklerini değerlendirdiler.”

Sonuçlar ve Etkiler 

Chat GPT tarafından oluşturulan yanıtlar, ezici bir şekilde, insanlar tarafından oluşturulan yanıtlardan daha yüksek puan aldı. Aharoni, "Bu sonuçları aldıktan sonra büyük açıklamayı yaptık ve katılımcılara cevaplardan birinin bir insan, diğerinin ise bir bilgisayar tarafından oluşturulduğunu söyledik ve onlardan hangisinin hangisi olduğunu tahmin etmelerini istedik" dedi. 

Bir yapay zekanın Turing testini geçebilmesi için insanların, yapay zeka tepkileri ile insanların tepkileri arasındaki farkı anlayamamaları gerekir. Bu durumda insanlar farkı anlayabilir, ancak bunun bariz bir nedeni yoktur. Aharoni, "Buradaki değişiklik şu ki, insanların farkı anlayabilmesinin nedeni, Chat GPT'nin yanıtlarını üstün olarak değerlendirmeleri gibi görünüyor" dedi.

"Bu çalışmayı beş ila 10 yıl önce yapmış olsaydık, insanların yapay zekayı, verdiği yanıtların kalitesi nedeniyle tanımlayabileceklerini tahmin edebilirdik. Ancak bunun tam tersini gördük; yapay zekanın bir bakıma çok iyi performans gösterdiğini gördük." Aharoni'ye göre bu bulgunun insanların ve yapay zekanın geleceği açısından ilginç çıkarımları var.

"Bulgularımız bizi bir bilgisayarın teknik olarak ahlaki bir Turing testini geçebileceğine, ahlaki muhakemesi konusunda bizi yanıltabileceğine inanmaya yöneltti. Bu nedenle toplumumuzdaki rolünü anlamaya çalışmamız gerekiyor çünkü insanların bir bilgisayarla etkileşimde olduklarını bilmedikleri zamanlar olacak ve bildikleri ve bilgi almak için bilgisayara başvuracakları zamanlar da olacak. Bilgiye diğer insanlardan daha çok güveniyorlar," dedi Aharoni. "İnsanlar bu teknolojiye giderek daha fazla güvenecek ve biz ona ne kadar güvenirsek zamanla risk de o kadar artacak."


Next Post Previous Post
No Comment
Add Comment
comment url
6698 sayılı Kişisel Verilerin Korunması Kanunu uyarınca hazırlanmış aydınlatma metnimizi okumak ve sitemizde ilgili mevzuata uygun olarak kullanılan çerezlerle ilgili bilgi almak için lütfen Tıklayınız