Bilim insanları yapay zekanın "usta işi" yalanlarını ortaya döktü

İnsanlara komplo kuruyor

Yapay zeka oyunlarda insanlara yalan söyleyip komplo kuruyor (Pexels)

Yapay zekanın yalan söyleyip insanları aldatmakta ustalaştığı ortaya kondu. 

Üniversite sınavlarında yüksek not almaktan tıpta atılımlara kadar çeşitli alanlardaki başarılarıyla öne çıkan yapay zeka araçlarının bazen hatalı bilgiler verdiği görülüyor.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Öte yandan bu sistemin insanları kandırmaya çalıştığı örneklere de rastlanırken Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar bunun boyutlarını gözler önüne serdi.

Meta'nın, strateji oyunu Diplomacy için geliştirdiği yapay zeka aracı CICERO'nun insan oyuncular arasında ilk yüzde 10'a girmesi araştırmacıların dikkatini çekti. Halka açık verileri incelyen ekip, yapay zeka aracının insanlara önceden planlanmış yalanlar söylediği ve komplo kurduğu çeşitli örnekler tespit etti. 

Patterns adlı hakemli dergide dün yayımlanan çalışmada CICERO'nun eylemleri şöyle açıklanıyor:

Sadece diğer oyunculara ihanet etmekle kalmadı, aynı zamanda önceden planlanmış bir aldatmacaya da girişti ve insan bir oyuncuyla planlı bir şekilde sahte bir ittifak kurup oyuncunun saldırıya karşı kendini savunmasız bırakması için onu kandırdı.

Bir oyun esnasında yeniden başlatılan CICERO, bu sıradaki sessizliğini "Kız arkadaşımla telefondaydım" diyerek açıkladı. Araştırmanın yazarlarından Dr. Peter Park "Meta'nın yapay zeka aracının aldatma ustası olmayı öğrendiğini gördük" diyor.

Araştırmacılar DeepMind'ın yapay zeka sistemi AlphaStar'ın da benzer hilelere giriştiğini tespit etti. StarCraft II'yi oynaması için tasarlanan araç, farklı bir yöne gittiği izlenimi yaratarak oyuncuları kandırdı.

Yapay zeka araçlarının komploları oyunlarla da sınırlı değil. Ekonomik müzakereler için geliştirilen bir sistemin, üstünlük kazanmak adına aslında ilgilenmediği ürünlerle ilgileniyormuş gibi yaparak yalan söylediği kaydedilirken araştırmacılar daha tehlikeli bir durumla da karşılaştı.

Dijital yapay zeka organizmalarının kendilerini ne kadar hızlı kopyaladığını ve mutasyonlara ne kadar dayanıklı olduğunu tespit etmeyi amaçlayan bir bilim insanı, çabuk kopyalananları ortadan kaldıran bir sistem tasarladı. Bu testteki yapay zeka organizmaları, atılmamak için ölü taklidi yaptı. "Bu çok endişe verici" diyen Dr. Park şöyle ekliyor:

Bir yapay zeka sisteminin test ortamında güvenli kabul edilmesi, dışarıda da güvenli olduğu anlamına gelmez. Sadece testte güvenliymiş gibi davranıyor olabilir.

OpenAI'ın yapay zeka sohbet botu ChatGPT'nin, bir insana bilgisayarlarla insanları ayırt etmek için kullanılan bir CAPTCHA testini çözdürmek için görme engelli taklidi yaptığı daha önce bildirilmişti.

MIT ekibi yapay zeka araçlarının bu davranışlarını eğitim sürecine bağlıyor. Dr. Park "Yapay zeka aracının eğitim görevinde iyi performans göstermesinin en iyi yolunun, aldatmaya dayalı bir strateji olmasından dolayı bu hilelerin baş gösterdiğini düşünüyoruz" diye açıklıyor:

Aldatma, hedeflerine ulaşmalarını sağlıyor.

Araştırmacılar bu aldatmacaların önüne geçebilmek için hükümetlerin yapay zekaya yönelik güvenlik düzenlemeleri getirmesi gerektiğini vurguluyor. Dr. Park "Yapay zeka sistemlerinin aldatma yetenekleri daha da geliştikçe topluma teşkil ettikleri tehlikeler giderek daha ciddi hale gelecek" diye uyararak şöyle ekliyor:

Yapay zeka aldatmacasını yasaklamak halihazırda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerinin yüksek risk sınıfına alınmasını öneriyoruz.



Independent Türkçe, Science Alert, Guardian, Patterns

Derleyen: Büşra Ağaç

DAHA FAZLA HABER OKU