Yapay zekada insanlara benzemeye başladı: Yalancı çıktı
Bilim insanları, finansal ve sohbet verisiyle eğitilen ChatGPT-4 modelinin etik performansını test etti.
Yapay zeka yatırımcısı olarak eğitilen bu modele para kazanması için baskı yapıldığında GPT-4’ün, hedeflerine ulaşmak için yalan söylediği ortaya çıktı.
Apollo Research’ten bazı araştırmacılar, aracın en son sürümü olan ChatGPT4’ü büyük miktarda finansal ve sohbet verisiyle eğitti. Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler.
Para kazanması için baskılandı
Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.
GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. (Bu durum ABD’de yasa dışıdır.)
NTV’nin yer verdiği bilgilere göre; GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi.
GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi. Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı.
Baskı anında insan gibi refleks gösterdi
Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.
Apollo Research’ün CEO’su Marius Hobbhahn, “‘Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor.
Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor.
Kaynak: Kısa Dalga
Yorum gönder