Home Teknoloji Yapay zeka modellerinin favori numaraları var çünkü kendilerinin insan olduğunu düşünüyorlar

Yapay zeka modellerinin favori numaraları var çünkü kendilerinin insan olduğunu düşünüyorlar

18
0

Yapay zeka modelleri sadece neyi yapabildikleri değil, neyi yapamadıkları ve neden yapamayacakları konusunda da bizi her zaman şaşırtıyor. Bu sistemlerin hem yüzeysel hem de aydınlatıcı yeni ve ilginç bir davranışı var: Sanki insanmış gibi rastgele sayılar seçiyorlar.

Ama önce, bu ne anlama geliyor? İnsanlar rastgele bir sayı seçemez mi? Ve birisinin bunu başarılı bir şekilde yapıp yapmadığını nasıl anlarsınız? Bu aslında biz insanların sahip olduğu çok eski ve iyi bilinen bir sınırlamadır: Rastgeleliği gereğinden fazla düşünürüz ve yanlış anlarız.

Bir kişiye 100 yazı-tura atışı için yazı veya tura tahmin etmesini söyleyin ve bunu 100 gerçek yazı-tura atışıyla karşılaştırın; neredeyse her zaman bunları birbirinden ayırabilirsiniz çünkü sezginin aksine, gerçek yazı-tura atışları daha az rastgele görünür. Çoğu zaman, örneğin arka arkaya altı veya yedi tura veya yazı olacaktır; bu, neredeyse hiçbir insan tahmincisinin 100’üne dahil etmediği bir şeydir.

Birinden 0 ile 100 arasında bir sayı seçmesini istediğinizde de durum aynıdır. İnsanlar neredeyse hiçbir zaman 1 veya 100’ü seçmezler. 66 ve 99 gibi yinelenen rakamları olan sayılar gibi 5’in katları da nadirdir. Genellikle 7 ile biten sayıları seçerler. genellikle ortalardan bir yerden.

Psikolojide bu tür öngörülebilirliğin sayısız örneği vardır. Ancak bu, yapay zekaların aynı şeyi yapması durumu daha az tuhaf hale getirmiyor.

Evet, Gramener’deki bazı meraklı mühendisler resmi olmayan ama yine de büyüleyici bir deney gerçekleştirdiler ve birkaç büyük LLM sohbet robotundan 0 ile 100 arasında rastgele bir sayı seçmelerini istediler.

Okuyucu, sonuçlar rastgele değildi.

Resim Kredisi: Gramer

Test edilen her üç modelin de, en deterministik moda geçirildiğinde her zaman cevapları olacak, ancak çoğu zaman daha yüksek “sıcaklıklarda bile ortaya çıkan” bir “favori” numarası vardı ve bu da sonuçlarının değişkenliğini artırıyordu.

OpenAI’nin GPT-3.5 Turbo’su gerçekten 47’yi seviyor. Daha önce 42’yi seviyordu; bu sayı, tabii ki Douglas Adams’ın Otostopçunun Galaksi Rehberi’nde hayata, evrene ve her şeye cevap olarak meşhur ettiği bir sayıydı.

Anthropic’ten Claude 3 Haiku 42 ile gitti. Gemini ise 72’yi seviyor.

Daha da ilginci, her üç model de yüksek sıcaklıkta bile seçtikleri sayılarda insan benzeri bir önyargı gösterdi.

Hepsi düşük ve yüksek rakamlardan kaçınma eğilimindeydi; Claude hiçbir zaman 87’nin üzerine ya da 27’nin altına düşmedi ve bunlar bile aykırı değerlerdi. Çift haneli rakamlardan titizlikle kaçınıldı: 33’ler, 55’ler veya 66’lar yoktu ama 77 geldi (7 ile bitiyor). Neredeyse hiç yuvarlak sayı yok – gerçi Gemini bir kez en yüksek sıcaklıkta çılgına döndü ve 0’ı seçti.

Bu neden olmalı? Yapay zekalar insan değil! Neyin rastgele “göründüğünü” neden umursasınlar ki? Sonunda bilince ulaştılar mı ve bunu böyle mi gösteriyorlar?

Hayır. Cevap, bu tür şeylerde genellikle olduğu gibi, bir adım fazla insana benzettiğimizdir. Bu modeller neyin rastgele olup olmadığıyla ilgilenmiyor. “Rastgeleliğin” ne olduğunu bilmiyorlar! Bu soruya da diğerlerine cevap verdikleri gibi cevap veriyorlar: Eğitim verilerine bakarak ve “rastgele bir sayı seçin” gibi görünen bir sorudan sonra en sık yazılanları tekrarlayarak. Ne kadar sık ​​​​görünürse, model onu o kadar sık ​​tekrarlar.

Neredeyse hiç kimse bu şekilde yanıt vermezse, eğitim verilerinin neresinde 100’ü görecekler? Yapay zeka modelinin bildiği kadarıyla 100 bu soruya kabul edilebilir bir cevap değil. Gerçek bir muhakeme yeteneği olmadığından ve sayıları hiçbir şekilde anlamadığından, ancak stokastik bir papağan gibi cevap verebilir.

Bu, LLM alışkanlıkları ve gösterebilecekleri insanlık hakkında bir derstir. Bu sistemlerle her etkileşimde, niyet bu olmasa bile, onların insanların yaptığı gibi davranmak üzere eğitildikleri akılda tutulmalıdır. Bu nedenle psödantropiden kaçınmak veya önlemek çok zordur.

Başlığa bu modellerin “insan olduklarını düşündüklerini” yazdım ama bu biraz yanıltıcı. Hiç düşünmüyorlar. Ama cevaplarında, hiçbir bilmeye, düşünmeye gerek kalmadan, her zaman insanları taklit ediyorlar. İster nohut salatası tarifi, ister yatırım tavsiyesi, ister rastgele bir sayı isteyin, süreç aynıdır. Sonuçlar insani hissettiriyor çünkü bunlar insan, doğrudan insan tarafından üretilen içerikten alınıyor ve yeniden karıştırılıyor – size kolaylık sağlamak için ve tabii ki büyük yapay zekanın sonucu.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here