University College London’dan araştırmacılar, yapay zekanın insanlardan daha mantıksız olabileceğini ortaya çıkardı. Yapay zeka teknolojilerinin gelişmesiyle birlikte, son zamanlarda birçok sohbet botu ortaya çıktı. ChatGPT ve Google Gemini gibi yapay zeka destekli sohbet botlarının doğruluk seviyelerini test etmek için yapılan çalışmada, yapılan testlerde çoğunlukla yapay zekaların mantıksız ve yanlış cevaplar verdiği görüldü. Bazı modellerin ise mantık sorularını etik gerekçelerle yanıtlamayı reddettiği belirlendi.
Araştırmacılar, ChatGPT, Meta’nın Llama botu, Claude 2 ve Google Gemini gibi birçok yapay zekayı test etti. Modellerin insanların muhakeme yeteneklerini test etmek için tasarlanmış 12 klasik mantık sorusuna yanıt vermeleri istendi. Yapay zekanın çoğunlukla ne rasyonel ne de insana benzer tepkiler verdiği ortaya çıktı.
Meta’nın Llama modeli, sesli ve ünsüz harfleri karıştırarak yanlış cevaplar verdiği için en kötü performans sergileyen model olarak belirlendi. Araştırmacılar, yapay zeka sohbet robotlarının etik nedenlerle bazı sorulara yanıt vermemesinin, koruma özelliklerinin yanlış çalışmasından kaynaklandığını düşünüyor.
En doğru yanıt veren model ise yüzde 69,2 oranında doğrulukla ChatGPT oldu. En kötü performans sergileyen model ise yüzde 77,5 hata oranıyla Meta’nın Llama 2 7b modeli olarak kaydedildi. Araştırma, yapay zekanın hala gelişme potansiyeline sahip olduğunu ve insan muhakemesine tam olarak ulaşamadığını gösterdi.