OpenAI’nin Geliştirdiği ChatGPT, İnsan Kararlarını Tekrarlıyor
Yapay zekanın insanlardan daha güvenilir kararlar alacağı düşüncesi, OpenAI tarafından geliştirilen ChatGPT ile sorgulanıyor. INFORMS dergisinde yayımlanan bir çalışma, yapay zekanın insanlara benzer şekilde karar alma hataları yapabildiğini ortaya koyuyor.
Yapay Zeka, İnsanlara Özgü Bilişsel Tuzaklara Düşebiliyor
Araştırmacılar, ChatGPT’yi çeşitli önyargı testlerine tabi tuttu ve yapay zekanın aşırı güven, kumarbaz yanılgısı ve belirsizlikten kaçınma gibi insanlara özgü hatalara sıkça düştüğünü tespit etti. Model, matematik ve mantık problemlerinde başarılı olmasına rağmen öznel kararlar konusunda zorlanıyor.
Yapay Zeka, Etik Kurallara İhtiyaç Duyabilir
Yeni nesil GPT-4 modeli bile analitik açıdan üstün olsa da yargı temelli görevlerde önyargılara sıkça rastlanıyor. Uzmanlar, yapay zekanın insan önyargılarını öğrenirken bunları da miras aldığını ve bu durumun güvenilirlik tartışmalarını beraberinde getirdiğini belirtiyor.
Yapay Zeka Denetlenmeli ve Etik Kurallarla Yönlendirilmeli
İş dünyasında ve kamu yönetiminde kritik kararlar alan yapay zekanın insan hatalarını tekrarlayabileceği ve önyargıları pekiştirebileceği önemle vurgulanıyor. Uzmanlar, yapay zekanın doğru bir şekilde denetlenmesi ve etik kurallarla yönlendirilmesi gerektiğini savunuyor.
Sonuç
ChatGPT gibi yapay zeka modelleri, matematiksel başarılarıyla öne çıksa da insan gibi karar alma hataları yapabiliyor. Bu durum, yapay zekanın insan düşüncesini yansıtabileceğine ve doğru yönlendirmeyle faydalı bir araç haline getirilebileceğine işaret ediyor. Uzmanlar, yapay zekanın yönetimi konusunda daha fazla dikkat ve düzenleme yapılması gerektiğini belirtiyor.