OpenAI’nin Geliştirdiği ChatGPT, İnsan Kararlarını Tekrarlıyor Yapay zekanın insanlardan daha güvenilir kararlar alacağı düşüncesi, OpenAI tarafından geliştirilen ChatGPT ile sorgulanıyor. INFORMS dergisinde yayımlanan bir çalışma, yapay zekanın insanlara benzer şekilde karar alma hataları yapabildiğini ortaya koyuyor. Yapay Zeka, İnsanlara Özgü Bilişsel Tuzaklara Düşebiliyor Araştırmacılar, ChatGPT’yi çeşitli önyargı testlerine tabi tuttu ve yapay zekanın aşırı güven,…
Yapay zekanın insanlardan daha güvenilir kararlar alacağı düşüncesi, OpenAI tarafından geliştirilen ChatGPT ile sorgulanıyor. INFORMS dergisinde yayımlanan bir çalışma, yapay zekanın insanlara benzer şekilde karar alma hataları yapabildiğini ortaya koyuyor.
Araştırmacılar, ChatGPT’yi çeşitli önyargı testlerine tabi tuttu ve yapay zekanın aşırı güven, kumarbaz yanılgısı ve belirsizlikten kaçınma gibi insanlara özgü hatalara sıkça düştüğünü tespit etti. Model, matematik ve mantık problemlerinde başarılı olmasına rağmen öznel kararlar konusunda zorlanıyor.
Yeni nesil GPT-4 modeli bile analitik açıdan üstün olsa da yargı temelli görevlerde önyargılara sıkça rastlanıyor. Uzmanlar, yapay zekanın insan önyargılarını öğrenirken bunları da miras aldığını ve bu durumun güvenilirlik tartışmalarını beraberinde getirdiğini belirtiyor.
İş dünyasında ve kamu yönetiminde kritik kararlar alan yapay zekanın insan hatalarını tekrarlayabileceği ve önyargıları pekiştirebileceği önemle vurgulanıyor. Uzmanlar, yapay zekanın doğru bir şekilde denetlenmesi ve etik kurallarla yönlendirilmesi gerektiğini savunuyor.
ChatGPT gibi yapay zeka modelleri, matematiksel başarılarıyla öne çıksa da insan gibi karar alma hataları yapabiliyor. Bu durum, yapay zekanın insan düşüncesini yansıtabileceğine ve doğru yönlendirmeyle faydalı bir araç haline getirilebileceğine işaret ediyor. Uzmanlar, yapay zekanın yönetimi konusunda daha fazla dikkat ve düzenleme yapılması gerektiğini belirtiyor.
Reklam & İşbirliği: [email protected]