Model AI Terbaru OpenAI Makin Pintar, Tapi Sering Ngaco? Ini Faktanya!

chatGPT
chatGPT
Sumber :

Sebagai perbandingan, model sebelumnya seperti o1 dan o3-mini hanya mencatat halusinasi 16% dan 14,8%.

 

Kenapa Bisa Begitu?

Tim OpenAI belum menemukan jawaban pasti, tapi salah satu dugaan mereka adalah teknik pelatihan berbasis reinforcement learning yang digunakan justru memperkuat pola-pola respons yang meyakinkan, tapi bisa saja keliru. Akibatnya, model jadi makin percaya diri, meski jawabannya salah.

 

Contoh Halusinasi Nyata

Organisasi riset independen, Transluce, menemukan bahwa o3 pernah mengklaim bisa menjalankan kode di luar platform ChatGPT, padahal itu jelas tidak mungkin. Ini semacam 'halu versi AI' yang bisa menyesatkan pengguna.