Model AI Terbaru OpenAI Makin Pintar, Tapi Sering Ngaco? Ini Faktanya!
Kenapa Bisa Begitu?
Tim OpenAI belum menemukan jawaban pasti, tapi salah satu dugaan mereka adalah teknik pelatihan berbasis reinforcement learning yang digunakan justru memperkuat pola-pola respons yang meyakinkan, tapi bisa saja keliru. Akibatnya, model jadi makin percaya diri, meski jawabannya salah.
Contoh Halusinasi Nyata
Organisasi riset independen, Transluce, menemukan bahwa o3 pernah mengklaim bisa menjalankan kode di luar platform ChatGPT, padahal itu jelas tidak mungkin. Ini semacam 'halu versi AI' yang bisa menyesatkan pengguna.
Dampaknya? Gak Bisa Dipakai Sembarangan
Meski model o3 dan o4-mini bisa sangat berguna dalam beberapa konteks, seperti pemrograman atau brainstorming, tingkat kesalahan ini berbahaya kalau digunakan di ranah yang butuh akurasi tinggi, seperti bidang medis, hukum, atau pendidikan.(*)