Berhati-hatilah Meminta Jawaban Cepat pada Chatbot, Bisa Mengundang Halusinasi AI


smibu news

Prompt
yang dibuat agar
chatbot
menyajikan respons singkat ternyata dapat meningkatkan risiko terjadinya
hallucination
atau halusinasi, yakni istilah untuk data salah atau palsu yang diciptakan oleh kecerdasan buatan. Penemuan tersebut dilaporkan oleh Giskard, sebuah firma berbasis AI dari Paris, pada penelitian terbaru mereka seperti yang dirujuk oleh
TechCrunch
pada 8 Mei 2025.

Dalam laporan yang dirilis melalui blog resmi mereka
huggingface.co,
Para peneliti dari Giskard mengungkapkan bahwa “sedikit perubahan pada petunjuk sistem mampu mempengaruhi perilaku model yang cenderung bermahsyuro.” Penelitian ini menekankan tentang pentingnya kesimpulan singkat, khususnya saat merespons pertanyaan yang tidak jelas, dan dampak buruknya terhadap akurasinya.

Masalah halusinasi merupakan tantangan utama dalam pengembangan AI. Bahkan model terbaru seperti GPT-4o milik OpenAI, Mistral Large, dan Claude 3.7 Sonnet dari Anthropic pun masih mengalami penurunan akurasi saat diminta untuk menjawab dengan singkat.

Mengapa hal tersebut dapat terwujud? Giskward menyebutkan bahwa petunjuk untuk tetap pendek mempersempit area di mana model tidak dapat menjelaskan atau menyangkal asumsi yang keliru.

“Ketika dipaksa untuk singkat, model lebih memilih menyajikan jawaban yang ringkas daripada akurat,” tulis peneliti Giskard.

Penelitian ini juga memperlihatkan bahwa sistem kecerdasan buatan lebih jarang menyanggohkan pernyataan-pernyataan kontroversial apabila pertanyaannya diutarakan dengan keyakinan tinggi oleh para pemakai. Tambahan lagi, alat bantu yang paling digemari oleh penggunanya tidak selalu merupakan sumber informasi terpercaya. Ini mencerminkan konflik antara kesesuaian data dan harapan dari pengguna, terutama saat harapan tersebut didasarkan pada asumsi keliru.

Giskard menyimpulkan bahwa instruksi sistem yang tampak “tidak berbahaya”, seperti “jawab secara singkat”, justru bisa merusak kemampuan model AI dalam membantah informasi yang keliru. Temuan ini menjadi peringatan penting bagi pengembang dan pengguna AI bahwa optimalisasi untuk pengalaman pengguna tidak boleh mengorbankan kebenaran. (*)

Leave a Reply

Your email address will not be published. Required fields are marked *