Ekonomi Gresik Hobi & Lifestyle Jatim Mancanegara Nasional Olahraga Person of The Year Selebriti Sidoarjo Surabaya Tekno & Oto Wisata & Kuliner

AI Juga Bisa Salah dan Berhalusinasi, Ini faktanya

Muhammad Firman Syah • Rabu, 1 Oktober 2025 | 19:48 WIB
Fenomena halusinasi AI jadi tantangan baru dalam dunia teknologi.
Fenomena halusinasi AI jadi tantangan baru dalam dunia teknologi.

JAKARTA – Fenomena halusinasi kecerdasan buatan (AI) belakangan menjadi perhatian publik, terutama pada model bahasa besar (large language model/LLM) seperti ChatGPT maupun Claude. Mesin yang dirancang untuk memahami bahasa manusia terkadang justru “menciptakan” jawaban yang tampak masuk akal, lengkap dengan data, kutipan, hingga referensi, padahal informasi tersebut tidak benar atau bahkan tidak pernah ada. Kondisi ini berisiko menyesatkan apabila pengguna tidak menyadari potensi halusinasi.

Istilah “halusinasi” sejatinya hanya kiasan. AI bukan makhluk hidup, tidak memiliki kesadaran maupun indra. Karena bekerja dengan pola data, sistem bisa keliru menyimpulkan informasi. IBM menjelaskan, gejala ini muncul akibat overfitting, yakni ketika mesin menarik kesimpulan berlebihan dari data terbatas. Polanya mirip manusia yang kerap melihat wajah di awan atau bentuk hewan di permukaan bulan. LLM sendiri tidak mengejar kebenaran, melainkan hanya menyusun kata yang paling mungkin muncul berikutnya.

Riset berjudul Why Language Models Hallucinate mengungkap beberapa penyebab utama yakni model AI cenderung tetap memberi jawaban meski tidak mengetahui kebenarannya, data pelatihan yang tidak berimbang atau keliru membuat sistem belajar pola salah, AI dapat menghasilkan referensi palsu yang terlihat akademis, padahal fiktif.

Dampak halusinasi AI bisa fatal. Di bidang hukum, seorang pengacara di Amerika Serikat pernah dihukum karena menyerahkan dokumen berisi kutipan palsu buatan ChatGPT. Dalam dunia kesehatan, Google menemukan AI bisa salah mengenali jaringan sehat sebagai kanker jika data latih tidak cukup beragam. Di sektor keuangan, keputusan investasi juga berpotensi salah arah akibat informasi keliru.

Para pakar menegaskan bahwa halusinasi bukan sekadar kesalahan teknis, melainkan sifat dasar LLM. Sohrob Kazerounian dari Vectra AI bahkan menyebut seluruh keluaran AI sejatinya adalah bentuk halusinasi, hanya saja sebagian kebetulan benar.

Meski demikian, upaya perbaikan terus dilakukan, mulai dari memperkaya data pelatihan, memperketat pengecekan fakta, hingga menciptakan sistem yang bisa mengakui ketidaktahuan. Model terbaru seperti GPT-4 dan Claude 2 dinilai lebih akurat, meski belum sepenuhnya bebas dari halusinasi.

Fenomena ini menjadi pengingat bahwa secanggih apa pun teknologi, kendali tetap berada di tangan manusia. AI mampu mempermudah pekerjaan sekaligus memperluas akses informasi, tetapi pengguna dituntut tetap kritis dan melakukan verifikasi.

Halusinasi bukan alasan menolak AI, melainkan peringatan agar masyarakat lebih berhati-hati. Sebab kebenaran informasi tidak hanya soal benar atau salah, tetapi juga terkait dampaknya terhadap kehidupan nyata. (dta/fir)

Editor : M Firman Syah
#AI #large language model #halusinasi #Chat GPT #teknologi