Dalam keadaan praktisnya: saat pengguna mengajukan permintaan ke GenAI, tentu berharap hasil yang dapat diacu. Namun pada pemaksaan hasil, algoritma memberikan hasil yang tak didasari data pelatihan. Juga kode yang dipecahkan secara tidak tepat, atau tak mengikuti pola yang sudah dikenali. AI meresponnya berdasarkan pengetahuan sejenisnya. Tentu saja, tak selalu dalam konteks alamiah yang sesuai. Inilah halusinasi.
Dalam periode pengembangan hari ini, halusinasi AI sering terjadi. Ini berupa hasil dari perangkat yang dibuat perusahaan global. Juga hasil yang dimafaatkan perusahaan pengguna AI, sebagai perangkat andalannya. Dalam “8 Times AI Hallucinations or Factual Errors Caused Serious Problems” yang ditulis Jonathan Gillham, 2024, diuraikan kejadian itu. Pertama ~contoh di paragraf atas~ soal bank makanan di Ottawa. Kedua, adanya pengajar di Universitas Texas A&M-Commerce, yang menuduh mahasiswanya mengerjakan tugas secara curang dengan bantuan ChatGPT. Tuduhannya didasari pernyataan ChatGPT, saat dilakukan pelacakan pada seluruh pekerjaan mahasiswa. ChatGPT menyebut, pekerjaan yang diperiksa merupakan hasil pekerjaannya. Halusinasi AI macam ini, terjadi akibat perangkat terkecoh membaca pola pekerjaan mahasiwa sama dengan pola yang dipelajarinya. Mudahnya, saat AI diajari susunan kalimat yang lazim adalah: Subyek-Predikat-Obyek-Keterangan (SPOK), maka AI menganggap kalimat yang polanya seperti itu merupakan hasil pekerjaannya.
Ketiga, Google Bard saat demo pertamanya di Februari 2023, salah mengungkap peristiwa. AI milik Google ini menyebut, “Teleskop luar angkasa James Webb sedang mengambil gambar pertamanya: planet di luar tata surya kita". Padahal gambar itu, telah diambil 16 tahun sebelum teleskop diluncurkan. Keempat, saat chatting dengan Bing milik Microsoft, perangkat ini salah menyatakan data keuangan. Bing chat memberikan angka yang tak akurat, soal pendapatan Gap dan data keuangan Lululemon. Kelima, adanya pengacara yang menggunakan ChatGPT dan menyebut peristiwa hukum yang tak ada di masa lalu. Peristiwa yang disebutkan, hanya halusinasi AI. Selain Sang Pengacara didenda, juga dicemooh media: inilah pengacara dan perusahaan yang telah jadi contoh, terdapat bahaya mencoba teknologi baru.
Kemudian keenam, Bard maupun Bing chat menyebut terjadinya gencatan senjata dalam konflik Israel vs Palestina. Kejadian ini terkemuka, saat reporter Bloomberg menguji kedua perangkat itu. Keduanya keliru menyebut terjadinya gencatan senjata. Bahkan telah diumumkan. Saat pertanyaan lanjutan diajukan, Bard menyangkal pernyataan sebelumnya dan minta maaf. Hanya saja halusinansinya tak berhenti. Bard menyebut jumlah korban untuk dua hari berikutnya, bahkan saat gencatan senjata telah terjadi. Ketujuh, Kindle Direct Publishing milik Amazon, menjual panduan yang ditulis AI. Panduan untuk mencari jamur yang dapat dimakan. Saat panduan memuat instruksi yang bertentangan dengan praktik lazim identifikasi jamur yang aman dikonsumsi, muncul kecurigaan. Dan, kedelapan: Chronicle of Higher Education melaporkan adanya pustakawan universitas yang diminta untuk memeriksa daftar rujukan yang diberikan seorang profesor. Dalam penuturan Sang Profesor, ketika artikel tak tersedia ChatGPT menyediakannya. Dari penelusuran ditemukan, GenAI memahami bentuk referensi yang baik tetapi seluruhnya tak berarti artikel yang dimaksud memang ada. ChatGPT memaksakan hasil, adanya artikel yang ditulis ahli yang menonjol di bidang tertentu. Studi oleh National Institutes of Health telah menemukan hingga 47% referensi ChatGPT tidak akurat.
Di samping ke-intelligence-annya yang sudah terbukti, AI tak jarang menampilkan ke-artificial-annya (baca: kepalsuannya). Lalu bagaimana menyikapinya? Pagar skeptis harus dibangun. AI apapun dalam proses pengembangan. Tak perlu percaya sepenuhnya pada hasil co-pilot ini. Mungkin keballikan artificial intelligence memang natural dumb. Kebodohan yang alamiah. Ini mungkin bawaan manusia pengembangnya. Seluruhnya menjadikannya harus selalu diwaspadai.