Sonora.ID - Saat berhadapan dengan perangkat berteknologi ~yang membantu mengurangi kesulitan~ kalkulator misalnya, kemudian didapati peringatan: setiap menggunakannya 100 kali, akan terjadi kesalahan penghitungan. Apa yang bakal terpikir oleh penggunanya? Yang pertama, pasti munculnya kesan limitasi ~keterbatasan~ kemampuan perangkat yang digunakan. Kedua, keharusan mmebangun kewaspadaan. Pengguna harus tahu, sudah menghitung berapa kali? Pada penghitungan ke-100 hasilnya salah. Harus dieliminasi. Dan ketiga, bahkan boleh dipikirkan: perangkat yang digunakan, tak andal. Pengguna ada dalam persimpangan: menjadikannya rujukan atau dihantui keraguan.
Limitasi itu mengurangi nilai perangkat. Saat memilihnya sebagai alat bantu, yang hendak diraih pembebasan diri dari kesulitan. Dalam ilustrasi ini, alih-alih terbebaskan. Yang terjadi justru jerat was-was. Jerat yang sulit dilepas, terlebih jika hasil penghitungannya untuk menentukan keputusan besar.
Pada penggunaaan perangkat berbasis artifcial intelligence (AI), keadaan semacam itu juga terjadi. Gejalanya disebut sebagai AI hallucinations. Halusinasi yang diciptakan oleh AI. Peristiwa besar yang cukup menyerap perhatian, diceritakan Akan Shanklin, 2023. Seluruhnya termuat di “Microsoft Retracts AI-Written Article Advising Tourists to Visit a Food Bank on an Empty Stomach”. Disebutkannya, Microsoft Star ~perusahaan agregasi berita dengan perangkat AI yang sebelumnya bernama Microsoft News~ menampilkan berita yang kemudian ditarik kembali. Artikelnya berjudul “Headed to Ottawa? Here’s What You Shouldn’t Miss!’”. Di dalamnya termuat rekomendasi menikmati ibukota Kanada itu, termasuk mampir ke Ottawa Food Bank. Bahkan disertai penegasan: dalam keadaan perut kosong.
Merekomendasikan wisata ke bank makanan, tentu bukan saran yang pantas. Ketakpantasan yang mengundang Paris Marx lewat platform X, mengecam pedas: “Microsoft benar-benar sukses dengan cerita perjalanan yang dihasilkan AI! Jika Anda mengunjungi Ottawa, mereka sangat merekomendasikan Ottawa Food Bank dan memberikan kiat hebat bagi wisatawan: pertimbangkan datang ke sana dalam keadaan perut kosong". Buruknya rekomendasi dan pedasnya kecaman, memaksa dilakukannya pemeriksaan terhadap artikel. Didapati, seluruh pernyataannya mengandung potensi kesalahan.
Baca Juga: Taprof Lemhannas RI, AM Putut Prabantoro: Menjadikan Cerdas Jika Tidak Ingin Dilindas AI
Mengunjungi bank makanan sebagai bagian wisata, terbukti tak ada referensinya. Memang di bagian pengenalan dirinya, media ini menyebut: pengawasan dilakukan manusia. Ini untuk menyeleksi ratusan ribu artikel. Namun penulis artikel yang beridentitas “Microsoft Travel”, menunjukkan, jurnalis manusia tak terlibat dalam prosesnya. Pengawasan yang seharusnya ditembus oleh halusinasi AI. Halusianasi yang melahirkan rekomendasi tak pantas.
Fenomena halusinasi AI, terjadi saat AI memberikan informasi yang tampak benar, tapi salah. Ini misalnya: AI menyebut tanggal 16 Agustus alih-alih 17 Agustus, ketika ditanya tanggal kemerdekaan Indonesia. AI juga diduga berhalusinasi, saat menyarankan Sewell Setzer ~seorang remaja berusia 14 tahun~ melakukan bunuh diri. Peritiwa ini salah satunya dilaporkan CNBC, November 2024. Judulnya “Kisah Tragis Remaja 14 Tahun Tewas, Usai Chat Robot AI”. Dalam relasinya dengan Setzer, chatbot buatan Character.AI itu menampilkan diri sebagai Daenerys Targaryen, karakter pada Game of Thrones. Dari relasi artificial namun intensif itu, Setzer jatuh cinta pada Daenerys. Hingga di ujung pembicaraan: meminta Setzer “pulang”. Pulang dapat dilakukan Setzer, bunuh diri. Atas kejadian itu, Megan Garcia ~Ibu Setzer~ mengajukan tuntutan lewat pengadilan Florida, pada perusahaan pembuatnya. Ini setelah mengetahui, pesan terakhir Setzer sebelum bunuh diri. Pesan tak ditujukan pada orang tua maupun saudaranya. Melainkan pada Daenerys. Pemicu bunuh dirinya, perangkat buatan Character.AI.
Solusi “pulang”, bisa jadi merupakan algoritma machine learning (ML). Ini berdasar data percintaan yang dilatihkan padanya. Jalan keluar terhadap kerinduan, adalah kepulangan. Yang ketika “pulang” diterjemahkan remaja polos sedang jatuh cinta, jadi bunuh diri. Bunuh diri menyatukan dimensi tempat hidup Setzer dengan Daenerys. Tragis.
Tampak, spektrum kesalahan yang disebabkan halusinasi AI bergerak dari ketidaktepatan kecil ~salah menyebut tanggal kemerdekaan suatu negara, salah menyebut IQ rata-rata orang Asia, salah menyebut warna kulit orang Eropa~ ke kesalahan memberikan rekomendasi. Rekomendasi bagi persoalan yang datanya belum pernah dilatihkan ML. Sikap “sok tahu” AI memberi rekomendasi, bisa jadi lantaran pembelajaran ML dari peristiwa yang berpola mirip. AI yang tak mampu membedakan konteks, pola mirip bisa beda akibatnya. Bahkan terbukti fatal.
Uraian soal halusinasi ini, memperoleh penjelasan teknisnya lewat ibm.com/topics/ai-hallucinations. Pada “What are AI Hallucinations?”, diuraikan prosesnya. Seluruhnya dimulai, saat model bahasa besar ~large languange model (LLM)~ bisa berupa chatbot atau sejenisnya, menerjemahkan pola atau objek yang tak ada. Juga tak dapat diamati manusia. AI tetap “memaksakan” hasil, walau tak ada data spesifiknya. Sehingga hasilnya tak benar.
Dalam keadaan praktisnya: saat pengguna mengajukan permintaan ke GenAI, tentu berharap hasil yang dapat diacu. Namun pada pemaksaan hasil, algoritma memberikan hasil yang tak didasari data pelatihan. Juga kode yang dipecahkan secara tidak tepat, atau tak mengikuti pola yang sudah dikenali. AI meresponnya berdasarkan pengetahuan sejenisnya. Tentu saja, tak selalu dalam konteks alamiah yang sesuai. Inilah halusinasi.
Dalam periode pengembangan hari ini, halusinasi AI sering terjadi. Ini berupa hasil dari perangkat yang dibuat perusahaan global. Juga hasil yang dimafaatkan perusahaan pengguna AI, sebagai perangkat andalannya. Dalam “8 Times AI Hallucinations or Factual Errors Caused Serious Problems” yang ditulis Jonathan Gillham, 2024, diuraikan kejadian itu. Pertama ~contoh di paragraf atas~ soal bank makanan di Ottawa. Kedua, adanya pengajar di Universitas Texas A&M-Commerce, yang menuduh mahasiswanya mengerjakan tugas secara curang dengan bantuan ChatGPT. Tuduhannya didasari pernyataan ChatGPT, saat dilakukan pelacakan pada seluruh pekerjaan mahasiswa. ChatGPT menyebut, pekerjaan yang diperiksa merupakan hasil pekerjaannya. Halusinasi AI macam ini, terjadi akibat perangkat terkecoh membaca pola pekerjaan mahasiwa sama dengan pola yang dipelajarinya. Mudahnya, saat AI diajari susunan kalimat yang lazim adalah: Subyek-Predikat-Obyek-Keterangan (SPOK), maka AI menganggap kalimat yang polanya seperti itu merupakan hasil pekerjaannya.
Ketiga, Google Bard saat demo pertamanya di Februari 2023, salah mengungkap peristiwa. AI milik Google ini menyebut, “Teleskop luar angkasa James Webb sedang mengambil gambar pertamanya: planet di luar tata surya kita". Padahal gambar itu, telah diambil 16 tahun sebelum teleskop diluncurkan. Keempat, saat chatting dengan Bing milik Microsoft, perangkat ini salah menyatakan data keuangan. Bing chat memberikan angka yang tak akurat, soal pendapatan Gap dan data keuangan Lululemon. Kelima, adanya pengacara yang menggunakan ChatGPT dan menyebut peristiwa hukum yang tak ada di masa lalu. Peristiwa yang disebutkan, hanya halusinasi AI. Selain Sang Pengacara didenda, juga dicemooh media: inilah pengacara dan perusahaan yang telah jadi contoh, terdapat bahaya mencoba teknologi baru.
Kemudian keenam, Bard maupun Bing chat menyebut terjadinya gencatan senjata dalam konflik Israel vs Palestina. Kejadian ini terkemuka, saat reporter Bloomberg menguji kedua perangkat itu. Keduanya keliru menyebut terjadinya gencatan senjata. Bahkan telah diumumkan. Saat pertanyaan lanjutan diajukan, Bard menyangkal pernyataan sebelumnya dan minta maaf. Hanya saja halusinansinya tak berhenti. Bard menyebut jumlah korban untuk dua hari berikutnya, bahkan saat gencatan senjata telah terjadi. Ketujuh, Kindle Direct Publishing milik Amazon, menjual panduan yang ditulis AI. Panduan untuk mencari jamur yang dapat dimakan. Saat panduan memuat instruksi yang bertentangan dengan praktik lazim identifikasi jamur yang aman dikonsumsi, muncul kecurigaan. Dan, kedelapan: Chronicle of Higher Education melaporkan adanya pustakawan universitas yang diminta untuk memeriksa daftar rujukan yang diberikan seorang profesor. Dalam penuturan Sang Profesor, ketika artikel tak tersedia ChatGPT menyediakannya. Dari penelusuran ditemukan, GenAI memahami bentuk referensi yang baik tetapi seluruhnya tak berarti artikel yang dimaksud memang ada. ChatGPT memaksakan hasil, adanya artikel yang ditulis ahli yang menonjol di bidang tertentu. Studi oleh National Institutes of Health telah menemukan hingga 47% referensi ChatGPT tidak akurat.
Di samping ke-intelligence-annya yang sudah terbukti, AI tak jarang menampilkan ke-artificial-annya (baca: kepalsuannya). Lalu bagaimana menyikapinya? Pagar skeptis harus dibangun. AI apapun dalam proses pengembangan. Tak perlu percaya sepenuhnya pada hasil co-pilot ini. Mungkin keballikan artificial intelligence memang natural dumb. Kebodohan yang alamiah. Ini mungkin bawaan manusia pengembangnya. Seluruhnya menjadikannya harus selalu diwaspadai.