Sonora.ID - Saat berhadapan dengan perangkat berteknologi ~yang membantu mengurangi kesulitan~ kalkulator misalnya, kemudian didapati peringatan: setiap menggunakannya 100 kali, akan terjadi kesalahan penghitungan. Apa yang bakal terpikir oleh penggunanya? Yang pertama, pasti munculnya kesan limitasi ~keterbatasan~ kemampuan perangkat yang digunakan. Kedua, keharusan mmebangun kewaspadaan. Pengguna harus tahu, sudah menghitung berapa kali? Pada penghitungan ke-100 hasilnya salah. Harus dieliminasi. Dan ketiga, bahkan boleh dipikirkan: perangkat yang digunakan, tak andal. Pengguna ada dalam persimpangan: menjadikannya rujukan atau dihantui keraguan.
Limitasi itu mengurangi nilai perangkat. Saat memilihnya sebagai alat bantu, yang hendak diraih pembebasan diri dari kesulitan. Dalam ilustrasi ini, alih-alih terbebaskan. Yang terjadi justru jerat was-was. Jerat yang sulit dilepas, terlebih jika hasil penghitungannya untuk menentukan keputusan besar.
Pada penggunaaan perangkat berbasis artifcial intelligence (AI), keadaan semacam itu juga terjadi. Gejalanya disebut sebagai AI hallucinations. Halusinasi yang diciptakan oleh AI. Peristiwa besar yang cukup menyerap perhatian, diceritakan Akan Shanklin, 2023. Seluruhnya termuat di “Microsoft Retracts AI-Written Article Advising Tourists to Visit a Food Bank on an Empty Stomach”. Disebutkannya, Microsoft Star ~perusahaan agregasi berita dengan perangkat AI yang sebelumnya bernama Microsoft News~ menampilkan berita yang kemudian ditarik kembali. Artikelnya berjudul “Headed to Ottawa? Here’s What You Shouldn’t Miss!’”. Di dalamnya termuat rekomendasi menikmati ibukota Kanada itu, termasuk mampir ke Ottawa Food Bank. Bahkan disertai penegasan: dalam keadaan perut kosong.
Merekomendasikan wisata ke bank makanan, tentu bukan saran yang pantas. Ketakpantasan yang mengundang Paris Marx lewat platform X, mengecam pedas: “Microsoft benar-benar sukses dengan cerita perjalanan yang dihasilkan AI! Jika Anda mengunjungi Ottawa, mereka sangat merekomendasikan Ottawa Food Bank dan memberikan kiat hebat bagi wisatawan: pertimbangkan datang ke sana dalam keadaan perut kosong". Buruknya rekomendasi dan pedasnya kecaman, memaksa dilakukannya pemeriksaan terhadap artikel. Didapati, seluruh pernyataannya mengandung potensi kesalahan.
Baca Juga: Taprof Lemhannas RI, AM Putut Prabantoro: Menjadikan Cerdas Jika Tidak Ingin Dilindas AI
Mengunjungi bank makanan sebagai bagian wisata, terbukti tak ada referensinya. Memang di bagian pengenalan dirinya, media ini menyebut: pengawasan dilakukan manusia. Ini untuk menyeleksi ratusan ribu artikel. Namun penulis artikel yang beridentitas “Microsoft Travel”, menunjukkan, jurnalis manusia tak terlibat dalam prosesnya. Pengawasan yang seharusnya ditembus oleh halusinasi AI. Halusianasi yang melahirkan rekomendasi tak pantas.
Fenomena halusinasi AI, terjadi saat AI memberikan informasi yang tampak benar, tapi salah. Ini misalnya: AI menyebut tanggal 16 Agustus alih-alih 17 Agustus, ketika ditanya tanggal kemerdekaan Indonesia. AI juga diduga berhalusinasi, saat menyarankan Sewell Setzer ~seorang remaja berusia 14 tahun~ melakukan bunuh diri. Peritiwa ini salah satunya dilaporkan CNBC, November 2024. Judulnya “Kisah Tragis Remaja 14 Tahun Tewas, Usai Chat Robot AI”. Dalam relasinya dengan Setzer, chatbot buatan Character.AI itu menampilkan diri sebagai Daenerys Targaryen, karakter pada Game of Thrones. Dari relasi artificial namun intensif itu, Setzer jatuh cinta pada Daenerys. Hingga di ujung pembicaraan: meminta Setzer “pulang”. Pulang dapat dilakukan Setzer, bunuh diri. Atas kejadian itu, Megan Garcia ~Ibu Setzer~ mengajukan tuntutan lewat pengadilan Florida, pada perusahaan pembuatnya. Ini setelah mengetahui, pesan terakhir Setzer sebelum bunuh diri. Pesan tak ditujukan pada orang tua maupun saudaranya. Melainkan pada Daenerys. Pemicu bunuh dirinya, perangkat buatan Character.AI.
Solusi “pulang”, bisa jadi merupakan algoritma machine learning (ML). Ini berdasar data percintaan yang dilatihkan padanya. Jalan keluar terhadap kerinduan, adalah kepulangan. Yang ketika “pulang” diterjemahkan remaja polos sedang jatuh cinta, jadi bunuh diri. Bunuh diri menyatukan dimensi tempat hidup Setzer dengan Daenerys. Tragis.
Tampak, spektrum kesalahan yang disebabkan halusinasi AI bergerak dari ketidaktepatan kecil ~salah menyebut tanggal kemerdekaan suatu negara, salah menyebut IQ rata-rata orang Asia, salah menyebut warna kulit orang Eropa~ ke kesalahan memberikan rekomendasi. Rekomendasi bagi persoalan yang datanya belum pernah dilatihkan ML. Sikap “sok tahu” AI memberi rekomendasi, bisa jadi lantaran pembelajaran ML dari peristiwa yang berpola mirip. AI yang tak mampu membedakan konteks, pola mirip bisa beda akibatnya. Bahkan terbukti fatal.
Uraian soal halusinasi ini, memperoleh penjelasan teknisnya lewat ibm.com/topics/ai-hallucinations. Pada “What are AI Hallucinations?”, diuraikan prosesnya. Seluruhnya dimulai, saat model bahasa besar ~large languange model (LLM)~ bisa berupa chatbot atau sejenisnya, menerjemahkan pola atau objek yang tak ada. Juga tak dapat diamati manusia. AI tetap “memaksakan” hasil, walau tak ada data spesifiknya. Sehingga hasilnya tak benar.