Meskipun model bahasa besar (LLM) seperti ChatGPT, Claude, dan Gemini sangat kuat, mereka juga memiliki kelemahan utama yang sama: mereka sering menghasilkan halusinasi, yaitu informasi fiktif. Hal ini tidak hanya memalukan, tetapi juga menghambat penerapan LLM secara lebih luas. Bahkan Apple telah menyatakan keprihatinannya tentang bagaimana sistem AI miliknya akan merespons masalah ini. Untuk mengatasi masalah ini, para peneliti telah mengembangkan pendeteksi halusinasi AI baru yang dapat secara efektif mengidentifikasi konten palsu yang dihasilkan oleh AI, meletakkan dasar bagi kemajuan teknologi AI dan aplikasi yang lebih aman dan andal.

Ilusi ini menyebabkan banyak kesalahan langkah yang memalukan dan menarik, dan itulah salah satu alasan utama mengapa kecerdasan buatan seperti ChatGPT belum menjadi lebih praktis. Kami pernah melihat Google harus merevisi ikhtisar pencarian AI-nya karena AI mulai memberi tahu orang-orang bahwa makan batu aman dan menempelkan lem pada pizza adalah aman. Bahkan ada pengacara yang menggunakan ChatGPT untuk membantu penulisan dokumen pengadilan, namun didenda karena chatbot tersebut membuat kutipan dalam dokumen tersebut.
Menurut makalah tersebut, algoritma baru yang dikembangkan oleh para peneliti dapat membantu membedakan apakah jawaban yang dihasilkan AI akurat sekitar 79 persen. Tentu saja, ini bukan rekor sempurna, namun 10% lebih baik dibandingkan metode mainstream lainnya saat ini.
Chatbots seperti Gemini dan ChatGPT dapat berguna, namun mereka juga dapat dengan mudah menghasilkan jawaban fiktif. Penelitian ini dilakukan oleh anggota Departemen Ilmu Komputer di Universitas Oxford. Para peneliti menjelaskan dalam makalahnya bahwa metode yang mereka gunakan relatif sederhana.
Pertama, mereka meminta chatbot untuk merespons perintah yang sama beberapa kali, biasanya lima hingga sepuluh kali. Mereka kemudian menghitung nilai yang kita sebut entropi semantik, yang merupakan ukuran seberapa mirip atau berbedanya makna jawaban. Jika model menjawab setiap item perintah secara berbeda, skor entropi semantik akan lebih tinggi, yang menunjukkan bahwa AI mungkin mengarang jawabannya. Namun, jika semua jawabannya sama atau memiliki arti serupa, skor entropi semantik akan lebih rendah, yang menunjukkan bahwa jawaban yang diberikan lebih konsisten dan kemungkinan besar benar. Ini bukan pendeteksi halusinasi AI yang 100% akurat, tetapi ini merupakan pendekatan yang menarik.
Metode lain mengandalkan apa yang disebut entropi naif, yang biasanya memeriksa apakah kata-kata dalam suatu jawaban berbeda, bukan maknanya. Oleh karena itu, kecil kemungkinannya untuk mendeteksi halusinasi seakurat menghitung entropi semantik karena tidak fokus pada makna di balik kata-kata dalam kalimat.
Para peneliti mengatakan algoritme tersebut dapat ditambahkan ke chatbots seperti ChatGPT melalui tombol yang akan memberi pengguna “skor kepastian” untuk jawaban atas pertanyaan mereka. Sangat menggoda untuk membangun pendeteksi halusinasi AI langsung ke chatbot, sehingga dapat dimengerti jika menambahkan alat tersebut ke berbagai chatbot.
Meskipun pendeteksi halusinasi AI berdasarkan entropi semantik ini tidak sempurna, akurasi 79% dan keunggulan 10% dibandingkan metode yang ada memberikan ide dan metode baru untuk memecahkan masalah halusinasi AI. Penelitian ini tidak diragukan lagi akan mendorong kemajuan teknologi AI dan menjadikan sistem AI lebih andal dan dapat dipercaya.