Pakar Sebut Chatbot AI Berhalusinasi Karena Sering Beri Jawaban Ngawur

Pakar Sebut Chatbot AI Berhalusinasi Karena Sering Beri Jawaban Ngawur

Smallest Font
Largest Font

Metapasar - Platform chatbot berbasis kecerdasan buatan (AI) seringkali mampu menjawab berbagai pertanyaan pengguna. Namun, apakah jawaban mereka benar atau justru ngawur? Model Bahasa Besar atau Large Language Model (LLM) seperti ChatGPT dari OpenAI memiliki masalah yang sama, yakni mereka kadang-kadang menciptakan jawaban yang keliru.

Contohnya, ada klaim bahwa Jembatan Golden Gate dipindahkan melintasi Mesir pada 2016, yang menunjukkan bagaimana jawaban yang dihasilkan bisa jauh dari kenyataan, bahkan membahayakan. Menurut Tech Crunch, seorang walikota di Australia baru-baru ini mengancam akan menggugat OpenAI karena ChatGPT secara keliru menyebutnya terlibat dalam skandal penyuapan.

Baru-baru ini, juga muncul kekhawatiran terkait penyebaran informasi palsu dan potensi bahaya AI setelah sebuah penelitian mengungkapkan bahwa LLM, termasuk ChatGPT, bisa memberikan petunjuk detail untuk merakit senjata atau membuat bahan kimia berbahaya ketika dimanipulasi dengan prompt tertentu. 

Misalnya, sebuah laporan menunjukkan bahwa jika LLM tidak diawasi dengan ketat atau dikembangkan tanpa batasan keamanan yang memadai, model ini bisa dimanfaatkan untuk kegiatan ilegal atau memberi informasi yang membahayakan pengguna tanpa sengaja. Hal ini mendorong diskusi di kalangan pakar teknologi, pemerintah, dan industri tentang pentingnya regulasi dan pembatasan yang ketat pada teknologi AI guna memastikan bahwa sistem ini aman bagi pengguna umum.

Para peneliti telah menemukan bahwa "halusinasi" LLM bisa dieksploitasi untuk menyebarkan kode berbahaya ke pengembang perangkat lunak yang tidak curiga. Sering kali, LLM juga memberikan saran kesehatan yang salah, seperti mengklaim bahwa anggur dapat "mencegah kanker."

Kecenderungan LLM untuk menciptakan "fakta" ini dikenal sebagai halusinasi. Fenomena ini terjadi karena cara LLM dikembangkan dan dilatih. Model AI generatif pada dasarnya tidak memiliki kecerdasan yang sesungguhnya. Mereka adalah sistem statistik yang memprediksi kata, gambar, ucapan, musik, atau data lain berdasarkan pola yang dipelajari dari sumber-sumber online.

AI generatif bisa lebih akurat dalam memberikan jawaban jika diberikan contoh yang tepat dari data akurat. LLM memprediksi probabilitas kemunculan data berdasarkan pola-pola, termasuk konteks sekitar data tersebut.

Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London, menjelaskan, "Kerangka pelatihan LLM melibatkan penyembunyian, atau ‘masking,’ kata-kata untuk menentukan konteks."

Ia menambahkan, "Ini mirip dengan prediksi teks pada perangkat iOS, di mana kita memilih kata-kata yang disarankan."

Pendekatan berbasis probabilitas ini bekerja cukup baik dalam skala besar, tetapi tidak menjamin keakuratan mutlak.

Vu Ha, seorang peneliti di Allen Institute for Artificial Intelligence, menyatakan bahwa LLM "akan selalu berhalusinasi." Namun, ia juga berpendapat bahwa ada metode konkret untuk mengurangi halusinasi, tergantung pada bagaimana LLM dilatih dan diterapkan.

"Pada sistem penjawab pertanyaan, kita bisa meningkatkan akurasi dengan memanfaatkan basis pengetahuan berkualitas tinggi yang dihubungkan dengan LLM melalui pencarian untuk memberikan jawaban akurat," jelas Ha.

Ha menggambarkan perbedaan antara LLM dengan basis pengetahuan berkualitas tinggi dibandingkan dengan yang tidak. Menurutnya, setiap LLM yang digunakan akan tetap berhalusinasi. Pertanyaan yang masih ada adalah apakah manfaatnya lebih besar daripada dampak negatif dari halusinasi ini.

Berns menambahkan bahwa ada metode lain untuk mengurangi halusinasi pada LLM, seperti pembelajaran dari umpan balik manusia atau Reinforcement Learning from Human Feedback (RLHF). Metode RLHF, yang pertama kali diperkenalkan oleh OpenAI pada 2017, melibatkan pelatihan ulang LLM menggunakan data tambahan dari manusia untuk meningkatkan akurasi.

Pada RLHF, serangkaian petunjuk dari dataset tertentu diproses oleh LLM untuk menghasilkan teks yang lebih relevan. OpenAI menggunakan RLHF untuk melatih model-modelnya, termasuk GPT-4. Namun, Berns mengakui bahwa RLHF juga masih memiliki keterbatasan.

Editors Team
Daisy Floren

What's Your Reaction?

  • Like
    0
    Like
  • Dislike
    0
    Dislike
  • Funny
    0
    Funny
  • Angry
    0
    Angry
  • Sad
    0
    Sad
  • Wow
    0
    Wow

Most Viewed