Terhubung dengan kami

Kecerdasan Buatan

Mengapa AI Chatbots Berhalusinasi? Menjelajahi Sains

Diterbitkan

 on

Temukan alasan chatbot AI berhalusinasi, menghasilkan informasi yang menyesatkan atau dibuat-buat, dan jelajahi ilmu pengetahuan di balik fenomena ini

Artificial Intelligence (AI) chatbots telah menjadi bagian integral dari kehidupan kita saat ini, membantu dalam segala hal mulai dari mengatur jadwal hingga menyediakan dukungan pelanggan. Namun, seperti ini chatbots menjadi lebih maju, masalah mengkhawatirkan yang dikenal sebagai halusinasi telah muncul. Dalam AI, halusinasi mengacu pada kejadian di mana chatbot menghasilkan informasi yang tidak akurat, menyesatkan, atau sepenuhnya dibuat-buat.

Bayangkan bertanya kepada asisten virtual Anda tentang cuaca, dan asisten virtual tersebut mulai memberi Anda informasi yang ketinggalan jaman atau sepenuhnya salah tentang badai yang tidak pernah terjadi. Meskipun hal ini mungkin menarik, dalam bidang-bidang penting seperti layanan kesehatan atau nasihat hukum, halusinasi semacam itu dapat menimbulkan konsekuensi yang serius. Oleh karena itu, memahami mengapa chatbot AI berhalusinasi sangat penting untuk meningkatkan keandalan dan keamanannya.

Dasar-dasar AI Chatbots

Chatbot AI didukung oleh algoritme canggih yang memungkinkan mereka memahami dan menghasilkan bahasa manusia. Ada dua jenis utama chatbot AI: model berbasis aturan dan model generatif.

Chatbot berbasis aturan mengikuti aturan atau skrip yang telah ditentukan sebelumnya. Mereka dapat menangani tugas-tugas sederhana seperti memesan meja di restoran atau menjawab pertanyaan umum tentang layanan pelanggan. Bot ini beroperasi dalam lingkup terbatas dan mengandalkan pemicu atau kata kunci tertentu untuk memberikan respons yang akurat. Namun, kekakuannya membatasi kemampuannya untuk menangani pertanyaan yang lebih kompleks atau tidak terduga.

Sebaliknya, model generatif digunakan Mesin belajar dan Pengolahan Bahasa alami (NLP) untuk menghasilkan tanggapan. Model-model ini dilatih berdasarkan sejumlah besar data, pola pembelajaran, dan struktur dalam bahasa manusia. Contoh populernya meliputi GPT OpenAI seri dan Google BERTI. Model-model ini dapat menciptakan respons yang lebih fleksibel dan relevan secara kontekstual, menjadikannya lebih fleksibel dan mudah beradaptasi dibandingkan chatbot berbasis aturan. Namun, fleksibilitas ini juga membuat mereka lebih rentan terhadap halusinasi, karena mereka mengandalkan metode probabilistik untuk menghasilkan respons.

Apa itu Halusinasi AI?

Halusinasi AI terjadi ketika chatbot menghasilkan konten yang tidak didasarkan pada kenyataan. Hal ini dapat berupa kesalahan faktual, seperti kesalahan dalam menentukan tanggal peristiwa sejarah, atau hal yang lebih kompleks, seperti mengarang keseluruhan cerita atau rekomendasi medis. Meskipun halusinasi manusia adalah pengalaman sensorik tanpa rangsangan eksternal, sering kali disebabkan oleh faktor psikologis atau neurologis, halusinasi AI berasal dari salah tafsir model atau generalisasi berlebihan terhadap data pelatihannya. Misalnya, jika AI telah membaca banyak teks tentang dinosaurus, AI mungkin secara keliru menghasilkan spesies dinosaurus fiktif baru yang tidak pernah ada.

Konsep halusinasi AI telah ada sejak awal pembelajaran mesin. Model awal, yang relatif sederhana, sering kali membuat kesalahan serius yang patut dipertanyakan, seperti menyatakan bahwa “Paris adalah ibu kota Italia.” Seiring kemajuan teknologi AI, halusinasi menjadi lebih halus namun berpotensi lebih berbahaya.

Awalnya, kesalahan AI ini dipandang sebagai anomali atau keingintahuan belaka. Namun, seiring dengan berkembangnya peran AI dalam proses pengambilan keputusan penting, penanganan masalah ini menjadi semakin mendesak. Integrasi AI ke dalam bidang sensitif seperti layanan kesehatan, nasihat hukum, dan layanan pelanggan meningkatkan risiko yang terkait dengan halusinasi. Oleh karena itu, penting untuk memahami dan memitigasi kejadian ini untuk memastikan keandalan dan keamanan sistem AI.

Penyebab Halusinasi AI

Memahami mengapa chatbot AI berhalusinasi melibatkan eksplorasi beberapa faktor yang saling berhubungan:

Masalah Kualitas Data

Kualitas data pelatihan sangat penting. Model AI belajar dari data yang diberikan, jadi jika data pelatihan bias, ketinggalan jaman, atau tidak akurat, keluaran AI akan mencerminkan kekurangan tersebut. Misalnya, jika chatbot AI dilatih berdasarkan teks medis yang mencakup praktik kuno, chatbot tersebut mungkin merekomendasikan perawatan yang usang atau berbahaya. Selain itu, jika datanya kurang beragam, AI mungkin gagal memahami konteks di luar cakupan pelatihannya yang terbatas, sehingga menghasilkan keluaran yang salah.

Model Arsitektur dan Pelatihan

Arsitektur dan proses pelatihan model AI juga memainkan peran penting. overfitting terjadi ketika model AI mempelajari data pelatihan dengan terlalu baik, termasuk noise dan errornya, sehingga performanya buruk pada data baru. Sebaliknya, underfitting terjadi ketika model perlu mempelajari data pelatihan secara memadai, sehingga menghasilkan respons yang terlalu disederhanakan. Oleh karena itu, menjaga keseimbangan antara kedua kondisi ekstrem ini merupakan suatu tantangan, tetapi penting untuk mengurangi halusinasi.

Ambiguitas dalam Bahasa

Bahasa manusia pada dasarnya rumit dan penuh nuansa. Kata dan frasa dapat memiliki banyak arti tergantung pada konteksnya. Misalnya saja kata “bank” bisa berarti lembaga keuangan atau tepi sungai. Model AI seringkali membutuhkan lebih banyak konteks untuk memperjelas istilah-istilah tersebut, sehingga menyebabkan kesalahpahaman dan halusinasi.

Tantangan Algoritma

Algoritme AI saat ini memiliki keterbatasan, khususnya dalam menangani ketergantungan jangka panjang dan menjaga konsistensi dalam responsnya. Tantangan-tantangan ini dapat menyebabkan AI menghasilkan pernyataan yang bertentangan atau tidak masuk akal bahkan dalam percakapan yang sama. Misalnya, AI mungkin mengklaim satu fakta di awal percakapan dan kemudian menyangkalnya.

Perkembangan dan Penelitian Terkini

Para peneliti terus berupaya mengurangi halusinasi AI, dan penelitian terbaru telah membawa kemajuan yang menjanjikan di beberapa bidang utama. Salah satu upaya signifikan adalah meningkatkan kualitas data dengan melakukan kurasi kumpulan data yang lebih akurat, beragam, dan terkini. Hal ini melibatkan pengembangan metode untuk menyaring data yang bias atau salah dan memastikan bahwa rangkaian pelatihan mewakili berbagai konteks dan budaya. Dengan menyempurnakan data yang digunakan untuk melatih model AI, kemungkinan halusinasi berkurang seiring sistem AI memperoleh landasan informasi akurat yang lebih baik.

Teknik pelatihan tingkat lanjut juga memainkan peran penting dalam mengatasi halusinasi AI. Teknik seperti validasi silang dan kumpulan data yang lebih komprehensif membantu mengurangi masalah seperti overfitting dan underfitting. Selain itu, para peneliti sedang mencari cara untuk memasukkan pemahaman kontekstual yang lebih baik ke dalam model AI. Model transformator, seperti BERT, telah menunjukkan peningkatan signifikan dalam pemahaman dan menghasilkan respons yang sesuai konteks, mengurangi halusinasi dengan memungkinkan AI memahami nuansa dengan lebih efektif.

Selain itu, inovasi algoritmik sedang dieksplorasi untuk mengatasi halusinasi secara langsung. Salah satu inovasi tersebut adalah AI yang Dapat Dijelaskan (XAI), yang bertujuan untuk membuat proses pengambilan keputusan AI lebih transparan. Dengan memahami bagaimana sistem AI mencapai kesimpulan tertentu, pengembang dapat mengidentifikasi dan memperbaiki sumber halusinasi dengan lebih efektif. Transparansi ini membantu menentukan dan mengurangi faktor-faktor yang menyebabkan halusinasi, menjadikan sistem AI lebih andal dan dapat dipercaya.

Upaya gabungan dalam kualitas data, pelatihan model, dan kemajuan algoritmik ini mewakili pendekatan multi-segi untuk mengurangi halusinasi AI dan meningkatkan kinerja dan keandalan chatbot AI secara keseluruhan.

Contoh Halusinasi AI di Dunia Nyata

Contoh halusinasi AI di dunia nyata menyoroti bagaimana kesalahan ini dapat berdampak pada berbagai sektor, terkadang dengan konsekuensi yang serius.

Dalam kesehatan, sebuah studi oleh Fakultas Kedokteran Universitas Florida menguji ChatGPT pada pertanyaan medis umum terkait urologi. Hasilnya sangat memprihatinkan. Chatbot memberikan tanggapan yang sesuai hanya 60% dari keseluruhan waktu. Seringkali, mereka salah menafsirkan pedoman klinis, menghilangkan informasi kontekstual yang penting, dan memberikan rekomendasi pengobatan yang tidak tepat. Misalnya, kadang-kadang mereka merekomendasikan pengobatan tanpa mengenali gejala-gejala kritis, yang dapat mengarah pada saran yang berpotensi membahayakan. Hal ini menunjukkan pentingnya memastikan sistem AI medis akurat dan andal.

Insiden signifikan telah terjadi di layanan pelanggan di mana chatbot AI memberikan informasi yang salah. Sebuah kasus penting yang terlibat Chatbot Air Canada, yang memberikan rincian yang tidak akurat tentang kebijakan tarif duka mereka. Informasi yang salah ini menyebabkan wisatawan kehilangan pengembalian dana, sehingga menyebabkan gangguan besar. Pengadilan memutuskan melawan Air Canada, menekankan tanggung jawab mereka atas informasi yang diberikan oleh chatbot mereka. Insiden ini menyoroti pentingnya memperbarui dan memverifikasi keakuratan database chatbot secara berkala untuk mencegah masalah serupa.

Bidang hukum telah mengalami masalah signifikan terkait halusinasi AI. Dalam kasus pengadilan, Pengacara New York Steven Schwartz menggunakan ChatGPT untuk menghasilkan referensi hukum untuk laporan singkat, yang mencakup enam kutipan kasus yang dibuat-buat. Hal ini menimbulkan dampak yang parah dan menekankan perlunya pengawasan manusia dalam nasihat hukum yang dihasilkan AI untuk memastikan keakuratan dan keandalan.

Implikasi Etis dan Praktis

Implikasi etis dari halusinasi AI sangat besar, karena misinformasi yang disebabkan oleh AI dapat menyebabkan kerugian yang signifikan, seperti kesalahan diagnosis medis dan kerugian finansial. Memastikan transparansi dan akuntabilitas dalam pengembangan AI sangat penting untuk memitigasi risiko-risiko ini.

Informasi yang salah dari AI dapat menimbulkan konsekuensi nyata, membahayakan nyawa jika nasihat medis yang salah dan mengakibatkan hasil yang tidak adil jika nasihat hukum salah. Badan pengatur seperti Uni Eropa telah mulai mengatasi permasalahan ini melalui proposal seperti UU AI, yang bertujuan untuk menetapkan pedoman penerapan AI yang aman dan etis.

Transparansi dalam operasi AI sangat penting, dan bidang XAI berfokus pada pembuatan proses pengambilan keputusan AI yang dapat dimengerti. Transparansi ini membantu mengidentifikasi dan memperbaiki halusinasi, memastikan sistem AI lebih andal dan dapat dipercaya.

The Bottom Line

Chatbot AI telah menjadi alat penting di berbagai bidang, namun kecenderungan halusinasinya menimbulkan tantangan yang signifikan. Dengan memahami penyebabnya, mulai dari masalah kualitas data hingga keterbatasan algoritmik—dan menerapkan strategi untuk memitigasi kesalahan ini, kita dapat meningkatkan keandalan dan keamanan sistem AI. Kemajuan berkelanjutan dalam kurasi data, pelatihan model, dan AI yang dapat dijelaskan, dikombinasikan dengan pengawasan manusia yang penting, akan membantu memastikan bahwa chatbot AI memberikan informasi yang akurat dan dapat dipercaya, yang pada akhirnya meningkatkan kepercayaan dan kegunaan yang lebih besar terhadap teknologi canggih ini.

Pembaca juga harus belajar tentang yang teratas Solusi Deteksi Halusinasi AI.

Dr Assad Abbas, a Profesor Madya Tetap di COMSATS University Islamabad, Pakistan, memperoleh gelar Ph.D. dari North Dakota State University, AS. Penelitiannya berfokus pada teknologi canggih, termasuk cloud, fog, dan edge computing, analisis big data, dan AI. Dr Abbas telah memberikan kontribusi besar dengan publikasi di jurnal dan konferensi ilmiah terkemuka.