AI berhalusinasi lebih sering karena semakin maju – apakah ada cara untuk menghentikannya terjadi, dan haruskah kita mencoba?

Semakin maju kecerdasan buatan (AI) mendapatkan, semakin “berhalusinasi” dan memberikan informasi yang salah dan tidak akurat.
Riset Dilakukan oleh Openai menemukan bahwa model penalaran terbaru dan paling kuat, O3 dan O4-mini, berhalusinasi 33% dan 48% dari waktu, masing-masing, ketika diuji oleh tolok ukur personqA Openai. Itu lebih dari dua kali lipat tingkat model O1 yang lebih lama. Sementara O3 memberikan informasi yang lebih akurat daripada pendahulunya, tampaknya datang dengan biaya halusinasi yang lebih tidak akurat.
Ini menimbulkan kekhawatiran atas keakuratan dan keandalan model bahasa besar (LLM) seperti AI Chatbots, kata Eleanor WatsonAnggota Institute of Electrical and Electronics Engineers (IEEE) dan Insinyur Etika AI di Singularity University.
“Ketika suatu sistem menghasilkan informasi yang membuat – seperti fakta, kutipan, atau peristiwa yang ditemukan – dengan kelancaran dan koherensi yang sama yang digunakannya untuk konten yang akurat, itu berisiko menyesatkan pengguna dengan cara yang halus dan konsekuensial,” kata Watson kepada Live Science.
Masalah halusinasi menyoroti kebutuhan untuk secara hati -hati menilai dan mengawasi informasi yang dihasilkan oleh sistem AI saat menggunakan LLM dan model penalaran, kata para ahli.
Apakah AIS Mimpi Domba Listrik?
Inti dari model penalaran adalah bahwa ia dapat menangani tugas -tugas kompleks dengan pada dasarnya memecahnya menjadi komponen individual dan menghasilkan solusi untuk mengatasinya. Daripada mencari untuk mengeluarkan jawaban berdasarkan probabilitas statistik, model penalaran muncul dengan strategi untuk menyelesaikan masalah, seperti cara berpikir manusia.
Untuk mengembangkan solusi yang kreatif, dan berpotensi baru, untuk masalah, AI perlu berhalusinasi – selain itu dibatasi oleh data kaku yang dicerna.
“Penting untuk dicatat bahwa halusinasi adalah fitur, bukan bug, AI,” Sohrob Kazerounianseorang peneliti AI di Vectra AI, mengatakan kepada Live Science. “Mengutip seorang kolega saya, 'Segala sesuatu yang di -output LLM adalah halusinasi. Hanya saja beberapa halusinasi itu benar.' Jika AI hanya menghasilkan output kata demi kata yang telah dilihat selama pelatihan, semua AI akan berkurang menjadi masalah pencarian besar -besaran. “
“Anda hanya akan dapat menghasilkan kode komputer yang telah ditulis sebelumnya, menemukan protein dan molekul yang propertinya sudah dipelajari dan dijelaskan, dan menjawab pertanyaan pekerjaan rumah yang sebelumnya telah ditanyakan sebelumnya. Namun, Anda tidak akan dapat meminta llm untuk menulis lirik untuk album konsep yang berfokus pada singularitas AI.
Akibatnya, LLMS dan sistem AI yang mereka butuhkan untuk berhalusinasi untuk membuat, daripada sekadar melayani informasi yang ada. Ini serupa, secara konseptual, dengan cara yang memimpikan manusia atau membayangkan skenario ketika menyulap ide -ide baru.
Berpikir terlalu banyak di luar kotak
Namun, Halusinasi ai Sajikan masalah ketika datang untuk memberikan informasi yang akurat dan benar, terutama jika pengguna mengambil informasi pada nilai nominal tanpa cek atau pengawasan.
“Ini terutama bermasalah dalam domain di mana keputusan bergantung pada ketepatan faktual, seperti kedokteran, hukum atau keuangan,” kata Watson. “Sementara model yang lebih maju dapat mengurangi frekuensi kesalahan faktual yang jelas, masalah ini berlanjut dalam bentuk yang lebih halus. Seiring waktu, konfabulasi mengikis persepsi sistem AI sebagai instrumen yang dapat dipercaya dan dapat menghasilkan kerusakan materi ketika konten yang tidak diverifikasi ditindaklanjuti.”
Dan masalah ini tampaknya diperburuk sebagai kemajuan AI. “Ketika kemampuan model meningkat, kesalahan sering menjadi kurang terbuka tetapi lebih sulit dideteksi,” kata Watson. “Konten fabrikasi semakin tertanam dalam narasi yang masuk akal dan rantai penalaran yang koheren. Ini memperkenalkan risiko tertentu: pengguna mungkin tidak menyadari bahwa kesalahan hadir dan dapat memperlakukan output sebagai definitif ketika tidak. Masalahnya bergeser dari menyaring kesalahan kasar untuk mengidentifikasi distorsi halus yang mungkin hanya mengungkapkan diri mereka di bawah crutiny yang dekat.
Kazerounian mendukung sudut pandang ini. “Terlepas dari keyakinan umum bahwa masalah halusinasi AI dapat dan akan menjadi lebih baik dari waktu ke waktu, tampaknya generasi terbaru dari model penalaran canggih mungkin sebenarnya mulai berhalusinasi lebih dari rekan-rekan mereka yang lebih sederhana-dan tidak ada penjelasan yang disepakati tentang mengapa ini,” katanya.
Situasinya semakin rumit karena sangat sulit untuk memastikan bagaimana LLMS datang dengan jawaban mereka; Paralel dapat ditarik di sini dengan bagaimana kita masih belum benar -benar tahu, secara komprehensif, bagaimana otak manusia bekerja.
Dalam yang baru karangan, Dario AmodeiCEO AI Company Anthropic, menyoroti kurangnya pemahaman tentang bagaimana AIS menghasilkan jawaban dan informasi. “Ketika sistem AI generatif melakukan sesuatu, seperti merangkum dokumen keuangan, kami tidak tahu, pada tingkat yang spesifik atau tepat, mengapa itu membuat pilihan yang dilakukannya – mengapa ia memilih kata -kata tertentu daripada orang lain, atau mengapa kadang -kadang membuat kesalahan meskipun biasanya akurat,” tulisnya.
Masalah yang disebabkan oleh AI yang berhalusinasi informasi yang tidak akurat sudah sangat nyata, kata Kazerounian. “Tidak ada cara universal, dapat diverifikasi, untuk mendapatkan LLM untuk menjawab pertanyaan dengan benar tentang beberapa kumpulan data yang dapat diaksesnya,” katanya. “Contoh-contoh referensi berhalusinasi yang tidak ada, chatbots yang menghadap pelanggan membentuk kebijakan perusahaan, dan sebagainya, sekarang terlalu umum.”
Mimpi menghancurkan
Baik Kazerounian dan Watson mengatakan kepada Live Science bahwa, pada akhirnya, halusinasi AI mungkin sulit dihilangkan. Tetapi mungkin ada cara untuk mengurangi masalah ini.
Watson menyarankan bahwa “generasi pengambilan-pengambilan,” yang mendasari output model dalam sumber pengetahuan eksternal yang dikuratori, dapat membantu memastikan bahwa informasi yang diproduksi AI berlabuh oleh data yang dapat diverifikasi.
“Pendekatan lain melibatkan memperkenalkan struktur ke dalam penalaran model. Dengan mendorongnya untuk memeriksa outputnya sendiri, membandingkan perspektif yang berbeda, atau mengikuti langkah -langkah logis, kerangka kerja penalaran yang diperkecehkan mengurangi risiko spekulasi yang tidak dibatasi dan meningkatkan konsistensi,” Watson, mencatat bahwa ini dapat dibantu dengan pelatihan untuk membentuk model untuk memprioritaskan akurasi, dan pelatihan pembuatan manusia dari pendamping manusia atau untuk mengevaluasi pelatihan yang dikemukakan oleh manusia, dan penguatan yang dikemukakan oleh manusia, dan memperjuangkan rumit dari suatu penginingan, dan memperjelas rumit dari suatu hari untuk memprioritaskan akurasi, dan pengulangan, dan pengulangan. tanggapan.
“Akhirnya, sistem dapat dirancang untuk mengenali ketidakpastian mereka sendiri. Daripada default ke jawaban yang percaya diri, model dapat diajarkan untuk menandai ketika mereka tidak yakin atau menunda penilaian manusia jika perlu,” tambah Watson. “Meskipun strategi -strategi ini tidak menghilangkan risiko konfabulasi sepenuhnya, mereka menawarkan jalur praktis ke depan untuk membuat output AI lebih dapat diandalkan.”
Mengingat bahwa halusinasi AI mungkin hampir tidak mungkin untuk dihilangkan, terutama dalam model canggih, Kazerounian menyimpulkan bahwa pada akhirnya informasi yang dihasilkan LLMS perlu diperlakukan dengan “skeptisisme yang sama yang kita pesan untuk rekan manusia.”