Ai 'berhalusinat' terus -menerus, tetapi ada solusi

Masalah utama dengan percobaan Big Tech dengan kecerdasan buatan (AI) bukan karena itu bisa mengambil alih kemanusiaan. Model bahasa besar (LLM) seperti Open AI's ChatGpt, Google Gemini dan Llama Meta terus salah, dan masalahnya tidak dapat diselesaikan.
Dikenal sebagai halusinasi, contoh yang paling menonjol mungkin adalah kasus profesor hukum AS Jonathan Turley, yang dulu dituduh secara salah pelecehan seksual oleh chatgpt pada tahun 2023.
Solusi Openai tampaknya pada dasarnya adalah “menghilang” Turley dengan memprogram chatgpt untuk mengatakan itu tidak dapat menanggapi pertanyaan tentang dia, yang jelas bukan solusi yang adil atau memuaskan. Mencoba menyelesaikan halusinasi setelah acara dan kasus per kasus jelas bukan cara yang harus dilakukan.
Hal yang sama dapat dikatakan tentang LLMS memperkuat stereotip atau memberi Jawaban Western-sentris. Ada juga kurangnya akuntabilitas dalam menghadapi informasi yang meluas ini, karena sulit untuk memastikan bagaimana LLM mencapai kesimpulan ini di tempat pertama.
Kami melihat perdebatan sengit tentang masalah-masalah ini setelah rilis GPT-4 2023, paradigma utama terbaru dalam pengembangan LLM Openai. Bisa dibilang perdebatan telah mendingin sejak saat itu, meskipun tanpa pembenaran.
UE melewati itu Anda memiliki dokumen Dalam rekor waktu pada tahun 2024, misalnya, dalam upaya menjadi pemimpin dunia dalam mengawasi bidang ini. Tetapi tindakan tersebut sangat bergantung pada perusahaan AI untuk mengatur diri mereka sendiri tanpa benar -benar membahas masalah yang dipertanyakan. Ia tidak menghentikan perusahaan teknologi untuk merilis LLMS di seluruh dunia ke ratusan juta pengguna dan mengumpulkan data mereka tanpa pengawasan yang tepat.
Sementara itu, yang terbaru tes menunjukkan itu Bahkan LLM yang paling canggih tetap tidak dapat diandalkan. Meskipun demikian, perusahaan AI terkemuka Masih menolak bertanggung jawab untuk kesalahan.
Sayangnya kecenderungan LLMS menjadi salah bentuk dan mereproduksi bias tidak dapat diselesaikan dengan perbaikan bertahap dari waktu ke waktu. Dan dengan munculnya AI Agendi mana pengguna akan segera dapat menugaskan proyek ke LLM seperti, katakanlah, memesan liburan mereka atau mengoptimalkan pembayaran semua tagihan mereka setiap bulan, potensi masalah akan berlipat ganda.
Bidang AI neurosimbolik yang muncul dapat menyelesaikan masalah ini, sementara juga mengurangi jumlah besar data yang diperlukan untuk melatih LLMS. Jadi apa itu AI neurosimbolik dan bagaimana cara kerjanya?
Masalah LLM
LLMS bekerja menggunakan teknik yang disebut Deep Learning, di mana mereka diberikan sejumlah besar data teks dan menggunakan statistik canggih untuk menyimpulkan pola yang menentukan apa kata atau frasa berikutnya dalam setiap respons yang diberikan. Setiap model – bersama dengan semua pola yang telah dipelajari – disimpan dalam array komputer yang kuat di pusat data besar yang dikenal sebagai jaringan saraf.
LLMS dapat tampak beralasan menggunakan proses yang disebut rantai-dipikirkan, di mana mereka menghasilkan respons multi-langkah yang meniru bagaimana manusia secara logis sampai pada kesimpulan, berdasarkan pola yang terlihat dalam data pelatihan.
Tidak diragukan lagi, LLMS adalah pencapaian teknik yang hebat. Mereka mengesankan dalam meringkas teks dan menerjemahkan, dan dapat meningkatkan produktivitas mereka yang rajin dan berpengetahuan luas untuk menemukan kesalahan mereka. Namun demikian mereka memiliki potensi besar untuk menyesatkan karena kesimpulan mereka selalu didasarkan pada probabilitas – bukan pemahaman.
Solusi populer disebut “manusia-in-loop”: memastikan bahwa manusia yang menggunakan AIS masih membuat keputusan akhir. Namun, menyalahkan manusia tidak menyelesaikan masalah. Mereka masih akan sering disesatkan oleh informasi yang salah.
LLM sekarang membutuhkan begitu banyak data pelatihan untuk maju sehingga kita sekarang harus memberi mereka data sintetis, yang berarti data yang dibuat oleh LLMS. Data ini dapat menyalin dan memperkuat kesalahan yang ada dari data sumbernya sendiri, sehingga model baru mewarisi kelemahan yang lama. Akibatnya, biaya pemrograman AIS lebih akurat setelah pelatihan mereka-yang dikenal sebagai “penyelarasan model post-hoc”– sedang meroket.
Juga menjadi semakin sulit bagi programmer untuk melihat apa yang salah karena jumlah langkah dalam proses pemikiran model menjadi semakin besar, membuatnya lebih sulit dan lebih sulit untuk mengoreksi kesalahan.
AI neurosimbolik menggabungkan pembelajaran prediktif jaringan saraf dengan mengajarkan AI serangkaian aturan formal yang dipelajari manusia untuk dapat mempertimbangkan secara lebih andal. Ini termasuk aturan logika, seperti “jika A kemudian B”, seperti “jika hujan maka semuanya di luar biasanya basah”; aturan matematika, seperti “jika a = b dan b = c maka a = c”; dan makna yang disepakati hal -hal seperti kata -kata, diagram, dan simbol. Beberapa di antaranya akan dimasukkan langsung ke sistem AI, sementara itu akan menyimpulkan orang lain dengan menganalisis data pelatihannya dan melakukan “ekstraksi pengetahuan”.
Ini harus menciptakan AI yang tidak akan pernah berhalusinasi dan akan belajar lebih cepat dan lebih pintar dengan mengatur pengetahuannya menjadi bagian yang jelas dan dapat digunakan kembali. Misalnya jika AI memiliki aturan tentang hal -hal yang basah di luar saat hujan, tidak perlu untuk mempertahankan setiap contoh hal -hal yang mungkin basah di luar – aturan tersebut dapat diterapkan pada objek baru apa pun, bahkan yang belum pernah dilihat sebelumnya.
Selama pengembangan model, AI neurosimbolik juga mengintegrasikan pembelajaran dan penalaran formal menggunakan proses yang dikenal sebagai “siklus neurosimbolik”. Ini melibatkan aturan ekstraksi AI yang dilatih sebagian dari data pelatihannya kemudian menanamkan pengetahuan konsolidasi ini kembali ke jaringan sebelum pelatihan lebih lanjut dengan data.
Ini lebih hemat energi karena AI tidak perlu menyimpan data sebanyak mungkin, sedangkan AI lebih bertanggung jawab karena lebih mudah bagi pengguna untuk mengontrol bagaimana ia mencapai kesimpulan tertentu dan meningkat dari waktu ke waktu. Ini juga lebih adil karena dapat dibuat untuk mengikuti aturan yang sudah ada sebelumnya, seperti: “untuk keputusan apa pun yang dibuat oleh AI, hasilnya tidak boleh bergantung pada ras atau jenis kelamin seseorang”.
Gelombang ketiga
Itu gelombang pertama AI pada 1980 -an, yang dikenal sebagai AI simbolik, sebenarnya didasarkan pada mengajar aturan formal komputer yang kemudian dapat diterapkan pada informasi baru. Deep Learning diikuti sebagai gelombang kedua di tahun 2010, dan banyak yang melihat AI neurosimbolik sebagai yang ketiga.
Paling termudah untuk menerapkan prinsip -prinsip neurosimbolik ke AI di daerah niche, karena aturannya dapat didefinisikan dengan jelas. Jadi tidak mengherankan bahwa kita telah melihatnya pertama kali muncul di Google Alphafoldyang memprediksi struktur protein untuk membantu penemuan obat; Dan Alfageometriyang memecahkan masalah geometri yang kompleks.
Untuk AIS berbasis luas, CinaDeepseek menggunakan a Teknik belajar yang disebut “Distilasi” yang merupakan langkah ke arah yang sama. Tetapi untuk membuat AI neurosimbolik layak sepenuhnya untuk model umum, masih perlu ada lebih banyak penelitian untuk memperbaiki kemampuan mereka untuk membedakan aturan umum dan melakukan ekstraksi pengetahuan.
Tidak jelas sejauh mana pembuat LLM sudah mengerjakan ini. Mereka tentu terdengar seperti sedang menuju ke arah mencoba mengajar model mereka untuk berpikir lebih cerdik, tetapi mereka juga tampak terikat dengan kebutuhan untuk meningkatkan jumlah data yang lebih besar.
Kenyataannya adalah bahwa jika AI akan terus maju, kita akan membutuhkan sistem yang beradaptasi dengan kebaruan dari hanya beberapa contoh, yang memeriksa pemahaman mereka, yang dapat melakukan banyak tugas dan menggunakan kembali pengetahuan untuk meningkatkan efisiensi data dan yang dapat bernalar dengan andal dengan cara yang canggih.
Dengan cara ini, teknologi digital yang dirancang dengan baik bahkan berpotensi menawarkan alternatif untuk regulasi, karena check dan saldo akan dibangun ke dalam arsitektur dan mungkin distandarisasi di seluruh industri. Ada jalan panjang yang harus ditempuh, tapi setidaknya ada jalan di depan.
Artikel yang diedit ini diterbitkan ulang dari Percakapan di bawah lisensi Creative Commons. Baca Artikel asli.