Menghadapi respons bermasalah dari model AI? Diperlukan lebih banyak standar dan tes, kata peneliti

Ketika penggunaan kecerdasan buatan – jinak dan permusuhan – meningkat dengan kecepatan tinggi, lebih banyak kasus tanggapan yang berpotensi berbahaya terungkap.
Pixdeluxe | E+ | Gambar getty
Ketika penggunaan kecerdasan buatan – jinak dan permusuhan – meningkat dengan kecepatan tinggi, lebih banyak kasus tanggapan yang berpotensi berbahaya terungkap. Ini termasuk Pidato kebencian, pelanggaran hak cipta atau konten seksual.
Munculnya perilaku yang tidak diinginkan ini diperparah oleh kurangnya peraturan dan pengujian model AI yang tidak mencukupi, peneliti mengatakan kepada CNBC.
Mendapatkan model pembelajaran mesin untuk berperilaku seperti yang dimaksudkan untuk melakukannya juga merupakan hal yang tinggi, kata Javier Rando, seorang peneliti di AI.
“Jawabannya, setelah hampir 15 tahun penelitian, adalah, tidak, kita tidak tahu bagaimana melakukan ini, dan sepertinya kita tidak menjadi lebih baik,” Rando, yang berfokus pada pembelajaran mesin yang bermusuhan, mengatakan kepada CNBC.
Namun, ada beberapa cara untuk mengevaluasi risiko dalam AI, seperti Peaming Merah. Praktik ini melibatkan individu pengujian dan menyelidik sistem kecerdasan buatan untuk mengungkap dan mengidentifikasi potensi bahaya – modus operandi yang umum di lingkaran keamanan siber.
Shayne Longpre, seorang peneliti dalam AI dan kebijakan dan pimpinan Inisiatif Provenance Datamencatat bahwa saat ini tidak ada orang yang bekerja di tim merah.
Sementara startup AI sekarang menggunakan evaluator pihak pertama atau pihak kedua yang dikontrak untuk menguji model mereka, membuka pengujian kepada pihak ketiga seperti pengguna normal, jurnalis, peneliti, dan peretas etis akan mengarah pada evaluasi yang lebih kuat, menurut menurut, menurut jurnalis Sebuah makalah yang diterbitkan oleh Longpre dan peneliti.
“Beberapa kelemahan dalam sistem yang orang temukan pengacara yang diwajibkan, dokter medis untuk benar -benar memeriksa, para ilmuwan aktual yang merupakan ahli materi pelajaran khusus untuk mencari tahu apakah ini cacat atau tidak, karena orang awam mungkin tidak bisa atau tidak akan memiliki keahlian yang cukup,” kata Longpre.
Mengadopsi laporan 'cacat AI' standar, insentif, dan cara untuk menyebarkan informasi tentang 'cacat' ini dalam sistem AI adalah beberapa rekomendasi yang dikemukakan dalam makalah.
Dengan praktik ini telah berhasil diadopsi di sektor -sektor lain seperti keamanan perangkat lunak, “kami membutuhkannya di AI sekarang,” tambah Longpre.
Menikah dengan praktik yang berpusat pada pengguna ini dengan tata kelola, kebijakan, dan alat lainnya akan memastikan pemahaman yang lebih baik tentang risiko yang ditimbulkan oleh alat dan pengguna AI, kata Rando.
Bukan lagi bulan bulan
Project Moonshot adalah salah satu pendekatan tersebut, menggabungkan solusi teknis dengan mekanisme kebijakan. Diluncurkan oleh Otoritas Pengembangan Media Infocomm Singapura, Project Moonshot adalah toolkit evaluasi model bahasa besar yang dikembangkan dengan pemain industri seperti IBM dan Boston yang berbasis di Boston Robot komputer.
Toolkit mengintegrasikan benchmarking, tim merah dan pengujian baseline. Ada juga mekanisme evaluasi yang memungkinkan startup AI untuk memastikan bahwa model mereka dapat dipercaya dan tidak membahayakan pengguna, Anup Kumar, kepala rekayasa klien untuk data dan AI di IBM Asia Pacific, mengatakan kepada CNBC.
Evaluasi adalah a proses berkelanjutan Itu harus dilakukan baik sebelum dan mengikuti penyebaran model, kata Kumar, yang mencatat bahwa respons terhadap toolkit telah dicampur.
“Banyak startup menganggap ini sebagai platform karena itu open source, Dan mereka mulai memanfaatkannya. Tapi saya pikir, Anda tahu, kami dapat melakukan lebih banyak lagi. “
Ke depan, Project Moonshot bertujuan untuk memasukkan kustomisasi untuk kasus penggunaan industri tertentu dan memungkinkan tim multibahasa dan multikultural merah.
Standar yang lebih tinggi
Pierre Alquier, Profesor Statistik di Essec Business School, Asia-Pasifik, mengatakan bahwa perusahaan teknologi saat ini bergegas untuk melepaskan Model AI terbaru mereka tanpa evaluasi yang tepat.
“Ketika sebuah perusahaan farmasi merancang obat baru, mereka membutuhkan tes berbulan -bulan dan bukti yang sangat serius bahwa itu berguna dan tidak berbahaya sebelum mereka disetujui oleh pemerintah,” katanya, menambahkan bahwa proses serupa ada di sektor penerbangan.
Model AI perlu memenuhi serangkaian kondisi yang ketat sebelum disetujui, Alquier menambahkan. Pergeseran dari alat AI yang luas ke pengembangan yang dirancang untuk tugas yang lebih spesifik akan membuatnya lebih mudah untuk mengantisipasi dan mengendalikan penyalahgunaan mereka, kata Alquier.
“LLMS dapat melakukan terlalu banyak hal, tetapi mereka tidak ditargetkan untuk tugas -tugas yang cukup spesifik,” katanya. Akibatnya, “jumlah yang mungkin disalahgunakan terlalu besar bagi pengembang untuk mengantisipasi semuanya.”
Model yang begitu luas membuat mendefinisikan apa yang dianggap sebagai hal yang aman dan aman, menurut penelitian yang rando terlibat.
Oleh karena itu, perusahaan teknologi harus menghindari overclaiming bahwa “pertahanan mereka lebih baik daripada mereka,” kata Rando.