Ilmuwan menemukan perbedaan besar dalam cara manusia dan ai 'berpikir' – dan implikasinya bisa signifikan

Kita tahu bahwa kecerdasan buatan (AI) tidak dapat berpikir dengan cara yang sama seperti seseorang, tetapi penelitian baru telah mengungkapkan bagaimana perbedaan ini dapat mempengaruhi pengambilan keputusan AI, yang mengarah ke konsekuensi dunia nyata yang mungkin tidak siap untuk manusia.
Studi, diterbitkan Februari 2025 di jurnal Transaksi dalam penelitian pembelajaran mesinmemeriksa seberapa baik model bahasa besar (LLM) dapat membentuk analogi.
Mereka menemukan bahwa dalam analogi huruf-string sederhana dan masalah matriks digital-di mana tugasnya adalah menyelesaikan matriks dengan mengidentifikasi digit yang hilang-manusia berkinerja baik tetapi kinerja AI menurun tajam.
Sementara menguji ketahanan manusia dan model AI tentang masalah analogi berbasis cerita, penelitian ini menemukan model rentan terhadap efek urutan-urutan-perbedaan dalam respons karena urutan perawatan dalam percobaan-dan mungkin juga lebih mungkin memparafrasekan.
Secara keseluruhan, penelitian ini menyimpulkan bahwa model AI tidak memiliki kemampuan belajar “zero-shot”, di mana seorang pelajar mengamati sampel dari kelas yang tidak ada selama pelatihan dan membuat prediksi tentang kelas tempat mereka berada menurut pertanyaan.
Rekan penulis penelitian Martha LewisAsisten Profesor AI Neurosimbolik di University of Amsterdam, memberikan contoh bagaimana AI tidak dapat melakukan penalaran analog serta manusia dalam masalah string huruf.
“Analogi string huruf memiliki bentuk 'jika ABCD pergi ke abce, apa yang dilakukan ijkl?' Kebanyakan manusia akan menjawab 'ijkm', dan [AI] Cenderung memberikan respons ini juga, “kata Lewis kepada Live Science.” Tapi masalah lain mungkin 'jika ABBCD pergi ke ABCD, apa yang dilakukan IJKKL? Manusia akan cenderung menjawab 'ijkl' – polanya adalah untuk menghapus elemen berulang. Tapi GPT-4 cenderung mendapatkan masalah [like these] salah.”
Mengapa itu penting bahwa AI tidak bisa berpikir seperti manusia
Lewis mengatakan bahwa sementara kita dapat abstrak dari pola tertentu ke aturan yang lebih umum, LLM tidak memiliki kemampuan itu. “Mereka pandai mengidentifikasi dan mencocokkan pola, tetapi tidak menggeneralisasi dari pola -pola itu.”
Sebagian besar aplikasi AI bergantung pada volume tertentu – semakin banyak data pelatihan yang tersedia, semakin banyak pola yang diidentifikasi. Tapi Lewis menekankan pencocokan pola dan abstraksi bukanlah hal yang sama. “Ini kurang tentang apa yang ada dalam data, dan lebih banyak tentang bagaimana data digunakan,” tambahnya.
Untuk memberikan rasa implikasinya, AI semakin banyak digunakan dalam bidang hukum untuk penelitian, analisis hukum kasus dan rekomendasi hukuman. Tetapi dengan kemampuan yang lebih rendah untuk membuat analogi, mungkin gagal untuk mengenali bagaimana preseden hukum berlaku untuk kasus yang sedikit berbeda ketika mereka muncul.
Mengingat kurangnya ketahanan ini dapat memengaruhi hasil dunia nyata, penelitian ini menunjukkan bahwa ini berfungsi sebagai bukti bahwa kita perlu mengevaluasi sistem AI dengan cermat tidak hanya untuk akurasi tetapi juga untuk ketahanan dalam kemampuan kognitif mereka.