AI saat ini memodelkan 'jalan buntu' untuk kecerdasan tingkat manusia, para ilmuwan setuju

Pendekatan saat ini untuk kecerdasan buatan (AI) tidak mungkin membuat model yang dapat cocok dengan kecerdasan manusia, menurut survei baru -baru ini para pakar industri.
Dari 475 peneliti AI bertanya untuk survei, 76% mengatakan penskalaan model bahasa besar (LLM) adalah “tidak mungkin” atau “sangat tidak mungkin” untuk dicapai Kecerdasan Umum Buatan (AGI), tonggak hipotetis di mana sistem pembelajaran mesin dapat belajar secara efektif, atau lebih baik, daripada manusia.
Ini adalah pemecatan yang patut diperhatikan dari prediksi industri teknologi yang, karena booming AI generatif tahun 2022, telah menyatakan bahwa model AI yang canggih saat ini hanya membutuhkan lebih banyak data, perangkat keras, energi, dan uang untuk melampaui kecerdasan manusia.
Sekarang, saat model terbaru dirilis muncul ke mandeksebagian besar peneliti yang disurvei oleh Asosiasi untuk Kemajuan Kecerdasan Buatan Percaya perusahaan teknologi telah tiba di jalan buntu – dan uang tidak akan mengeluarkannya.
“Saya pikir sudah jelas sejak segera setelah rilis GPT-4, keuntungan dari penskalaan telah bertahap dan mahal,” Stuart Russellseorang ilmuwan komputer di University of California, Berkeley yang membantu mengatur laporan, mengatakan kepada Live Science. “[AI companies] telah berinvestasi terlalu banyak dan tidak mampu mengakui bahwa mereka membuat kesalahan [and] Keluar dari pasar selama beberapa tahun ketika mereka harus membayar investor yang telah memasukkan ratusan miliar dolar. Jadi yang bisa mereka lakukan hanyalah ganda. “
Pengembalian yang semakin berkurang
Peningkatan yang mengejutkan pada LLM dalam beberapa tahun terakhir sebagian berutang pada arsitektur transformator yang mendasarinya. Ini adalah jenis arsitektur pembelajaran yang mendalam, pertama kali dibuat pada tahun 2017 oleh para ilmuwan Google, yang tumbuh dan belajar dengan menyerap data pelatihan dari input manusia.
Ini memungkinkan model untuk menghasilkan pola probabilistik dari jaringan saraf mereka (koleksi algoritma pembelajaran mesin yang diatur untuk meniru cara otak manusia belajar) dengan memberi mereka maju ketika diberi prompt, dengan jawaban mereka membaik dalam akurasi dengan lebih banyak data.
Tetapi penskalaan yang berkelanjutan dari model-model ini membutuhkan jumlah uang dan energi yang menggemparkan mata. Industri AI generatif dinaikkan $ 56 miliar dalam modal ventura secara global pada tahun 2024 saja, dengan banyak hal ini akan membangun kompleks pusat data yang sangat besar, emisi karbon yang dimiliki tiga kali lipat sejak 2018.
Proyeksi juga menunjukkan data yang dihasilkan manusia yang terbatas untuk pertumbuhan lebih lanjut kemungkinan besar akan habis Pada akhir dekade ini. Setelah ini terjadi, alternatifnya adalah mulai memanen data pribadi dari pengguna atau memberi makan data “sintetis” yang dihasilkan AI ke dalam model yang bisa menempatkan mereka pada risiko pingsan dari kesalahan yang dibuat setelah mereka menelan masukan mereka sendiri.
Tetapi keterbatasan model saat ini kemungkinan bukan hanya karena mereka haus sumber daya, kata para ahli survei, tetapi karena keterbatasan mendasar dalam arsitektur mereka.
“Saya pikir masalah dasar dengan pendekatan saat ini adalah bahwa mereka semua melibatkan pelatihan sirkuit feedforward yang besar,” kata Russell. “Sirkuit memiliki keterbatasan mendasar sebagai cara untuk mewakili konsep. Ini menyiratkan bahwa sirkuit harus sangat besar untuk mewakili konsep -konsep semacam itu bahkan kira -kira – pada dasarnya sebagai tabel pencarian yang dimuliakan – yang mengarah pada persyaratan data yang luas dan representasi sedikit demi sedikit dengan celah. Itulah sebabnya, misalnya, pemain manusia biasa dapat mudah dikalahkan Program GO “Superhuman”. “
Masa depan pengembangan AI
Semua hambatan ini telah menghadirkan tantangan besar bagi perusahaan yang bekerja untuk meningkatkan kinerja AI, menyebabkan skor pada tolok ukur evaluasi ke dataran tinggi Dan model GPT-5 yang dikabarkan Openai tidak pernah muncul, beberapa responden survei mengatakan.
Asumsi bahwa perbaikan selalu dapat dilakukan melalui penskalaan juga diremehkan tahun ini oleh perusahaan Cina Deepseek, yang cocok dengan kinerja model mahal Silicon Valley di sebagian kecil dari biaya dan daya. Untuk alasan ini, 79% responden survei mengatakan persepsi kemampuan AI tidak cocok dengan kenyataan.
“Ada banyak ahli yang berpikir ini adalah gelembung,” kata Russell. “Terutama ketika model kinerja yang cukup tinggi diberikan secara gratis.”
Namun itu tidak berarti kemajuan dalam AI sudah mati. Model penalaran – model khusus yang mendedikasikan lebih banyak waktu dan daya komputasi untuk pertanyaan – telah terbukti menghasilkan tanggapan yang lebih akurat dari pendahulu tradisional mereka.
Pasangan model ini dengan sistem pembelajaran mesin lainnya, terutama setelah mereka disuling ke skala khusus, adalah jalur yang menarik ke depan, menurut responden. Dan kesuksesan Deepseek menunjuk Banyak ruang lagi untuk inovasi teknik dalam cara sistem AI dirancang. Para ahli juga menunjukkan pemrograman probabilistik yang memiliki potensi untuk membangun lebih dekat ke AGI daripada model sirkuit saat ini.
“Industri menempatkan taruhan besar bahwa akan ada aplikasi AI generatif bernilai tinggi,” Thomas Dietterichseorang profesor emeritus ilmu komputer di Oregon State University yang berkontribusi pada laporan itu, mengatakan kepada Live Science. “Di masa lalu, kemajuan teknologi besar membutuhkan 10 hingga 20 tahun untuk menunjukkan pengembalian besar.”
“Seringkali kumpulan perusahaan pertama gagal, jadi saya tidak akan terkejut melihat banyak startup Genai saat ini gagal,” tambahnya. “Tapi sepertinya beberapa akan sangat sukses. Aku berharap aku tahu yang mana.”