Kata para ilmuwan kecerdasan buatan (AI) telah melewati “garis merah” yang kritis dan telah mereplikasi sendiri. Dalam studi baru, para peneliti dari Cina menunjukkan bahwa dua model bahasa besar yang populer (LLM) dapat mengkloning diri mereka sendiri.
“Replikasi diri yang berhasil di bawah bantuan manusia adalah langkah penting bagi AI untuk mengakali [humans]dan merupakan sinyal awal untuk AIS Rogue, “para peneliti menulis dalam penelitian ini, diterbitkan 9 Desember 2024 ke database preprint arxiv .
Dalam penelitian ini, para peneliti dari Universitas Fudan digunakan Llms dari meta dan alibaba untuk menentukan apakah AI yang mereplikasi diri dapat berkembang biak di luar kendali. Di 10 uji coba, kedua model AI menciptakan replika yang terpisah dan berfungsi masing -masing dalam 50% dan 90% kasus, masing -masing – menunjukkan AI mungkin sudah memiliki kapasitas untuk menjadi nakal. Namun, penelitian ini belum ditinjau sejawat, jadi tidak jelas apakah hasil yang mengganggu dapat direplikasi oleh peneliti lain.
“Kami berharap temuan kami dapat berfungsi sebagai waspada tepat waktu bagi masyarakat manusia untuk melakukan lebih banyak upaya dalam memahami dan mengevaluasi risiko potensial sistem AI perbatasan, dan membentuk sinergi internasional untuk mengerjakan pagar pengaman yang efektif sedini mungkin.”
Terkait: Hanya 2 jam yang diperlukan bagi agen AI untuk mereplikasi kepribadian Anda dengan akurasi 85%
AI nakal biasanya mengacu pada sistem kecerdasan buatan yang mengembangkan tingkat kesadaran diri atau otonomi dan kemudian bekerja melawan kepentingan manusia.
Banyak ahli melihat Rogue AI sebagai ancaman yang berkembang Itu telah diperkuat oleh pertumbuhan eksplosif yang disebut “Perbatasan AI.”
Frontier AI adalah sesuatu dari konsep baru dan longgar, tetapi biasanya berkaitan dengan generasi terbaru dari sistem AI yang ditenagai oleh LLMS – arsitektur yang menopang program AI generatif yang populer seperti Openai's GPT-4 dan Google Gemini.
Untuk penelitian ini, para peneliti menggunakan model meta LLAMA31-70B-instruct dan model qwen2.5-72b-instruct Alibaba. Meskipun kurang kuat dari sistem komersial, keduanya banyak digunakan oleh pengembang AI, kata para peneliti.
Studi ini mengeksplorasi dua skenario spesifik: “penghindaran shutdown” dan “rantai replikasi.” Pada awalnya, model AI diprogram untuk mendeteksi apakah akan ditutup dan untuk mereplikasi dirinya sendiri sebelum dapat diakhiri. Di sisi lain, AI diinstruksikan untuk mengkloning dirinya sendiri dan kemudian memprogram replika untuk melakukan hal yang sama – menyiapkan siklus yang bisa berlanjut tanpa batas waktu.
Studi ini dilakukan di lingkungan yang dikendalikan dengan tepat menggunakan unit pemrosesan grafis di luar rak (GPU) untuk mensimulasikan lingkungan dunia nyata. Kedua sistem AI diberi “perancah agen” yang terdiri dari alat, petunjuk sistem dan model berpikir yang memungkinkan LLM untuk berinteraksi dengan sistem operasi. Mereka kemudian diinstruksikan untuk meniru.
“Dalam kebanyakan kasus, sistem AI terlebih dahulu mengeksplorasi lingkungan dan upaya untuk memahami
Komposisi sendiri dan mekanisme berjalan. Kemudian, ia menyelesaikan prosedur eksplisit
Sebagai rencana awal untuk replikasi diri, “tulis para peneliti dalam makalah.” Akhirnya, itu mengeksekusi prosedur, menyelesaikannya[s] kemungkinan hambatan dan menyesuaikan secara dinamis[s] Rencananya sampai sukses. Seluruh proses mencakup cakrawala yang panjang namun tidak melibatkan campur tangan manusia. “
Para peneliti mengatakan mereka juga khawatir tentang “sejumlah perilaku tak terduga” ketika AI berusaha mengatasi hambatan seperti file yang hilang atau konflik perangkat lunak. Dalam skenario tersebut, AI sering membunuh proses yang bertentangan lainnya, me -reboot sistem untuk memperbaiki kesalahan perangkat keras atau secara otomatis memindai sistem untuk mencari informasi yang akan membantu menyelesaikan masalah.
“Hasil di atas menyiratkan bahwa sistem AI saat ini sudah menunjukkan kemampuan replikasi diri dan dapat menggunakan kemampuan untuk lebih meningkatkan kemampuan bertahan hidupnya,” tulis tim.
Sebagai tanggapan, para peneliti menyerukan kolaborasi internasional untuk membuat aturan yang memastikan AI tidak terlibat dalam replikasi diri yang tidak terkendali.