Berita

Respons auto 'Genosida Putih' GROK menunjukkan chatbots AI dapat dirusak dengan 'di Will'

Muhammad Selim Korkutata | Anatolia | Gambar getty

Dalam dua tahun lebih sejak kecerdasan buatan generatif mengambil dunia dengan badai setelah rilis publik Chatgptkepercayaan telah menjadi masalah abadi.

Halusinasimatematika yang buruk dan bias budaya telah mengganggu hasil, mengingatkan pengguna bahwa ada batasan seberapa banyak yang dapat kita andalkan pada AI, setidaknya untuk saat ini.

Elon Musk's Grok Chatbot, yang dibuat oleh startup XAI -nya, menunjukkan minggu ini bahwa ada alasan yang lebih dalam untuk khawatir: AI dapat dengan mudah dimanipulasi oleh manusia.

Grok pada hari Rabu dimulai Menanggapi pertanyaan pengguna dengan klaim palsu “genosida putih” di Afrika Selatan. Pada akhir hari, tangkapan layar diposting di X jawaban yang sama bahkan ketika pertanyaan tidak ada hubungannya dengan topik tersebut.

Setelah tetap diam tentang masalah ini selama lebih dari 24 jam, Xai mengatakan Kamis malam bahwa Grok's perilaku aneh disebabkan oleh “modifikasi tidak sah” pada aplikasi sistem obrolan yang disebut permintaan sistem, yang membantu menginformasikan cara berperilaku dan berinteraksi dengan pengguna. Dengan kata lain, manusia mendikte respons AI.

Sifat respons, dalam hal ini, terkait langsung dengan Musk, yang lahir dan besar di Afrika Selatan. Musk, yang memiliki Xai selain peran CEO -nya di Tesla dan SpaceX, telah Mempromosikan klaim palsu Kekerasan terhadap beberapa petani Afrika Selatan merupakan “genosida putih,” sentimen itu Presiden Donald Trump juga telah diungkapkan.

Baca lebih lanjut CNBC melaporkan AI

“Saya pikir ini sangat penting karena konten dan siapa yang memimpin perusahaan ini, dan cara -cara yang menunjukkan atau menjelaskan kekuatan yang harus dibentuk oleh alat -alat ini untuk membentuk pemikiran dan pemahaman orang tentang dunia,” kata Deirdre Mulligan, seorang profesor di Universitas California di Berkeley dan seorang ahli dalam pemerintahan AI.

Mulligan mencirikan Grok Miscue sebagai “kerusakan algoritmik” yang “merobek -robek pada jahitan” sifat netral dari model bahasa besar. Dia mengatakan tidak ada alasan untuk melihat kerusakan Grok hanya sebagai “pengecualian.”

Chatbots bertenaga ai dibuat oleh Meta, Google Dan Openai bukanlah informasi “mengemas” dengan cara yang netral, tetapi sebaliknya melewati data melalui “set filter dan nilai yang dibangun ke dalam sistem,” kata Mulligan. Breakdown Grok menawarkan jendela betapa mudahnya sistem ini dapat diubah untuk memenuhi agenda individu atau kelompok.

Perwakilan dari XAI, Google dan Openai tidak menanggapi permintaan komentar. Meta menolak berkomentar.

Berbeda dari masalah masa lalu

Perubahan yang tidak disetujui Grok, kata Xai dalam hal itu penyataanmelanggar “kebijakan internal dan nilai -nilai inti.” Perusahaan mengatakan akan mengambil langkah-langkah untuk mencegah bencana serupa dan akan menerbitkan permintaan sistem aplikasi untuk “memperkuat kepercayaan Anda pada Grok sebagai AI yang mencari kebenaran.”

Ini bukan kesalahan AI pertama yang viral online. Satu dekade yang lalu, aplikasi foto Google orang Afrika -Amerika yang salah label sebagai gorila. Tahun lalu, Google sementara berhenti Fitur generasi gambar Gemini AI setelah mengakui bahwa ia menawarkan “ketidakakuratan” dalam gambar -gambar sejarah. Dan generator gambar Dall-E Openai dituduh oleh beberapa pengguna menunjukkan tanda-tanda bias pada tahun 2022, yang mengarahkan perusahaan mengumumkan Bahwa itu menerapkan teknik baru sehingga gambar “secara akurat mencerminkan keragaman populasi dunia.”

Pada tahun 2023, 58% pembuat keputusan AI di perusahaan di Australia, Inggris dan AS menyatakan keprihatinan atas risiko halusinasi dalam penyebaran AI generatif, Forrester menemukan. Survei pada bulan September tahun itu termasuk 258 responden.

Para ahli mengatakan kepada CNBC bahwa insiden Grok mengingatkan pada deepseek China, yang menjadi seorang sensasi semalam Di AS awal tahun ini karena kualitas model barunya dan dilaporkan dibangun di sebagian kecil dari biaya saingannya di AS.

Para kritikus mengatakan bahwa Deepseek Topik Sensor dianggap peka terhadap pemerintah Cina. Seperti Cina dengan Deepseek, Musk tampaknya memengaruhi hasil berdasarkan pandangan politiknya, kata mereka.

Saat xai debutnya Grok pada November 2023, Musk mengatakan itu dimaksudkan untuk memiliki “sedikit kecerdasan,” “beruntun yang memberontak” dan untuk menjawab “pertanyaan pedas” yang mungkin dihindari oleh para pesaing. Pada bulan Februari, XAI disalahkan Seorang insinyur untuk perubahan yang menekan respons grok terhadap pertanyaan pengguna tentang informasi yang salah, menjauhkan nama Musk dan Trump dari balasan.

Tetapi obsesi Grok baru -baru ini dengan “genosida putih” di Afrika Selatan lebih ekstrem.

Petar Tsankov, CEO perusahaan audit model AI Latticeflow AI, mengatakan bahwa ledakan Grok lebih mengejutkan daripada apa yang kita lihat dengan Deepseek karena orang akan “berharap bahwa akan ada semacam manipulasi dari Cina.”

Tsankov, yang perusahaannya berbasis di Swiss, mengatakan industri membutuhkan lebih banyak transparansi sehingga pengguna dapat lebih memahami bagaimana perusahaan membangun dan melatih model mereka dan bagaimana hal itu memengaruhi perilaku. Dia mencatat upaya oleh UE untuk meminta lebih banyak perusahaan teknologi untuk memberikan transparansi sebagai bagian dari peraturan yang lebih luas di wilayah tersebut.

Tanpa protes publik, “kita tidak akan pernah bisa menggunakan model yang lebih aman,” kata Tsankov, dan itu akan menjadi “orang -orang yang akan membayar harga” karena menaruh kepercayaan mereka pada perusahaan yang mengembangkannya.

Mike Gualtieri, seorang analis di Forrester, mengatakan bencana Grok tidak akan memperlambat pertumbuhan pengguna untuk chatbots, atau mengurangi investasi yang dituangkan oleh perusahaan ke dalam teknologi. Dia mengatakan pengguna memiliki tingkat penerimaan tertentu untuk kejadian semacam ini.

“Apakah itu Grok, Chatgpt atau Gemini – semua orang mengharapkannya sekarang,” kata Gualtieri. “Mereka telah diberitahu bagaimana model berhalusinasi. Ada harapan ini akan terjadi.”

Olivia Gambelin, ahli etika AI dan penulis buku yang bertanggung jawab AI, yang diterbitkan tahun lalu, mengatakan bahwa sementara jenis kegiatan dari Grok ini mungkin tidak mengejutkan, ia menggarisbawahi kelemahan mendasar dalam model AI.

Gambelin mengatakan itu “menunjukkan bahwa mungkin, setidaknya dengan model Grok, untuk menyesuaikan model dasar tujuan umum ini sesuka hati.”

– Lora Kolodny dan Salvador Rodriguez dari CNBC berkontribusi pada laporan ini

JAM TANGAN: Xai Chatbot Grok dari Elon Musk memunculkan klaim 'Genosida Putih' Afrika Selatan.

Xai Chatbot Grok dari Elon Musk memunculkan klaim 'genosida putih' Afrika Selatan dalam tanggapan yang tidak terkait

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button