Berita

Elon Musk ingin menggunakan AI untuk menjalankan pemerintah kami, tetapi para ahli mengatakan ide 'sangat buruk'

Apakah Elon Musk berencana menggunakan kecerdasan buatan untuk menjalankan pemerintah AS? Tampaknya itu adalah rencananya, tetapi para ahli mengatakan itu adalah “ide yang sangat buruk”.

Musk telah menembakkan puluhan ribu pegawai pemerintah federal melalui Departemen Efisiensi Pemerintah (DOGE), dan ia dilaporkan mengharuskan pekerja yang tersisa untuk mengirimi departemen email mingguan yang menampilkan lima poin peluru yang menggambarkan apa yang mereka capai minggu itu.

Karena itu tidak diragukan lagi akan membanjiri ratusan ribu jenis email ini, Musk mengandalkan kecerdasan buatan untuk memproses respons dan membantu menentukan siapa yang harus tetap dipekerjakan. Bagian dari rencana itu dilaporkan juga untuk menggantikan banyak pekerja pemerintah dengan sistem AI.

Belum jelas seperti apa sistem AI ini atau bagaimana mereka bekerja – sesuatu Demokrat di Kongres Amerika Serikat menuntut untuk diisi – tetapi para ahli memperingatkan bahwa memanfaatkan AI di pemerintah federal tanpa pengujian yang kuat dan verifikasi alat -alat ini dapat memiliki konsekuensi yang menghancurkan.

“Untuk menggunakan alat AI secara bertanggung jawab, mereka perlu dirancang dengan tujuan tertentu dalam pikiran. Mereka perlu diuji dan divalidasi. Tidak jelas apakah semua itu dilakukan di sini, ”kata Cary Coglianese, seorang profesor hukum dan ilmu politik di University of Pennsylvania.

Orang Coglian mengatakan bahwa jika AI digunakan untuk membuat keputusan tentang siapa yang harus diberhentikan dari pekerjaan mereka, ia akan “sangat skeptis” dari pendekatan itu. Dia mengatakan ada potensi yang sangat nyata untuk kesalahan yang harus dilakukan, agar AI bias dan untuk masalah potensial lainnya.

“Itu ide yang sangat buruk. Kami tidak tahu apa -apa tentang bagaimana AI akan membuat keputusan seperti itu [including how it was trained and the underlying algorithms]data yang menjadi dasar keputusan tersebut, atau mengapa kita harus percaya itu dapat dipercaya, ”kata Shobita Parthasarathy, seorang profesor kebijakan publik di University of Michigan.

Kekhawatiran itu tampaknya tidak menahan pemerintah saat ini, terutama dengan Musk – seorang pengusaha miliarder dan penasihat dekat Presiden AS Donald Trump – memimpin tuduhan pada upaya ini.

Departemen Luar Negeri AS, misalnya, berencana menggunakan AI untuk memindai akun media sosial warga negara asing untuk mengidentifikasi siapa pun yang mungkin menjadi pendukung Hamas dalam upaya mencabut visa mereka. Pemerintah AS sejauh ini belum transparan tentang bagaimana sistem semacam ini bisa bekerja.

Bahaya yang tidak terdeteksi

“Administrasi Trump benar -benar tertarik untuk mengejar AI dengan segala cara, dan saya ingin melihat penggunaan AI yang adil, adil dan adil,” kata Hilke Schellmann, seorang profesor jurnalisme di Universitas New York dan seorang ahli kecerdasan buatan. “Mungkin ada banyak bahaya yang tidak terdeteksi.”

Pakar AI mengatakan bahwa ada banyak cara di mana penggunaan AI pemerintah dapat salah, itulah sebabnya perlu diadopsi dengan hati -hati dan berhati -hati. Orang Coglian mengatakan pemerintah di seluruh dunia, termasuk Belanda dan Inggris, memiliki masalah dengan AI yang dieksekusi dengan buruk yang dapat membuat kesalahan atau menunjukkan bias dan akibatnya secara keliru menolak manfaat kesejahteraan warga yang mereka butuhkan, misalnya.

Di AS, negara bagian Michigan memiliki masalah dengan AI yang digunakan untuk menemukan penipuan dalam sistem penganggurannya ketika secara tidak benar mengidentifikasi ribuan kasus dugaan penipuan. Banyak dari mereka yang ditolak manfaatnya ditangani dengan keras, termasuk dipukul dengan beberapa penalti dan dituduh melakukan penipuan. Orang -orang ditangkap dan bahkan mengajukan kebangkrutan. Setelah periode lima tahun, negara mengakui bahwa sistem itu salah dan setahun kemudian akhirnya mengembalikan $ 21 juta kepada penduduk yang dituduh melakukan penipuan.

“Sebagian besar waktu, para pejabat yang membeli dan menggunakan teknologi ini hanya tahu sedikit tentang bagaimana mereka bekerja, bias dan keterbatasan mereka, dan kesalahan,” kata Parthasarathy. “Karena masyarakat berpenghasilan rendah dan yang terpinggirkan cenderung memiliki kontak paling banyak dengan pemerintah melalui layanan sosial [such as unemployment benefits, foster care, law enforcement]mereka cenderung paling terpengaruh oleh AI yang bermasalah. “

AI juga telah menyebabkan masalah dalam pemerintahan ketika digunakan di pengadilan untuk menentukan hal -hal seperti kelayakan pembebasan bersyarat seseorang atau di departemen kepolisian ketika telah digunakan untuk mencoba memprediksi di mana kemungkinan kejahatan akan terjadi.

Schellmann mengatakan bahwa AI yang digunakan oleh departemen kepolisian biasanya dilatih tentang data historis dari departemen-departemen tersebut, dan itu dapat menyebabkan AI merekomendasikan area yang terlalu banyak memoles yang telah lama dipoles, terutama komunitas kulit berwarna.

AI tidak mengerti apapun

Salah satu masalah dengan berpotensi menggunakan AI untuk menggantikan pekerja di pemerintah federal adalah bahwa ada begitu banyak jenis pekerjaan di pemerintahan yang membutuhkan keterampilan dan pengetahuan khusus. Orang IT di Departemen Kehakiman mungkin memiliki pekerjaan yang sangat berbeda dari satu di Departemen Pertanian, misalnya, meskipun mereka memiliki judul pekerjaan yang sama. Program AI, oleh karena itu, harus kompleks dan sangat terlatih untuk melakukan pekerjaan biasa -biasa saja dalam mengganti pekerja manusia.

“Saya tidak berpikir Anda dapat memotong pekerjaan orang secara acak dan kemudian [replace them with any AI]”Kata Coglianese. “Tugas yang dilakukan orang -orang itu seringkali sangat khusus dan spesifik.”

Schellmann mengatakan Anda bisa menggunakan AI untuk melakukan bagian dari pekerjaan seseorang yang mungkin dapat diprediksi atau berulang, tetapi Anda tidak bisa sepenuhnya menggantikan seseorang. Itu secara teoritis akan dimungkinkan jika Anda menghabiskan waktu bertahun -tahun mengembangkan alat AI yang tepat untuk melakukan banyak, banyak jenis pekerjaan – tugas yang sangat sulit dan bukan apa yang tampaknya dilakukan pemerintah saat ini.

“Para pekerja ini memiliki keahlian nyata dan pemahaman yang bernuansa tentang masalah -masalah tersebut, yang tidak dilakukan AI. AI sebenarnya tidak 'memahami' apa pun, ”kata Parthasarathy. “Ini adalah penggunaan metode komputasi untuk menemukan pola, berdasarkan data historis. Dan itu kemungkinan memiliki utilitas terbatas, dan bahkan memperkuat bias historis. ”

Administrasi mantan presiden AS Joe Biden diterbitkan Perintah eksekutif pada tahun 2023 berfokus pada penggunaan AI yang bertanggung jawab dalam pemerintahan dan bagaimana AI akan diuji dan diverifikasi, tetapi perintah ini dibatalkan oleh administrasi Trump pada bulan Januari. Schellmann mengatakan ini telah membuatnya lebih kecil kemungkinannya bahwa AI akan digunakan secara bertanggung jawab dalam pemerintahan atau bahwa para peneliti akan dapat memahami bagaimana AI digunakan.

Semua ini mengatakan, jika AI dikembangkan secara bertanggung jawab, itu bisa sangat membantu. AI dapat mengotomatiskan tugas berulang sehingga pekerja dapat fokus pada hal -hal yang lebih penting atau membantu pekerja memecahkan masalah yang mereka perjuangkan. Tetapi memang perlu diberikan waktu untuk digunakan dengan cara yang benar.

“Itu tidak berarti kami tidak bisa menggunakan alat AI dengan bijak,” kata Coglianese. “Tetapi pemerintah tersesat ketika mereka mencoba untuk terburu -buru dan melakukan hal -hal dengan cepat tanpa input publik yang tepat dan validasi dan verifikasi menyeluruh tentang bagaimana algoritma itu benar -benar berfungsi.”

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button