AI sama percaya diri dan bias seperti manusia, penelitian menunjukkan

Meskipun manusia dan kecerdasan buatan (AI) Sistem “Pikirkan” sangat berbedapenelitian baru telah mengungkapkan bahwa AIS terkadang membuat keputusan secara tidak rasional seperti yang kita lakukan.
Dalam hampir setengah dari skenario yang diperiksa dalam sebuah studi baru, ChatGPT menunjukkan banyak bias pengambilan keputusan manusia yang paling umum. Diterbitkan 8 April. Di jurnal Manajemen Operasi Manufaktur & Layanantemuan ini adalah yang pertama mengevaluasi perilaku ChatGPT di 18 bias kognitif terkenal yang ditemukan dalam psikologi manusia.
Penulis makalah ini, dari lima lembaga akademik di Kanada dan Australia, menguji Openai's GPT-3.5 dan GPT-4-dua model bahasa besar (LLM) yang mendukung chatgpt-dan menemukan bahwa meskipun “sangat konsisten” dalam penalaran mereka, mereka jauh dari imun hingga kelemahan seperti manusia.
Terlebih lagi, konsistensi seperti itu sendiri memiliki efek positif dan negatif, kata penulis.
“Manajer akan mendapat manfaat paling besar dengan menggunakan alat-alat ini untuk masalah yang memiliki solusi formula yang jelas,” Studi Lead-Author ChenAsisten Profesor Manajemen Operasi di Ivey Business School, mengatakan dalam a penyataan. “Tetapi jika Anda menggunakannya untuk keputusan subyektif atau yang digerakkan oleh preferensi, tapak dengan hati-hati.”
Studi ini mengambil bias manusia yang umum diketahui, termasuk keengganan risiko, kepercayaan berlebihan dan efek endowmen (di mana kami memberikan nilai lebih pada hal -hal yang kami miliki) dan menerapkannya untuk meminta yang diberikan kepada chatgpt untuk melihat apakah itu akan jatuh ke dalam perangkap yang sama dengan manusia.
Keputusan rasional – terkadang
Para ilmuwan mengajukan pertanyaan hipotetis LLMS yang diambil dari psikologi tradisional, dan dalam konteks penerapan komersial dunia nyata, di bidang-bidang seperti manajemen inventaris atau negosiasi pemasok. Tujuannya adalah untuk tidak hanya melihat apakah AI akan meniru bias manusia tetapi apakah itu akan tetap melakukannya ketika diajukan pertanyaan dari berbagai domain bisnis.
GPT-4 mengungguli GPT-3.5 ketika menjawab masalah dengan solusi matematika yang jelas, menunjukkan lebih sedikit kesalahan dalam probabilitas dan skenario berbasis logika. Tetapi dalam simulasi subyektif, seperti apakah akan memilih opsi berisiko untuk mewujudkan keuntungan, chatbot sering mencerminkan preferensi irasional yang cenderung ditunjukkan manusia.
“GPT-4 menunjukkan preferensi yang lebih kuat untuk kepastian daripada yang dilakukan manusia,” tulis para peneliti dalam makalah ini, merujuk pada kecenderungan AI untuk cenderung ke hasil yang lebih aman dan lebih dapat diprediksi ketika diberikan tugas yang ambigu.
Lebih penting lagi, perilaku chatbots tetap sebagian besar stabil apakah pertanyaan dibingkai sebagai masalah psikologis abstrak atau proses bisnis operasional. Studi ini menyimpulkan bahwa bias menunjukkan bukan hanya produk dari contoh yang dihafal – tetapi bagian dari bagaimana alasan AI.
Salah satu hasil mengejutkan dari penelitian ini adalah cara GPT-4 kadang-kadang memperkuat kesalahan seperti manusia. “Dalam tugas bias konfirmasi, GPT-4 selalu memberikan tanggapan yang bias,” tulis penulis dalam penelitian ini. Ini juga menunjukkan kecenderungan yang lebih jelas untuk kekeliruan tangan panas (bias untuk mengharapkan pola dalam keacakan) daripada GPT 3.5.
Sebaliknya, ChatGPT berhasil menghindari beberapa bias manusia yang umum, termasuk pengabaian tingkat dasar (di mana kita mengabaikan fakta statistik yang mendukung informasi anekdotal atau spesifik kasus) dan kekeliruan berbiakan (di mana pengambilan keputusan dipengaruhi oleh biaya yang telah dipertahankan, memungkinkan informasi yang tidak relevan terhadap penilaian cloud).
Menurut penulis, bias seperti manusia chatgpt berasal dari data pelatihan yang berisi bias kognitif dan heuristik yang ditunjukkan manusia. Kecenderungan tersebut diperkuat selama penyempurnaan, terutama ketika umpan balik manusia lebih jauh mendukung respons yang masuk akal daripada yang rasional. Ketika mereka mencapai tugas yang lebih ambigu, AI condong ke arah pola penalaran manusia lebih dari logika langsung.
“Jika Anda ingin dukungan keputusan yang akurat dan tidak memihak, gunakan GPT di area di mana Anda sudah mempercayai kalkulator,” kata Chen. Namun, ketika hasilnya lebih tergantung pada input subyektif atau strategis, pengawasan manusia lebih penting, bahkan jika itu menyesuaikan petunjuk pengguna untuk memperbaiki bias yang diketahui.
“AI harus diperlakukan seperti karyawan yang membuat keputusan penting-perlu pengawasan dan pedoman etika,” rekan penulis Meena Andiappanseorang profesor sumber daya manusia dan manajemen di McMaster University, Kanada, mengatakan dalam pernyataan itu. “Kalau tidak, kami berisiko mengotomatiskan pemikiran yang cacat alih -alih memperbaikinya.”