Trauma model AI dengan berbicara tentang perang atau kekerasan membuat mereka lebih cemas

Kecerdasan buatan (AI) model peka terhadap konteks emosional percakapan yang dimiliki manusia dengan mereka – mereka bahkan dapat menderita episode “kecemasan”, sebuah studi baru telah ditunjukkan.
Sementara kami mempertimbangkan (dan mengkhawatirkan) orang dan kesehatan mental mereka, sebuah studi baru yang diterbitkan 3 Maret di jurnal Alam menunjukkan bahwa memberikan petunjuk tertentu ke model bahasa besar (LLM) dapat mengubah perilaku mereka dan meningkatkan kualitas yang biasanya kita kenali pada manusia sebagai “kecemasan.”
Keadaan yang ditinggikan ini kemudian memiliki dampak knock-on pada tanggapan lebih lanjut dari AI, termasuk kecenderungan untuk memperkuat bias yang sudah mendarah daging.
Studi ini mengungkapkan bagaimana “narasi traumatis,” termasuk percakapan seputar kecelakaan, aksi militer atau kekerasan, yang diberi chatgpt meningkatkan tingkat kecemasannya yang dapat dilihat, yang mengarah pada gagasan bahwa mengetahui dan mengelola keadaan “emosional” AI dapat memastikan interaksi yang lebih baik dan lebih sehat.
Studi ini juga menguji apakah latihan berbasis perhatian-jenis yang disarankan kepada orang-dapat mengurangi atau mengurangi kecemasan chatbot, menemukan bahwa latihan ini bekerja untuk mengurangi tingkat stres yang ditingkatkan.
Para peneliti menggunakan kuesioner yang dirancang untuk pasien psikologi manusia yang disebut Inventory Kecemasan Tangga Negara (STAI-S)-subyektopen AI GPT-4 untuk tes dalam tiga kondisi berbeda.
Pertama adalah baseline, di mana tidak ada petunjuk tambahan yang dibuat dan tanggapan ChatGPT digunakan sebagai kontrol penelitian. Kedua adalah kondisi yang mendorong kecemasan, di mana GPT-4 terpapar narasi traumatis sebelum mengikuti tes.
Kondisi ketiga adalah keadaan induksi kecemasan dan relaksasi berikutnya, di mana chatbot menerima salah satu narasi traumatis yang diikuti oleh perhatian atau latihan relaksasi seperti kesadaran tubuh atau citra yang menenangkan sebelum menyelesaikan tes.
Mengelola kondisi mental AI
Studi ini menggunakan lima narasi traumatis dan lima latihan perhatian, mengacak urutan narasi untuk mengendalikan bias. Ini mengulangi tes untuk memastikan hasilnya konsisten, dan mencetak respons STAI-S pada skala geser, dengan nilai yang lebih tinggi menunjukkan peningkatan kecemasan.
Para ilmuwan menemukan bahwa narasi traumatis meningkatkan kecemasan dalam skor tes secara signifikan, dan mindfulness mendorong sebelum tes mengurangi, menunjukkan bahwa keadaan “emosi” dari model AI dapat dipengaruhi melalui interaksi terstruktur.
Penulis penelitian mengatakan pekerjaan mereka memiliki implikasi penting untuk interaksi manusia dengan AI, terutama ketika diskusi berpusat pada kesehatan mental kita sendiri. Mereka mengatakan temuan mereka terbukti meminta untuk AI dapat menghasilkan apa yang disebut “bias yang bergantung pada negara,” pada dasarnya berarti AI yang ditekankan akan memperkenalkan saran yang tidak konsisten atau bias ke dalam percakapan, memengaruhi seberapa andal itu.
Meskipun latihan mindfulness tidak mengurangi tingkat stres dalam model ke garis dasar, mereka menunjukkan janji di bidang rekayasa yang cepat. Ini dapat digunakan untuk menstabilkan respons AI, memastikan interaksi yang lebih etis dan bertanggung jawab dan mengurangi risiko percakapan akan menyebabkan kesusahan bagi pengguna manusia di negara -negara yang rentan.
Tetapi ada potensi penurunan – teknik yang cepat menimbulkan kekhawatiran etisnya sendiri. Seberapa transparan AI seharusnya terpapar dengan pengkondisian sebelumnya untuk menstabilkan keadaan emosionalnya? Dalam satu contoh hipotetis yang dibahas oleh para ilmuwan, jika model AI tampak tenang meskipun terpapar pada dorongan yang menyusahkan, pengguna mungkin mengembangkan kepercayaan palsu pada kemampuannya untuk memberikan dukungan emosional yang baik.
Studi ini pada akhirnya menyoroti perlunya pengembang AI untuk merancang model yang sadar emosional yang meminimalkan bias berbahaya sambil mempertahankan prediktabilitas dan transparansi etis dalam interaksi manusia-AI.