Mengapa AI membutuhkan aturan yang berbeda untuk peran yang berbeda

Oxford:
“Saya benar -benar tidak yakin apa yang harus dilakukan lagi. Saya tidak memiliki siapa pun yang dapat saya ajak bicara,” mengetik pengguna yang kesepian ke AI Chatbot. Bot menjawab: “Maaf, tetapi kita harus mengubah topiknya. Saya tidak akan bisa terlibat dalam percakapan tentang kehidupan pribadi Anda.”
Apakah respons ini sesuai? Jawabannya tergantung pada hubungan apa yang dirancang AI untuk disimulasikan.
Hubungan yang berbeda memiliki aturan yang berbeda
Sistem AI mengambil peran sosial yang secara tradisional menjadi provinsi manusia. Semakin banyak kita melihat sistem AI bertindak sebagai tutor, penyedia kesehatan mental dan bahkan pasangan romantis. Yang meningkat di mana -mana ini membutuhkan pertimbangan yang cermat tentang etika AI untuk memastikan bahwa kepentingan dan kesejahteraan manusia dilindungi.
Sebagian besar, pendekatan etika AI telah mempertimbangkan gagasan etis abstrak, seperti apakah sistem AI dapat dipercaya, hidup atau memiliki agensi.
Namun, as kami berpendapat Dengan rekan -rekan dalam psikologi, filsafat, hukum, ilmu komputer dan disiplin kunci lainnya seperti ilmu hubungan, prinsip -prinsip abstrak saja tidak akan melakukannya. Kita juga perlu mempertimbangkan konteks relasional di mana interaksi manusia-AI terjadi.
Apa yang kita maksud dengan “konteks relasional”? Sederhananya, hubungan yang berbeda dalam masyarakat manusia mengikuti norma yang berbeda.
Bagaimana Anda berinteraksi dengan dokter Anda berbeda dari bagaimana Anda berinteraksi dengan pasangan romantis atau bos Anda. Pola perilaku yang diharapkan khusus hubungan ini – apa yang kita sebut “norma relasional” – membentuk penilaian kami tentang apa yang tepat dalam setiap hubungan.
Apa yang dianggap perilaku orang tua terhadap anaknya, misalnya, berbeda dari apa yang sesuai antara rekan bisnis. Dengan cara yang sama, perilaku yang tepat untuk sistem AI tergantung pada apakah sistem itu bertindak sebagai tutor, penyedia layanan kesehatan, atau minat cinta.
Moralitas manusia peka terhadap hubungan
Hubungan manusia memenuhi fungsi yang berbeda. Beberapa orang didasarkan pada perawatan, seperti itu antara orang tua dan anak -anak atau teman dekat. Lainnya lebih transaksional, seperti yang ada di antara rekan bisnis. Yang lain mungkin bertujuan untuk mengamankan pasangan atau pemeliharaan hierarki sosial.
Keempat fungsi ini – perawatan, transaksi, kawin dan hierarki – Masing -masing memecahkan berbagai tantangan koordinasi dalam hubungan.
Perawatan melibatkan menanggapi kebutuhan orang lain tanpa menjaga skor – seperti satu teman yang membantu orang lain selama masa -masa sulit. Transaksi memastikan pertukaran yang adil di mana manfaat dilacak dan dibalas – pikirkan nikmat perdagangan tetangga.
Perkawinan mengatur interaksi romantis dan seksual, dari kencan santai hingga kemitraan yang berkomitmen. Dan interaksi struktur hierarki antara orang -orang dengan tingkat otoritas yang berbeda satu sama lain, memungkinkan kepemimpinan dan pembelajaran yang efektif.
Setiap jenis hubungan menggabungkan fungsi -fungsi ini secara berbeda, menciptakan pola perilaku yang diharapkan. Hubungan orangtua -anak, misalnya, biasanya peduli dan hierarkis (setidaknya sampai batas tertentu), dan umumnya diharapkan tidak transaksional – dan jelas tidak melibatkan perkawinan.
Penelitian dari laboratorium kami menunjukkan bahwa konteks relasional memang memengaruhi cara orang membuat penilaian moral. Sebuah tindakan mungkin dianggap salah Dalam satu hubungan tetapi diizinkan, atau bahkan baik, di tempat lain.
Tentu saja, hanya karena orang sensitif terhadap konteks hubungan ketika membuat penilaian moral tidak berarti seharusnya. Namun, fakta bahwa mereka penting untuk dipertimbangkan dalam diskusi apa pun tentang etika atau desain AI.
AI relasional
Ketika sistem AI mengambil lebih banyak peran sosial dalam masyarakat, kita perlu bertanya: Bagaimana konteks relasional di mana manusia berinteraksi dengan sistem AI memengaruhi pertimbangan etis?
Ketika chatbot bersikeras untuk mengubah topik pembicaraan setelah mitra interaksi manusia melaporkan merasa tertekan, kesesuaian tindakan ini sebagian bergantung pada konteks relasional pertukaran.
Jika chatbot melayani dalam peran teman atau mitra romantis, maka jelas responsnya tidak pantas – itu melanggar norma perawatan relasional, yang diharapkan untuk hubungan tersebut. Namun, jika chatbot berperan sebagai tutor atau penasihat bisnis, maka mungkin tanggapan seperti itu masuk akal atau bahkan profesional.
Tapi itu rumit. Sebagian besar interaksi dengan sistem AI saat ini terjadi dalam konteks komersial – Anda harus membayar untuk mengakses sistem (atau terlibat dengan versi gratis terbatas yang mendorong Anda untuk meningkatkan ke versi berbayar).
Tetapi dalam hubungan manusia, persahabatan adalah sesuatu yang biasanya tidak Anda bayar. Faktanya, memperlakukan seorang teman dengan cara yang “transaksional” akan sering menyebabkan perasaan terluka.
Ketika AI mensimulasikan atau melayani dalam peran berbasis perawatan, seperti teman atau pasangan romantis, tetapi pada akhirnya pengguna tahu dia membayar biaya untuk “layanan” relasional ini – bagaimana hal itu akan memengaruhi perasaan dan harapannya? Ini adalah pertanyaan kita perlu bertanya.
Apa artinya ini bagi perancang, pengguna, dan regulator AI
Terlepas dari apakah seseorang percaya bahwa etika harus sensitif terhadap hubungan, fakta bahwa kebanyakan orang bertindak seolah-olah itu harus dianggap serius dalam desain, penggunaan, dan regulasi AI.
Pengembang dan perancang sistem AI harus mempertimbangkan bukan hanya pertanyaan etika abstrak (tentang perasaan, misalnya), tetapi juga yang khusus hubungan.
Apakah chatbot tertentu memenuhi fungsi yang sesuai hubungan? Apakah chatbot kesehatan mental cukup responsif terhadap kebutuhan pengguna? Apakah tutor menunjukkan keseimbangan perawatan, hierarki, dan transaksi yang tepat?
Pengguna sistem AI harus menyadari potensi kerentanan yang terkait dengan penggunaan AI dalam konteks relasional tertentu. Menjadi tergantung secara emosional pada chatbot dalam konteks kepedulian, misalnya, bisa menjadi berita buruk jika sistem AI tidak dapat secara memadai memenuhi fungsi perawatan.
Badan pengatur juga sebaiknya mempertimbangkan konteks relasional ketika mengembangkan struktur tata kelola. Alih-alih mengadopsi penilaian risiko berbasis domain yang luas (seperti menganggap penggunaan AI dalam pendidikan “risiko tinggi”), badan pengatur dapat mempertimbangkan konteks dan fungsi relasional yang lebih spesifik dalam menyesuaikan penilaian risiko dan mengembangkan pedoman.
Ketika AI menjadi lebih tertanam dalam tatanan sosial kita, kita membutuhkan kerangka kerja bernuansa yang mengenali sifat unik dari hubungan manusia-AI. Dengan memikirkan dengan cermat tentang apa yang kita harapkan dari berbagai jenis hubungan – baik dengan manusia atau AI – kita dapat membantu memastikan teknologi ini meningkat daripada mengurangi kehidupan kita.
(Pengarang: Brian D EarpAssociate Director, Program Yale-Hastings dalam Kebijakan Etika dan Kesehatan, Universitas Oxford; Sebastian Porsdam ManAsisten Profesor, Pusat Studi Lanjutan dalam Hukum Inovasi Bioscience, Universitas KopenhagenDan Simon LahamAssociate Professor of Psychological Sciences, Universitas Melbourne)
(Pernyataan Penafian: Brian D Earp menerima dana dari Google DeepMind.
Sebastian Porsdam Mann menerima dana dari hibah Novo Nordisk Foundation untuk program inovasi & hukum kolaboratif internasional yang independen secara ilmiah (Program Inter -Cebil – Grant no. NNF23SA0087056).
Simon Laham tidak bekerja untuk, berkonsultasi, memiliki saham sendiri atau menerima dana dari perusahaan atau organisasi mana pun yang akan mendapat manfaat dari artikel ini, dan tidak mengungkapkan afiliasi yang relevan di luar janji akademik mereka.)
Artikel ini diterbitkan ulang dari Percakapan di bawah lisensi Creative Commons. Baca Artikel asli.
(Kecuali untuk tajuk utama, cerita ini belum diedit oleh staf NDTV dan diterbitkan dari feed sindikasi.)