Manusia mempekerjakan AI Avatar dalam Banding Hukum, dan Hakim tidak terhibur

Jerome Dewald duduk dengan kakinya disilangkan dan tangannya terlipat di pangkuannya di depan panel banding Hakim Negara Bagian New York, siap untuk berdebat untuk pembalikan keputusan pengadilan yang lebih rendah dalam perselisihannya dengan mantan majikan.
Pengadilan telah mengizinkan Mr. Dewald, yang bukan pengacara dan mewakili dirinya sendiri, untuk menemani argumennya dengan presentasi video yang direkam sebelumnya.
Ketika video mulai diputar, itu menunjukkan seorang pria yang tampaknya lebih muda dari 74 tahun Mr. Dewald mengenakan kemeja berkerah biru dan sweter krem dan berdiri di depan apa yang tampak seperti latar belakang virtual yang kabur.
Beberapa detik ke dalam video, salah satu hakim, bingung dengan gambar di layar, bertanya kepada Tuan Dewald apakah pria itu adalah pengacaranya.
“Saya menghasilkan itu,” Tn. Dewald menjawab. “Itu bukan orang sungguhan.”
Hakim, Hakim Sallie Manzanet-Daniels dari departemen peradilan pertama Divisi Banding, berhenti sejenak. Jelas dia tidak senang dengan jawabannya.
“Akan menyenangkan mengetahui bahwa ketika Anda membuat aplikasi Anda,” dia membentaknya.
“Saya tidak menghargai disesatkan,” tambahnya sebelum berteriak agar seseorang mematikan video.
Apa yang gagal diungkapkan oleh Dewald adalah bahwa ia telah menciptakan avatar digital menggunakan perangkat lunak kecerdasan buatan, contoh terbaru AI merayap ke dalam sistem hukum AS dengan cara yang berpotensi meresahkan.
Itu Mendengar di mana Mr. Dewald membuat presentasinyapada 26 Maret, difilmkan oleh kamera sistem pengadilan dan dilaporkan sebelumnya oleh The Associated Press.
Mencapai pada hari Jumat, Dewald, penggugat dalam kasus ini, mengatakan dia kewalahan karena malu pada persidangan. Dia mengatakan dia telah mengirimi para hakim surat permintaan maaf tak lama setelah itu, mengungkapkan penyesalannya yang mendalam dan mengakui bahwa tindakannya telah “secara tidak sengaja menyesatkan” pengadilan.
Dia mengatakan dia telah menggunakan perangkat lunak setelah tersandung kata -katanya dalam proses hukum sebelumnya. Menggunakan AI untuk presentasi, pikirnya, mungkin meringankan tekanan yang dia rasakan di ruang sidang.
Dia mengatakan dia telah merencanakan untuk membuat versi digital dari dirinya sendiri tetapi telah mengalami “kesulitan teknis” dalam melakukannya, yang mendorongnya untuk membuat orang palsu untuk merekam itu sebagai gantinya.
“Niat saya adalah tidak pernah menipu tetapi untuk menyajikan argumen saya dengan cara yang paling efisien,” katanya dalam suratnya kepada para hakim. “Namun, saya menyadari bahwa pengungkapan dan transparansi yang tepat harus selalu diutamakan.”
Seorang pengusaha yang digambarkan sendiri, Dewald mengajukan banding atas putusan sebelumnya dalam perselisihan kontrak dengan mantan majikan. Dia akhirnya mengajukan argumen lisan di sidang banding, tergagap dan sering berhenti untuk berkumpul kembali dan membaca komentar yang disiapkan dari ponselnya.
Sedikit mungkin dia, Dewald bisa merasa nyaman dengan kenyataan bahwa pengacara yang sebenarnya mendapat masalah karena menggunakan AI di pengadilan.
Pada tahun 2023, seorang pengacara New York menghadapi dampak parah setelah dia menggunakan chatgpt untuk membuat brief legal penuh dengan pendapat peradilan palsu dan kutipan hukum. Kasus ini menunjukkan kekurangan dalam mengandalkan kecerdasan buatan dan bergema di seluruh perdagangan hukum.
Pada tahun yang sama, Michael Cohen, seorang mantan pengacara dan pemecahan untuk Presiden Trump, memberikan pengacara dengan kutipan hukum palsu yang didapatnya dari Google Bard, sebuah program intelijen buatan. Cohen akhirnya memohon belas kasihan dari hakim federal yang memimpin kasusnya, menekankan bahwa ia tidak tahu bahwa layanan teks generatif dapat memberikan informasi palsu.
Beberapa ahli mengatakan bahwa kecerdasan buatan dan model bahasa besar dapat membantu orang yang memiliki masalah hukum untuk ditangani tetapi tidak mampu membayar pengacara. Namun, risiko teknologi tetap ada.
“Mereka masih bisa berhalusinasi – menghasilkan informasi yang tampak sangat menarik” yang sebenarnya “palsu atau tidak masuk akal,” kata Daniel Shin, asisten direktur penelitian di Pusat Teknologi Hukum dan Pengadilan di Sekolah Hukum William & Mary. “Risiko itu harus ditangani.”