Sains

Dilema menggunakan AI di ICU: rentan terhadap langkah -langkah medis yang salah

Menulis dalam percakapan, Ali Akbar Septiandri (UCL Statistics Science) menjelaskan bagaimana kita dapat mencegah bias dalam penggunaan AI di dunia medis.

Pasien yang dirawat di ruang unit perawatan intensif (ICU), biasanya terhubung ke batang IV dan sejumlah perangkat medis. Penggunaan perangkat medis, seperti monitor tanda vital, bertujuan untuk memantau tanda -tanda vital pasien, seperti detak jantung, tekanan darah, dan saturasi (kadar oksigen dalam darah).

Perangkat medis ini kaya akan data yang berguna untuk mendukung diagnosis – prosesnya sekarang sangat dibantu oleh teknologi kecerdasan buatan (AI). Sebagai contoh, teknologi AI dapat membantu memantau kondisi pasien pasca-kardiak ,, memprediksi perkembangan kondisi pasien COVID-19, mengidentifikasi tanda-tanda yang dapat diamati (fenotip klinis) sepsis, dan menentukan strategi pengobatan pasien yang optimal.

Masalahnya adalah, tidak semua model (program yang dilatih untuk mengenali pola) mampu menghasilkan bantuan yang dibutuhkan dokter untuk mendiagnosis pasien. Selain itu, sumber data yang akan diproses oleh dokter sangat beragam, mulai dari hasil pembacaan perangkat medis di ICU, analisis sampel darah di laboratorium, hingga riwayat kesehatan pasien.

Keragaman sumber data menyebabkan proses pengambilan keputusan medis menjadi lebih kompleks. Ketika kompleksitas kasus yang ditangani meningkat, hasil pembacaan AI menjadi semakin transparan.

Kondisi ini dapat memperburuk bias-apakah Anda menyadarinya atau tidak memengaruhi tindakan medis yang dilakukan dokter.

AI rentan terhadap bias memperburuk terhadap tindakan medis

Di dunia medis, beberapa penelitian menyoroti sejumlah bias yang dapat mempengaruhi keputusan dokter. Sebuah studi 2019, misalnya, mengungkapkan bahwa pasien wanita lebih berisiko mengalami pengurangan atau penghentian perawatan intensif daripada pria. Tren ini terjadi bahkan setelah faktor -faktor lain, seperti usia tua dan kondisi kritis pasien, juga dipertimbangkan.

Studi lain menemukan bahwa ada ketidaksetaraan dalam perawatan kesehatan antara ras hitam dan putih di Amerika Serikat (AS). Ketidaksetaraan ini menyebabkan tingkat kematian pasien kulit hitam di ICU lebih tinggi dari kulit putih.

Bias di dunia medis akan menjadi lebih buruk jika dokter hanya mengandalkan model AI dalam mendiagnosis penyakit, tanpa menganalisis data menggunakan alasan. Terutama ketika model AI mempelajari pola dari data yang bias karena proses pengambilan sampel suboptimal dan ketidaksetaraan sosial yang membatasi akses orang ke fasilitas perawatan kesehatan.

Fenomena ini seperti siswa yang melakukan tugas kuliah menggunakan Chatgpttanpa secara kritis meninjau hasilnya.

Model AI memang menjanjikan akurasi dan personalisasi yang lebih baik dalam membantu diagnosis. Namun, hasilnya diproses dari data besar yang sangat kompleks, sehingga analisis manusia masih diperlukan sebelum mengambil tindakan medis.

Tanpa skeptisisme tentang teknologi ini, dampaknya bisa berakibat fatal.

Cegah bias dalam penggunaan AI di dunia medis

Sayangnya, di lapangan, seringkali ada dorongan untuk mengotomatiskan proses pengambilan keputusan untuk tindakan medis dengan alasan efisiensi sumber daya perawatan intensif.

Misalnya, dalam kasus pandemi Covid-19, tekanan pada penggunaan ICU telah mendorong otomatisasi proses pengambilan keputusan seperti alokasi tempat tidur pasien. Dalam situasi seperti ini, kemungkinan mengambil jalan pintas dengan mengandalkan model AI tanpa mengkritik proses menjadi lebih besar. Faktanya, sejumlah masalah akses ke layanan kesehatan, seperti pertanggungan asuransi yang terbatas, jadwal kerja yang kaku dari petugas kesehatan, dan jarak jauh ke fasilitas kesehatan terdekat diduga memperburuk bias di dunia medis.

Model AI yang sering membuat keputusan berdasarkan bias yang ada, akan mempelajari pola-pola ini sebagai hal biasa, kemudian menafsirkannya sebagai pengetahuan penting dalam proses pengambilan keputusan.

Oleh karena itu, langkah-langkah pencegahan diperlukan untuk menghindari bias karena adopsi teknologi medis berbasis AI, termasuk:

1. Pendidikan AI untuk Praktisi Kesehatan

Praktisi kesehatan perlu dididik tentang AI untuk lebih berhati -hati tentang potensi dan keterbatasan teknologi yang berkembang pesat ini.

Lembaga pendidikan kesehatan harus merombak kurikulum dan menjadikan AI salah satu materi pelajaran. Metode ini dapat membantu mengubah pola pikir praktisi kesehatan mengenai penggunaan AI, yang berkembang sangat besar.

2. Mengemudi lebih banyak inovasi AI klinis

Praktisi kesehatan harus mendorong pengembang AI untuk menghasilkan model yang analisis datanya dapat ditafsirkan secara klinis, sederhana, dan transparan.

Pembuat kebijakan perlu meminta pengembang AI untuk membuat model transparan sebelum teknologi diadopsi secara luas.

3. Kolaborasi Penelitian

Hal penting lain yang sering diabaikan adalah keragaman terbatas data ICU yang tersedia untuk umum. Tinjauan 2022, mengungkapkan bahwa data ICU yang tersedia untuk umum dan digunakan dalam banyak penelitian bersumber dari hanya empat set data yang berbeda (set data) semuanya dari Eropa dan Amerika Serikat.

Oleh karena itu, kolaborasi penelitian global diperlukan dalam berbagi data ICU. Seperti yang disebutkan sebelumnya, model data bias hanya akan melanggengkan bias itu. Sebagai ilustrasi, model AI berisiko mengurangi kinerja mereka secara drastis ketika digunakan di berbagai rumah sakit di suatu negara. Dalam hal ini, penggunaan data lokal dari negara lain sangat diperlukan untuk mengurangi keparahan bias tersebut.

Komunitas medis negara dapat beradaptasi dengan komunitas linguistik komputasi yang secara rutin memegang Sumber Daya dan Evaluasi Bahasa (LREC) Konferensi setiap dua tahun. Forum ini bertujuan untuk mempublikasikan hasil data dan penelitian dari berbagai wilayah di dunia.

Sementara itu, komunitas medis global perlu mengadakan konferensi dan membuat jurnal yang fokus pada mengkomunikasikan data medis dan penelitian dari negara -negara yang kurang dikenal di dunia akademik global.

4. Peraturan Penggunaan AI

Tidaklah cukup untuk berhenti di situ, pemerintah perlu menerapkan peraturan mengenai etika menggunakan AI di dunia medis. WHO dan Uni Eropa, misalnya, telah merumuskan peraturan untuk memastikan dan mengevaluasi kinerja, keamanan, dan keakuratan model AI di sektor kesehatan sehingga mudah digunakan, bebas dari bias dan diskriminasi.

Memastikan perawatan intensif bebas bias membutuhkan upaya komprehensif yang melibatkan beragam pemangku kepentingan, termasuk dokter, petugas kesehatan, akademisi, pengembang teknologi, dan pemerintah.

Komitmen dari semua pemangku kepentingan diperlukan untuk memulai kolaborasi ini. Langkah ini dapat dimulai dengan pemahaman, mengakui, dan mengevaluasi keberadaan bias yang tidak terlihat dalam layanan kesehatan.

Artikel ini awalnya diterbitkan di Percakapan pada 26 Januari 2025.

  • University College London, Gower Street, London, WC1E 6BT (0) 20 7679 2000

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button