Sains

Bagaimana sains dapat diuntungkan dari AI?

Publikasi oleh University of Bonn memperingatkan kesalahpahaman dalam menangani algoritma prediktif

Jürgen Bajorath – Dari Informatika Sains Kehidupan di Universitas Bonn.

Para peneliti dari kimia, biologi, dan kedokteran semakin beralih ke model AI untuk mengembangkan hipotesis baru. Namun, seringkali tidak jelas pada dasar mana algoritma sampai pada kesimpulan mereka dan sejauh mana mereka dapat digeneralisasi. Sebuah publikasi oleh University of Bonn sekarang memperingatkan kesalahpahaman dalam menangani kecerdasan buatan. Pada saat yang sama, ini menyoroti kondisi di mana para peneliti kemungkinan besar dapat memiliki kepercayaan pada model. Studi ini sekarang telah diterbitkan dalam jurnal Cell Reports Ilmu Fisik.

Algoritma pembelajaran mesin adaptif sangat kuat. Namun demikian, mereka memiliki kelemahan: bagaimana model pembelajaran mesin sampai pada prediksi mereka seringkali tidak terlihat dari luar.

Misalkan Anda memberi makan kecerdasan buatan dengan foto beberapa ribu mobil. Jika Anda sekarang menyajikannya dengan gambar baru, biasanya dapat mengidentifikasi dengan andal apakah gambar tersebut juga menunjukkan mobil atau tidak. Tapi kenapa begitu? Apakah itu benar -benar belajar bahwa mobil memiliki empat roda, kaca depan, dan knalpot? Atau apakah keputusannya berdasarkan kriteria yang sebenarnya tidak relevan – seperti antena di atap? Jika ini masalahnya, itu juga bisa mengklasifikasikan radio sebagai mobil.

Model AI adalah kotak hitam

“Model AI adalah kotak hitam,” sorot Jürgen Bajorath. “Akibatnya, orang tidak boleh secara membabi buta mempercayai hasil mereka dan menarik kesimpulan dari mereka.” Pakar Kimia Komputasi mengepalai Departemen Ilmu Pengetahuan AI di Institut Lamarr untuk Pembelajaran Mesin dan Kecerdasan Buatan. Dia juga bertanggung jawab atas Program Informatika Sains Kehidupan di Pusat Teknologi Informasi (B-IT) Bonn-Aachen di University of Bonn. Dalam publikasi saat ini, ia menyelidiki pertanyaan kapan seseorang kemungkinan besar dapat mengandalkan algoritma. Dan sebaliknya: Saat tidak.

Konsep “penjelasan” memainkan peran penting dalam konteks ini. Berbicara secara metaforis, ini mengacu pada upaya dalam penelitian AI untuk mengebor lubang inti ke dalam kotak hitam. Algoritma harus mengungkapkan kriteria yang digunakan sebagai dasar – keempat roda atau antena. “Membuka The Black Box saat ini adalah topik utama dalam penelitian AI,” kata Bajorath. “Beberapa model AI dikembangkan secara eksklusif untuk membuat hasil orang lain lebih dapat dipahami.”

Penjelasan, bagaimanapun, hanya satu aspek – pertanyaan tentang kesimpulan mana yang mungkin diambil dari kriteria pengambilan keputusan yang dipilih oleh model sama pentingnya. Jika algoritma menunjukkan bahwa ia telah mendasarkan keputusannya pada antena, seorang manusia segera mengetahui bahwa fitur ini sangat cocok untuk mengidentifikasi mobil. Meskipun demikian, model adaptif umumnya digunakan untuk mengidentifikasi korelasi dalam set data besar yang bahkan mungkin tidak diperhatikan oleh manusia. Kami kemudian seperti alien yang tidak tahu apa yang membuat mobil: Alien tidak akan dapat mengatakan apakah antena adalah kriteria yang baik atau tidak.

Model bahasa kimia menyarankan senyawa baru

“Ada pertanyaan lain yang selalu kita tanyakan pada diri kita sendiri ketika menggunakan prosedur AI dalam sains,” menekankan Bajorath, yang juga anggota dari Area Penelitian Transdisipliner (TRA) “Pemodelan”: “Seberapa dapat ditafsirkan hasilnya?” Model bahasa kimia saat ini merupakan topik hangat dalam penelitian kimia dan farmasi. Adalah mungkin, misalnya, untuk memberi makan mereka dengan banyak molekul yang memiliki aktivitas biologis tertentu. Berdasarkan data input ini, model kemudian mempelajari dan idealnya menyarankan molekul baru yang juga memiliki aktivitas ini tetapi struktur baru. Ini juga disebut sebagai pemodelan generatif. Namun, model biasanya tidak dapat menjelaskan mengapa solusi ini. Seringkali perlu untuk selanjutnya menerapkan metode AI yang dapat dijelaskan.

Meskipun demikian, Bajorath memperingatkan agar tidak menafsirkan penjelasan ini secara berlebihan, yaitu, mengantisipasi bahwa fitur AI menganggap penting memang menyebabkan aktivitas yang diinginkan. “Model AI saat ini pada dasarnya tidak mengerti apa -apa tentang kimia,” katanya. “Mereka murni statistik dan korelatif sifatnya dan memperhatikan fitur yang membedakan, terlepas dari apakah fitur -fitur ini mungkin relevan secara kimia atau biologis atau tidak.” Terlepas dari ini, mereka bahkan mungkin benar dalam penilaian mereka – jadi mungkin molekul yang disarankan memiliki kemampuan yang diinginkan. Alasan untuk ini, bagaimanapun, bisa sangat berbeda dari apa yang kita harapkan berdasarkan pengetahuan kimia atau intuisi. Untuk mengevaluasi potensi kausalitas antara fitur yang mendorong prediksi dan hasil dari proses alami yang sesuai, percobaan biasanya diperlukan: para peneliti harus mensintesis dan menguji molekul, serta molekul lain dengan motif struktural yang dianggap penting AI.

Pemeriksaan masuk akal itu penting

Tes seperti itu memakan waktu dan mahal. Bajorath dengan demikian memperingatkan agar tidak menafsirkan hasil AI secara berlebihan dalam pencarian hubungan kausal yang masuk akal secara ilmiah. Dalam pandangannya, pemeriksaan masuk akal berdasarkan alasan ilmiah yang baik adalah sangat penting: dapatkah fitur yang disarankan oleh AI yang dapat dijelaskan benar -benar bertanggung jawab atas sifat bahan kimia atau biologis yang diinginkan? Apakah perlu mengejar saran AI? Atau apakah itu kemungkinan artefak, korelasi yang diidentifikasi secara acak seperti antena mobil, yang tidak relevan sama sekali untuk fungsi aktual?

Ilmuwan menekankan bahwa penggunaan algoritma adaptif pada dasarnya memiliki potensi untuk secara substansial memajukan penelitian di banyak bidang sains. Namun demikian, seseorang harus menyadari kekuatan pendekatan ini – dan khususnya dari kelemahan mereka.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button