Blog

Kekeliruan Med-Gemini Ungkap Tantangan AI di dunia Medis

Penggunaan kecerdasan buatan (AI) dalam dunia medis terus berkembang, menawarkan efisiensi dalam pengolahan data dan analisis kesehatan. Namun, sebuah kesalahan yang terjadi pada sistem AI milik Google bernama Med-Gemini kembali mengingatkan akan pentingnya pengawasan manusia dalam praktik kedokteran.

Dalam sebuah laporan riset tahun 2024, Med-Gemini diketahui menyebutkan istilah “basilar ganglia”, bagian otak yang sebenarnya tidak ada dalam dunia anatomi. Istilah ini merupakan gabungan keliru dari dua bagian berbeda di otak: “basal ganglia” dan “basilar artery”, yang masing-masing memiliki fungsi dan penanganan medis yang sangat berbeda.

Med-Gemini Salah Sebut Anatomi

“Basal ganglia” adalah sekelompok struktur di otak yang berperan dalam gerakan motorik, pembelajaran, dan pengolahan emosi. Sementara itu, “basilar artery” adalah pembuluh darah utama yang menyuplai darah ke batang otak. Kesalahan menggabungkan dua istilah ini bukan sekadar salah ketik, bila terjadi dalam praktik medis, dapat mengarah pada diagnosis atau penanganan yang keliru.

Meskipun kesalahan ini muncul dalam laporan riset dan bukan dalam situasi rumah sakit, para ahli tetap menilai peristiwa ini sebagai peringatan penting. Dokter neurologis dan peneliti AI, Bryan Moore, adalah pihak yang pertama kali menemukan kesalahan ini. Setelah ia melaporkannya, Google diam-diam mengubah blog post mereka tanpa memberi penjelasan publik, sementara makalah ilmiahnya tetap dibiarkan tanpa koreksi.

Google sendiri menyebut insiden ini sebagai “typo” atau kesalahan penulisan biasa. Namun, banyak profesional medis menyatakan bahwa ini menunjukkan keterbatasan serius dalam penggunaan AI untuk konteks kesehatan yang kritis.

Potensi dan Resiko Med-Gemini

Med-Gemini adalah salah satu proyek AI Google di bidang kesehatan yang dikembangkan untuk membaca data medis, menyusun laporan radiologi, hingga menganalisis rekam medis elektronik. Kemampuan ini menjanjikan efisiensi tinggi bagi rumah sakit dan dokter. Namun, kejadian “basilar ganglia” menunjukkan bahwa AI masih bisa menghasilkan informasi yang keliru atau bahkan fiktif, sebuah fenomena yang dikenal sebagai hallucination dalam konteks AI.

Dalam dunia medis, keakuratan informasi adalah hal yang mutlak. Kesalahan seperti ini bisa berdampak pada keselamatan pasien, terlebih jika petugas medis terlalu mengandalkan hasil AI tanpa melakukan verifikasi manual. Hal ini membuka kembali diskusi penting soal bagaimana AI seharusnya digunakan: sebagai alat bantu, bukan pengganti keputusan manusia.

Langkah Meminimalisir Hallucination Med-Gemini dan AI Lain

Kasus ini mendorong banyak pihak untuk memperketat proses pengembangan dan pengawasan AI di sektor kesehatan. Pendekatan ini dinilai penting agar teknologi tetap menjadi alat bantu, bukan sumber potensi kesalahan diagnosis yang membahayakan pasien.

Beberapa langkah yang disarankan para ahli untuk meminimalkan risiko hallucination pada AI medis antara lain:

  • Pelatihan data yang berkualitas: Model AI perlu dilatih dengan data yang valid, lengkap, dan bervariasi agar dapat menghasilkan informasi yang akurat.
  • Keterlibatan manusia: Tenaga medis tetap harus menjadi pengambil keputusan utama. AI hanya mendukung, bukan menggantikan.
  • Transparansi sistem: AI perlu memiliki fitur yang menjelaskan bagaimana kesimpulan dihasilkan, sehingga memudahkan dokter untuk mengevaluasi kebenaran hasilnya.
  • Pengujian ketat sebelum digunakan: Model harus diuji secara menyeluruh dalam berbagai situasi nyata sebelum diterapkan secara luas.
  • Sistem deteksi kesalahan: Harus ada mekanisme yang bisa mengenali dan memberi peringatan jika AI menghasilkan informasi yang tidak logis atau mencurigakan.

Selain itu, para pengembang diminta untuk terbuka terhadap kekurangan sistem yang mereka ciptakan, serta menyediakan dokumentasi yang jelas mengenai batasan dan potensi kesalahan yang bisa terjadi.

Kesimpulan

Kasus kesalahan “basilar ganglia” pada sistem AI Med-Gemini milik Google menjadi contoh nyata bahwa teknologi canggih sekalipun masih memiliki celah. Dalam konteks kesehatan, kesalahan kecil bisa berujung pada konsekuensi besar. Karena itu, penggunaan AI dalam dunia medis perlu dilakukan secara hati-hati, dengan standar pengawasan tinggi dan keterlibatan aktif dari tenaga profesional. AI memang dapat membantu mempercepat proses dan menganalisis data dalam jumlah besar, namun keputusan akhir tetap harus berada di tangan manusia, yang tidak hanya memahami data, tapi juga konteks dan tanggung jawab etis di baliknya.

Ingin tahu update seputar tren digital lainnya? Temukan inspirasi teknologi harian di Instagram @Wesclic dan lihat bagaimana inovasi mendorong industri bergerak lebih maju. Bila tertarik menerapkan solusi digital serupa, Webklik juga menyediakan layanan pembuatan website profesional yang dapat disesuaikan dengan kebutuhan bisnis atau instansi Anda.

Leave your thought here

Read More

iPhone 17 dan iPhone Air Siap Diluncurkan September 2025

Revalita 13/08/2025

Apple diperkirakan akan menggelar acara tahunan peluncuran perangkat keras pada 9 September mendatang. Seperti tradisi sebelumnya, fokus utama ada pada peluncuran seri iPhone terbaru, yaitu…

Tesla Alihkan Fokus dari Dojo ke Chip AI Baru

Revalita 13/08/2025

Tesla resmi menghentikan pengembangan Dojo, superkomputer AI yang selama ini digadang-gadang sebagai kunci untuk mewujudkan…

OpenArt Hadirkan Fitur “One-Click Story” untuk Video AI

Revalita 13/08/2025

Fenomena video “brain rot”, sebuah klip berdurasi singkat dengan karakter unik seperti hiu memakai sepatu…

SpaceX Bangun Pipa Air Baru untuk Kota Starbase

Revalita 13/08/2025

SpaceX sedang membangun infrastruktur baru di Starbase, Texas. Namun, bukan landasan peluncuran atau roket, melainkan…

Hubble Network Siapkan Satelit baru MuSat XL 

Revalita 13/08/2025

Hubble Network, startup berbasis di Seattle, sedang mempersiapkan peningkatan besar pada jaringan Bluetooth bertenaga satelit…

Feedback
Feedback
How would you rate your experience?
Do you have any additional comment?
Next
Enter your email if you'd like us to contact you regarding with your feedback.
Back
Submit
Thank you for submitting your feedback!