Yapay Zeka Doktorlara Güvenebilir miyiz?

Makine öğrenimi, fırtına ile tıbbi teşhisi ele geçiriyor. Göz hastalığı, meme ve diğer kanserlerden daha amorf nörolojik bozukluklara kadar AI, onları tamamen yenmiyorsa bile rutin olarak doktor performansına eş değer teşhislerde bulunuyor.

Yaşam ve ölüm kararları söz konusu olduğunda, esrarengiz algoritmalara – yaratıcılarının bile tam olarak açıklayamadığı veya anlayamadığı “kara kutulara” tam olarak ne zaman güvenebiliriz? Tıbbi yapay zeka, Google, Amazon veya Apple gibi hem akademik hem de endüstri güçleri de dahil olmak üzere farklı teşviklerle birden çok disiplini ve geliştiriciyi geçtiğinden, sorun daha karmaşık hale geliyor.

Bu hafta iki taraf, en prestijli bilim dergilerinden biri olan Nature’da hararetli bir düelloda savaştı. Bir tarafta Princess Margaret Kanser Merkezi, Toronto Üniversitesi, Stanford Üniversitesi, Johns Hopkins, Harvard, MIT ve diğerlerinde önde gelen yapay zeka araştırmacıları var. Diğer tarafta titan Google Health var.

Tetikleyici, meme kanseri taraması için Google Sağlık tarafından bu yıl Ocak ayında yayınlanan çığı açıcı bir çalışmaydı. Çalışma, radyologların meme kanserini teşhis etmede çok daha iyi performans gösteren ve eğitim için kullanılanların ötesinde popülasyonlara genelleştirilebilen bir yapay zeka sistemi geliştirdiğini iddia etti – büyük tıbbi görüntüleme veri kümelerinin olmaması nedeniyle inanılmaz derecede zor olan kutsal bir kase. Çalışma, medya dünyasında dalgalar yarattı ve tıbbi yapay zekanın “reşit olması” için kamusal alanda bir hareket yarattı.

Akademisyenler, sorunun, çalışmanın diğerlerinin çoğaltması için yeterli kod ve model tanımlarının olmaması olduğunu ileri sürdü. Başka bir deyişle, araştırmaya yalnızca sözüne güvenebiliriz – bilimsel araştırmada yapılmayan bir şey. Google Health, buna karşılık, hasta bilgilerini koruma ve yapay zekayı kötü niyetli saldırılardan engelleme ihtiyacını savunan kibar, incelikli ama iddialı bir çürütücü kaleme aldı.

Bunun gibi akademik söylemler bilimin merkezini oluşturuyor ve inanılmaz modası geçmiş görünebilir – özellikle de çevrimiçi kanallar yerine iki taraf asırlık bir kalem kağıt tartışmasına başvurdukları için. Bununla birlikte, bunu yaparak, dünya çapında geniş bir izleyici kitlesine gerekli bir tartışmayı yükselttiler, her iki taraf da tıbbi yapay zekaya güven ve şeffaflık için bir çerçeve temelini oluşturabilecek – herkesin yararına olacak şekilde iddialarda bulundular.

Akademisyenin argümanlarının nereden geldiğini görmek kolaydır. Bilim genellikle nesnellik ve gerçeği somutlaştıran kutsal bir çaba olarak resmedilir. Ancak, insanların dokunduğu herhangi bir disiplin gibi, sonuçları çarpıtmak için hatalara, kötü tasarımlara, kasıtsız önyargılara veya – çok az sayılarda – bilinçli manipülasyona eğilimlidir. Bu nedenle, bilim adamları sonuçları yayınlarken metodolojilerini dikkatlice açıklarlar, böylece diğerleri bulguları kopyalayabilir. Bir sonuç, diyelim ki, Covid-19’a karşı koruyan bir aşı, bilim insanı, malzeme veya deneklerden bağımsız olarak neredeyse her laboratuvarda gerçekleşirse, aşının gerçekten işe yaradığına dair daha güçlü kanıtımız var demektir. Değilse, bu, ilk çalışmanın yanlış olabileceği anlamına gelir – ve bilim adamları daha sonra nedenini açıklayabilir ve devam edebilir. Replikasyon, sağlıklı bilimsel evrim için çok önemlidir.

Ancak Yapay Zeka araştırması bu tabuyu parçalıyor.

“Hesaplamalı araştırmada, bir yapay zeka çalışmasının ayrıntılarının tamamen erişilebilir olması için henüz yaygın bir kriter değil. Prenses Margaret Kanser Merkezi’nden yazar Dr. Benjamin Haibe-Kains, bu bizim ilerlememize zarar veriyor ”dedi. Örneğin, bilgisayar kodundaki veya eğitim örneklerindeki ve parametrelerdeki nüanslar, eğitim ve sonuçların değerlendirilmesini önemli ölçüde değiştirebilir — normda olduğu gibi, tek başına metin kullanılarak kolayca tanımlanamayan yönler. Ekip, sonucun karmaşık hesaplama hattını “mümkün değil” doğrulamaya çalıştığını söyledi.

Scroll to Top