RÖNTGEN FİLMLERİNİ ANALİZ EDEN YAPAY ZEKA, ÇEKİLEN FİLMLERDEN HASTALARIN IRKLARINI DOĞRU TESPİT EDEBİLİYOR

Görüntü kalitesi yüksek olmayan röntgen filmlerini inceleyen yapay zekânın kendisinden istenmeden ortaya koyduğu bilgiler, araştırmacıları endişelendiriyor!

Yeni araştırmalar, röntgen filmlerini analiz eden yapay zekanın (AI) hastaların ırkını şaşırtıcı derecede doğrulukla tanımlayabildiğini, ancak aynı görüntüyü inceleyen insanların bunu yapamayacağını buldu. Gıda ve İlaç İdaresi (FDA), tıbbi kullanım için daha fazla algoritmayı onaylarken, araştırmacılar AI'nın ırksal önyargıların devam etmesine neden olabileceğinden endişe duyuyorlar. Özellikle, makine öğrenimi modellerinin, aşırı derecede bozuk ve düşük çözünürlüklü görüntülerden bile ırkı nasıl tanımlayabildiğini tam olarak çözememekten endişeli olduklarını söylüyorlar.

Arxiv'de yayınlanan çalışmada, uluslararası bir doktor ekibi, derin öğrenme modellerinin tıbbi görüntülerden ırkı nasıl tespit edebildiğini araştırdı. Özel ve kamuya açık göğüs röntgenlerini ve ırk ve etnik kökene ilişkin kullanıcının kendi bildirdiği verileri kullanarak, ilk önce bu algoritmaların ne kadar doğru olduğunu değerlendirdiler, ardından da mekanizmayı araştırdılar.

Ekip, araştırmalarında şöyle yazdı: "Model bir hastanın ırkını tanımlayabiliyorsa, bu, modellerin doğrudan bu görev için eğitilmemesine rağmen, ırksal bilgileri tanımayı dolaylı olarak öğrendiğine işaret ediyor."

Daha önceki çalışmalarda olduğu gibi, makine öğrenimi algoritmalarının hastaların Siyah, Beyaz veya Asyalı olup olmadığını yüksek doğrulukla tahmin edebildiğini buldular. Ekip daha sonra algoritmanın bu bilgiyi toplayabilmesi için birkaç olası yolu test etti. Yapılan tüm incelemeler sonucunda, yapay zekânın ırkı düşük kaliteli görüntülerde bile doğru olarak tahmin ettiği, ancak bunu nasıl başardığının hala anlaşılamadığı ortaya çıktı. Ancak, istenmeden de olsa sağlanan bu ek bilginin olası sorunlar çıkarabileceğine de işaret ediliyor.

Araştırmanın yazarları, "Tıbbi görüntü analiziyle ilgilenen tüm geliştiricilerin, düzenleyicilerin ve kullanıcıların derin öğrenme modellerinin kullanımını son derece dikkatli bir şekilde düşünmelerini şiddetle tavsiye ediyoruz" diyor ve ekliyor: "Irk bilgisi özel olarak sağlanmamış olsa bile, makinenin bunu ortaya koyuyor olması, mevcut tıbbi uygulamada var olan ırksal eşitsizliklerin sürdürülmesine veya hatta daha da kötüleştirmek için doğrudan bir mekanizma olarak ortaya çıkmasına neden olabilir."

 

İlk yorum yazan siz olun
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.

Bilim - Teknoloji Haberleri