İstanbul Medipol Üniversitesi Rektör Yardımcısı Prof. Dr. Recep Öztürk, AA muhabirine yapay zeka sisteminin sağlıkta kullanımıyla ilgili bilgiler verdi.
Sağlıkta yapay zekanın artık geleceğe ait bir öngörü olmadığını belirten Öztürk, küresel ölçekte, her hafta yaklaşık 230 milyon kişinin sağlıklı yaşam ve iyi hissetme konularında dijital yapay zeka sistemlerine başvurduğunun bildirildiğini aktardı.
Bazı raporlara göre, yalnızca ChatGPT’ye günlük düzeyde sağlıkla ilgili soru yönelten kullanıcı sayısının 40 milyonun üzerinde olduğuna işaret eden Öztürk, "Diğer yapay zeka sistemleri de hesaba katıldığında, bu ilginin ne denli geniş bir insan topluluğunu etkilediği dikkati çekici boyuttadır. Bu veriler, bireylerin sağlık bilgisini arama ve anlamlandırma biçiminde yaşanan sessiz fakat köklü dönüşümün dikkat çekici bir göstergesi olarak değerlendirilmektedir." dedi.
Öztürk, bugün insanların tahlil sonuçlarını, semptomlarını ve sağlıkla ilgili endişelerini doğrudan yapay zekaya yöneltmeye başladığına dikkati çekerek, şu değerlendirmelerde bulundu:
"Bu davranış, sağlık sistemindeki yoğunluk, randevu sürelerinin kısalığı (randevu sürelerinin uzunluğu ve muayene sürelerinin kısalığı) ve anlık bilgi ihtiyacının artmasıyla yakından ilişkilidir. Üstelik yalnızca hastalar değil, hekimler de bu teknolojileri kullanıyor. ABD'de 2024 yılında hekimlerin yüzde 66'sı yapay zeka kullandığını bildirdi. Bu oran 2023'te yüzde 38'di. Yani bir yılda yüzde 28 puan artış oldu, yaklaşık yüzde 74'lük artış yaşandı."
"Yapay zeka bir 'ön değerlendirme aracı' olarak görülebilir"
İnsanların artık USG, BT, MR raporları ya da semptomlarıyla bir arama motorunda karmaşık sonuçlar arasında kaybolmak yerine, bilgiyi anlamlandıran sistemlere yöneldiğini anlatan Öztürk, sadece ChatGPT üzerinden günde yaklaşık 40 milyon sağlık sorgusu yapılmasının, bu refleksin ne kadar yaygınlaştığını gösterdiğini belirtti.
Öztürk, yapay zekanın tıbbi terminolojiyi sadeleştiren, hastanın belirsizlik kaynaklı paniğini azaltan bir "ön değerlendirme aracı" olarak görülebileceğini belirterek, ancak yapay zekanın asla bir teşhis makinesi değil yalnızca bir bilgi işleme aracı olarak hekimin işini kolaylaştıran bir yardımcı olduğunu dile getirdi.
Yapay zekanın sunduğu bilgilerin "kesin doğru" kabul edilmesi en büyük risk
Yapay zekada genel tanısal doğruluk oranının günümüzde uzman hekim performansının gerisinde kaldığına vurgu yapan Öztürk, şunları kaydetti:
"Radyoloji, dermatoloji ve patoloji gibi standart protokollerin uygulandığı alanlarda insan gözünün kaçırabileceği ayrıntıları yakalayabilir. Fakat klinik bağlamı kavrama, anamnez değerlendirme ve fizik muayene gibi hekimliğin temel unsurları algoritmaların dışında kalır. En büyük risk, sunulan bilgilerin 'kesin doğru' kabul edilmesi ve profesyonel yardımın ertelenmesidir. 'Halüsinasyon' olarak adlandırılan, gerçek dışı bilgilerin ikna edici bir dille sunulması hastada sahte bir sükunet ya da yersiz panik oluşturabilir. Klinik karar destek sistemlerinde yüzde 8-20 oranında halüsinasyon riski bildirilmiştir. Radyoloji araçlarında vakaların yüzde 5-10'unda yanlış teşhis, bir çalışmada ise benign (selim) nodüllerin yüzde 12'sinin malign (habis) olarak işaretlenmesi dikkati çekicidir."
"Telafisi imkansız sonuçlara neden olabilir"
Öztürk, yapay zekanın ruh sağlığı alanındaki kullanımına dair bilgiler vererek, şu görüşleri dile getirdi:
"Yapay zeka, hafif kaygı yönetimi ve günlük ruh hali takibi gibi alanlarda belli ölçüde destek sunabilir; ancak tıbbi teşhis ve tedavi, fizik muayene, derin anamnez ve hekimin klinik tecrübesiyle oluşan bir hikmet sentezidir. Yapay zeka insanın duygusal derinliğini ve ruhsal karmaşıklığını gerçekten kavrayamaz, empati hissetmez, yalnızca empatik dili ikna edici biçimde taklit eder. Yapay zekanın kullandığı dil, aslında bizim duymak istediklerimizi bize geri söyleyen dijital bir yankı odası gibidir. Buna gerçek bir şefkat değil, 'matematiksel bir empati' diyebiliriz. Yapay zekanın size 'seni anlıyorum' demesi, gerçekten bir şeyler hissettiği anlamına gelmez. O sadece kelimeleri çok ikna edici bir şekilde yan yana dizen kusursuz bir taklitçidir. Bu yaklaşım kısa vadede kişiyi rahatlatabilir ve kendini görülmüş hissettirebilir, ancak çoğu zaman kullanıcının söylediklerini onaylama eğilimindedir ve bu, kişinin kendini iyi hissetmesini sağlasa da her zaman doğru ve sağlıklı olan anlamına gelmez.
Dolayısıyla gerçek bir insan ilişkisine, klinik sezgiye ve ahlaki sorumluluğa sahip olmadığı için yapay zekanın sunduğu bu yüzeysel empati, özellikle ruh sağlığı alanında kırılgan ve riskli bir zeminde kalır. Klinik korelasyon kuramayan (klinikle bağlantı kuramayan) algoritmaların yanlış yönlendirmeleri psikolojik süreçlerde telafisi güç sonuçlara yol açabilir. Bu durum münferit değil, toplumsal bir sistemik risk olarak değerlendirilmelidir. Kriz anlarında veya ağır psikiyatrik durumlarda bağlamsal uyum eksikliği, telafisi imkansız sonuçlara (intihar vakaları vb.) neden olabilir."
İdari yükü azaltma potansiyeli taşıyor
Yapay zekanın hastane ekosistemine entegrasyonu ile ilgili çalışmalara değinen Öztürk, bu çalışmaların hekimlerin idari yükünü azaltma ve veri analizini derinleştirme açısından büyük potansiyel taşıdığına işaret etti.
Öztürk, bu sistemlerin doktorun yerini almak için değil, karar kalitesini artırmak için tasarlandığını belirterek, "Örneğin Da Vinci 5 robotik cerrahi sistemi, cerraha dokunsal geri bildirim ve milimetrik hassasiyet sağlayarak operasyon güvenliğini artırır. Teşhis koymadığını ifade eden ChatGPT Health gibi uygulamalar bile glikoz takibi veya genetik veri analizi gibi fonksiyonlarıyla fiilen bir tıbbi cihaz işlevi görebilir. Bu nedenle sıkı denetim ve resmi onay süreçlerinden geçmeleri gerekir." dedi.
Sağlıkta yapay zekanın kontrolsüz bırakılırsa kaliteli araçlara erişen elit kesim ile hataya açık ücretsiz "chatbotlara" yönelen geniş kitleler arasında bilgi asimetrisi oluşabileceğini ifade eden Öztürk, "Kamusal akılla yönetilirse hekim erişiminin sınırlı olduğu bölgelerde ilk tarama aracı olarak adaleti güçlendirebilir." diye konuştu.
Yapay zeka çıktılarına körü körüne güvenilmemeli
Öztürk, bir hekimin yapay zeka çıktısına dayanarak karar vermesi halinde nihai sorumluluğun kendisinde olduğuna vurgu yaparak, "Çıktılar körü körüne kabul edilmemelidir. Tüketici olarak doğrudan yapay zekadan alınan yanlış tavsiyelerde ise mevcut yasal koruma sınırlıdır. Yapay zeka çıktısını denetleme ve valide etme (doğrulama) becerisi tıp eğitiminin ayrılmaz parçası olmalıdır. Geleceğin hekimi yalnızca el becerisiyle değil, algoritma önerilerini klinik süzgeçten geçirebilme yeteneğiyle öne çıkacaktır." değerlendirmesinde bulundu.
Sağlıkta yapay zekanın ne mucize ne de mutlak tehdit olduğunu paylaşan Öztürk, doğru kurallarla yönetildiğinde büyük bir kolaylık ve devasa bir güç, denetimsiz bırakıldığında ise sessiz bir risk olduğunu söyledi.
Öztürk, asıl meselenin bu dönüşümün neresinde ve hangi etik değerlerle durulduğu olduğuna işaret ederek, şunları kaydetti:
"Yapay zeka teşhiste klinik kararın yerini alamaz, tedavi planlayamaz, reçete yazamaz. Özellikle ruh sağlığında kullanımı çok daha fazla temkin ve alan uzmanı kararı gerektirir. Bir ön değerlendirme aracı olabilir, ancak sonuç mutlaka hekim muayenesiyle teyit edilmelidir. Yapay zeka hastanın yaşam tarzını, genetik özelliklerini, eşlik eden hastalıklarını ve sosyal belirleyicileri bütüncül biçimde değerlendiremez. Hekimin klinik tecrübesi ve sezgisi vazgeçilmezdir. Verilen bilgiler her zaman en güncel olmayabilir. Kritik kararlar güncel kılavuzlar ve hekim değerlendirmesiyle alınmalıdır. Hastanelerde kullanılacak sistemler klinik validasyondan (doğrulamadan) geçmeli ve performansları düzenli izlenmelidir. Ayrıca kullanıcıların sağlık verilerini bu sistemlere girerken mahremiyet ve veri işleme koşullarını dikkate alması gerekir."
Muhabir: Abdulkadir Günyol