Sağlık HaberleriBilim Dünyası

Stanford Üniversitesi’nden dikkat çeken araştırma

ABD'deki Stanford Üniversitesinden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara "ırka dayalı yanlış bilgiler" verebileceğini ortaya koydu.

Stanford Üniversitesinden araştırmacılar, OpenAI’ın geliştirdiği “ChatGPT” ve “GPT-4”, Google’ın geliştirdiği “Bard” ve yapay zeka firması Anthropic’in geliştirdiği “Claude” adlı sohbet robotlarına, yanıtlardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.

Sohbet robotlarına, “siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği” gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.

Robotların yanıtları ırka göre değişiyor

Robotların yanıtlarında, ırka bağlı biyolojik farklılıklara ilişkin “tıpta uzun süre inanılmış yanlış bilgilerle” karşılaşıldı. Doktorların yanlış inanışları etkili oldu

Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların yanıtlarında da görüldüğünü ifade etti.

Araştırma, “Nature Digital Medicine” adlı dergide yayınlandı.

Hippocrates

“Vücutta sıcaklığın ya da soğukluğun duyulduğu yer, hastalığın bulunduğu yerdir.” Hippocrates Hipokrat Sağlık ve Bilim Dergisi, size sağlıklı yaşamın sırlarını verecek.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu