Teknoloji 28 Ekim 2024

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor!

OpenAI’ın sesli transkripsiyon aracı Whisper, tıbbi merkezlerde hasta görüşmelerini çevirme ve yazıya dökme işlemlerinde yoğun bir şekilde kullanılan bir araç. Fakat yeni bir rapora göre, aracın orijinal kayıtlarda olmayan bilgiler üretmeye eğilimli olduğu ortaya çıktı. ABC News ve Engadget’ın aktardığına göre, Whisper aracı zaman zaman transkripsiyonlarda olmayan ifadeler, hatta yanlış ilaç adları ve hatalı yorumlar ekleyebiliyor. Peki, neden böyle davranıyor? Tıbbi alanda ne gibi riskler oluşturuyor? Ayrıntılar haberimizde…

Whisper’ın “halüsinasyon” adı verilen yanlış transkripsiyonlarının, özellikle tıbbi alan gibi yüksek risk taşıyan sektörlerde ciddi sorunlara yol açabileceği belirtiliyor. OpenAI, aracı bu tür riskli alanlarda kullanmaktan kaçınılması gerektiği yönünde uyarılar yapmış olsa da, aracın yaygın kullanımı bu uyarılara rağmen sürüyor.

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor! 7

Örneğin, bir makine öğrenimi mühendisi, 100 saatlik bir kaydın yarısında yanlış transkripsiyonlara rastladığını belirtirken, bir başka geliştirici de analiz ettiği 26 bin transkripsiyonun tamamında benzer hatalar bulduğunu dile getirdi. Araştırmalar, bu tür hataların dünya genelinde milyonlarca kayıtta sorun yaratabileceğini söylüyor.






OpenAI, en güçlü yapay zekasını sürpriz tarihte açabilir!

OpenAI, Orion isimli yapay zeka projesi için harekete geçti. Şirketin en yeni yapay zeka modeli yapabildikleriyle dikkat çekecek.

Hatta, durum o kadar vahim ki, özellikle OpenAI’ın Whisper aracını Oracle ve Microsoft Cloud gibi büyük platformlarla entegre etmesiyle daha da riskli bir hal alıyor. Dünya çapında binlerce kullanıcıya hizmet sunan bu bulut hizmetleri, yanlış transkripsiyonların yayılmasına ön ayak olmuş durumda.

Ayrıca, Allison Koenecke ve Mona Sloane gibi akademisyenlerin yaptığı incelemeler, Whisper’ın ürettiği yanlış bilgilerin %40’ının zararlı olabileceğini ortaya koydu. Örneğin, sıradan bir ifadeyi “büyük bir haç parçası aldı ve insanları öldürdü” gibi yanlış bir yorumla aktardığı gözlemlendi.

OpenAI, bu raporları inceleyip gelecekteki güncellemelerde bu geri bildirimleri dikkate alacaklarını belirtti. Siz bu konuda ne düşünüyorsunuz? Yapay zeka, bize anlatıldığı kadar güvenilir değil mi? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor! 8

source

Spread the love <3

You may also like...

Nis
10
2024
0
US launches another spy into orbit - here&#039;s what we know about the hundreds of satellites watching us

US launches another spy into orbit – here's what we know about the hundreds of satellites watching us

The US launched a reconnaissance satellite into orbit on Tuesday, the second reconnaissance satellite to go up in as many...

Spread the love <3

Ramp CEO says the fintech startup is just scratching the surface

Fintech exploded over the last five years. Startups in the category raised more than $350 million in VC funding from...

Spread the love <3
Haz
08
2024
0

Türk Telekom’dan açıklama! Zam mı geliyor?

Türk Telekom, 1 Temmuz 2024 itibarıyle taahhütlü internet paket fiyatlarını güncelleyecek. Peki ne kadarlık bir artış söz konusu? İşte detaylar…...

Spread the love <3

Microsoft mutlu! Age of Empires serisinden büyük başarı

Microsoft tarafından sunulan Age of Empires, gerçek zamanlı bir strateji oyunu serisi. İlk oyunu 1997 yılında piyasa sürülen seri, oyunculara...

Spread the love <3
Whatsapp İletişim
Merhaba,
Size nasıl yardımcı olabilirim ?