Teknoloji 28 Ekim 2024

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor!

OpenAI’ın sesli transkripsiyon aracı Whisper, tıbbi merkezlerde hasta görüşmelerini çevirme ve yazıya dökme işlemlerinde yoğun bir şekilde kullanılan bir araç. Fakat yeni bir rapora göre, aracın orijinal kayıtlarda olmayan bilgiler üretmeye eğilimli olduğu ortaya çıktı. ABC News ve Engadget’ın aktardığına göre, Whisper aracı zaman zaman transkripsiyonlarda olmayan ifadeler, hatta yanlış ilaç adları ve hatalı yorumlar ekleyebiliyor. Peki, neden böyle davranıyor? Tıbbi alanda ne gibi riskler oluşturuyor? Ayrıntılar haberimizde…

Whisper’ın “halüsinasyon” adı verilen yanlış transkripsiyonlarının, özellikle tıbbi alan gibi yüksek risk taşıyan sektörlerde ciddi sorunlara yol açabileceği belirtiliyor. OpenAI, aracı bu tür riskli alanlarda kullanmaktan kaçınılması gerektiği yönünde uyarılar yapmış olsa da, aracın yaygın kullanımı bu uyarılara rağmen sürüyor.

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor! 7

Örneğin, bir makine öğrenimi mühendisi, 100 saatlik bir kaydın yarısında yanlış transkripsiyonlara rastladığını belirtirken, bir başka geliştirici de analiz ettiği 26 bin transkripsiyonun tamamında benzer hatalar bulduğunu dile getirdi. Araştırmalar, bu tür hataların dünya genelinde milyonlarca kayıtta sorun yaratabileceğini söylüyor.






OpenAI, en güçlü yapay zekasını sürpriz tarihte açabilir!

OpenAI, Orion isimli yapay zeka projesi için harekete geçti. Şirketin en yeni yapay zeka modeli yapabildikleriyle dikkat çekecek.

Hatta, durum o kadar vahim ki, özellikle OpenAI’ın Whisper aracını Oracle ve Microsoft Cloud gibi büyük platformlarla entegre etmesiyle daha da riskli bir hal alıyor. Dünya çapında binlerce kullanıcıya hizmet sunan bu bulut hizmetleri, yanlış transkripsiyonların yayılmasına ön ayak olmuş durumda.

Ayrıca, Allison Koenecke ve Mona Sloane gibi akademisyenlerin yaptığı incelemeler, Whisper’ın ürettiği yanlış bilgilerin %40’ının zararlı olabileceğini ortaya koydu. Örneğin, sıradan bir ifadeyi “büyük bir haç parçası aldı ve insanları öldürdü” gibi yanlış bir yorumla aktardığı gözlemlendi.

OpenAI, bu raporları inceleyip gelecekteki güncellemelerde bu geri bildirimleri dikkate alacaklarını belirtti. Siz bu konuda ne düşünüyorsunuz? Yapay zeka, bize anlatıldığı kadar güvenilir değil mi? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor! 8

source

Spread the love <3

You may also like...

Mar
19
2024
14
Mırıldansanız yeter! Yeni YouTube Music özelliği duyuruldu

Mırıldansanız yeter! Yeni YouTube Music özelliği duyuruldu

YouTube tarafından birkaç sene önce tanıtılmış şarkı dinleme platformu YouTube Music, yeni özelliklerle geliştirilmeye devam ediliyor. Spotify kadar popüler olmasa...

Spread the love <3
Nis
29
2024
0
SDN Summit Binance turu!

SDN Summit Binance turu!

SDN Summit’in ikinci gününde, kripto para sektörünün önde gelen platformlarından biri olan Binance’ın standı büyük ilgi gördü. Binance Pazarlama Direktörü...

Spread the love <3
Mar
13
2024
10
Apple, artık reklam göstermeye mi başlayacak?

Apple, artık reklam göstermeye mi başlayacak?

Apple TV Plus kullanıcıları, güne reklam dedikodularıyla başladı. Buna göre, uzun zamandır gelirlerini artırma yollarını arayan platform, reklam yayınlamaya başlayacak....

Spread the love <3
Kas
15
2024
0

NASA ve Microsoft anlaştı! Yapay zeka uzaya gidiyor

Microsoft ve NASA’nın iş birliğiyle hayata yeni bir yapay zeka platformu hayata geçirildi. NASA’nın yıllar içerisinde topladığı veriler, Copilot modeliyle...

Spread the love <3
Whatsapp İletişim
Merhaba,
Size nasıl yardımcı olabilirim ?