Teknoloji 28 Ekim 2024

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor!

OpenAI’ın sesli transkripsiyon aracı Whisper, tıbbi merkezlerde hasta görüşmelerini çevirme ve yazıya dökme işlemlerinde yoğun bir şekilde kullanılan bir araç. Fakat yeni bir rapora göre, aracın orijinal kayıtlarda olmayan bilgiler üretmeye eğilimli olduğu ortaya çıktı. ABC News ve Engadget’ın aktardığına göre, Whisper aracı zaman zaman transkripsiyonlarda olmayan ifadeler, hatta yanlış ilaç adları ve hatalı yorumlar ekleyebiliyor. Peki, neden böyle davranıyor? Tıbbi alanda ne gibi riskler oluşturuyor? Ayrıntılar haberimizde…

Whisper’ın “halüsinasyon” adı verilen yanlış transkripsiyonlarının, özellikle tıbbi alan gibi yüksek risk taşıyan sektörlerde ciddi sorunlara yol açabileceği belirtiliyor. OpenAI, aracı bu tür riskli alanlarda kullanmaktan kaçınılması gerektiği yönünde uyarılar yapmış olsa da, aracın yaygın kullanımı bu uyarılara rağmen sürüyor.

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor! 7

Örneğin, bir makine öğrenimi mühendisi, 100 saatlik bir kaydın yarısında yanlış transkripsiyonlara rastladığını belirtirken, bir başka geliştirici de analiz ettiği 26 bin transkripsiyonun tamamında benzer hatalar bulduğunu dile getirdi. Araştırmalar, bu tür hataların dünya genelinde milyonlarca kayıtta sorun yaratabileceğini söylüyor.






OpenAI, en güçlü yapay zekasını sürpriz tarihte açabilir!

OpenAI, Orion isimli yapay zeka projesi için harekete geçti. Şirketin en yeni yapay zeka modeli yapabildikleriyle dikkat çekecek.

Hatta, durum o kadar vahim ki, özellikle OpenAI’ın Whisper aracını Oracle ve Microsoft Cloud gibi büyük platformlarla entegre etmesiyle daha da riskli bir hal alıyor. Dünya çapında binlerce kullanıcıya hizmet sunan bu bulut hizmetleri, yanlış transkripsiyonların yayılmasına ön ayak olmuş durumda.

Ayrıca, Allison Koenecke ve Mona Sloane gibi akademisyenlerin yaptığı incelemeler, Whisper’ın ürettiği yanlış bilgilerin %40’ının zararlı olabileceğini ortaya koydu. Örneğin, sıradan bir ifadeyi “büyük bir haç parçası aldı ve insanları öldürdü” gibi yanlış bir yorumla aktardığı gözlemlendi.

OpenAI, bu raporları inceleyip gelecekteki güncellemelerde bu geri bildirimleri dikkate alacaklarını belirtti. Siz bu konuda ne düşünüyorsunuz? Yapay zeka, bize anlatıldığı kadar güvenilir değil mi? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı yalan söylüyor! 8

source

Spread the love <3

You may also like...

May
18
2024
0
EU warns Microsoft it could be fined billions over missing GenAI risk info

EU warns Microsoft it could be fined billions over missing GenAI risk info

The European Union has warned Microsoft that it could be fined up to 1% of its global annual turnover under...

Spread the love <3
Kas
10
2024
0

PlayStation 5 Pro, bu ülkede süresiz olarak askıya alındı!

Sony’nin uzun zamandır merakla beklenen yeni nesil oyun konsolu PlayStation 5 Pro modelinin Hindistan’daki lansmanı, beklenmedik bir şekilde süresiz olarak...

Spread the love <3
Mar
28
2024
0
English Language Programs for Adults | Hamilton-Wentworth District School Board - HWDSB

English Language Programs for Adults | Hamilton-Wentworth District School Board – HWDSB

Day and night classes are in-personUnderstanding the Canadian Language Benchmarks is a Government of Canada video that explains the language framework...

Spread the love <3
Nis
02
2024
0
Rescue mission for trapped gold miners called off

Rescue mission for trapped gold miners called off

The rescue operation for 13 miners trapped in a collapsed gold mine in Russia has been called off. They were...

Spread the love <3
Whatsapp İletişim
Merhaba,
Size nasıl yardımcı olabilirim ?