Teknoloji 5 Haziran 2024

OpenAI ve Google DeepMind çalışanları uyardı: Yapay zeka kontrolden çıkıyor mu?

Teknoloji dünyasında büyük yankı uyandıran yeni bir gelişme yaşandı. Yapay zeka devleri olarak bilinen OpenAI ve Google DeepMind’in hem eski hem de şimdiki çalışanları, şirketlerin iç işleyişine dair çarpıcı detayları gözler önüne seren açık mektuplarıyla herkesi uyardı. Yedi eski OpenAI çalışanı, dört mevcut OpenAI çalışanı, bir eski Google DeepMind çalışanı ve bir mevcut Google DeepMind çalışanı tarafından imzalanan açık mektup, yapay zeka teknolojilerinin potansiyel riskleri ve bu risklerin yönetimi konusundaki ciddi endişeleri çalışanların gözünden aktarıyor. İşte detaylar…

Yayınlanan açık mektupta, yapay zeka teknolojilerinin mevcut eşitsizlikleri daha da derinleştirebileceği, manipülasyon ve yanlış bilgilendirme yayılımına yol açabileceği ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlık için varoluşsal tehditler oluşturabileceği vurgulandı.

OpenAI ve Google DeepMind çalışanları uyardı: Yapay zeka kontrolden çıkıyor mu? 14

Şirketlerin bu riskleri kabul ettiğine de dikkat çeken çalışanlar, mevcut kurumsal yönetim yapılarının bu sorunları çözmede de yetersiz olduğunu belirtiyor. Ayrıca bahsi geçen yapay zeka şirketlerinin, risk seviyeleri hakkında bilgi paylaşmaktan ve denetimden kaçınmak için güçlü mali teşvikleri olduğu da çalışanların bizzat kendi ağzından açıklandı.




OpenAI CEO’sunun neden kovulduğu belli oldu!

Geçtiğimiz kasım ayında OpenAI yönetim kurulu, CEO’sunu kovmuştu. Herkesi şok eden gelişmenin nedeni bugün ortaya çıktı. İşte detaylar…

Çalışanlar, hükümetlerin denetim eksikliği nedeniyle oluşturulan geniş gizlilik anlaşmalarının da riskleri dile getirmelerini engellediğini ifade etti:

İleri Yapay Zeka Hakkında Uyarı Yapma Hakkı

Bizler ileri yapay zeka şirketlerinde çalışan veya çalışmış kişiler olarak, yapay zeka teknolojisinin insanlığa benzeri görülmemiş faydalar sunma potansiyeline inanmaktayız.

Aynı zamanda, bu teknolojilerin yarattığı ciddi risklerin de farkındayız. Bu riskler, mevcut eşitsizliklerin daha da pekişmesinden, manipülasyon ve yanlış bilgi yayılımına kadar uzanmakta ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi durumunda insanlığın yok olmasına kadar varan sonuçlar doğurabilir.

Yapay zeka şirketleri ise bu riskleri kabul etmektedir [OpenAI, Anthropic, Google DeepMind], dünya genelindeki hükümetler [ABD, Birleşik Krallık, Bletchley Deklarasyonu’ndaki 26 ülke] ve diğer yapay zeka uzmanları da bu risklerin farkındadır.

Bu risklerin; bilim camiası, politikacılar ve kamuoyunun yeterli yönlendirmeleri ile uygun bir şekilde azaltılabileceği konusunda ümitliyiz. Ancak yapay zeka şirketlerinin etkili denetimden kaçınmak için güçlü finansal teşvikleri var ve özel kurumsal yönetim yapılarının bunu değiştirmeye yeterli olacağına inanmıyoruz.

Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerin yeterliliği ve farklı türlerdeki zararların risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere sahipler. Ancak şu anda hükümetlerle bu bilgilerin bir kısmını paylaşma konusunda zayıf yükümlülüklere sahipler, sivil toplumla ise hiçbirini paylaşmıyorlar. Tüm bilgileri gönüllü olarak paylaşacakları konusunda hepsinin güvenilebileceğini de düşünmüyoruz.

Yapay zeka şirketleri üzerinde etkin bir hükümet denetimi yapılmadığı sürece, mevcut ve eski çalışanlar bahsi geçen şirketleri kamuya karşı sorumlu tutabilecek çok az sayıdaki kişiler arasındadır. Ancak geniş gizlilik anlaşmaları, endişelerimizi sadece bu sorunları ele almayan şirketlere iletmemize izin vermektedir.

Mevcut ihbarcı (whistleblower) korumaları, yasa dışı faaliyetlere odaklandıkları için yeterli değildir çünkü endişe duyduğumuz birçok risk henüz düzenlenmemiştir. Sektördeki benzer vakaların geçmişi göz önüne alındığında bazılarımız çeşitli misillemelerden haklı olarak korkmaktadır. Bu sorunlarla karşılaşan veya bunları dile getiren ilk kişiler de biz değiliz.

Bu nedenle ileri yapay zeka şirketlerine aşağıdaki ilkelere bağlı kalmaları çağrısında bulunuyoruz:

  • Şirket, riskle ilgili endişeler nedeniyle şirketin eleştirilmesini veya aşağılanmasını yasaklayan herhangi bir anlaşmaya girmeyecek veya uygulamayacak veya riskle ilgili eleştiriler nedeniyle hiçbir ekonomik kazancı engelleyerek misilleme yapmayacaktır;
  • Şirket, mevcut ve eski çalışanlarının riskle ilgili endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerini sağlamak için bir süreç başlatacaktır;
  • Şirket, ticari sırlar ve diğer fikri mülkiyet çıkarları uygun şekilde korunmak koşuluyla mevcut ve eski çalışanlarının riskle ilgili endişelerini kamuya, şirketin yönetim kuruluna, düzenleyicilere veya ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerine izin veren açık eleştiri kültürünü destekleyecektir;
  • Şirket, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri kamuya açıklayan mevcut ve eski çalışanlara misilleme yapmayacaktır. Riskle ilgili endişeleri bildirme çabalarının gereksiz yere gizli bilgileri ifşa etmemesi gerektiğini kabul ediyoruz. Bu nedenle çalışanların endişelerini anonim olarak şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa bildirebilecekleri yeterli bir süreç var olduğunda, endişelerin öncelikle bu süreçle iletilmesi gerektiğini kabul ediyoruz. Ancak, böyle bir süreç mevcut olmadığı sürece, mevcut ve eski çalışanların endişelerini kamuya bildirme özgürlüğünü korumaları gerektiğine inanıyoruz.”

Bu çarpıcı açık mektuba imza atanlar arasında eski OpenAI çalışanları Jacob Hilton, Daniel Kokotajlo, William Saunders, Carroll Wainwright ve Daniel Ziegler ile eski Google DeepMind çalışanı Ramana Kumar ve eski Anthropic mevcut Google DeepMind çalışanı Neel Nanda yer alıyor. Ayrıca 4 mevcut 2 eski OpenAI çalışanı da anonim bir şekilde açık mektubu imzaladı.

Bu mektup, yapay zeka teknolojilerinin ciddi riskler barındırdığını gözler önüne serse de hala bu risklerin ne olduğu konusunda hiçbir detay paylaşmıyor. Çalışanların da belirttiği üzere bu konuda hükümetlerin gerekli denetimleri acil olarak başlatması yerinde olacak.

Bu süreçte yapay zeka geliştiren şirketlerin daha şeffaf olması ve hükümetler tarafından etkili denetim mekanizmalarının kurulması hayati önem taşıyor. Siz bu açık mektubu nasıl yorumluyorsunuz? Sizce gelişmiş yapay zeka ne gibi riskleri arkasında saklıyor?

source

Spread the love <3

You may also like...

Nis
25
2024
0
Edonia grabs €2M to turn microalgae into less bitter-tasting ground meat alternative

Edonia grabs €2M to turn microalgae into less bitter-tasting ground meat alternative

As the world’s population continues to grow, the need to be able to feed everyone is something a number of...

Spread the love <3
Mar
19
2024
0
Tüm iddialar yalan mıydı? Apple’ın büyük ekranlı iPad Air’i başka bahara kaldı

Tüm iddialar yalan mıydı? Apple’ın büyük ekranlı iPad Air’i başka bahara kaldı

Apple‘ın bu sene birçok yeni ürün çıkaracağı uzun zamandır bilinen bir iddia. Şirket, beklendiği gibi geçtiğimiz ay M3 işlemcili MacBook...

Spread the love <3
May
24
2024
0
Eylem düğmeli Nothing Phone (3) ortaya çıktı!

Eylem düğmeli Nothing Phone (3) ortaya çıktı!

Geçtiğimiz haftalarda ChatGPT eklentisi ile gündeme oturmayı başaran Nothing, neredeyse tüm cihazlarına bu eklentiyi sunduktan sonra şimdi de tanıtmaya hazırlandığı...

Spread the love <3

Yurt dışı eğitimde rota değişiyor

class=’medyanet-inline-adv’> Dünyanın farklı bölgelerinde eğitim almak isteyenler için artık seçenekler çok fazla. Hal böyle olunca eğitimi için yurt dışında bir...

Spread the love <3
Whatsapp İletişim
Merhaba,
Size nasıl yardımcı olabilirim ?