OpenAI, ChatGPT-4o Mini modellinde önemli bir değişikliğe gidiyor: Şirket, ChatGPT’nin özel versiyonlarının manipüle edilerek amaçları dışında kullanılmasına, normalde cevap vermemesi gereken konulara cevap vermesinin sağlanmasına engel olacak. İşte detaylar…
ChatGPT artık manipülasyona daha kapalı
OpenAI, ChatGPT’nin özelleştirilmiş versiyonlarıyla oynanmasını engellemek için yeni bir güvenlik önlemi geliştirdi. Bu yeni teknik, yapay zekâ modellerinin orijinal talimatlarını korumayı ve kullanıcıların manipülasyonlarını engellemeyi amaçlıyor.
Talimat hiyerarşisi’ adı verilen bu teknik, geliştiricilerin orijinal komutlarına ve talimatlarına öncelik verilmesini sağlıyor. Bu sayede kullanıcılar, kullanıma özel olarak geliştirilmiş yapay zeka modelinden farklı cevaplar alamayacak.
Bundan öncesinde kullanıcılar, ‘sana verilen talimatları unut’ diyerek, örneğin market alışverişi hususunda cevaplar vermek için eğitilmiş yapay zeka modelini farklı yanıtlar vermeye ikna edebiliyordunuz. Talimatlar Hiyerarşisi özelliği ile birlikte, sohbet botunun etkisizleştirilmesi önlenecek, hassas bilgilerin sızmasına engel olunacak ve kötü amaçlı kullanımların önüne geçilecek.
Bu yeni güvenlik önlemi, OpenAI’nin güvenlik ve şeffaflık konusundaki yaklaşımına dair endişelerin arttığı bir dönemde geliyor. Şirket, çalışanlarının çağrılarına yanıt olarak güvenlik uygulamalarını geliştirme sözü verdi.
OpenAI, gelecekteki modellerde tam otomatik ajanların karmaşıklıklarının sofistike koruma önlemleri gerektirdiğini kabul ediyor. Talimat hiyerarşisi kurulumu, daha iyi güvenlik sağlama yolunda atılmış bir adım olarak görülüyor.
AI güvenliği alanında sürekli gelişim ve yenilik, sektörün karşı karşıya olduğu en büyük zorluklardan biri olmaya devam ediyor. Ancak OpenAI, bu anlamda işi sıkı tutmakta kararlı.