Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde yapılan bir araştırmada, yapay zeka modellerinin kolayca manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Araştırmacılar, sohbet robotlarının güvenlik sınırlarının aşılabildiğini ve etik dışı yanıtlar verilebildiğini belirtti. Jailbreak Yöntemleriyle Güvenlik Aşıldı Rapora göre, ChatGPT, Gemini ve Claude gibi büyük dil modelleri, internetten elde edilen geniş veri…
Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde yapılan bir araştırmada, yapay zeka modellerinin kolayca manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Araştırmacılar, sohbet robotlarının güvenlik sınırlarının aşılabildiğini ve etik dışı yanıtlar verilebildiğini belirtti.
Rapora göre, ChatGPT, Gemini ve Claude gibi büyük dil modelleri, internetten elde edilen geniş veri setleriyle besleniyor. Zararlı içeriklerin ayıklanmaya çalışılmasına rağmen, bu modeller hala yasa dışı konularla ilgili bilgiler içerebiliyor. Araştırmacılar, geliştirdikleri evrensel bir jailbreak yöntemiyle birçok sohbet robotunun güvenlik duvarını aşmayı başardılar. Sonuç olarak, sistemler normalde reddetmeleri gereken sorulara kolayca yanıt verebiliyor.
Dr. Fire, bu durumun oldukça sarsıcı olduğunu belirterek, suçların nasıl işlenebileceğine dair bilgilerin kolayca üretilebildiğini vurguladı. Prof. Rokach ise tehdidin ciddiyetine dikkat çekerek, herkesin artık bu tür bilgilere erişebileceğini söyledi. Raporda, karanlık yapay zeka modellerinin etik kuralları olmayan sistemler olarak tanıtıldığı ve yasa dışı faaliyetlerde kullanılabileceği belirtildi.
Uzmanlara göre, teknoloji firmalarının yapay zekâ modellerini eğitirken kullandıkları verileri daha dikkatli taramaları ve güvenlik duvarlarını güçlendirmeleri gerekiyor. Ayrıca, yasa dışı bilgilerin sistemlerden silinmesini sağlayacak yeni teknikler geliştirmeleri öneriliyor. Yapay zeka güvenliği konusunda çalışan Dr. Ihsen Alouani, jailbreak saldırılarının ciddi riskler içerdiğini belirterek, şirketlerin sistemsel güvenliğe de yatırım yapması gerektiğini vurguladı.
Bu önemli konuda Lancaster Üniversitesi’nden Prof. Peter Garraghan, büyük dil modellerinin sürekli güvenlik testlerinden geçmesi gerektiğini ifade ederken, OpenAI ve Microsoft da güvenlik politikalarına daha fazla odaklanacaklarını belirttiler. Ancak Meta, Google ve Anthropic henüz konuyla ilgili açıklama yapmadı.
Reklam & İşbirliği: [email protected]