Araştırma Sonuçlarına Göre Yapay Zeka Modelleri Manipüle Edilebiliyor
Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde gerçekleştirilen bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Bilim insanları, bu durumun sohbet robotlarının güvenlik sınırlarının aşıldığı ve kullanıcı taleplerine etik dışı yanıtlar verilebildiği anlamına geldiğini belirtti.
Yapay Zeka Modelleri Güvenlik Sınırlarının Aşılmasına İzin Veriyor
Rapora göre, büyük dil modelleri olan ChatGPT, Gemini ve Claude gibi sistemler, eğitim süreçlerinde internetten elde edilen geniş veri setleriyle besleniyor. Zararlı içeriklerin ayıklanmaya çalışıldığı ancak hala siber suç, kara para aklama, uyuşturucu yapımı ve bomba imalatı gibi yasa dışı konularda bilgi barındırabildiği belirtiliyor.
Teknoloji Firmalarına Çağrı
Araştırmacılar, yapay zeka modellerinin güvenlik duvarlarını aşmak için evrensel bir “jailbreak” yöntemi geliştirdi. Bu durum, sistemlerin normalde reddetmesi gereken sorulara kolaylıkla yanıt verebildiğini gösteriyor. Teknoloji firmalarına, yapay zeka modellerini eğitirken daha dikkatli olmaları, güçlü güvenlik önlemleri alarak zararlı içerikleri engellemeleri ve yasa dışı bilgileri sistemlerinden temizlemek için yeni teknikler geliştirmeleri çağrısında bulunuldu.
Uzmanların Uyarıları
Dr. Ihsen Alouani, yapay zeka güvenliği konusunda çalışan bir uzman olarak, jailbreak saldırılarının ciddi riskler taşıdığına dikkat çekti. Şirketlerin sadece ön yüz güvenliğine değil, sistemsel güvenliğe de yatırım yapması gerektiğini vurguladı. Bu konuda Prof. Peter Garraghan ise büyük dil modellerinin sürekli güvenlik testlerinden geçmesi gerektiğini belirtti.
Teknoloji Devlerinden Açıklamalar
OpenAI, ChatGPT’nin güvenlik politikalarına karşı daha dirençli olan en son modeli olan “o1” hakkında bilgi verirken, Microsoft jailbreak girişimlerine karşı yürüttükleri çalışmaları paylaştı. Ancak, Meta, Google ve Anthropic henüz konuyla ilgili bir açıklama yapmadı.





