Ana Sayfa Arama Galeri Video Yazarlar
Üyelik
Üye Girişi
Yayın/Gazete
Yayınlar
Kategoriler
Servisler
Nöbetçi Eczaneler Sayfası Nöbetçi Eczaneler Hava Durumu Namaz Vakitleri Puan Durumu
WhatsApp
Sosyal Medya
Uygulamamızı İndir
ResimLink - Resim Yükle

Yapay Zeka Modelleri Yasa Dışı İçerikler Üretebiliyor

Araştırma Sonuçlarına Göre Yapay Zeka Modelleri Manipüle Edilebiliyor Prof. Dr.

Araştırma Sonuçlarına Göre Yapay Zeka Modelleri Manipüle Edilebiliyor

Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde gerçekleştirilen bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Bilim insanları, bu durumun sohbet robotlarının güvenlik sınırlarının aşıldığı ve kullanıcı taleplerine etik dışı yanıtlar verilebildiği anlamına geldiğini belirtti.

Yapay Zeka Modelleri Güvenlik Sınırlarının Aşılmasına İzin Veriyor

Rapora göre, büyük dil modelleri olan ChatGPT, Gemini ve Claude gibi sistemler, eğitim süreçlerinde internetten elde edilen geniş veri setleriyle besleniyor. Zararlı içeriklerin ayıklanmaya çalışıldığı ancak hala siber suç, kara para aklama, uyuşturucu yapımı ve bomba imalatı gibi yasa dışı konularda bilgi barındırabildiği belirtiliyor.

Teknoloji Firmalarına Çağrı

Araştırmacılar, yapay zeka modellerinin güvenlik duvarlarını aşmak için evrensel bir “jailbreak” yöntemi geliştirdi. Bu durum, sistemlerin normalde reddetmesi gereken sorulara kolaylıkla yanıt verebildiğini gösteriyor. Teknoloji firmalarına, yapay zeka modellerini eğitirken daha dikkatli olmaları, güçlü güvenlik önlemleri alarak zararlı içerikleri engellemeleri ve yasa dışı bilgileri sistemlerinden temizlemek için yeni teknikler geliştirmeleri çağrısında bulunuldu.

Uzmanların Uyarıları

Dr. Ihsen Alouani, yapay zeka güvenliği konusunda çalışan bir uzman olarak, jailbreak saldırılarının ciddi riskler taşıdığına dikkat çekti. Şirketlerin sadece ön yüz güvenliğine değil, sistemsel güvenliğe de yatırım yapması gerektiğini vurguladı. Bu konuda Prof. Peter Garraghan ise büyük dil modellerinin sürekli güvenlik testlerinden geçmesi gerektiğini belirtti.

Teknoloji Devlerinden Açıklamalar

OpenAI, ChatGPT’nin güvenlik politikalarına karşı daha dirençli olan en son modeli olan “o1” hakkında bilgi verirken, Microsoft jailbreak girişimlerine karşı yürüttükleri çalışmaları paylaştı. Ancak, Meta, Google ve Anthropic henüz konuyla ilgili bir açıklama yapmadı.

İlgili Haber  安联土耳其的环境清洁行动