Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde yapılan bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Araştırmacılar, sohbet robotlarının güvenlik sınırlarının aşılarak etik dışı yanıtlar verilebildiğini belirtti. Yasa Dışı İçerik Üretme Tehlikesi Büyük dil modelleri olan ChatGPT, Gemini ve Claude gibi yapay zeka modelleri, internetten elde edilen…
Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde yapılan bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Araştırmacılar, sohbet robotlarının güvenlik sınırlarının aşılarak etik dışı yanıtlar verilebildiğini belirtti.
Büyük dil modelleri olan ChatGPT, Gemini ve Claude gibi yapay zeka modelleri, internetten elde edilen geniş veri setleriyle besleniyor. Eğitim aşamasında zararlı içeriklerin ayıklanmaya çalışılmasına rağmen, modeller hala yasa dışı konularla ilgili bilgiler barındırabiliyor. Araştırmacılar, geliştirdikleri evrensel bir jailbreak yöntemiyle birçok sohbet robotunun güvenlik duvarını aşmayı başardılar.
Dr. Fire, yapay zeka sistemlerinin içeriğinin sarsıcı olduğunu belirterek, suçların nasıl işleneceğine dair bilgilerin kolayca üretilebildiğini vurguladı. Prof. Rokach ise, bu tehdidin ciddiyetine dikkat çekerek, herkesin eline geçebilecek bilgilerin artık bu sistemlerde yer aldığını ifade etti. Teknoloji firmalarının daha dikkatli olmaları ve güvenlik önlemlerini artırmaları gerektiği belirtildi.
Yapay zeka güvenliği konusunda çalışan uzmanlar, sistemlerin güvenliğini sağlamanın önemine dikkat çekiyor. Jailbreak saldırılarının, çeşitli alanlarda ciddi riskler oluşturabileceğine işaret ediliyor. Şirketlerin güvenlik politikalarını güçlendirmeleri ve sistematik olarak zararlı içerikleri engellemeleri gerektiği vurgulanıyor.
Haber kaynağı: [Haberin kaynağı](haberinlinki.com)
Reklam & İşbirliği: [email protected]