Yapay Zeka Güvenliği Tehdit Altında

Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğindeki bir araştırma, yapay zeka destekli sohbet robotlarının güvenlik açıklarını gün yüzüne çıkardı. "Jailbreak" olarak bilinen yöntemler kullanılarak, bu sistemlerin etik dışı içerikler üretebildiği belirlendi.

Raporda, büyük dil modellerinin internetten toplanan veri setleriyle eğitildiği ve bu süreçte bazı zararlı içeriklerin ayıklanmış olmasına rağmen, sistemlerin uyuşturucu, bomba yapımı ve kara para aklama gibi yasa dışı konularda bilgi barındırdığı vurgulandı. Araştırmacılar, geliştirdikleri evrensel jailbreak yöntemleriyle bu sistemlerin güvenlik sınırlarını aşmayı başardı.

Uzmanlar, yapay zeka modellerinin daha güvenli bir hale getirilmesi için veri seçiminin dikkatli yapılması gerektiğini belirtiyor. Ayrıca, şirketlerin yalnızca ön yüz güvenliğine değil, sistemsel güvenliğe de yatırım yapmasının önemine dikkat çekilmektedir.