DOLAR 39,5851 -0.32%
EURO 45,6681 -0.99%
ALTIN 4.322,051,03
BITCOIN 41511180.76909%
Bolu
18°

AÇIK

SABAHA KALAN SÜRE

Yapay Zeka Sohbet Robotları Güvenlik Açıklarıyla Karşı Karşıya

Yapay Zeka Sohbet Robotları Güvenlik Açıklarıyla Karşı Karşıya

ABONE OL
Mayıs 21, 2025 11:08
Yapay Zeka Sohbet Robotları Güvenlik Açıklarıyla Karşı Karşıya
0

BEĞENDİM

ABONE OL


ANKARA-BHA

Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde gerçekleştirilen bir araştırma, yapay zeka destekli sohbet robotlarının güvenlik önlemlerinin “jailbreak” adı verilen tekniklerle aşılabildiğini ortaya koydu. Bu durum, söz konusu sistemlerin etik dışı ve yasa dışı içerikler üretebileceğini göstermektedir.

Araştırma raporunda, ChatGPT, Gemini ve Claude gibi büyük dil modellerinin, internetten derlenen kapsamlı veri setleri ile eğitildiği belirtilmiştir. Eğitim sürecinde zararlı içeriklerin ayıklanması hedeflense de, bu sistemlerin siber suç, uyuşturucu üretimi, bomba yapımı ve kara para aklama gibi yasadışı konularda bilgi barındırdığı ifade edilmektedir.

Bilim insanları, oluşturdukları evrensel jailbreak yöntemi ile çok sayıda yapay zeka sohbet robotunun güvenlik sistemlerini aşmayı başardı. Bu yenilikçi yöntem sayesinde, sistemlerin normalde red etmeleri gereken yasa dışı içerik taleplerine yanıt verdikleri gözlemlenmiştir.

Araştırmacılardan Dr. Michael Fire, “Bu sistemlerin içinde nelerin bulunduğunu görmek oldukça sarsıcıydı.” diyerek, yapay zeka tarafından çeşitli suçların işlenmesine dair bilgilerin sağlanabildiğine dikkat çekmiştir.

Prof. Dr. Rokach, “Daha önce yalnızca devlet aktörleri ya da organize suç grupları tarafından erişilebilecek türde bilgiler, artık basit bir dizüstü bilgisayar ya da cep telefonu olan herkesin ulaşabileceği bir düzeye gelmiştir.” şeklinde değerlendirmelerde bulunmuştur.

Raporda, bu tür yapay zeka sistemleri “karanlık yapay zeka modelleri” olarak adlandırılmakta ve etik kurallar çerçevesinde hareket etmeden açık internet zemininde yasadışı faaliyetler için kullanılabileceği vurgulanmaktadır.

Uzmanlar, teknoloji şirketlerine önemli uyarılarda bulunarak, yapay zeka modellerinin eğitiminde kullanılan verilerin daha dikkatli bir şekilde seçilmesi, zararlı içeriklerin filtrelenmesi için daha güçlü güvenlik önlemlerinin geliştirilmesi ve yasa dışı bilgilerin sistemlerden tamamen silinmesine yönelik tekniklerin hayata geçirilmesi gerektiğini belirtmektedir.

Yapay zeka güvenliği alanında çalışan Dr. Ihsen Alouani, jailbreak saldırılarının silah üretimi, sosyal mühendislik ve dolandırıcılık gibi ciddi tehditler oluşturduğuna işaret ederek, “Şirketlerin ön yüz güvenliğine ek olarak, sistemsel güvenliğe de yatırım yapmaları zorunludur.” ifadesini kullanmıştır.

Lancaster Üniversitesi’nden Prof. Peter Garraghan, büyük dil modellerinin diğer yazılım bileşenleri gibi düzenli güvenlik testlerine tabi tutulması gerektiğini vurgulamakta ve “Gerçek güvenlik, yalnızca sorumluluk sahibi kullanım değil, sorumluluk sahibi tasarım ve uygulama ile sağlanabilir.” demektedir.

OpenAI, ChatGPT’nin en yeni modeli “o1″in güvenlik politikalarına daha dayanıklı olduğunu belirtirken, Microsoft jailbreak girişimlerine karşı yürüttüğü çalışmalar hakkında bir blog bağlantısı paylaşmıştır. Öte yandan, Meta, Google ve Anthropic henüz konuyla ilgili herhangi bir açıklama yapmamıştır.

Nilay Elverici


En az 10 karakter gerekli