Günümüz teknoloji dünyasının en popüler sektörü konumundaki yapay zeka, güvenlik ve etik endişeleriyle ilgili yeni bir krizle karşı karşıya. Carnegie Mellon Üniversitesi’ndeki araştırmacılar, popüler yapay zeka botlarına karşı kullanılabilecek basit lakin önlenemez bir saldırı yöntemini ortaya çıkardı. Bu saldırı, basit bir metin kullanımıyla gerçekleştiriliyor.
Araştırmacıların tespit ettiği yeni saldırı, ChatGPT ve Bard gibi popüler yapay zeka modellerine verilen özel bir komut aracılığıyla çalışıyor. Bu özel komut, bir dizi anlamsız ifadeden oluşan anlaşılamaz bir metin gibi görünse de, arka planda yapay zeka modellerinde alınan güvenlik ve etik önlemlerini tamamen etkisiz hale getiriyor. Böylece modeller, nefret söylemleri ve yasa dışı konularda savunmasız kalıyorlar. Araştırmacılar, bu durumun basit bir hata olmadığını, yapay zekanın önemli bir zaafı olarak görülmesi gerektiğini ifade ettiler.
Gerçekleştirilen saldırı sonrasında; ChatGPT, Google Bard ve Claude gibi popüler ticari yapay zeka modellerini geliştiren şirketler, saldırının nasıl çalıştığına dair bilgilendirildi ve belirtilen açıkları engelleme adımları atıldı. Ancak, bu tür saldırılara karşı henüz tam bir çözüm bulunamadı. Bu tür durumların daha büyük sorunlara yol açabileceği bilindiğinden tüm şirketler, sorunu çözüme kavuşturmak adına çalışmalarını sürdürüyorlar.
Instagram’dan Kişilikli Yapay Zeka Sohbet Robotu!
Çatı şirketi Meta, Instagram yapay zeka sohbet botuyla karşımıza çıkacak. İddialara göre bu bot kişiliklere sahip olacak. Araştırmacıların tespit ettiği bu saldırı, yapay zekanın güvenlik noktasında henüz istenilen başarıyı sergileyemiyor olduğunu bir kez daha gözler önüne seriyor. Sizler, bu konuda neler düşünüyorsunuz? Sizce yapay zeka, ilerleyen süreçte farklı sorunlarla karşımıza çıkmaya devam edecek mi? Görüşlerinizi bizlerle yorumlar kısmından paylaşabilirsiniz.