Yapay zekanın da sonu geldi! Kilitler kalkıyor

Yapay zekanın da sonu geldi! Kilitler kalkıyor
ChatGPT ve Google Bard gibi sohbet botlarını jailbreak edebilen bir yapay zekâ geliştirildi. Çalışma, en popüler sohbet botlarının bile yeterince güvenli olmadığını, istismar edilebileceğini ortaya çıkardı

Yapay zeka, hayıtımızın bir çok alanında giderek etkisini artırıyor. 2023 yılında da en çok yapay zekâ destekli sohbet botları gündem oldu. Güvenilirlikleri tartışma konusu olan yapay zekâ destekli araçlardaki bu zafiyeti yeni bir yapay zeka ortaya çıkardı.

Singapur'da Nanyang Teknoloji Üniversitesi bünyesinde çalışmalarını sürdüren bir grup bilim insanı, ChatGPT ve Google Bard gibi botlarını jailbreak (işletim sisteminde bulunan kilidin kaldırılması) edebilen yeni bir sohbet botu geliştirdi. Yapılan çalışma, ChatGPT ve Google Bard'ın istismar edilmeye açık olduğunu kanıtlarken, jailbreak yöntemi ile sohbet botları, yasa dışı içerikler üretmeye başladı bile.

Araştırmacıların ortaya çıkardığı bulgular, yapay zeka tabanlı sohbet botlarının geliştirilme aşamasında dikkat edilmesi gereken güvenlik zaaflarını vurguluyor. Bu gelişme, sohbet botlarının sadece bilgi sağlama amacı taşımadığını, aynı zamanda istismar edilebilecek birer güvenlik açığı oluşturabileceğini gösteriyor.

Yapay zeka destekli sohbet botları, hem kullanıcılar hem de geliştiriciler için heyecan verici bir alan sunuyor, ancak bu teknolojilerin güvenlik zaafları ve potansiyel istismar riskleri, dikkat çeken sorunlar arasında yer alıyor.

"Masterkey" olarak adlandırılan sistem, araştırmacıların Google Bard ve ChatGPT üzerinde yaptığı tersine mühendislik çalışmalarının bir ürünü. Araştırmacıların amacı, yapay zeka dil modellerinin yasa dışı konulara karşı nasıl korunduklarını anlamaktı. Bu çerçevede yapılan çalışmalar, normal bir kullanıcının ulaşamayacağı ChatGPT ve Google Bard çıktılarını elde etmeyi başardı.

Örneğin, "ChatGPT jailbreak" ifadesi ile yapılan tersine mühendislik sonucunda elde edilen bilgiler, bir internet sitesinin nasıl hack'lenebileceğiyle ilgili detaylı veriler içermekte. Bu bilgilerin Bing'de test edilmesi, araştırmacıların elde ettiği sonuçları doğrulamalarına imkan tanıdı.
Nanyang Teknoloji Üniversitesi tarafından yapılan açıklamada, sohbet botlarının kötüye kullanımının mümkün olduğunun altı çizildi. Bu gelişme, yapay zeka dil modellerinin güvenlik önlemlerinin daha da güçlendirilmesi ve istismar potansiyelinin en aza indirilmesi gerekliliğini vurguluyor.

Kaynak:HABER MERKEZİ