Yapay zekÂ, insanlık tarihindeki en buyuk kırılmalardan bir tanesini yaratabilecek bir potansiyele sahip ve hÂl ustune bir şeyler konularak geliştirilmeye calışılıyor ancak yapay zek sistemlerini kandırabilecek ornekler de bulunuyor. Buna Google ’ın gorselleri tespit etmek icin geliştirdiği yapay zekÂsı ve Jigsaw ’un zararlı yorumları tespit etmesi icin geliştirdiği yapay zek sistemi de dÂhil.
MIT Bilgisayar Bilimleri ve Yapay Zek Laboratuvarı ’ndaki araştırmacılar, TextFooler adını verdikleri bir sistem geliştirdiler. Bu sistemle Alexa ve Siri gibi doğal dil işleme kullanan yapay zekÂlar kandırılabiliyor.
[h=2]Yapay zekÂyı kandırmak:[/h]
TextFooler, acıklarını anlamak adına doğal dil işleme modellerine saldırmak icin tasarlanmış bir sistem. Bunu yapabilmek icinse cumlenin dil bilgisi yapısını bozmadan ya da anlamını değiştirmeden kelimeleri değiştirerek girdi cumlesinde duzenlemeler yapıyor. Sistem, daha sonra değiştirilmiş girdi metin sınıflandırmasıyla nasıl başa cıkıldığını gormek icin doğal dil işleme modeline saldırıyor.
Tabii bir metnin anlamında değişiklik yapmadan kelimelerini değiştirmek oldukca zor. TextFooler, bunun icin ilk once doğal dil işleme modelinde sıralamada ağırlık taşıyan onemli kelimeleri kontrol ediyor. Daha sonraysa cumleye guzel bir şekilde oturabilecek eş anlamlı karşılıklarına bakıyor.
Sistemi geliştiren araştırmacılar, hÂlihazırda var olan uc modeli başarılı bir şekilde kandırdıklarını ve bunların icerisinde Google tarafından geliştirilen ve BERT adı verilen acık kaynaklı dil modelinin olduğunu da ifade ettiler.
TextFooler araştırmasının yazarı Din Jin, “Bu araclar, kotu amaclı saldırılara karşı korunmasızlarsa sonuclar felaket olabilir. Bu aracların kendilerini koruyabilmeleri icin verimli bir savunma yaklaşımlarına ihtiyacları var” ifadelerini kullandı. MIT ekibi, TextFooler ’ın istenmeyen e-posta filtreleme, nefret soylemini tespit etme veya hassas politik soylemler gibi metin bazlı modellerde kullanılabileceğini duşunuyor.