Barion Pixel

- Hirdetés -

- Hirdetés -

Vicces papírszemüveggel tévesztették meg a tudósok a mesterséges intelligenciát

Az életünket is rábízzuk a mesterséges intelligenciára, pedig ahogyan az egyszerű számítógépeink, ugyanígy az AI-t használó rendszereink is ki vannak téve a hackertámadásoknak. Nem is gondolnánk, mennyi eszköz van körülöttünk, amely már a mélytanulás vagy a gépi tanulás módszerét alkalmazza, arról pedig végképp nincs tudomásunk, hogy milyen könnyű ezeket félrevezetni, megtéveszteni.

A gépi tanulás számtalan innovációt tesz lehetővé, beleértve a rák diagnosztizálására és az önmeghajtó autókra vonatkozó új algoritmusokat; az ismert, hogy e területeken a fizikai és a szellemi biztonság veszélyeztetett. A felhasználásnak azonban lehetnek olyan, eddig nem ismert kockázatai is, amelyekre érdemes mielőbb fényt deríteni, annak érdekében, hogy már előre fel lehessen készülni a veszélyek elhárítására.

Ahogyan az minden számítástechnikai eszközről elmondható, a hackerek mindig egy lépéssel előrébb járnak, mint a felhasználók vagy a fejlesztők. Ugyanis egy meglévő rendszeren biztonsági rést találni sokkal egyszerűbb, mint egy rendszer fejlesztésekor minden lehetséges támadási lehetőségre felkészülni.

A Carnegie és az Észak-Karolinai Egyetem kutatói tanulmányukban a gépi tanulásra használt szoftvereket vizsgálták. Ezen belül az arcfelismerő biometrikus rendszerekre összpontosítottak, amelyeket széles körben használnak a felügyelet és a hozzáférés-ellenőrzés terén.

A kutatók megvizsgálták és meghatározták a támadások egy új osztályát: olyan biztonsági rést kerestek, amelyen a támadó teljesen észrevétlenül hatolhat át, anélkül, hogy akár később felismernék. Annak ellenére, hogy a támadó fizikailag is jelen van, a kutatók által tesztelt módszer lehetővé teszi a számára, hogy elkerülje a felismerést, vagy ami még érdekesebb, hogy egy másik személyt azonosítson a rendszer helyette.

A kutatók egy olyan módszert dolgoztak ki, amely automatikusan generálja a támadásokat, és néhány szemüvegkeret nyomtatásával valósíthatók meg. Amikor a támadó viseli ezt a kiegészítőt, a legmodernebb arcfelismerő algoritmussal ellátott gépeket is képes megtéveszteni. A színezett szemüvegek felismerhetetlenné teszik a támadót, vagy az egy másik személynek adhatja ki magát.

A kutatás már meglévő eredményeken alapult, hiszen a biztonsági fenyegetettség fontos téma minden mesterséges intelligenciával ellátott eszközzel kapcsolatban, így se szeri, se száma az ilyen jellegű kutatásoknak. Újat nyújt viszont azzal kapcsolatban, hogy a rendszer ebben az esetben nem észlel hibát, nem jelzi, hogy illetéktelen behatolást kíséreltek meg, hiszen észre sem veszi a trükköt. A fizikai kiegészítők, a megjelenést eltorzító eszközök használata is érdekes kiegészítője a tanulmánynak, hiszen ezekkel kapcsolatban még nem áll rendelkezésre nagyszámú információ.

Hegyi Heni, NEW technology

Érdemes elolvasni
NEW technology