Nemzetközi kiberbiztonsági ügynökségek adtak ki útmutatót az AI biztonságos használatához OT-rendszerekben
Az amerikai és az ausztrál kiberbiztonsági ügynökségek nemzetközi partnerekkel együtt jelentettek meg új, biztonságos AI-integrációs elveket az OT területen dolgozó cégek számára. A cél az, hogy segítsék a kritikus infrastruktúrák üzemeltetőit a mesterséges intelligencia biztonságos alkalmazásában.
Az útmutató arra összpontosít, hogy miként lehet összehangolni az innovációt a kockázatkezeléssel, miközben az AI-technológiák egyre mélyebben beépülnek az operatív technológiai rendszerekbe.
„A mesterséges intelligencia biztonságos integrációjának alapelvei az operatív technológiában” című dokumentumot európai, észak-amerikai és ázsiai–csendes-óceáni régiós kiberbiztonsági szervezetek (többek között: az amerikai NSA AI Security Center és FBI, a kanadai Cyber Centre, a német BSI, a holland NCSC-NL, az új-zélandi NCSC-NZ és a brit NCSC) támogatták.
Az elvek segítik az OT-tulajdonosokat és üzemeltetőket a kockázatok megértésében, valamint az AI kontrollált, ellenálló módon történő bevezetésében.
Az útmutató kiemeli a gépi tanulási és nagy nyelvi modellek, köztük az AI-ügynökök telepítését, valamint megjegyzi, hogy az elvek a hagyományos statisztikai modelleket vagy szabályalapú automatizálást használó rendszerekre is vonatkoznak.
Négy alapelv az AI OT-környezetbe illesztéséhez
A szervezetek egyrészt arra ösztönzik a cégeket, hogy kezdjék el megérteni az AI működését, és kiképezni a technikai csapatokat, illetve az üzemeltetőket az AI kockázatairól, hatásairól és a biztonságos fejlesztési gyakorlatokról.
Másodsorban arra is bátorítják az üzemeltetőket, hogy mérjék fel az AI alkalmazási lehetőségeit az OT-környezetekben, valamint kiegyensúlyozzák a technikai megvalósíthatóságot az adatbiztonsági követelményekkel. Javasolják továbbá, hogy az üzemeltetők készüljenek fel a rövid és hosszú távú integrációs kihívásokra.
A harmadik alapelv erősebb AI-irányításra szólít fel, amely folyamatos modelltesztelést és szigorú megfelelőségellenőrzést tartalmaz, míg a negyedik azt hangsúlyozza, hogy minden AI-projektben meg kell tartani a biztonságot és a védelmet. Az útmutató az átláthatóságra, az üzemeltetői felügyeletre és a meglévő incidenskezelési tervekkel való összehangolásra összpontosít.
Gábor János, NEW technology

