Az Európai Bizottság bejelentette, hogy elindít egy kísérleti projektet, melynek során teszteli azt a tervezetet, amely az AI-technológiák kidolgozására és alkalmazására vonatkozó etikai szabályokat tartalmazza. A tesztelés célja, hogy megállapítsák, mennyire alkalmazhatók ezek a szabályok a gyakorlatban.

Az Európai Bizottság iránymutatásokat tett közzé, amelyek abban segítik a vállalatokat és a kormányokat, hogy etikus mesterséges intelligenciával rendelkező alkalmazásokat fejleszthessenek ki. Az iránymutatások hét alapelvet határoznak meg: az emberi részvétel és felügyelet, megbízhatóság és biztonság, a személyiségi jogok tiszteletben tartása (etikus adatkezelés), átláthatóság, sokszínűség, minden megkülönböztetéstől való mentesség és méltányosság, társadalmi és környezeti jólét, elszámoltathatóság.

Az átláthatóság azt jelenti, hogy az AI-rendszerek a teljes életciklusuk során ellenőrizhetőek legyenek. Az őket használó embereknek pedig jogot kell biztosítani arra, hogy tájékoztatást kapjanak, miközben egy algoritmussal kapcsolatba kerülnek, azt használják, annak segítségével végeznek valamilyen tevékenységet, és felhasználóként részt kell venniük a döntéshozatali folyamatban (azaz nem dönthet helyettük a mesterséges intelligencia).

A megkülönböztetéstől való mentesség és a méltányosság biztosítása nagy kihívás jelent. A vállalatoknak ugyanis garantálniuk kell, hogy minden felhasználó számára tisztességes és inkluzív AI-rendszereket tesznek elérhetővé, nem használják ki a felhasználókat azok tudta nélkül, és biztosítják, hogy az AI-rendszerek se tegyék ezt „akaratlanul”. Az EU etikai megközelítése egyedülálló a globális AI-közösségben, ami talán jótékonyan hathat az USA és Kína AI-beruházásaira is.

Az április 8-án tett bejelentéssel a Bizottság arra is törekszik, hogy visszajelzéseket gyűjtsön, és nemzetközi konszenzust alakítson ki az „emberközpontú mesterséges intelligenciával” kapcsolatban. Szeretné, ha megvitatnák a tervezetet a G7- és G20-értekezleteken is.

  • Emberi részvétel és felügyelet: „Az AI-rendszereknek lehetővé kell tenniük az igazságos társadalmi működést az emberi szempontok és az alapvető jogok támogatásával, és tilos korlátozniuk vagy félretenniük az emberi autonómiát.”
  • Robusztusság és biztonság: „A megbízható AI-rendszer megköveteli, hogy az algoritmusok biztonságosak, megbízhatóak és elég robusztusak legyenek ahhoz, hogy a rendszerek életciklusuk során képesek legyenek kezelni a fellépő hibákat vagy következetlenségeket.”
  • Adatvédelem és adatkezelés: „Biztosítani kell az állampolgárok számára, hogy teljes mértékben ellenőrizhessék a saját adataikat, míg a rájuk vonatkozó információk nem használhatók fel a rájuk nézve káros folyamatokra vagy megkülönböztetésre.”
  • Átláthatóság: „Biztosítani kell az AI-rendszerek nyomon követhetőségét.”
  • Sokszínűség, megkülönböztetéstől való mentesség és méltányosság: „Az AI-rendszereknek figyelembe kell venniük az emberi képességek, készségek és követelmények sokszínűségét, azok teljes skáláját, és biztosítaniuk kell a hozzáférhetőséget.”
  • Társadalmi és környezeti jólét: „Az AI-rendszereket a pozitív társadalmi változások, a fenntarthatóság és az ökológiai felelősség fokozására kell felhasználni.”
  • Elszámoltathatóság: „Olyan mechanizmusokat kell kialakítani, amelyek biztosítják a felelősséget és az elszámoltathatóságot az AI-rendszerek és azok eredményei tekintetében.”

Az etikus AI előmozdítására irányuló bizottsági stratégia következő lépcsőfoka tehát az, hogy a gyakorlati életben is teszteljék a tervezetet, az érdekeltek széles körének bevonásával, beleértve a nemzetközi szervezeteket és vállalatokat is.

A Bizottság bejelentése szerint a nagyszabású kísérleti szakasz idén nyáron indul. A cégeket, közigazgatási szerveket és szervezeteket arra kérik, hogy jelentkezzenek be a mesterséges intelligencia európai fórumaként funkcionáló Európai AI Szövetségnél, mivel így értesülhetnek a program elindításáról.

Hegyi Heni, NEW technology