Google predstavil novú iniciatívu s názvom Secure AI Framework (SAIF), ktorá sa zameriava na podporu bezpečného vývoja a implementácie umelej inteligencie (AI) v reálnom svete. Táto iniciatíva má za cieľ unifikovať bezpečnostné postupy a pravidlá pre firmy, ktoré pracujú s AI, informuje portál Živé.sk.
Secure AI Framework (SAIF) je súborom bezpečnostných rád a pravidiel určených pre organizácie a podniky, ktoré využívajú AI. Google si uvedomuje, že napriek tomu, že v iných oblastiach IT sú bežné bezpečnostné praktiky, v oblasti AI sa ešte nestihli dostatočne rozšíriť z dôvodu rýchleho vývoja tejto technológie.
- Google odporúča šesť základných pilierov bezpečnosti, ktoré by mali byť dodržiavané
1. Využívanie existujúcich bezpečnostných praktík a nástrojov: Google odporúča využívať všetky dostupné bezpečnostné praktiky a nástroje pri implementácii AI. Patrí sem napríklad obmedzenie vstupov od používateľov a správne spracovanie týchto vstupov, aby sa predišlo známym útokom, ako je napríklad SQL Injection.
2. Uvedomenie si rizík: Organizácie aj jednotlivci pracujúci s AI by mali byť si vedomí rizík spojených s jej využívaním. Vývojári by mali poznať možnosti útokov na modely AI, kedy hackeri môžu model „preučiť“ podvrhnutými dátami a ovplyvniť jeho správanie. Je dôležité mať opatrenia na priebežnú kontrolu výstupov od AI a overovanie manipulácie s učením.
3. Automatizácia bezpečnostných opatrení: Google podporuje automatizáciu bezpečnostných opatrení pre správne fungovanie AI, ale zdôrazňuje, že ľudia by nemali byť z procesu úplne vylúčení. Odborníci budú mať dôležitú úlohu pri rozhodovaní a reakcii na prípadné bezpečnostné incidenty, aby nedošlo k zmäteniu alebo ovplyvneniu hackerov.
4. Pravidelné kontroly a audity: SAIF zahŕňa pravidelné kontroly a audity, ktoré by sa mali zaoberať nielen implementovanými bezpečnostnými opatreniami, ale aj analýzou spôsobu, akým AI pracuje s dátami a ich spracovaním.
5. Vylepšovanie bezpečnostných mechanizmov: Je dôležité, aby organizácie neustále zdokonaľovali bezpečnostné mechanizmy a prispôsobovali sa novým hrozbám a zraniteľnostiam. Len keď majú organizácie dostatočnú informovanosť o hrozbách, môžu sa im efektívne brániť.
6. Komplexná analýza rizík: Pri využívaní AI je dôležité vykonávať komplexnú analýzu rizík vrátane kontextu, v ktorom sa jednotlivé nástroje používajú, a zohľadňovať bezpečnostné povinnosti.
Okrem teoretických pravidiel Google spolupracuje s partnermi a organizáciami na šírení povedomia o bezpečnosti AI a na implementácii týchto pravidiel do praxe. Google tiež prispel k zostaveniu historicky prvej certifikačnej normy ISO týkajúcej sa AI a zdieľa svoje poznatky z interného prostredia s týmto rámcovým systémom.