6 prekvapivých faktov o novom AI Acte, ktoré by ste mali poznať
Umelá inteligencia je neoddeliteľnou súčasťou našich životov. Odporúča nám filmy, optimalizuje dopravné trasy a pomáha lekárom pri diagnostike. S jej rastúcim vplyvom však prichádza aj potreba regulácie. Európska únia na túto výzvu odpovedala prijatím prelomového "Aktu o umelej inteligencii" (AI Act), prvého komplexného zákona o AI na svete. Tento krok predstavuje kľúčový moment v histórii technológií.
V médiách sa objavilo mnoho zjednodušených informácií. Cieľom tohto článku však nie je opakovať známe titulky. Namiesto toho sa ponoríme hlbšie do textu zákona, aby sme odhalili najprekvapivejšie a často prehliadané body, ktoré zásadne ovplyvnia našu digitálnu budúcnosť. Akt o AI totiž nie je len internou legislatívou EÚ, ale ambicióznym pokusom nastoliť globálny štandard pre dôveryhodnú AI – fenomén známy ako „Bruselský efekt“. Tento na hodnotách založený prístup stavia EÚ do kontrastu s trhovo orientovaným modelom USA a štátom kontrolovaným ekosystémom v Číne.
1. Niektoré formy AI sú odteraz úplne zakázané
Akt o AI nezavádza len pravidlá a povinnosti, ale niektoré praktiky považuje za tak nebezpečné a v rozpore s hodnotami EÚ, že ich úplne zakazuje. Ide o systémy, ktoré predstavujú neprijateľné riziko pre základné práva a bezpečnosť občanov.
Manipulatívne techniky: Zákon zakazuje systémy AI, ktoré používajú podprahové alebo klamlivé techniky s cieľom podstatne narušiť ľudské správanie. Ide o technológie, ktoré by mohli človeka ovplyvniť tak, aby prijal rozhodnutie, ktoré by inak neurobil a ktoré by mu spôsobilo značnú ujmu (napríklad fyzickú, psychickú alebo finančnú).
Využívanie zraniteľnosti: Je zakázaná AI, ktorá zneužíva zraniteľnosť osôb (spôsobenú vekom, zdravotným postihnutím alebo ekonomickou situáciou) na ovplyvnenie ich správania spôsobom, ktorý im spôsobí škodu.
Sociálne skórovanie: Zákon zakazuje systémy na "sociálne bodovanie" (social scoring) používané orgánmi verejnej moci aj súkromnými subjektmi. Ide o systémy, ktoré hodnotia alebo klasifikujú ľudí na základe ich sociálneho správania, čo vedie k nespravodlivému alebo škodlivému zaobchádzaniu v iných, nesúvisiacich kontextoch.
Rozpoznávanie emócií v práci a školstve: Zakazuje sa používať AI na odvodzovanie emócií fyzických osôb na pracovisku alebo vo vzdelávacích inštitúciách. Výnimkou sú situácie, kde je to nevyhnutné z oprávnených zdravotných alebo bezpečnostných dôvodov. Tento zákaz priamo cieli na ochranu duševnej autonómie v prostrediach s prirodzenou mocenskou nerovnováhou a bráni vzniku novej formy digitálneho dohľadu nad vnútornými stavmi zamestnancov a študentov.
„Hoci využívanie AI prináša mnoho výhod, možno ju zneužiť a môže sa stať zdrojom nových a výkonných nástrojov umožňujúcich manipulatívne a zneužívajúce praktiky... Takéto praktiky sú mimoriadne škodlivé a zneužívajúce a mali by sa zakázať, pretože sú v rozpore s hodnotami Únie.“
2. Skenovanie tvárí v reálnom čase na verejnosti dostalo (takmer) úplnú stopku
Jedným z najdiskutovanejších bodov zákona je zásadný zákaz používania diaľkovej biometrickej identifikácie "v reálnom čase" na verejne prístupných miestach na účely presadzovania práva. To znamená, že nepretržité skenovanie tvárí v parkoch či na námestiach je v EÚ v princípe zakázané. Je dôležité odlíšiť tento prísny zákaz identifikácie „v reálnom čase“ od tzv. „následnej“ (post) identifikácie, teda analyzovania už existujúcich záznamov. Aj tá podlieha prísnym pravidlám a vyžaduje si povolenie, no je regulovaná samostatne a menej reštriktívne.
Zákon však povoľuje niekoľko extrémne úzkych a presne definovaných výnimiek pre použitie v reálnom čase, kde je to nevyhnutne potrebné na dosiahnutie významného verejného záujmu:
Cielené pátranie po konkrétnych obetiach únosov, obchodovania s ľuďmi alebo sexuálneho vykorisťovania ľudí, ako aj pátranie po nezvestných osobách.
Predchádzanie konkrétnej a bezprostrednej hrozbe teroristického útoku.
Lokalizácia alebo identifikácia páchateľov závažných trestných činov, za ktoré hrozí trest odňatia slobody s hornou hranicou sadzby najmenej štyri roky.
Je dôležité zdôrazniť, že ani v týchto výnimočných prípadoch nie je možné konať bez kontroly. Každé takéto nasadenie si vyžaduje predchádzajúce povolenie od súdneho alebo iného nezávislého správneho orgánu, ktorý posúdi nevyhnutnosť a primeranosť zásahu.
3. AI, ktorá rozhoduje o vašej práci či úvere, je klasifikovaná ako "vysokoriziková"
Zákon zavádza kľúčový koncept "vysokorizikových systémov AI". Nejde pritom o sci-fi technológie, ale o veľmi reálne systémy, ktoré už dnes môžu mať významný vplyv na životy a príležitosti ľudí. Ak je systém klasifikovaný ako vysokorizikový, musí spĺňať prísne požiadavky predtým, ako môže byť vôbec použitý.
Medzi vysokorizikové systémy patria napríklad:
Systémy používané pri náborových procesoch, ako je triedenie životopisov alebo hodnotenie kandidátov.
Systémy, ktoré určujú prístup k vzdelávaniu, napríklad pri hodnotení prijímacích skúšok.
Systémy na hodnotenie úverovej bonity fyzických osôb alebo na rozhodovanie o nároku na sociálne dávky.
Systémy používané v súdnictve na pomoc justičným orgánom pri výklade faktov a práva.
Táto klasifikácia je kľúčová, pretože spúšťa celý rad prísnych povinností navrhnutých na zmiernenie rizík zaujatosti a chýb. Systémy musia byť postavené na kvalitných a dostatočne reprezentatívnych dátach, aby sa predišlo diskriminácii; ich fungovanie musí byť transparentné, aby bolo možné rozhodnutia kontrolovať; musí byť zabezpečený účinný ľudský dohľad, aby automatizácia neviedla k nespravodlivým výsledkom; a musia spĺňať vysoké štandardy bezpečnosti a spoľahlivosti.
4. Umelo vytvorený obsah musí byť jasne označený
S nástupom generatívnej AI je čoraz ťažšie rozlíšiť autentický obsah od umelo vytvoreného. Akt o AI preto zavádza jasné povinnosti v oblasti transparentnosti.
Ak systém AI vytvorí alebo zmanipuluje obrazový, zvukový alebo video obsah, ktorý sa javí ako autentický (tzv. "deepfake"), musí byť jasne zverejnené, že obsah bol umelo vytvorený alebo zmanipulovaný. Zákon však ide ešte hlbšie: od poskytovateľov takýchto systémov vyžaduje, aby ich výstupy boli technicky označené v strojovo čitateľnom formáte (napríklad ako vodoznak alebo metaúdaje), čo umožní automatizovanú detekciu umelo vytvoreného obsahu. To isté platí pre texty generované AI, ktoré sú publikované s cieľom informovať verejnosť o záležitostiach verejného záujmu – ak čítate článok o politike, ktorý napísala AI, mali by ste o tom vedieť.
Existuje výnimka pre zjavne umelecké, kreatívne, satirické alebo fiktívne diela. V týchto prípadoch stačí označiť existenciu manipulácie takým spôsobom, ktorý nebráni vnímaniu a zážitku z diela.
5. Veľké "základné modely" ako GPT majú vlastné pravidlá hry
Zákon sa špeciálne zameriava na "modely AI na všeobecné účely" (general-purpose AI models), teda na veľké a výkonné modely, ktoré slúžia ako základ pre mnohé ďalšie aplikácie (napríklad modely od OpenAI, Google a ďalších). Zákon ich reguluje unikátne, pretože tvoria základnú vrstvu pre stovky ďalších systémov umelej inteligencie. Stávajú sa tak kritickými bodmi, cez ktoré je možné zaistiť bezpečnosť a transparentnosť naprieč celým ekosystémom.
Medzi kľúčové povinnosti ich poskytovateľov patria:
Vytvárať a udržiavať podrobnú technickú dokumentáciu svojho modelu.
Poskytovať informácie a dokumentáciu nadväzujúcim poskytovateľom, ktorí na ich modeli stavajú vlastné systémy AI.
Zaviesť politiku na dodržiavanie autorského práva EÚ pri trénovaní modelu.
Zverejniť "dostatočne podrobné zhrnutie obsahu použitého na trénovanie".
Modely, ktoré sú také výkonné, že predstavujú "systémové riziko" (napríklad by mohli byť zneužité na rozsiahle kybernetické útoky alebo tvorbu dezinformácií), podliehajú ešte prísnejším pravidlám. Tie zahŕňajú povinné hodnotenie a zmierňovanie rizík a testovanie odolnosti voči útokom.
6. Zákon sa netýka všetkého – vojenská a obranná AI má úplnú výnimku
Asi najprekvapivejším faktom je, že rozsah pôsobnosti Aktu o AI má jasne stanovené hranice. Nariadenie sa vôbec nevzťahuje na systémy umelej inteligencie, ktoré sú vyvinuté alebo používané výlučne na vojenské, obranné alebo národnobezpečnostné účely.
Toto je kľúčové rozlíšenie, ktoré ponecháva reguláciu autonómnych zbraňových systémov a iných AI technológií v citlivých oblastiach bezpečnosti a obrany mimo rámca tejto civilnej legislatívy. Aj keď systém pôvodne vyvinutý na vojenské účely začne byť používaný v civilnej sfére (napr. v polícii), bude musieť spĺňať požiadavky tohto zákona.
Záver: Nová éra zodpovednosti Akt o umelej inteligencii je viac než len súbor pravidiel; je to vyhlásenie o digitálnych hodnotách. Tým, že EÚ niektoré praktiky priamo zakazuje, zavádza prísnu kontrolu nad systémami rozhodujúcimi o našich životoch a ako prvá na svete reguluje samotné „základné modely“, nesnaží sa len riadiť riziká, ale aktívne formovať trajektóriu vývoja AI.
Cieľom je vytvoriť prostredie, kde technológia slúži ľuďom a rešpektuje základné práva a demokratické hodnoty. Otázkou zostáva: podarí sa EÚ skutočne nastoliť rovnováhu medzi ochranou a inováciou a stane sa jej prístup vzorom pre zvyšok sveta, alebo je to len prvý krok na dlhej a neistej ceste regulácie technológie, ktorá sa mení rýchlejšie ako zákony?
Kľúčové slova: AIAI ACTumelá inteligenciaregulácia AIAkt o umelej inteligenciietika technológiízákaz manipulatívnych a neetických praktík
