Ochrana spotřebitele
Ne děravé regulaci umělé inteligence
8. září 2023
Celkem 118 evropských organizací chránících spotřebitele a občanská práva, včetně dTestu, vydalo společné prohlášení k navrhovanému znění Aktu o umělé inteligenci. Důvodem je upravený návrh Aktu o umělé inteligenci, kterým se vytváří mezera v pravidlech pro vysoce rizikové systémy umělé inteligence. Mezera musí být zacelena a principy vysoké úrovně ochrany fyzických osob musí být zachovány.
Evropská unie vstupuje do závěrečné fáze jednání o Aktu o umělé inteligenci. Velké technologické společnosti a další průmyslové subjekty lobbují za zavedení významné mezery do procesu klasifikace vysoce rizikových systémů umělé inteligence, která by celý právní předpis zpochybnila. „Akt EU o umělé inteligenci ve své původní podobě obsahoval seznam vysoce rizikových systémů umělé inteligence, včetně například systémů používaných k hodnocení studentů, k posuzování úvěruschopnosti fyzických osob, k hodnocení uchazečů o zaměstnání a k určování, kdo získá přístup k sociálním dávkám. Navržený právní předpis dále vyžadoval, aby vývojáři a poskytovatelé těchto vysoce rizikových systémů umělé inteligence zajistili, že jejich systémy jsou bezpečné a poskytují veřejně přístupné informace o tom, jak jejich systémy fungují,“ vysvětluje Petr Šmelhaus, vedoucí právního oddělení spotřebitelské organizace dTest.
Tyto podmínky však oslabila nebezpečná mezera zavedená do procesu klasifikace vysoce rizikových způsobů použití umělé inteligence v článku 6. V původním návrhu Evropské komise byl systém umělé inteligence považován za vysoce rizikový, pokud měl být použit k jednomu z vysoce rizikových účelů uvedených v příloze III. Aktu. Rada a Evropský parlament však navrhují, aby vývojáři těchto systémů sami rozhodli, zda jimi vytvářený systém je vysoce rizikový. „Pokud by návrh článku 6 zůstal v posledním navrženém znění, umožnil by Akt o umělé inteligenci vývojářům umělé inteligence rozhodnout o vyjmutí vysoce rizikových systémů ze všech hmotněprávních pravidel,“ komentuje navrženou úpravu Petr Šmelhaus. Akt o umělé inteligenci by:
- Zavedl vysokou právní nejistotu ohledně toho, které systémy jsou považovány za „vysoce rizikové".
- Vedl k roztříštěnosti jednotného trhu EU, neboť členské státy si různě vykládají, co je „vysoké riziko".
- V důsledku toho by orgány členských států čelily vážným problémům při prosazování právních předpisů, protože by neměly dostatek prostředků na dostatečnou kontrolu sebehodnocení vývojářů.
- Umožnil bezohledným vývojářům vyhnout se základním požadavkům Aktu o umělé inteligenci. Naopak, zodpovědní vývojáři umělé inteligence by se tím ocitli v nevýhodě.
118 spotřebitelských a občanských organizací naléhavě žádá evropské zákonodárce, aby tyto návrhy zrušili a vrátili původní znění článku 6, které předtím Evropská komise navrhla. „Akt o umělé inteligenci musí upřednostňovat práva fyzických osob, kterých se systémy umělé inteligence dotýkají, a zajistit, aby vývoj a používání umělé inteligence byly odpovědné a transparentní,“ uzavírá Petr Šmelhaus za dTest.