Podle europoslance a kvestora Evropského parlamentu Marcela Kolaji jde o velké zklamání a promarněnou příležitost jasně v celé Evropě odmítnout autoritářské praktiky, které známe z Číny či Ruska.
“Akt o umělé inteligenci měl mimo jiné zakázat ty nejvíce nebezpečné způsoby využití umělé inteligence a nastavit základní mantinely, za které technologii v zájmu lidských práv prostě pustit nemůžeme. Bohužel v případě biometrických kamer dělá pravý opak. Programy umělé inteligence umí v reálném čase rozpoznávat obličeje a přiřazovat je ke konkrétním lidem. Umožňují v reálném čase sledovat, kdo, kdy a kde je a s kým. V nesprávných rukou jde o děsivý nástroj plošného sledování lidí, což vidíme třeba v dnešním Rusku. Tam jsou nainstalovány třeba v metru a zneužívány ke špehování těch, kdo si dovolí mít 'nesprávný' názor. Pozice Evropského parlamentu požadovala zákaz této technologie, národní vlády ale protlačily pravý opak. V dnešní podobě tak akt o umělé inteligenci de facto vytváří právní rámec pro využívání biometrických kamer. Považuji to za extrémně krátkozraké a riskantní. Zvednout pro takový krok ruku s čistým svědomím prostě nemůžu,” vysvětluje Kolaja, který na legislativě pracoval jako zpravodaj stanoviska ve výboru pro kulturu a vzdělávání (CULT).
Legislativa dělí jednotlivé způsoby využití umělé inteligence do kategorií podle míry rizika. Pro programy spadající do kategorie s vysokým rizikem pak nastavuje pravidla, která mají předejít chybám a zneužití. Jde třeba o nástroje využívané k posuzování životopisů nebo k posouzení toho, co by mělo jít dítě studovat.
"Legislativa má naštěstí i přínosné části. Podařilo se najít rovnováhu mezi tím, aby legislativa nijak nezatěžovala vývojáře a nebránila tak inovacím, současně ale nastavovala základní pravidla tam, kde to je třeba, a chránila evropské vývojáře před nekalou konkurencí. Naprostá většina způsobů využití umělé inteligence totiž není nijak zvlášť riziková, pravidla se jich proto prakticky nedotknou. Existují ale případy, kdy může umělá inteligence lidem ublížit, pokud je špatně využitá. U těch dává nastavení základních pravidel smysl. Já jsem do legislativy třeba prosadil, aby pravidla platila pro takzvaný e-proctoring, neboli programy na kontrolu studentů u online zkoušek. Když je totiž tato umělá inteligence špatně naučená, může jako podvádění vyhodnotit třeba hluk z chodby na koleji. Vzhledem k tomu, jaké dopady tohle může na život mladého člověka mít, je na místě si na to dávat pozor a hlídat, zda program funguje, jak má. Jsem taky rád za zákaz dystopických programů, jako je umělá inteligence, která 'kastuje' lidi podle toho, zda jsou jejich chování a názory 'žádoucí'. To do svobodné společnosti nepatří a úplný zákaz je tady zcela na místě,” dodává Kolaja.
Hlasovaná podoba aktu o umělé inteligenci je kompromis, dojednaný s Evropskou komisí a Radou v rámci trialogů.
Tento článek je uzamčen
Po kliknutí na tlačítko "odemknout" Vám zobrazíme odpovídající možnosti pro odemčení a případnému sdílení článku.Přidejte si PL do svých oblíbených zdrojů na Google Zprávy. Děkujeme.
autor: PV