Dne 19. února představila Komise white paper o umělé inteligenci (AI): Evropský přístup k excelenci a důvěře. Jak jsem nedávno vysvětloval na svém blogu, toto téma není jen technickým problémem, ale již teď ovlivňuje život mnoha z nás, ať už žádáme o práci, objednáváme jídlo nebo například jako systém pro moderování obsahu on-line. Návrh je otevřen ke konzultaci všem zúčastněným stranám nebo jednotlivcům. Termín pro vaše připomínky je 19. května 2020 pro případ, že byste se k návrhu chtěli vyjádřit i vy.
AI co?
Je obtížné definovat, co umělá inteligence vlastně je, nicméně vzhledem k tomu, že tato zpráva bude rovněž předmětem veřejné konzultace, tak by bylo vhodné mít jasnou definici umělé inteligence, abychom si všichni rozuměli, co je tímto pojmem míněno. Zpráva nechává prostor pro volný výklad definice AI s ohledem na budoucí technologické změny a přináší dlouhý popis:
“[…] [hlavní prvky tvořící AI] jsou ‘data’ a ‘algoritmy’. AI lze integrovat do hardware a v případě technik strojového učení, které tvoří podmnožinu AI, jsou algoritmy trénovány tak, aby odvodily určité vzorce založené na sadě dat za účelem stanovení akcí potřebných k dosažení daného cíle. Algoritmy se mohou při používání nadále učit. Ačkoli produkty založené na AI mohou jednat autonomně díky vnímání jejich prostředí a bez dodržování předem stanovených pokynů, jejich chování je do značné míry definováno a omezováno jejich vývojáři. Lidé určují a programují cíle, pro které by se měl systém AI optimalizovat.”
Podpora inovací je důležitá, nicméně…
Cílem zprávy je propagovat modernizaci AI v Evropě a současně řešit rizika s ní spojená a hájit základní evropské hodnoty—rovnost, nediskriminaci a vysokou úroveň soukromí. Již toto je krok správným směrem od předchozích návrhů, které se zaměřovaly pouze na propagaci těchto technologií. Jako Piráti přirozeně podporujeme malé a střední podniky a vývoj moderních technologií. Například algoritmus založený na AI může hrát klíčovou roli v identifikování potenciální zdravotních ohrožení. Zároveň však existují určitá rizika, která je také třeba řešit.
Ne cenzuře
Ve vztahu k tomuto cíli se návrh stále zaměřuje na “vysoce rizikové aplikace” a “vysoce riziková odvětví”. Je pochopitelné, že ne všechny sektory a aplikace jsou ovlivněny stejným způsobem. Například přístup u chatbotů řešících stížnosti zákazníků by nemusel být nutně stejný jako přístup u aplikací v oblasti zdravotnictví, které zpracovávají citlivé údaje o pacientech. Zároveň se musíme ujistit, že definujeme vysoce rizikové aplikace vyváženým způsobem. Návrh definuje “vysoké riziko” mírnějším způsobem než bylo uvedeno v původním textech, které unikly na veřejnost, a zaměřuje se na případy, kdy jak odvětví, tak aplikace představují vysoké riziko. Nejasná jsou kritéria týkající se výjimečných případů, kdy by se povinná pravidla uplatňovala bez ohledu na odvětví. Například v předchozích návrzích Komise navrhovala kromě vysoce rizikových odvětví a použití také nevratný dopad na jednotlivce nebo nevyhnutelný dopad na jednotlivce.
AI je například používána společnostmi k moderování obsahu na jejich platformě—např. hash-matching, filtry klíčových slov, počítačové zpracování přirozeného jazyka—za účelem odstranění obsahu, který je v rozporu s jejich pravidly a podmínkami nebo který je nezákonný. Vedlejším účinkem tohoto využití AI je často diskriminace zranitelných skupin tak, že je jejich obsah upozaďován nebo vynechán. To může být způsobeno posuzováním kontextu pomocí algoritmů nebo použitím datových sad, které obsahují diskriminační předpoklady.
Přístupnost pro všechny
Pro řešení některých z těchto problémů jsou nezbytné požadavky na data pro učení, transparentnost a dohled reálným člověkem. Komise bohužel pouze navrhuje uchovávání záznamů, dokumentů a datových sad pouze na omezenou a “přiměřenou dobu” a na požádání je zpřístupnit orgánům. Vzhledem k rozsahu používání takových aplikací je nejisté, že by pouze příslušné orgány byly schopny ověřit dodržování takových požadavků. Společnosti by proto měly být vybízeny k tomu, aby zveřejňovaly kód pro učení a datové sady pod otevřenou licencí a také aby tyto systémy navrhovaly transparentním způsobem. To by pomohlo k lepšímu pochopení toho, jak systém funguje, a také k vyřešení mnoha problémů.
Ne šmírování
Dříve uniklé informace od Komise ukazují, že Komise měla jasný úmysl zakázat technologie rozpoznávání obličeje. Během interního konzultačního procesu Komise však tento zákaz zmizel. Z pohledu občanských práv je to jasný krok zpět.
Evropská agentura pro základní práva vydala nedávno zprávu, která varovala před nedostatečnou přesností takových technologií a uvedla, že “několik problémů se základními právy přetrvá i v případě, že by chyby byly odstraněny úplně.” Širší debata na evropské úrovni navržená Komisí musí zahrnovat všechny subjekty včetně občanské společnosti a akademické obce, ne pouze orgány členských zemí činné v trestním.
Další kroky
Tímto tématem se budu zabývat v následcházejících měsících. Mimo jiné i tak, že zastupuji naši politickou skupinu ve stanovisku Evropského parlamentu ve výboru pro vnitřní trh a ochranu spotřebitelů (IMCO) ve zprávě o režimu občanskoprávní odpovědnosti za umělou inteligenci a na zprávě o umělé inteligenci v trestním právu a jeho použití policejními a soudními orgány v trestních věcech.
Marcel Kolaja