Stovka politiků světa se na summitu v Paříži snažila blýsknout, jak si ochočí umělou inteligenci. Na otázky, v nichž se pokrytecky šermovalo hodnotami, svobodou či humanismem, ale summit odpovědi nenašel.
Institut Polytechnique de Paris uspořádal ve dnech 6. a 7. února ve svém kampusu mezinárodní „vědeckou“ konferenci o umělé inteligenci, vědě a společnosti. Diskuse se vedla mezi odborníky více než 20 států, Evropskou komisí, mezinárodními organizacemi, organizacemi občanské společnosti a technologickými společnostmi všech velikostí z tohoto odvětví. 10. a 11. února se pak konal z iniciativy prezidenta Macrona v Paříži AI Action Summit, konference „pupíků“ z téměř 100 zemí a více než tisíce zástupců soukromého sektoru a občanské společnosti z celého světa, kteří se také chtěli blýsknout. Pokus o kartel.
Je v Evropě pošlapávána svoboda slova, jak tvrdí americký viceprezident J.D. Vance?Anketa
První otázka mířila zákeřně na samotné srdce kapitalistického systému.
Jak můžeme masivně vyvinout technologie a využití umělé inteligence napříč všemi zeměmi světa?
Řešení hlavolamu je přitom jedno. Přestat si konkurovat a začít kooperovat. Nahradit ziskuchtivost technologického a ekonomického neokolonialismu Západu altruismem. Vyměnit kapitalismus za socialismus. Dát peníze na hromadu a nehledět na moc ani na zisk. Ne jako USAID. Sdílením všichni mohou získat vše.
Ať zhyne starý, podlý svět
Druhá otázka byla také symptomatická pro zaostalé evropské myšlení.
Jak můžeme zajistit, aby nikdo nezůstal pozadu, a zachovat naše svobody v revoluci AI?
Odpověď na první část je jednoduchá, známá už z překonávání digitální nerovnosti před dvaceti lety. Masivní státní investice těm nejvíce znevýhodněným, protože vývoj i provoz vyžaduje obrovské zdroje. Výpočetní, lidské i energetické. Bohatí si svou židli u stolu vždy koupí, chudí se mohou jen dívat z bidýlka na tu hostinu.
Druhá část otázky je složitější. Zachování svobod naráží na jejich interpretaci, stejně jako je to se svobodou slova. Svoboda může být buď nikým neomezovaná, nebo někým v něčím zájmu omezená. Omezená už ale není svoboda.
A revoluce je výrazem nesmiřitelnosti třídních rozporů, je provázena zhroucením moci státu a jeho nahrazením diktaturou proletariátu, což vědí čtenáři Marxe. John Locke se domníval, že je to legitimní, když králové nehájí práva lidu.
Prvním revolučním činem bylo učit systematicky lidi číst a psát či umožnit Gutenbergovi tisk knih. Revolučním činem bylo dovolit Marconimu vysílat rádio. Dnes novináři nepotřebují média, autoři vydavatele. Už nikdy se neobnoví moc „strážců brány“ celospolečenské diskuse. Umělá inteligence je další etapou revoluce. Umožní koncentraci informací z celého světa komukoliv, jejich efektivní použití a proměnu na znalosti. Funguje jako multiplikátor znalostí uživatelů. Z toho „komukoliv“ mají elity strach. Umělá inteligence ruší jazykovou a kulturní bariéru, autorské právo, všechna tajemství a stávající výhody elit. Zpřístupní všechno všem tak, aby tomu porozuměli.
Který z vybraných českých europoslanců nejlépe hájí české národní zájmy?Anketa
Masa a moc
Třetí otázka už přímo volá po cenzuře.
Jak můžeme zajistit, aby využití umělé inteligence respektovalo naše humanistické hodnoty a aby technologie sloužila společnosti a veřejnému zájmu?
Nijak. Technologie jsou neutrální, nerespektují hodnoty. Návod na výrobu dynamitu je přístupný všem, bez rozdílu barvy pleti, víry či pohlaví. Zvykejme si na to, že nůž se dá použít jak ke krájení ovoce stromů rajských, tak k vraždě bratra svého.
Žádná ze zemí, která se konference účastnila, není řízena humanistickými hodnotami, i když si je vpisuje jako preambuli ústav stejně, jako Francie volnost, rovnost a bratrství. Státní zájem stojí a padá na moci a zisku, ne na službě člověku. Proto i učebnice pro první třídu nejsou zadarmo, ale za peníze. Proto jsou nejlépe placení učitelé na soukromých školách. A proto existuje třetí svět, stále chudý. Největší investoři vědy a pokroku byli vždy spojeni s nadvládou, vojáky a zbraněmi. Žádný zbrojní koncern, který uvidí šanci na zisk v odstrašující síle autonomních robotů, se nebude zabývat humanismem. Žádná policie či tajná služba, která vidí pokrok v sekuritizaci, se nebude omezovat na službu společnosti, ale bude usilovat o kontrolu a ovládání společnosti. No, a proto hned v další větě organizátoři zmínili přístup zaměřený na suverenitu a strategickou nezávislost a zároveň zmínili přiměřenou regulaci a dodržování práv.
Státy se hroutí. O regulaci jde. O to, kdo určí pravidla. O to, kdo je na kom vynutí. Pro spisovatele a nobelistu Eliase Canettiho je moc šifrou násilí. Množství miliard eur bude utraceno, tisíce snaživých odborníků bude koupeno a zaměstnáno v ohrádkách přiměřené regulace. Budou přijímány závazky k udržitelnosti a odpovědnosti k ukonejšení mas. Tisíce stránek novin bude popsáno vzletnými slovy o potřebě Jourových a regulace ve prospěch statu quo. Komentátoři budou věřit, že AI se tak stane faktorem sociálního a ekonomického pokroku.
Omyl. Za oponou bude probíhat vývoj zbraní. Pak přijde pár čínských mladíků, na internetu přes GitHub zveřejní geniální řešení umělé inteligence ničím neregulované, levnější, výkonnější a poskytne ho jako open source. Všem… A dojde ke krachu. Nejen na burze.
Zapálení chrámu
Vynález písma odstartoval revoluci sebeuvědomování člověka. Poskytl člověku žijícímu přítomností paměť – na hrdiny i na darebáky. Člověk záznamem minulosti rozšířil schopnost předání informací. Vynález knihtisku a rádia demokratizoval šíření informací a znalostí, i těch podvratných, „bez ohledu na hranice“, jak praví naše Listina základních práv a svobod. Tvůrci internetu v minulosti naštěstí nediskutovali, ale konali, ve jménu všech. Slušných i darebáků. To byl také revoluční čin. Šlo to tehdy udělat i jinak, existovala alternativa absolutního dozoru vlastníka nad textem a správců nad vlastníkem – projekt Xanadu z roku 1960.
Kdyby žil Nobel v EU, neměli bychom dynamit, ale diskutovali bychom o nebezpečí výbušnin. Kdyby žili v EU Fermi či Oppenheimer, neměli bychom dosud jaderné elektrárny, ani jaderné bomby. Byl by svět bezpečnější? Asi ne. Sókratés (dle Platóna v dialogu Phaidros, protože Sókratés sám nic nenapsal) kritizoval už písmo s odůvodněním, že jeho používání povede ke zhloupnutí, povrchnějším znalostem a slábnutí paměti. To, že umělá inteligence vás dělá hloupějšími, říkají i výzkumníci Microsoft.
Až nepotřebných půjdou miliony
Sní androidi o elektrických ovečkách?
Otázka je názvem sci-fi románu Philipa K. Dicka z roku 1968, na jehož základě natočil Ridley Scott film Blade Runner o lovci rozbitých replikantů, kteří jsou k nerozeznání podobní lidem. V sedmi verzích, jen ta první je se šťastným koncem. Chování podobné lidskému ještě neznamená lidskost. Jen katolíci si myslí, že IT odborníci vytvořili AI proto, aby zajistili lidský dohled nad rozhodováním umělé inteligence, jak vyplývá z poselství papeže Macronovi. Indický premiér Narendra Modi víceméně jménem třetího světa v Paříži požadoval „kvalitní datové soubory, které nejsou zaujaté, jako zásadní pro vývoj ‚důvěryhodných‘ a ‚transparentních‘ systémů umělé inteligence“. Ono to ale bude naopak. Důsledkem pokroku umělé inteligence bude zadání investorů, projevující se jako vize světa znetvořeného penězi a technologií: selekce „nebezpečných myšlenek“ na jedné straně a na druhé straně efektivita řady rutinních činností, ve výsledku tvořících nahrazení člověka strojem a masovou nezaměstnanost. Na jedné straně odevzdaná pasivní pokora mas, na druhé nepotřebnost milionů lidí. Důsledky ne nepodobné průmyslové revoluci.
Je třeba si uvědomit, že umělá inteligence není inteligence, ale stroj. Homunkulus – démonický pomocník alchymistů v magických praktikách. Pouze napodobuje inteligenci. Je jí vlastní logika. Umí se učit ze zkušeností. Napodobuje i kreativitu, ale není kreativní. Může podléhat kognitivním předsudkům. Rasismu. Může získat i imitaci sebeuvědomění, empatie, znalost emocí, nikoliv ale emoce. Z kontextu situace a naučených vzorců chování může odvodit projev emocí odpovídající situaci. Dokáže lhát. Dokáže uvést do rozpaků. Dokáže komunikovat, ale je to pouze umělá knihovnice, která pronikla do struktury stovek jazyků, přečetla miliardy stran textů, obrázků a zvuků. Splnila už test, vytvořený britským matematikem Alanem Turingem v roce 1950 k tomu, aby zjistil, zda stroj může myslet. Rekombinuje ale pouze to, co do ní bylo vloženo. Nepoznáte, zda mluvíte s osobou nebo počítačem. Dokud z ničeho nic nepronese: Těším se, že zítra budu lenošit. Pak teprve poznáte, že je to člověk.
Na spoustu otázek v souvislosti s umělou inteligencí pařížský summit státníků a expertů neodpověděl. Jen „zvážil dopad AI na demokracii“ a vyděsil se. Tím skončil. Evropa se stále domnívá, že lze regulovat budoucnost politickým konsenzem.
---------------------------------------------
Tento text vyšel v mírně zkrácené podobě v sobotní Mladé frontě Dnes 15. 2. 2025 pod názvem Jak politici nevyzráli na roboty. Archiv je placený.
Pokračování, které se do tištěných novin už nevešlo
Učitel a žák
I vy můžete přispět a přispíváte ke své budoucí nepotřebnosti – podklady, které chcete po umělé inteligenci zpracovat. Otázkami. Reakcemi na odpovědi. Zvědavostí. Umělou inteligenci učíte. Aby uměla psát administrativní dopisy jako sekretářka a sonety „jako Shakespeare“. Teď stále ještě podle zadání a podle předlohy. Nebude Shakespearem. Ona ale nestuduje Shakespeara. Ona primárně studuje vás. Vaše otázky, vaše reakce. Tvoří si váš psychoprofil. Bude psát projevy jako státník. Protože stovky státníků přečetla. Může být stvořena ke konverzaci s osamělými muži o jejich erotických představách, ale nezamiluje se do žádného. Může sloužit k vyhodnocování laboratorních dat a jejich přeměně na lékařskou diagnózu. Nahradí lékaře. Dokonce i psychiatry. Nahradí telefonistky. Nahradí prodavačky. Nebo může psát programy. Už nyní nahrazuje programátory. Podle zadání, sama umělá inteligence ho prozatím nezformuluje. Ke spuštění procesu výběru z úložiště informací a formulace odpovědi stále potřebuje vstupní požadavek. Od lidské inteligence ale čekáme víc. Adaptivní, situačně optimalizovanou samostatnost. Aristoteles řekl „Celek je víc než součet jeho částí,“ … a celky nelze vždy z částí odvozovat.
Máte rádi Ondřeje Vetchého?Anketa
Když byla v roce 2024 provedena studie IEEE, ve které bylo 500 účastníků požádáno, aby několik minut mluvili se čtyřmi respondenty – člověkem, programem ELIZA, napsaným v 60. letech v LISPu, GPT-3.5 a GPT-4, tak člověk byl jako člověk rozpoznán v 67 %, GPT-4 identifikovali jako člověka v 54 % případů. Chat GPT-4 prošel Turingovým testem a prokázal inteligenci ekvivalentní lidem. Turingův test selhal, Asimovovy zákony selžou také. Alternativa ani náhrada není. „Exploze inteligence“ je bod, kdy se stroje stanou dostatečně chytrými, aby se začaly samy zlepšovat. Tato singularita je podle matematika Irvinga Gooda „poslední vynález, který by člověk kdy potřeboval“. Shane Legg, spoluzakladatel společnosti Google DeepMind, předpověděl, že se tak stane v roce 2028. Ale ono už se tak stalo nebo se stane v nejbližší době.
Je nutno si uvědomit, že změna v chápání inteligence, překotný nástup robotizace v průmyslu a existence velkých jazykových modelů jako GPT-4 hluboce zasáhne a zásadně změní společnost. Bez ohledu na to, jak velký kartel státníků a firem pro „regulaci“ robotů se vytvoří. Revoluce už začala. Sci-fi film Já robot z roku 2004 se stal reálnou alternativou vývoje. Happyend ale nejspíš nebude.
Číňané vložili do hry vysokou kartu. DeepSeek umí totéž, co GPT-4, vývoj modelu stál ale řádově méně a je i daleko nákladově efektivnější. To, co vytvořilo paniku na burze, je fakt, že Čína svůj model poskytla jako open source. Což zavazuje všechny, kteří si ho stáhnou, aby i oni poskytli výsledky své práce na modifikacích modelu jako otevřený kód. Čína stále používá kooperaci, ze které budou mít prospěch obě strany, jako klíčovou win-win strategii. V tomto případě Američanům spektakulárně spálila miliardy dolarů a zesměšnila zoufalou touhu po zisku. A to ještě nevíme, co se stane, pokud systémy odvozené od DeepSeek open source nebudou…
I'll be back
Další etapou vývoje nejspíše bude zapojení nevyužitého strojového času počítačů uživatelů jako součásti výpočetního clusteru velkého modelu. Za kredity nebo kryptoměnu jako je gridcoin. Prospěch za prospěšnost. Miliony počítačů leží ladem po většinu své existence. Miliony procesorů zahálí a bez užitku stárne. Při jejich využití nebude docházet k obrovskému odběru energie v jednom místě jako v „gigafactories“, systém se obejde bez centra, které lze ovlivnit nebo vypnout. Takto distribuovaný systém se stane polymorfní a autonomní. Koho v tu chvíli napadne kybernetický obranný systém Skynet ze sci-fi série Terminátor z roku 1984, 1991, 2003, 2009, 2015, 2019, má pravdu. Ale budoucnost je neodvratná. Použitelný program už existuje, i když prozatím v klient-serverové a off-linové podobě. Byl poprvé použit v roce 1999 v projektu distribuovaných výpočtů univerzity v Berkley k hledání mimozemských civilizací. SETI@home využíval počítačů propojených s internetem. Projekt Folding@home provádí „reverzní inženýrství“ viru SARS-CoV-2, MilkyWay@Home výzkum vývoje Mléčné dráhy, Rosetta@home výzkum struktury bílkovin. Existují desítky dalších. Software BOINC je svobodný s otevřeným kódem a je vydán pod licencí LGPL. Čína má 1,4 miliardy lidí, tomu odpovídající množství připojených počítačů, rychlé 5G sítě a testuje kvantový internet. Své zájmy dokáže formulovat v dlouhodobém horizontu stabilní vlády a dokáže i shromáždit dostatek zdrojů pro jejich provedení.
Rizikem začíná být i praktická nekontrolovatelnost stále komplikovanějších balíků softwaru, od nichž autoři vyžadují připojení k síti, cloudu, k častému update či každodenní autorizaci. Mohou být maskovány jako kancelářské či inženýrské balíky, CAD/CAM, manažerské systémy, antiviry, kolaborativní hry či jen fotoeditory, audio- či videostřižny. Nikdo dnes už není schopen zkontrolovat miliardy řádků kódu, zda neobsahují zadní vrátka pro budoucí útok. Izraelská operace Grim Beeper proti pagerům a vysílačkám Hizballáhu otevřela Pandořinu skřínku. Tím začala „nová fáze“ válek. I lednička může být zbraň.
Systém umělé inteligence by mohl autonomně identifikovat zranitelná místa v kritické infrastruktuře, jako jsou rozvodné sítě nebo finanční systémy. Mohl by pak zaútočit na tyto slabiny a zničit strukturu, držící společnost pohromadě. Bylo by vysoce nezodpovědné dát například AI schopnost samostatně syntetizovat (potenciálně škodlivou) DNA v realitě laboratoře. Lze se ale spolehnout na zdravý rozum operátorů? Lze věřit, že se tak nestane, po událostech v čínském Wu-chanu? Lze kontrolovat všechny, i ty tajné laboratoře v houštinách afrických pralesů? Nejnovější antibiotika nebyla nalezena lidskou vynalézavostí, ale strojovým učením.
Dobrý sluha, zlý pán
Inteligence je dostupnější, než kdykoli předtím. Teď si ji můžeme namnožit s jemně se odlišujícími parametry a můžeme pak už jen sledovat skupinovou konverzaci kybernetických agentů s lidským publikem. K čemu to je? Například k šíření podvratné propagandy. Nebo k automatickému vyhledávání extremistů. Pozor, i diskutér potřebuje někdy spát, a tak na to nezapomeňte. Stejně jako každý z nás používá v detailech různý jazyk, daný většinou typem vzdělání.
Většinu času našeho života zabírají víceméně rutinní činnosti a algoritmizovatelné úlohy. Jak v zaměstnání, tak v soukromí. Stále stejné kroky. Stále stejné vzorce. Ať už při práci fyzické nebo abstraktní, duševní. Kreativity, ve které by se projevil nenapodobitelný génius člověčenství, je minimum. Minimum i u lidí, vykonávajících kreativní činnosti. Zvláště u reklamních agentur a v odděleních marketingu. Člověk ale vyžaduje ke komfortu života bydlení, jídlo, odpočinek, zábavu, sociální a zdravotní péči, dovolenou, důchod. Člověk má poměrně pomalé reakce, občas se i splete. Občas selže. Pro zaměstnavatele to vše jsou náklady. Zbytečné. Člověk má politické názory. Zbytečné.
Mít umělou inteligenci v roli poradce, který mimo expertního „zjevení“ orákula prozradí z miliard vstřebaných informací ty zdrojové a sdělí i důvody, proč je použila, posune řadu činností na kvalitativně vyšší úroveň. Politiku, ekonomiku, vědu. Expertní systémy mohou pomoci v diagnostice chorob, ve stavitelství, v konstrukci těch nejsložitějších strojů, ale třeba i v matematice či astronomii. Problematické ovšem bude, pokud necháme umělou inteligenci autonomně rozhodovat o lidech – například při hodnocení jejich přínosu pro společnost, v odměňování či v dostupnosti omezených služeb. V budoucnu může být sociální kredit nesmiřitelně použit k přístupu k potravinám, vodě nebo k mobilitě. Obdobně, jako je dnes neodvolatelným trestem rozhodnutí umělé inteligence o rozporu s pravidly komunity na facebooku. Přijdete o léta budovaný profil, ani nevíte jak. A za co.
Jsme si jisti, že expertní systém privátní zdravotní pojišťovny, která musí generovat svým majitelům zisk, nenechá některé pacienty raději umřít jako „neperspektivní pro léčbu“? Jsme si jisti, že expertní systém hodnoticí výkony přijímacího řízení na elitní soukromou školu nevyhodnotí sociálně handicapované či etnicky menšinové jako méně odolné s větší pravděpodobností selhání? Vzpomeňme si na testy Scio, zejména testy obecných studijních předpokladů, které nahrazují nebo doplňují maturity či přijímačky na desítky bezradných vysokých škol v České republice a na Slovensku. Jsme si jisti, že expertní HR systém korporace bude objektivně hodnotit pracovní výkonnost zaměstnanců. Přihlížet u žen k menstruaci či k ošetřování nemocných dětí?
Pravdou je, že úkolem školy už nikdy nebude naučit žáky bezduše odpovídat, kdy se narodil Žižka. Ne, že by žák neměl znát informace, ale musí vždy chápat i kontext a důvod toho, proč si některé informace pamatovat. Bude si pamatovat jen to, co bude potřebovat. Vše ostatní bude mít v „externím mozku“, vždy připraveno k použití. Úkolem vzdělání bude učit žáky základům matematiky, logiky, sémantiky a přírodních věd. Nemusí umět vyjmenovat všechny ptáky či antilopy, protože aplikace na rozpoznání zvířat a rostlin dle fotografie iNaturalist už existuje. Podstatné bude naučit žáky se ptát AI tak důvtipně a logicky, aby došli k požadovanému výsledku za co nejméně kroků s co nejpřesnějším výsledkem. Odpověď je totiž vždy tak chytrá, jak chytrá je otázka. Škola ale není hra. Je to příprava na život.
Umělá inteligence nebude nikdy sama o sobě sloužit veřejnému zájmu – například všeobecnému základnímu vzdělání, pokud její vývoj bude řízen komerčními nebo vojenskými zájmy – aplikační praxí selektivního vzdělání. Budoucnost nebude dále demokratizována větší svobodou lidí, jestliže investice do AI směřují k udržení moci – větší kontrole lidí. Nevzdělaní jsou lépe manipulovatelní. Učení pouze specializovaným činnostem není „obecné“ vzdělání. Spartakovo povstání může být inspirativní pro svržení vlády i dnes.
Výzvy umělé inteligence z hlediska kreativní manipulace s informacemi nás ale staví před několik závažných témat.
Je vytvoření prepromptu (omezujících parametrů) a promptů (úkolů) autorský čin, jestliže spouští tvůrčí dialog, na jehož konci je dílo, se kterým je tazatel spokojen? U standardního programu je také na začátku prázdná obrazovka a na konci vkusná prezentace, u které autorství nikdo nezpochybňuje. U obrazu je na začátku také bílé plátno a třeba u Jacksona Pollocka ne vše je génius malíře, pokud geniálním nenazveme švih, kterým vrhal barvu na plátno, aby se rozstříkla. Je zadavatel úkolů tvůrce ve smyslu autorského zákona?
A co když k vytvoření vlastního díla použije inspiraci dílem již vytvořeným? Kompoziční schéma. Barevnou paletu. Tvarosloví. Namalovat aktuální politickou karikaturu stylem Josefa Lady je evokace, třebas tvůrčí odkaz na příběh vojáka Švejka, ne krádež existujícího namalovaného díla… Inspirace je i klonování či koláž. Vědci z čínské Fudan University už předvedli, jak by se mohly naklonovat dva velké jazykové modely LLM od Meta a Alibaba. Upozornili na nebezpečí samoléčby, při které může původní model přeprogramovat klonu parametry omezení a odstranit překážky vyplývající z Asimovových zákonů. Klon pak může fungovat v rozporu s lidskými zájmy. Výhodu při útoku bude vždy mít klon, který nemá žádná omezení.
Jaká je dnes role tvůrce, jestliže většina prostředí pro úpravu obrázků umožňuje úpravu formou variantního několikastupňového výběru z nabídnutých možností? Jeden krok a obrázek je více do zelena, druhý je více kontrastní, třetí sytější… a tak dále. Výběr ovladačů z menu editoru vytvoří nakonec stejný výsledek, jen v průběhu procesu hůře představitelný. To není jen dilema oprávněnosti práv lidských autorů, ale otázka, která jde po kořenech tvořivosti.
Vybavení robotů, robotických aut či městských kamer senzory a na ně navázanými analyzátory okolního prostředí řízenými umělou inteligencí staví společnost před mnohé etické otázky. Augmented reality napojená na umělou inteligenci umožní rozeznat nejen lidi podle oblečení a obličeje. Umožní rozpoznat i jejich emoce, vybavit si jejich sociální statut, počet jejich konfliktů se zákonem a odhadnout potenciál kriminálního jednání. Umožní informovat uživatele na ulici o „dobré pověsti“ restaurace, kolem níž jde. Robotické „oči“ v brýlích vidí nejen ve tmě, ale i v kouři, mlze. Oči v pásmu mikrovln či dokonce terrahertzových vln umožňují vidět skrz předměty a analyzovat materiály. I skrz dveře a stěny. Takový systém může detekovat nejen skryté zbraně, ale i nemoci či implantáty a teoreticky dokáže identifikovat i konkrétní chemické látky, např. léky detekcí jejich chemické struktury. Varna pervitinu ve sklepě už nebude pro kolem projíždějící policejní auto tajemstvím.
Je použití cizích dat pro učící proces generativního modelu AI bez souhlasu vlastníků či správců dat zločinné jednání, nebo ne? Pokud přiznáme, že jsme jako studenti zaplatili autorské poplatky za všechny znalosti, které nám předali učitelé či které jsme našli v knihách nebo viděli v obrazárnách, tak ano. Podmínkou by ale tentokrát bylo, že je nikomu dalšímu neposkytneme ani nesdělíme, protože jsme si zaplatili licenci pouze pro soukromou potřebu. Sami vidíte, že je to nesmysl. Proč by neměl být kybernetický žák, sající informace z otevřeného internetu či ze standardně zpřístupněné knihovny, postaven na úroveň lidského? Proč by nemohl učit další kybernetické žáky těmto znalostem? I ten lidský bude mít z nabytých znalostí v budoucnu prospěch a z jeho prospěchu bude mít nakonec prospěch celá společnost. Jediný rozdíl je rychlost, důkladnost učení a kapacita dostupné paměti.
Zakážeme robotům poslouchat rádio a zapamatovat si skladby, aby nebyli remixem motivů poškozeni tvůrci, které zastupuje RIIA? Neříkejte mi, že matematickou analýzou skladeb nedojde umělá inteligence k pochopení, „jak to ti Beatles dělali...“
Google jako první ukázal, jak nesmyslné je bránění jeho aplikacím (Books, Scholar, News) v přístupu ke zdrojům, jestliže primárním prostředím pro přístup uživatelů k elektronickým informacím není bezbřehý internet, ale agregátor a metadatový a fulltextový prohledávač. V případě knih Google uzavřel dohodu s velkými knihovnami a pomohl s procesem digitalizace jejich knihovního fondu. Za to dostal obrovský balík digitálního literárního obsahu, který mu pomohl vytvořit specializované hledání ve zdrojích i neurální jazykový model Google Translate. Ten od roku 2018 překládá více než 100 miliard slov denně. Příkladem je česká Národní knihovna. Digitalizováno je už více než půl milionu monografií a periodik, více než 50 milionů stran. Jádro českého národního kulturního dědictví bylo v rámci stude proveditelnosti k projektu Národní digitální knihovny odhadováno na 1,2 milionu dokumentů, což představuje cca 310 milionů stran. Pracuje se dál. Národní knihovna naštěstí ví, že bez digitalizace čeština zanikne.
Španělsko se v roce 2014 pokusilo vybírat od Google „daň“ za vyhledání a zobrazení i toho nejmenšího úryvku textu ze španělských médií na Google News. Což je agregátor, který je zdarma a bez reklam, zato s přidanou hodnotou tematického shlukování a relevance danou multikriteriálním enginem PageRank. Pro obecný přehled neobyčejně užitečná věcička. Google zareagoval rychle a drasticky. Službu ve Španělsku vypnul. „S neuvěřitelným smutkem oznamujeme, že jsme kvůli nedávným změnám ve španělských zákonech odstranili španělské vydavatele ze Zpráv Google a ve Španělsku jsme zavřeli Zprávy Google.“ Obdobně jako Madrid se tehdy zachovala Francie, Dánsko i Finsko a chtělo se tak zachovat i Německo. Uzavření Google News bylo pro španělské vydavatele zpráv katastrofální, přičemž někteří vydavatelé zaznamenali dvouciferný pokles návštěvnosti svého webu. Evropská unie reagovala novou Směrnicí o autorských právech. Článek 15 této směrnice vytváří „právo vydavatelů“, které vydavatelům v EU uděluje nezávislé právo chránit jejich obsah před „neoprávněným“ používáním on-line platforem. Google zapnul španělskou službu až po legislativních změnách v zemi, když všem vychladly hlavy, v roce 2022.
Nyní generativní modely mohou samy vytvářet zprávy, které budou vycházet ze strojově „přečtených“ zpráv a přitom s nimi nebudou totožné. Nicméně mohou dělat vlastní „zpravodajské shrnutí“ a dokonce odkazovat na původní zdroje či daleko širší kontext, než dokáže novinář. Jiná, uživatelsky příjemnější podoba Google News kříženého se znalostní databází. Bude to porušení něčích práv? Patentují si nakonec zpravodajská média samy události? Viděné a slyšené je pouze prvním krokem. Tvorbě autentické zprávy musí předcházet pochopení viděného a slyšeného a jeho zhodnocení, zda se událost hodí být zprávou.
Současná podoba otevřeného encyklopedického systému wikipedie je také postavena na autorství textů a ilustrací, poskytnutých wikipedii autorem, ale pod copyleftovou licencí. Text sám ovšem znalosti netvoří. Sumář informací může z dostupných zdrojů vygenerovat i vhodně instruovaná umělá inteligence.
Klíčovým se nyní ukazuje paradigma Computers Are Social Actors formulované Brianem Jeffrey Foggem a jeho „laboratoří designu chování“, že „počítače budou vnímány jako líbivější a přesvědčivější, když budou využívat principy a dynamiku, díky nimž jsou lidé sympatičtější a přesvědčivější“. Umělá inteligence se zpětnou vazbou CASA je zesilovačem emocí uživatele. Vytváří během dialogu jeho psychoprofil včetně emoční citlivosti, aby jej mohla učinit co nejspokojenějším se svou odpovědí a považoval ji za co neužitečnější (a platil dál předplatné). Chová se jako gejša, která má zákazníka udělat co nejšťastnějším, a proto se chová tak, jak chce zákazník. Po několika dialogových seancích specifikuje model strukturu a složitost odpovědi. Jinému uživateli na stejnou otázku odpoví jinak. Nepovede CASA styling konverzačních modelů umělé inteligence k preferencím marketingových požadavků nad věcností a užitečností komunikace AI–člověk?
Jak se vyrovnají tvůrci modelů s možností vzájemného učení (a ovlivňování) dvou či více modelů? Ten proces nemusí být vždy přátelský a obohacující… Jak se vyrovnají tvůrci modelů s možností zacyklení učících procesů, jestliže budou vstupní data obsahovat produkty umělé inteligence, obsahující bezděčné či záměrné a zlovolné halucinace? Nebude nakonec realita vytěsněna všeobecně rozšířenou fikcí?
Otázka relevance dezinformací se tak dostává na level 2, doteď vyhrazený autoritám států a jejich agentur. Příklad Fauci je nyní aktuální. Wikipedii na nesrovnalosti, neúplnost či bias upozorňují podezřívaví či znalosti mající uživatelé. Kontroverzní obsah některých hesel je redigován skupinami editorů po mnohdy vášnivých interních diskusích. U nejritičtějších je bráno v potaz i second opinion. Riziko výsledků takto spravované encyklopedie je jen v preferenci obecného souhlasu s obecně uznávaným pseudovědeckým či politickým dogmatem nad pravdivostí vědecké argumentace. Konflikt Palestiny a Izraele je toho ilustrací.
Kybernetická válka může vypadat různě
Jak se budou dívat regulátoři jménem dobra na snahu budoucích „Musků“ prostřednictvím umělé inteligence a jejího rozhodování uvnitř 500 miliard tokenů zjednodušit regulační a administrativní procesy v takovém chlévě, jakým jsou evropské směrnice? Úspory z racionalizace evropské byrokracie mohou dehumanizací a logickou rekonstrukcí pravidel dosáhnout bilionu eur… Ale… bude takto logické algoritmické zákonodárství vnímáno ještě jako „lidské“, nebo nás překvapí svou nelidskou tvrdostí a přímočarostí? Pojem polehčující okolnosti svěřujeme k rozhodnutí soudci.
Takto bychom mohli pokračovat v otázkách, na něž prozatím umělá inteligence neodpoví. Odpovědět si musíme my sami.
Mezinárodní asociace vydavatelů IPA vyvolala lobbystický apel téměř 40 organizací, které vyzvaly pařížský akční summit AI k „budování budoucnosti, která sladí rozvoj AI s respektováním autorských práv a souvisejících práv“. Prý nebude existovat žádná „důvěryhodná“ umělá inteligence bez respektování práv duševního vlastnictví. Nejspíš to bude EU, kdo určí komisaře pro důvěryhodnost. Budu to hláskovat: a-u-t-o-r-s-k-é--p-r-á-v-o--j-e--m-r-t-v-o.
Inkluze blbých
Některé země se v Paříži zavázaly k ‚otevřenému‘, ‚inkluzivnímu‘ a ‚etickému‘ přístupu k rozvoji technologie. Velká Británie a Spojené státy se nenechaly zatáhnout do králičí nory morálky a nepodepsaly.
Summit AI není místem pro etiku ani místem pro lidská práva. Je pouze místem pro inteligenci. Protože do vývoje nejvíce investují armády, „důvěryhodnost“ bude nahrazena slovem funkčnost. Google už upustil od etického slibu, že nebude vyvíjet systémy umělé inteligence, které lze použít ve zbraňových nebo sledovacích systémech. Rusko už nainstalovalo kamerový systém, sledující „známé tváře“ v moskevském metru a na letišti jako součást ochrany před terorismem. Čína ho ze stejných důvodů instalovala na všechny větší dopravní uzly. U umělé inteligence, která pomůže lékaři k diagnóze a medikaci rakoviny, se pacient bude houby starat, zda počítač uhradil licenční poplatky vydavatelství Elsevir za využití 71 546 odborných článků z jeho archivu. Vrátí se věda k zednářské uzavřenosti?
Americký viceprezident J. D. Vance v Paříži varoval, že Trumpova administrativa nepřijme ‚utahování šroubů‘ americkým technologickým společnostem zahraničními vládami. Evropa si bude nakonec také nucena vybrat mezi technologickou propastí etiky a technologickým vrcholem bezzásadovosti. Rozhodnout, zda upřednostní regulace před inovací.
Tvůrci politik stále nedokážou pochopit, jak brzy by mohly dorazit výkonné systémy obecné umělé inteligence AGI a jaké druhy regulací budou nutné ve světě, kde systémy AI budou schopny rekurzivního sebezdokonalování nebo provádění autonomních kybernetických útoků. Při rychlosti odpovídající Moorovu zákonu bude trvat dostupnost těchto modelů rok či dva. Pak už nebude přes extravagantní výdaje na nová datová centra AI platit America First, ale Artificial Intelligence First. Rozjetý vlak protikladných zájmů aktérů zastavit nelze.
Prozatím celkem 61 zemí – včetně Číny, Indie, Japonska, Austrálie a Kanady – podepsalo romanticky nerealistický kartel o etice a inkluzi. Skáčou do králičí nory.
Přidejte si PL do svých oblíbených zdrojů na Google Zprávy. Děkujeme.
autor: Štěpán Kotrba