středa 1. září 2021

Obecná uměligence, sebezdokonalování, sebezničení, technokracie a demokracie

 V minulém článku jsem se zamýšlel nad tím, zda se může objevit informační technologie, jejíž vývoj a investice do něj by mohly předběhnout umělou inteligenci (dále též uměligence či UI) a přivedli její investice do stagnace, jak spekuloval jeden ze čtenářů. Zdálo se mi to nepravděpodobné, takže čtenář přišel s dalšími zajímavými podnětnými argumenty (i na trochu jiná souvislá témata), na které bych zde rád zareagoval. 



Prvním bylo tvrzení, že většina investic do vývoje uměligencí putuje na zvětšování objemu trénovacích dat, což je prý stejné jako dělat automobilu větší a větší nádrž na palivo, čímž nemůže vzniknout nová kvalita. A prostředky vyplácané na větší a větší objem dat budou údajně chybět na „principiální vývoj“. 

Podle mě je však potřeba uvědomit si, že uměligence není jen pouhou nádrží na data, ale ona je těmi daty proměňována takovým způsobem, že dochází k emergenci, tj. na základě relativně jednoduchých principů (třeba v oblasti umělých neuronových sítí) v reakci se vstupními daty vznikají kvalitativně nové sofistikovanější vnitřní struktury z různě nastavených a různě selektivně provázaných vah, které společně nevědomě imitující specifické části našeho myšlení. 

Když danou emergenci předvedu na relativně snadno představitelném příklad rozpoznávání obličeje, tak nějaký objem trénovacích dat je dostatečný, aby pak UI rozpoznala, že na nějakém obrázku je lidský obličej; nějaký větší objem dat, aby rozpoznala dva různé lidi; nějaký větší objem dat, aby je rozpoznala, když mají nasazené respirátory; ... Na tom je myslím dobře vidět, jak se narůstající kvantita může přelévat ve vynořující se kvalitativní rozdíly. To, že tak nemohou vzniknout všechny kvality, tak neznamená, že by tak nemohly vzniknout žádné. 

Zkusme se ale zamyslet, jak by mohla vzniknout obecnější umělá inteligence. Pravděpodobně tak, že nějaká umělá neuronová síť bude mít víc různých specifických umělých inteligencí jako své vstupy, resp. bude se učit skládat jejich výstupy tak, aby byla schopna řešit komplexnější problémy, než ty jednotlivé specifické umělé inteligence. Přičemž skládáním výstupů myslím i výstupy jednotlivých úrovní abstrakce, resp. vrstev sítí, aby i míra jednotlivých abstrahování v kombinatorice podléhala selekci skrze data a nebyla omezena lidským programátorem. 

Navíc si lze představit, že později se několik takovýchto relativně obecných umělých inteligencí může všemi svými vrstvami stát vstupem další hierarchicky nadřazenější umělé inteligence, což by hypoteticky mohlo být součástí principu zárodku sebezdokonalující se umělé inteligence, protože tento proces hypoteticky lze opakovat pořád dokola za vzniku stále sofistikovanějších kolektivních obecných umělých inteligencí podobně jako náš mozek při embryogenezi vzniká stále komplexnějším vrstvením neuronů, které původně migrují, následně upevňují strukturu provázání a na nich migruje další vznikající vrstva, což lze hypoteticky převést na migrování preceptronů při vzniku výchozích struktur uměligencí tak, aby i tento proces byl samoorganizovaný skrze vzájemné interakce. 

A i kdybychom připustili dnes odvážné spekulace o tom, že by mozek matky mohl přes CNS regulovat vznikání mozku embrya, tak i to by bylo hypoteticky možné v budoucnu převést na vývoj uměligence. Pak by se mohly objevovat třeba bláznivé spekulace o připojování pupečníkové šňůry na superpočítač přes nějaký nový adaptér. 

Každopádně vytvoření jakési obecné umělé inteligence či dokonce sebezdokonalující se uměligence by byl nepochybně velký pokrok, ale když si představíme, kolik by to mohlo vyžadovat vstupních trénovacích dat, tak se myslím ukazuje, že takovýto pokrok by vyžadoval velké investice právě a především do těch trénovacích dat a ne do toho, z čeho se pokoušíme vytvořit samoorganizovaný proces. A je logické, že mnohým programátorům se to nemusí líbit, jelikož to naznačuje, že dříve či později už lidští programátoři nebudou potřeba tak moc jako dnes. 

Předpokládá se, že časem budou existovat uměligence schopné hlubokého porozumění textu, což by mohlo znamenat, že bude snazší vytvořit takovou UI, která by přes spojování svých podsítí třeba ke slovnímu námětu na umělou inteligenci přiřadila rozpoznaný význam v řeči čísel (třeba něco jako vektory v n-rozměrném prostoru významů) a k němu by přiřadila doporučené uspořádání neuronové sítě, aby fungovala jako umělý architekt neuronových sítí, přičemž čím víc různorodějších trénovacích dat, o to menší rizika spojená s fitness krajinou, protože ne všechno budou vyloženě zlomy. Podobně by UI podle slovního zadání mohla zkoušet tvořit klasické programy, ale tam by mohl být větší problém s detaily. K tomu se také hodí dodat, že hypoteticky by mělo být jednodušší připojit odpovídající význam k řeči logiky než k přirozené řeči. 

Připouštím sice, že čím víc bylo učiněno pokroků v poli vývoje UI, tím může být těžší učinit další sofistikovanější, ale to ještě myslím neznamená, že by investice do UI (ve smyslu otevřeném pro možnosti vývoje) byli předběhnuty investicemi do generování jiného softwaru. 

Vraťme se však ještě k čtenářově tvrzení, že prostředky vyplácané na větší a větší objem trénovacích dat budou údajně chybět na „principiální vývoj“. Je přesvědčený, že k množině dosud objevených principů musíme objevit další nové, aby se uměligence mohla dál významně rozvíjet. Co když je to ale trochu iluze? Samotné zjevení nové kvality považuji za více rozhodující v otázce vývoje než samotné předpoklady, které to umožnily (principiální pokrok vs objem a rozmanitost vložených dat v případě uměligence). Kdyby samotné vyřčení věty „Simsalabim, ať vznikne plně sebereplikující se stroj!“ skutečně umožnilo vznik takového stroje, tak nebudu tvrdit, že nejde o pokrok ve vývoji z důvodu způsobu, jakým by se to stalo. Byl by to jakýsi pokrok, i kdyby cesta k němu byla vyloženě hloupá. Navíc vzhledem k tomu, že všechny částice více či méně fungují jako perceptrony (mají vstupy a modifikovaný výstup), tak z tohoto hlediska lze vše existující chápat jako určité druhy více či méně složitých neuronových sítí, takže jakýkoliv představitelný pokrok je z tohoto hlediska otázkou vzájemného specifického nastavení částic a z tohoto pohledu je principiální pokrok na této úrovni existence nemožný, pokud je nemožné vytvořit ex post částici, která by odporovala standardnímu modelu (pokud by byl nezpochybnitelný, což může být otázkou). To nám však nebrání tvořit nové sofistikované technologie. Nemožnost pokroku na elementárnější úrovni nezakládá nemožnost pokroku na vyšší úrovni. Něco podobného platí třeba i v biologii u eukaryot, jejichž diverzita genotypů je mnohonásobně nižší než třeba u bakterií, ale jejich strukturová diverzita fenotypů je naopak mnohonásobně vyšší než u bakterií. Z menšího počtu odlišných genů umí vytvořit větší odlišnosti ve vyšších strukturách. 

Čtenář dále tvrdí v reakci na problematiku integrování humanismu do umělé inteligence, že uměligence se umí přizpůsobit na míru konkrétnímu jedinci lépe než lidé. Myslím však, že (ne)platnost tohoto výroku je silně podmíněna konkrétním kontextem. Když třeba člověk 1 rozhoduje o člověku 2 na základě jejich společného dialogu v přirozené řeči, tak dnes může dosud snáze než dnešní UI pochopit hloubku argumentů člověka 2, takže v tomto případě k němu může přistoupit víc na míru než dnešní uměligence. Časem se to určitě může zlepšovat, ale myslím, že je velkou otázkou, zda a do jaké míry může UI časem lépe než člověk pochopit, jaké to je pro člověka být člověkem (tzn. pochopit důležitý předpoklad humánního rozhodování na míru jednotlivce). To by v ideálním případě vyžadovalo, aby jedna UI stíhala v reálném čase získávat a analyzovat obří množství informací o procesech ve více různých lidech (a v případě biologického těla s robotickým mozkem by chybělo klíčové hledisko, takže by tím nešlo obcházet problematiku dostatečných senzorů kolem lidské hlavy). 

K tomu čtenář dál argumentuje, že když dnes člověk o někom rozhoduje, tak má představu, že ten druhý člověk je průměrný člověk. Podle mě však pouze do chvíle, než člověk, o kterém rozhodují, má možnost na optání vysvětlit, co a jak je v jeho případě jinak než v jejich představě o průměrném člověku. Jednou se mi třeba stalo, že k nám přišli zastupitelé obce s návrhem, že v naší blízkosti chtějí provést určité stavební úpravy. My žijeme i na tom místě, takže ho známe lépe než oni a mohli jsme tedy vysvětlovat, jaké jevy se tam občas vyskytují (tzn. takové, které by při krátkém pozorování v jedné maličké části jednoho z ročních období a bez rozhovoru s místními externímu pozorovateli unikly), takže pochopili, jak svůj záměr lépe přizpůsobit konkrétním lidem s daným místem spojeným, přestože jejich počáteční předpoklady byly dost odlišné, i když ze své vnitřní logiky bez větší části vnějšího kontextu mohly dávat smysl. 

Čtenář dále tvrdil, že kdyby současná uměligence měla za úkol vytvořit registrační systém k očkování „výhradně“ pro seniory nad 70 let, tak by jí prý došlo, že mnozí ti lidé neumí zacházet s chytrým telefonem a nemusí ho mít. Jak ale formulovat tak komplexní úkol, aby ho současná uměligence dokázala zvládnout bez jiných problémů? Kdyby komplexní správnost jejích výstupů při výcviku měl kontrolovat člověk, tak by ten registrační systém ještě neexistoval a navíc by ve hře důl zůstával lidský faktor. A jak tak relativně rychle získat dostatek trénovacích dat v podobě mnoha alternativních a správných registračních formulářů vztažených k očkování a seniorům, aniž by zase člověk musel zdlouhavě kontrolovat, že vstupní data jsou víceméně v pořádku? Myslím tedy, že existují mnohem lepší příklady kontextu, ve kterém by čtenářův výrok platil. Třeba uměligence, která z detailní fotky oka dokáže vyčíst známky i těch nemocí, které ani nejtrénovanější doktor z očí nepozná. To ale pochopitelně nevylučuje koexistenci již zmiňovaných situací, kdy mezilidská interakce má z humánního hlediska vyšší efektivitu než současná UI. 

Čtenář dále argumentuje úsměvným videem „Brno postavilo novou ulici - pro stroje a pro dobytek“ s tvrzením, že danou ulici navrhovali lidé, ale tak nelidsky, že uměligence by to prý zvládla lépe. Pominu-li, že primárním záměrem (alespoň podle videa) očividně nebylo navrhnout tu ulici pro lidi, ale spíše nějak veřejnosti zdůvodnit přesunutí peněz z veřejných kapes do soukromých a „moc se s tím nesrat“ (což není moc reprezentativní příklad toho, když lidé navrhují skutečně primárně pro lidi), tak předpokládám, že kdyby to navrhovala uměligence současných možností a lidé nezkorigovali výsledek, stejně by vzniklo dost materiálu na podobně úsměvné video, jen bychom se podivovali více či méně jiným věcem, které těžko předpokládat bez upřesnění toho, jak by UI současných možností mohla vůbec navrhnout ulici z relativně komplexního hlediska, které by mělo zahrnovat provázanost mnoha odlišných faktorů spojených s lidskými potřebami. 

Chápu, že různí lidé mají o představě ulice různé názory, které se těžko redukují na konkrétní relativně funkční kompromis, ale není mi jasné, proč čtenář implicitně vylučuje možnost, že by uměligence udělala nějaké chyby z nepochopení lidské přirozenosti. Přirozenosti, která je mj. určitou měrou kulturně podmíněná, takže kdyby UI analyzovala struktury světových měst, jejichž obyvatelé tvrdí, že jsou s nimi celkem spokojení, načež by vyplivla nějaké konkrétní uspořádání pro místo v ČR (za předpokladu, že by neanalyzovala jaké to je být Čechem, Američanem, Indem, Norem, Japoncem... a jak to souvisí se strukturou měst), tak by Češi mohli mít pocit, že jim vnucuje něco, co možná může fungovat v cizích kulturách, ale ne v té naší. 

To by se relativně dobře ilustrovalo třeba na Angličanech, kteří mají ve zvyku jezdit vlevo a to nejspíš na rozdíl oproti většině zemí světa. Takže kdyby uměligence pro navrhování ulice v Anglii studovala převážně vpravojezdící země a žádný člověk by jí nenašeptával, čemu má v kulturní rovině věnovat pozornost, tak by pro Anglii hypoteticky mohla navrhnout ulici, která by Angličany nutila jezdit vpravo. A na okrajích rámce plánování s napojením na prohozený směr by pravděpodobně navrhla zvláštní způsob, jak to prohodit. Tzn. směr jízdy jako jeden v podstatě malý detail, který by je v důsledku zaručeně dost naštval a možná víc než podoba té nové ulice v Brně naštvala některé místní obyvatele a návštěvníky. 

Jinak bych rád připomněl, že jsem v minulém článku kritizoval statistiky obecně (oproti přirozenému mezilidskému domlouvání), takže když čtenář argumentuje projektováním ulice, tak pravděpodobně argumentuje něčím, co se opírá i o nějaké formy právě „statistiky“ (i když je to pochopitelně smíchané s mezilidskou komunikací jako „hrušky a jablka“).

Čtenář také tvrdil, že záleží na rozhodnutí vývojářů, zda do uměligence zapojí humánní hledisko, nebo ne, aby třeba ušetřili. Podle mě však i kdyby to hledisko chtěli začlenit, tak dnes dosud zůstává velkým problémem, jak to udělat, i když s postupem času se tomu můžeme limitně blížit.

V minulém článku jsem položil provokativní otázku: „Jak dlouho bude pro vládnoucí elity ještě ekonomičtější investovat do školství (či to připouštět), než do vývoje umělých inteligencí dokonalejších než lidé?“ Podle čtenáře do té doby, dokud tu bude lidská civilizace a lidé budou svobodní. No, ale mě by se nechtělo čekat až na zánik lidské civilizace, jen abych takto experimentálně zjistil, že už je totálně pozdě uvažovat o nějakých preventivních změnách. A myslím, že pro technokraty by to z hlediska jejich hodnot v hypotetické dystopické budoucnosti bylo ekonomičtější už nějaký čas před možným „zánikem lidské civilizace“ a i to by se nějak projevovalo (pokud by takový dystopický scénář měl nastat). 

Než budu dál konkrétněji reagovat, zkusím nastínit část kontextu. Je potřeba uvědomit si, že státy (jeden ze základních prvků civilizace v tom smyslu, v jakém ji dosud známe) nestojí úplně mimo ekonomický systém jen proto, že mají částečnou moc regulovat ho. A státy jsou sociální konstrukt, který mimochodem i někteří technooptimisté dost kritizují a nejraději by ho nahradili něčím jiným, co by lépe vyhovovalo potřebám např. korporací, na kterých se ti technokraté podílí. Navíc se říká, že západní demokracie stagnuje, totalitní Čína je stále mocnější a už jsem slyšel o náznacích toho, že by časem mohla skrze nové technologie zkusit obejít vzájemně zajištěné zničení (i když nevím, nakolik tomu věřit). Plus se domnívám, že stále roste vliv médií na náš každodenní život, např. od občasných kouřových signálů po víceméně žití už převážně jen skrze nová média je to dost radikální změna. Před necelými deseti lety mi zapálený ajťák tvrdil, že elektronická komunikace nenahradí osobní setkání a dnes si vychvaluje videokonference apod. A do toho ještě starý ideály o tom, že časem vznikne nějaká umělá inteligence, která bude lidstvo řídit lépe, než by to lidé zvládli sami. 

Takže si podle mě lze dystopicky představit, že stále mocnější technokraté toužící po totálním rozvoji umělé inteligence budou různými způsoby (hlavně přes různá média a jiných vlivů na různé roviny mezilidského prostředí) spolu-transformovat nové a nové generace společnosti do takového stavu, aby lidé mj. v cestě za svými touhami postupně více či méně přirozeně umírali bez rozmnožování (ale bez zhroucení stále zautomatizovanějšího ekonomického systému) a uvolňovali tak prostor pro realizování extrémních přání extrémních technooptimistů. A těmi touhami nemusí být vládnutí lidstvu (tj. záminka pro přežití lidstva na straně technokratů), ale třeba vytvoření takové uměligence, která by se dokázala šířit co nejmasivněji po planetě a do vesmíru bez ohledu na cokoliv jiného živého než elitní technokrati transhumanisticky integrovaní do takové uměligence.

V rámci toho přechodu si také lze představit, že by technokraté nabízeli lidem základní nepodmíněný příjem a život plný zábavy výměnou za to, že by se nechali vykastrovat, aby umožnili vyvanutí. To by pro technokraty sice zprvu byla velká investice, ale jakmile by takto nechali lidstvo radostně vyhynout, tak už by do lidí nemuseli investovat a nikdo by jim dostatečně nebránil, aby skrze stroje a umělé inteligence naplňovali své šílené vize (šílenější než dnes). 

Lze si však představit i mírnější varianty, kde by potřeby vládnoucích elit ve spojení s uměligencemi byly nadřazeny péči o vývoj běžných lidí. 

Čtenář dále tvrdí, že kdyby se „zrušilo školství“, tak by si lidé své hodnoty tvořili sami, bojovali za ně a to by zničilo civilizaci. Když jsem však naznačoval, že ve vzdálenějším budoucnu může být antiutopicky „ekonomičtější“ investovat do vývoje uměligencí než do vývoje běžných lidí, tak jsem tím nemyslel, že by muselo dojít k nějakému radikálnímu zrušení školství (ve smyslu jednoznačného zlomu), ale třeba by nastávala postupná změna školství do takové formy, kterou bychom my už za pořádné školství nepovažovali, protože by se to třeba stále víc podobalo sledování nějakých popularizačních až populárních videí, resp. z Komenského „škola hrou“ by stále víc vypadávala škola a stále víc by to byla hra pro hru, zábava pro zábavu. 

Také je potřeba uvědomit si, že chtít bojovat za své hodnoty ještě neznamená umět bojovat za své hodnoty dostatečným způsobem. Takže čím zdegenerovanější veřejné školství ve světě, kde by technická část ekonomiky vlivem zautomatizování převážně přežila i smrt lidstva, tím spíše by běžní lidé nebyli pořádnou hrozbou pro vládnoucí elity, které by své technologie chtěli v ještě vzdálenější budoucnosti vyvléct z omezení, která by pro ně přetrvávání lidstva (v organickém smyslu) představovalo. 

Navíc kdyby nevzdělaní lidé měli bezpracně zajištěný život plný zábavy výměnou za nějakou malou operaci v narkóze, tak proč by se vůbec chtěli bouřit? Takže v budoucnu bude pro přežití lidstva důležité zachovat kvalitu školství i v době, kdy už by se o přežití a relativně vysokou životní úroveň lidí starali stroje, jinak by hrozilo, že železný zákon oligarchie by mohl vést k sebezničení lidstva ve jménu rozvoje umělé inteligence a lidé by tomu neuměli vzdorovat. Možná, že kdyby i běžní lidé měli pocit, že se potřebují učit, aby časem nedošlo k zániku lidstva, tak by se učili intenzivněji než dnes. 

Čtenář také tvrdil, že hlavním nebezpečím není umělá inteligence, ale především lidé, kteří by jejímu rozhodnutí dali přednost. Myslím však, že (hlavně v případech, kdy ti lidé nebudou vyloženě zloduši) to jsou dvě strany jedné mince, jedno není bez druhého - dokud ti lidé k rozhodování nepustí nevhodnou uměligenci či nevhodným způsobem, tak jsou z tohoto hlediska jen potencionálně nebezpeční stejně jako je potencionálně nebezpečná daná UI, dokud není použita nebezpečným způsobem. Ti lidé pochopitelně ale mohou být relativně nebezpeční i nehledě na (ne)použití uměligence nebezpečným způsobem, aby mi čtenářova slova dávala smysl, ale to by v podstatě říkal, že když se dá UI do rukou zloduchů, tak zloduši jsou nebezpečnější než UI, což by se možná dalo zredukovat na prostý výrok, že mocní zloduši jsou nebezpečnější než UI. Na první pohled se tedy sice zdá, že čtenář umělou inteligenci srovnává s lidmi, ale aby jeho výrok dával smysl, tak se ukazuje, že je srovnává jen s těmi lidmi, kteří už jsou předem nějak špatní pro společnost. A někdo by tedy mohl říct, že ten čtenář sofistikovaně implicitním způsobem (ať vědomě či nevědomě) umístil uměligenci vedle zloduchů (nebo jinak silně záporných lidí), aby UI vedle nich vypadala lépe podobně, jako nějaké průměrné zboží vypadá lépe ve společnosti podprůměrného zboží. Ale kdybych čtenářův argument vymyslel já, tak by mě toto asi jen tak nenapadlo. 

A posledním čtenářovým názorem, ke kterému se vyjádřím, je vliv umělé inteligence na demokracii. Kdyby se prodávala hračka, která by dětem říkala, aby nevolili nějakou politickou stranu, tak by z toho byl asi velký skandál, ale kdyby ta hračka dokázala mít na děti v podstatě stejný vliv, ale způsobem, který bychom nepoznali, tak by to bylo závažné ohrožení demokracie. Tolik čtenářův názor, se kterým mohu i celkem souhlasit. Připomíná mi to způsob, jakým se dnes užívá pojem „psí píšťalka“ v politologii, resp. nějaké slovní spojení, které část lidí běžně ignoruje a pro jinou specifickou to může být součást důvodu, proč někoho volit. Hračka vzhledu roztomilého zvířátka třeba může říkat: „Buď hodný ke zvířátkům.“, téměř nikdo v tom nemusí vidět nic politického, ale pak třeba zvýšený poměr lidí, kteří v dětství měli takovou hračku, bude v dospělosti podporovat tu ze stran zelených zaměřenou na práva zvířat (rozštěpení strany zelených je spíše v jiných západních zemích, kde by tento argument asi vyzníval pochopitelněji než v ČR, kde v poslanecké sněmovně momentálně nemáme žádnou stranu zelených). Je ale otázkou, zda bychom vůbec mohli něco relevantního říkat, aniž by to z pohledu nějaké hypotetické umělé superinteligence nenaznačovalo něco o naší politické orientaci. Navíc čím víc toho řekneme, tím víc by mohla hledat souvislostí, takže čím víc bychom toho chtěli říct, tím víc by to muselo být „bezobsažné“, aby to ve vzájemné spojitosti pro tu uměligenci nevypovídalo nejlépe nic o politické orientaci. A už aféra „Facebook–Cambridge Analytica data scandal“ ukázala, že pokročilá statistika v souhře s pokusy o plutokracii může být ohrožením demokracie, přičemž obrana opět spočívá hlavně v dostatečné vzdělanosti běžných lidí, aby nepodléhali sofistikovanější masové manipulaci skrze média (jak ve smyslu získávání osobních dat voličů, tak ve smyslu aplikování z těch dat odvozených fake news apod.).