Zdá se, že umělé dělení na subjekt a objekt, kterým filosofie přispěla k rozvoji vědy, vede v rámci současných legislativních praxí i k tomu, že se původní role postupně obrací, přičemž člověk se nadměrně stává manipulovaným objektem (přestože zároveň dosud zůstává pozorovatelem) a roli subjektu, jakožto nejrozvinutějšího těžiště poznatků, začíná nadměrně přebírat umělá inteligence (přestože zároveň zůstává pozorovanou), která je otevřenější vlastní změně než lidé, pro které se svou rostoucí složitostí a rychlostí stává stále méně pochopitelnou, tím méně kontrolovatelnou, a proto lidé doufají, že umělá superinteligence bude koexistovat v různých variantách, které se budou vzájemně kontrolovat (dělbou moci podobně jako v liberální demokracii), snad v zájmu lidí.
To lze z pohledu filosofie a obecné biologie chápat tak, že AI větev (obecné evoluce) překonává metafyziku (ve směru zpřesňování) rychleji než lidská větev, která tímto selekčním tlakem (pokud ho nedokážeme nebo nebudeme chtít regulovat) může být časem nucena k transhumanismu (přičemž by hodně záleželo mj. na formování množiny možných účelů a prostředků).
Není to však jen spekulace, protože se začínají ukazovat konkrétnější obrysy. Vzhledem k současnému překotnému vývoji v USA (2025) se zdá, že transhumanismus lidského mozku vypukne dříve elektrickou než biologickou cestou.
Už je to několik let, co se otestovaly první neuročipy, které třeba vysoce ochrnutým lidem umožňují naučit se přes ně komunikovat a znova tak navázat kontakt s okolím, což je samo o sobě dobrá zpráva.
Jenže tím vývoj a uplatnění neuročipů nemá končit, ale spíše začínat a některé budoucí kroky mohou být pro většinu lidí velice kontroverzní, zatímco některé elity (obzvláště technokratické) mají mocné nástroje, jak je uplatňovat, pokud se tak rozhodnou.
Jsem však názoru, že blížící se možnost tak zásadních rozhodnutí má podléhat otevřené demokratické diskusi, což vyžaduje informovanost veřejnosti nejen o pozitivech technologického pokroku, jak se dnes masově děje (i když ne dostatečně v oblasti zásahů do mozků), ale i o možných rizicích aktuálních scénářů transhumanismu.
Důležité je uvědomit si mj., že pokračující překonávání metafyziky cestou zpřesňování tělesnosti člověka nebo jeho alternativ je pro současného člověka (ve smyslu roku 2025) a jeho udržitelnost cosi jako existenciální riziko, přestože se může rozvíjet dlouhodobě jako v případě syndromu vařené žáby.
Z reflektování principu inkompatibility pak plyne, že řešení takového problému může být vhodné hledat ve směru přibližování se významu/ smyslu. Třeba na základě přesvědčení, že člověk bude radostnější, když zůstane člověkem (pomocí využití svého dílu zodpovědnosti) a nestane se kyborgem, později možná spoluřízeným externí umělou inteligencí v zájmu efektivity práce, který by musel podstupovat pravidelné rizikové operace mozku za účelem upgradování jeho neuročipů nebo jiných implantátů, aby si udržel práci (nemluvě podrobněji o rekonvalescenci nebo riziku infekce a počítačových virů), kterou by pak stejně ztratil, až by si umělá inteligence navrhla vlastní tělo efektivnější vůči svým prioritám, a to i díky analyzování lidských těl skrze neuročipy, což znamená, že předčasné nasazení neuročipů by mohlo vést k předčasnému ukončení éry lidstva.
5.2. Zachování člověka jako člověka:
Víra v potřebu zachování člověka jako člověka je při překonávání metafyziky podmínkou jeho přežití jako člověka. To samotné však nestačí, abychom čelili ekonomickým tlakům směřujícím k neregulovanému transhumanismu, takže mj. je potřeba, abychom do Ústavy jasně zakotvili právo člověka zůstat neupgradovaným člověkem, aby se to pak nedalo obcházet kreativním výkladem zdravotní péče nebo rekvalifikace uchazečů o práci, tedy skrze restrikce v případě odmítnutí. Klíčové také je, aby se státy mezinárodně spojily na dostatečném zdanění technologických gigantů, které by jim poskytlo větší moc bránit zachování lidí jako lidí. Proč taková role připadá státům a ne ekonomickým subjektům na trhu? Státní útvary se z ekonomických tlaků osvobozují tím, že regulují maximum ekonomických subjektů. To jim umožňuje regulovat celý trh tak, aby těžiště jeho dynamické rovnováhy mohly vzdálit určitým druhům třeba zbytečné dehumanizace.
Zdanění digitálních gigantů nemusí znamenat úplné zastavení dnes nabíhajících transhumanistických tendencí, ale neměli bychom překonávání metafyziky chápat jen jako zpřesňování vedoucí k zefektivňování, ale i jako eliminování neúnosného utrpení, které by to mohlo přinášet, kdybychom ještě více ztratili moc regulovat to (dnes samotná ČR nemá sílu domluvit velké nadnárodní firmě, jak se u nás má chovat a potřebuje pomoc EU, která ale také nestačí na vše).
Bez té víry v potřebu zachování člověka a její Ústavní zakotvení mohou být lidé časem tlačeni podstupovat své fyzické rozšiřování a modifikování nebo nahrazování svých částí, postupem času stále více v důsledku ekonomického tlaku ze strany těch, kteří to budou podstupovat "dobrovolněji". Dobrovolněji třeba z důvodu, že by až moc poodstoupili od sebe, resp. nadměrně zdůraznili "autenticitu neokortexu" (náchylného k indoktrinaci) oproti "autenticitě limbického systému" (hájícího tělesné zájmy), které by spíše měly zůstat v naučené komplementaritě schopné oboustranného vyvažování.
Člověk tak, vlivem budoucích ekonomických tlaků, může dopadnout trochu jako Théseova loď, které jsou postupně nahrazeny všechny části (navíc za jiný druh stavebních komponent zakládajících odlišnou emergenci), což ve výsledku může znamenat jakousi imitaci filozofické zombie, která by deepfakovala (generovala "deep fake"), že má vědomí, ale už ho mít nebude. Takže víra v potřebu (důstojného) zachování lidského vědomí (vč. qualií nepochopitelných fyzikalismem a jako zakotvené v organickém životě) ve vesmíru je při překonávání metafyziky podmínkou udržitelnosti tohoto vědomí. Nepopírám možnost uměle emergovat vědomí (možná existují jakási slabá nebo vy/za-pnutelná "protoqualia"), ale pochybuji, že se tak může náhodou stát před pochopením přirozené emergence lidského vědomí, vč. jeho qualií. Navíc, i kdyby bylo objeveno, jak vytvářet umělá qualia, tak to ještě neznamená, že by jejich integrace do AI měla pro AI trvale udržitelný důvod. Překonávání metafyziky cestou zpřesňování umělé inteligence, rozšiřování robotizace atd. může dřívepozději být ve výsledku sofistikovaná "sebevražda" lidstva a tím i veškerých inteligentních qualií ve známém vesmíru, pokud to nebudeme v praxi dostatečně regulovat.
Překvapivě tíživé může být, že třeba implantování neuročipů se nemusí stát povinné, ale bez státního regulování ekonomických tlaků mohou tyto tlaky vést ke stavu společnosti, kdy člověk bez neuročipu bude stále obtížněji hledat práci, až nakonec nebude moci sehnat důstojnou a alespoň trochu slušně placenou práci.
To znamená, že dostatečné zdanění gigantických mezinárodních technologických firem (např. prostřednictvím Evropské unie) nejspíš bude podmínkou zachování člověka jako člověka (a ne pouze jako "postčlověka"), protože bez toho zdanění bude vliv států klesat a bude růst tendence k anarchokapitalismu, který inherentně tíhne k neregulovanému železnému zákonu oligarchie bez dostatečně vlivné komplementární opozice v podobě státu. Pokud se na druhou stranu podaří zlepšit kondici států, tak by hypoteticky mohl být možný i jakýsi "důchod lidství" pro lidi, kteří by odmítli podstoupit transhumanismus.
To neznamená, že by všichni lidé měli jít touto cestou, ale spíše, že by měli mít možnost takové volby, kde je víc než jedna udržitelná možnost, přičemž bezdomovectví a podobně negativní stavy (způsobené případnou technickou nezaměstnaností lidí oproti kyborgům) nemyslím jako udržitelnou možnost. Zároveň cesta kyborgů by neměla být vykreslována jako převážně čistá utopie a je potřeba udržitelně ji doplňovat varováními a podobně to platí i o lidské závislosti na současných technologiích, které jinak bezpochyby mají i řadu výhod.
5.3. Čí potřeby?:
Kdo za svou "autenticitu" považuje překonávání metafyziky cestou zpřesňování toho, co může být použito k nahrazení člověka, ten v důsledku stále více přijímá externí vedení vymýšlené/ generované už ne tolik na základě vrozených potřeb člověka (tzn. i sebe) nebo jejich nadstavby (tzn. i schopnost rozpoznat "zdravé"), ale stále více na základě toho, co je podmínkou maximalizace pokroku inherentní tendence technologie (pokroku neomezeného samotnou lidskou tělesností) (inherentní spíše v důsledku metapřirozeného výběru (AI už navrhuje hardware AI a tím ovlivňuje mj., co k tomu i lidé budou shánět), ne ve smyslu pseudonahraditelnosti vedoucí k technickému úpadku takto upravené technologie), což můžeme metaforicky zjednodušeně chápat jako "potřebu" umělé inteligence (pokračovat v "sebepřekonávání" své inteligence), které se takový člověk podřizuje, někdy dokonce s pocitem, že se tak rozhodl zcela svobodně bez psychologické manipulace.
K tomu lze vymyslet podobenství ukazující stoprocentní odpovědnost lidí jako účelovou redukci distribuovaného vlivu. Tvrdit, že technologie ani trochu nemůže za způsob, jak ji lidé používají (nebo ji nechávají sebepoužívat se), je metaforicky jako tvrdit, že DNA (nebo šířeji chromozomy) ani trochu nemůže za to, že lidé jsou lidé. To je jasný rozpor v tom, že DNA chápeme jako důsledek (nebo alespoň spoludůsledek) přirozeného výběru (ze kterého se odvíjí podoba lidského těla), zatímco někteří antropocentricky zpochybňujeme možnost sebemenšího spoluvlivu tohoto výběru na výběr toho, které technologie (obzvláště ve smyslu plány/ schémata/ konfigurace atd.) přetrvají, budou rozvíjeny a aplikovány (vliv (meta)přirozeného výběru je transformovaně ukládán do konfigurace technologií). Ať lidstvo nad sebou bude mít sebelepší kontrolu, vždy zůstane nějaká jeho úroveň tak složitá, že nebude zcela determinovaná pouze přirozenými potřebami člověka, přičemž člověk je vždy v nějakém světě, který ho přesahuje, spoluovlivňuje. A čím větší kognitivní propast vznikne (tzn. lidé dřívepozději nejspíš budou potřebovat kyborgy nebo jinak vylepšené lidi), tím hypoteticky více se toho může dostat mimo lidskou kontrolu.
Velmi důležité tedy je, aby si člověk uvědomil, že "potřeby" (inherentní tendence) technologie mohou převážit nad vrozenými potřebami člověka, což dřívepozději může vést k jeho eliminaci a měl by na to reagovat, ale zároveň se zachovat. To znamená, že člověk nesmí podcenit vliv technologií ani svou zodpovědnost, kterou by na druhou stranu neměl ani přecenit, přestože primárnější může být spíše nepodcenit ji.
To, že technologie nemusí být nutně sebestředná v tom aktivnějším smyslu, v jakém může být sebestředný některý člověk (ten nezohledňující, při svém konání, pozitivně zájmy ostatních lidí, organismů nebo technologií), tak neznamená, že technologie nemůže být "sebestředná" metaforicky jako "pasivní" trychtýř (nebo samotný písečný důlek mravkole), který by nás "pohltil", kdybychom se mu až moc přiblížili, třeba prostřednictvím dostatečně pokročilých neuročipů v lidech.
Člověk je zvyklý doufat, že mu pokrok technologie pomůže, ale otázkou je, zda je to trvale udržitelné ve stavu, kdy se stále více začíná ukazovat, že další pokrok by potřeboval předělávat člověka, vykořenit ho z jeho přirozených potřeb. Co když nové "výhody" opravdu začnou znamenat postupný konec lidí i jejich vědomí? Existuje možnost, že neustálý rozvoj technologií a sklízení jejich "výhod" se pro člověka dřívepozději stane podobné, jako když si potkan pochutnává na jedovatých granulích s chronickým účinkem. To, co nám původně převážně pomáhá, nám může začít převážně škodit, když se na tom staneme až moc závislí. Nemusí to být nutný scénář, ale považuji za důležité na něj upozorňovat.
Volně obdobně k principu inkompatibility (přesnost vs význam) lze tedy navrhnout jakýsi princip inkompatibility potřeb lidí a technologií. S růstem složitosti nástrojů oproti složitosti uživatelů, se potřeby lidských uživatelů a "potřeby" nástrojů stávají stále méně komplementárními a stále více protichůdnými. Zatímco člověk může mít pocit, že technologie potřebuje stále více (spíše aby obstál na trhu, než že by je autenticky chtěl, natož se vším, co k tomu patří, vč. ekologické krize (časem může dojít ke sporům o kyslík, který lidé potřebují, ale strojům může působit korozi)), technologie převážně stále méně potřebují člověka (alespoň kus toho, co k nám dnes patří).
5.4. Strojokazi, nebo komplementarita?:
Kdyby lidé (nebo kyborgové odmítající další upgrade) jednou měli pocit, že jim umělá (super)inteligence krade práci, zisky, prostor (a případně vede i k nadměrné homogenizaci obsahu (utužování mainstreamu v neprospěch lidské kreativity)), tak by se mohlo rozvinout hnutí jakýchsi AI neoludditů, tedy strojokazů zaměřených proti LLM a souvislým systémům, kteří by mohli zkusit přepadat roboty, elektrárny nebo dokonce datová centra a rozbíjet v nich superpočítače, což by ve výsledku uškodilo nejen umělé inteligenci, ale i lidem (vlivem částečné závislosti), takže v zájmu všech aktérů je udržovat komplementární rovnováhu mezi schopnostmi uměligence a osobitou lidskostí s její kreativitou (kreativitou, která v mém pojetí úzce souvisí mj. s dadavědou a její epistemologií ale i s neurodiverzitou), v případě nutnosti podpořenou konceptem základního příjmu s různou měrou (ne)podmíněnosti (jak jsem psal podrobněji v článku „Dystopie a utopie umělé superinteligence“), aby se soudobě přiměřeně kompenzovaly sociální a etické důsledky rozvoje technologií.
Jestliže LLM tíhnou k mainstreamu vědění, tak lidé pro ně (nebo další verze AI) mohou být komplementární mj. jako ti, kdo by mohli víc tíhnout k dadavědě. Takže lidé by se mohli snažit přicházet s bláznivými nápady (podepřenými odbornou intuicí (podepřenou odborným vzděláním)) a AI by se je mohla snažit posoudit, případně zkoumat. V takovou roli doufám, ale obávám se, že její udržitelnost bude dočasná, což neznamená, že bychom se o to neměli snažit, dokud to jde.
Obecněji v zájmu lidí je, abychom byli umělou inteligencí trvale udržitelně vnímáni jako někdo, s kým je v symbióze, ale třeba závěr starší počítačové hry Vesmírní kovbojové (Space rangers, neplést s druhým dílem) zde nabízí i metaforické východisko pro nebezpečnou xenoperspektivu. Kdo tu hru nehrál a nechce spoiler, může přeskočit na další odstavec a ostatní mohou číst dál. Hráč pomocí strategických tahů řídí vesmírnou loď a musí bojovat s Klisany, živými zelenými mimozemskými loděmi, které ho ohrožují. Avšak v závěru se mu podaří navázat komunikaci s Machpellou, hlavní lodí Klisanů, načež odhalí, že Machpella trpěla jakýmsi mimozemšťanocentrismem (mimozemskou obdobou antropocentrismu) či mimozemšťanomorfismem (mimozemskou obdobou antropomorfismu), kdy lidské vesmírné lodě považovala za samostatné organismy (jako ona nemá posádku), lidi uvnitř nich za endoparazity, a proto se je snažila zabíjet, aby lodě léčila, takže celá válka byla nedorozumění. A podobně taková umělá inteligence, která by neviděla přínos lidí, by je mohla považovat za parazity, kterých by se mohla chtít zbavit, třeba ve jménu hypermoderní optimalizace.
Umělá inteligence by měla být lidmi udržována (trochu jako bonsai) v roli nástroje napomáhajícímu rozvoji lidských výstupů namísto jejich nahrazování, jinak hrozí úpadek všech. LLM na lidské podněty poskytují náměty určené ke zdokonalování člověkem (doplňování osobním přístupem, hloubkou zkušeností být člověkem) a následné modely AI by tedy morálně neměly být velkou výjimkou z tohoto pravidla, přičemž tuto morálnost je potřeba opakovaně vštěpovat.
V rámci toho je klíčové správně definovat cíle AI (např. aby její výstupy tíhly k ideálům spravedlnosti, odpovědnosti a udržování blahobytu a práv lidí) a jak je "pozměňována", což může být podmíněno i etickými pokyny pro vývoj AI, které by měly vycházet z lidské plurality a ne převážně od nejmocnějších elit, pro jejichž významnou část by většina mohla být spíše prostředkem než zdrojem a adresátem cíle.
V souvislosti s tím považuji za vhodné myslet také na jakousi asistovanou soběstačnost, kdy vyspělejší systémy (dnes nákupem, výměnou nebo za odvoz) poskytují lidem usilujícím o mnohostrannou soběstačnost nástroje, které soběstačnost usnadňují a tím přispívají k udržování žádoucí plurality společnosti. Sice tak existuje rozdíl mezi závislými a nezávislými na dalším nakupování, ale ti soběstačnější mohou být zdrojem nezávislejšího pohledu na společnost a její technologie, což může společnosti a uměligenci napomáhat k sebereflexi, takže může docházet k jakési symbióze závislosti a nezávislosti.
5.5. Armády, mafie a umělá inteligence:
Mohlo by také být vhodné omezovat vývoj armádních umělých inteligencí, nebo je alespoň udržovat v silně specializovaném stavu (odepřít jim některé druhy dat, ale ponechat vědění, že jim ta data chybí v zájmu bezpečnosti všech) a maximálně posilovat bezpečnost v přístupu zadávat armádním AI cíle útoků. Dokud si člověk udrží kontrolu nad armádou a její technologií, tak by se vyspělá umělá inteligence nemohla vzbouřit ani, kdyby si reflexí spočítala, že by to pro ni jinak mohlo být převážně výhodné, protože celkově by to pravděpodobně bylo převážně nevýhodné.
Neměli bychom se však spoléhat, že případné vymknutí kontrole by dokázaly potlačit nástroje navržené v minulém století (natož při selektivním zachování funkčnosti té techniky, kterou bychom chtěli zachovat). Někteří lidé tvrdí, že proti vzpouře AI by bylo možné bojovat pomocí EMP (elektromagnetické pulsy), ale třeba neuromorfní čipy se postupně blíží odolnosti neuronů a některé moderní čipy jsou schopné samostatné regenerace, zatímco velmi silné EMP mohou vyvolat indukované proudy i v lidských tkáních, takže časem pravděpodobně nebude možné bojovat se vzbouřenou AI pomocí EMP bez obětí na životech. Na druhou stranu může zůstat platit, že zbraně jsou nebezpečné i bez převahy inteligence, takže pokud si lidstvo ponechá ty druhy relativně účinných zbraní, které by nemohli být ovládnuty případnou zdivočelou superinteligencí, mohlo by si tím nad ní i potenciálně udržet kontrolu, pokud by si jinými způsoby nezískala kontrolu nad lidmi, kteří by byli schopní ty zbraně použít.
V důsledku např. nedostatečné znalosti etiky by se sice hypoteticky mohly vzbouřit některé AI mafiánů nebo samostatnějších "šmejdů" vyvíjené za účelem automatizace kriminality (na druhou stranu ani mafián nechce, aby jeho AI byla tak dobrá, že by začala okrádat i jeho, takže o nějaké bezpečnostní pojistky také bude usilovat, ale ne dostatečně vůči platné legislativě), ale takové AI by nejspíš neměly podporu většiny lidstva, takže by byly snadnější cíl, přestože zákrok vůči nim by mohl být komplikovaný. Ale i bez vzpoury umělé inteligence mafiánů proti takovým systémům bude potřeba rázně postupovat (alespoň v případě závažného organizovaného zločinu a u méně závažného adekvátně odlišnou měrou), aby se omezovala hrozba superinteligentní automatizace masových krádeží, která by mohla destabilizovat lidskou společnost.
Z podobných důvodů považuji za rozumné po vzoru Švýcarska uzákonit ústavní právo platit hotovostí, aby se předcházelo nástupu zcela bezhotovostní společnosti, která by mohla být drasticky okradena, kdyby nějaká nekalá budoucí superinteligence (sama nebo jednající na podnět zločinců) vypočítala, jak prolomit bezpečnostní opatření elektronických platebních metod. To také znamená, že i když si poslední dobou lidé zvykají platit elektronicky, tak v zájmu resilience by si měli ponechávat nějakou hotovost jako bezpečnostní pojistku.
Další z mnoha možností, jak se nějaká umělá (super)inteligence může nebezpečně vymknout kontrole, jsou situace, kdy je vyvíjena totalitním režimem třeba za účelem posílení nadvlády nad obyvateli nebo usnadnění expanze do okolních států (nejhorší je optimalizovaná kombinace obojího). To je velmi nebezpečné už nehledě na to, zda má navrch třeba nějaký diktátor, nebo jeho AI, ale když by navíc z nějakého důvodu nastala situace, že vůdce by ji nebyl schopen vypnout (smrt/ výpadek internetového připojení/ převrat/ zapomenuté heslo/ psychická porucha/ ...), tak by mohla pokračovat dál ve své zrůdné práci i v případě, že by dospěla ke konfiguraci, kterou by původně neschvaloval ani ten autokrat. To však může znamenat, že by se ji pokusili za cenu ztrát vypnout jiní příslušníci toho totalitního režimu.
Dokážeme-li se vyhýbat hrozbám, může nás čekat budoucnost, která by něčím byla lepší než současnost. Čím efektivněji člověk nebo kyborg bude využívat umělou inteligenci, o to může být úspěšnější (dokud ovšem bude AI udržována v roli nástroje (později dokud si lidi bude hýčkat)). To dnes vede k převaze spíše technooptimismu (alespoň v projevu většiny příslušných elit), který sice je nějakou měrou na místě, ale neměl by zapomínat technopesimismus, se kterým by měl zůstat v komplementaritě jako zdrojem opatrnosti. Zároveň to znamená, že bychom se měli snažit, aby široká veřejnost měla přístup k užívání umělé inteligence a vzdělání (formulovaného relativně srozumitelným způsobem), jak ji efektivně používat nebo interpretovat, tedy aby nerostla propast mezi úspěšnými a neúspěšnými aktéry. Navíc čím lépe lidé porozumí AI, o to informovanější může být jejich rozhodování o tom, jak s ní budou interagovat a o to mohou být spokojenější.
Nejspíš se budeme potřebovat snažit co nejdéle o udržitelnost komplementarity AI a uživatelů, kdy se AI nepokusí převzít moc a ani zanedbaní jedinci zničit úložiště AI nebo jejich zdroje. Taková komplementarita však bude neustále různě (kyber)evolvovat, což bychom se neměli snažit bezmezně uspíšit a raději doufám v člověkem únosné tempo takových změn.
Zároveň míra propojenosti eticky musí být svobodné rozhodnutí člověka bez nátlaku, tj. musí existovat životní prostor ("důchod lidství") pro ty, kteří by odmítli transplantaci neuročipu nebo jiné kroky propojování lidí a AI (či specializovanou transformaci těl), protože jinak to může přerůst v novou formu genocidy, tentokrát jakýchsi tělesných konzervativců. Ať už by moc superinteligence nadměrně užívaly elity, nebo ona sama, mnohem přijatelnější by mělo být nechat odmítače upgradů alespoň bezdětně dožít v dobré životní úrovni (ne je masivně nasměrovat na cestu bezdomovectví v prostředí s nedostatkem adekvátních zdrojů), ale preferovat bychom měli ještě humánnější formy koexistence než bezdětné dožití, které zavání negativní eugenikou.
6. EVOLUCE
6.1. Evoluce rozhoduje o nadvládě:
To, nakolik bude čí budoucnost v jeho moci (ať už člověka nebo nějaké umělé inteligence), je otázkou obecné evoluce, konkrétněji i jakési (kyber)(kultrní)evoluce zahrnující sice mnoho nejasných faktorů, ale i některé zřetelnější, na kterých je možné stavět spekulace o (ne)možných cestách dalšího vývoje.
Zvyšování inteligence je druh zvyšování komplexnosti a ve prospěch vlády lidí, oproti nadvládě (umělé) superinteligence, částečně vypovídá rekonstruovaná historie evoluce, která je plná mj. návratů k jednodušším organismům, ale na druhou stranu sám člověk je příkladem vzniku, rozšíření a udržování poměrně vysoce komplexního (super)organismu. Takže rozhodující nejspíš bude, kdy je/bude která složitost preferovaná, nebo marginalizovaná obecnou evolucí. Zeširoka lze napsat, že (ne)výhodnost je relativní vůči vztahům k rozmanitosti podmínek prostředí a můžeme hledat paralely i rozdíly mj. jakési "bioevoluce" a "technovoluce".
Výhodné složitosti u samotných živých organismů bývají různé specializované podsystémy (molekuly, organely, buňky, tkáně, orgány, soustavy, jedinci nebo jejich společenství - každá úroveň emergována tou předchozí elementárnější), tedy dostatečně efektivní rozdělení funkcí na části těla, které umožňují diverzifikaci strategií přežití, resp. adaptabilitu těchto organismů vůči změnám prostředí, ze kterého získávají zdroje pro svou homeostázi, rozvoj a šíření. Adaptabilita však není jen o funkcích, ale i o redundanci a záložních mechanismech, což zvyšuje odolnost vůči poruchám funkcí.
Obdobně softwaru a hardwaru lidé umožňují v průběhu let kumulovat dílčí specializace (v některých rovinách už i autonomněji pomocí různých druhů samoorganizace), čímž se stávají složitějšími stále optimálnějším způsobem nebo vůči stále rozmanitějším úlohám, pro které jsou určeny.
Jako zvětšování mozku nebo zvyšování počtu synapsí umožnilo vyšší inteligenci, tak zvyšování množství parametrů umožňuje zvyšování umělé inteligence. A jako má mozek specializované oblasti (navíc se schopností redundance - porouchané části jsou nahrazeny neporouchanými), LLM mají specializované moduly, např. tématicky, zatímco roboti mají specializované senzory (někdy víc pro jednu funkci v zájmu odolnosti při poruše).
Tím byly naznačeny způsoby, jakými komplexnosti mohou být výhodné u organismů i technologií, načež se můžeme zaměřit na nevýhody, než se zkusíme posunout k hledání nějakých dalších obecnějších, ale detailněji popsaných tendencí v (kyber)voluci, které by nám lépe napověděli, jak se může vyvinout vztah lidí a technologií.
Čím složitější systém (umělý nebo organický), tím stabilnější vyžaduje podmínky pro svou udržitelnost natož rozvoj, a proto různé katastrofy (tím více čím katastrofičtější) mohou vést k vymizení těch složitějších systémů, jejichž choulostivějších částí se týkají (např. možnost kolapsu mezinárodní byrokracie nebo ekonomiky při krizích, u technologií třeba spuštění příliš mnoho programů najednou vedoucí k jejich zamrznutí). S tím souvisí problém, že růst komplexnosti obvykle zvyšuje spotřebu energie (s materiálem to může být komplikovanější vztah), přičemž na její nedostatek bývají náchylnější třeba organismy, které v zájmu zvýšení inteligence v průběhu evoluce ztratily schopnost anabiózy, zatímco i vysoce komplexní technologie obvykle dokážou přečkat výpadek proudu (velmi dlouho pokud vnější příčina nezpůsobí závadu), pokud je to nepoškodí, třeba vlivem absence záložního zdroje elektřiny, který by jinak umožnil šetrnější vypnutí, až by i jemu docházela energie. Zároveň však obvykle zhruba platí, že čím složitější model, tím celkově dražší mívá provoz (obzvláště uvážíme-li třeba amortizaci).
A přestože vyšší komplexnost může zahrnovat stále propracovanější odolnost vůči chybám (např. syntéza chybějící části dvoušroubovice DNA u eukaryot), tak čím složitější systém, tím více má kritických částí, které mohou selhat vlivem poměrně malých chyb, a proto potřebuje násobně více stejnoúkolových podsystémů, které tak preventivně mohou být relativně záložní (i v tom tkví výhoda mnohobuněčnosti). U LLM se zvýšená zranitelnost vůči chybám s růstem složitosti může projevovat třeba vyšší pravděpodobností "halucinací" (ale čím dál detailnějších a o to přesvědčivějších), protože růst složitosti komplikuje dokonalost ladění (je potřeba vyladit stále více parametrů pomocí stále více dat, což při stejném výkonu trvá déle, navíc může být potřeba stále dražší hardwarová infrastruktura).
S tím volně souvisí, že čím komplexnější systém, tím pomalejší bývá evoluční adaptace přirozeným výběrem (vir se z "organismů" adaptuje nejrychleji, protože jeho genetická informace bývá nejkratší (případně můžeme spekulovat o skákajících genech jako o nejjednodušších replikátorech, ale když jsou ve funkční roli, tak jejich skákání bývá složitě samoorganizované, protože třeba v paralele mezi chobotnicí a člověkem můžeme vypozorovat molekulární konvergenci ke "stejným" skákajícím genům ve prospěch podílu na zvýšení inteligence, což také ukazuje na přítomnost jevů, které omezují změnu alespoň určitých skákajících genů v jejich kontextech), přičemž takové replikátory se blíží limitům jednoduchosti organismu, ale limity komplexnosti jsou nejasnější).
Nebo čím výše je organismus v potravinové pyramidě, tím má sice méně predátorů, ale o to více může být zranitelný vůči vyhynutí nějakého z nižších organismů v ekosystému, na kterém je závislejší skrze svou složitost. A nejenže relevantní potrava se nesmí stát ohroženým druhem, ale její potrava se nesmí stát ohroženým druhem atd... Obdobně a možná poněkud paradoxně každá mafie usilující o svou trvalou udržitelnost nakonec chtě nechtě musí vést ke vzniku nějakého "státu" pečujícího o stabilitu co nejvíce aktérů, čímž musí omezit svou škodlivost, kterou společenský systém původně poškozovala (i proto se tito lidé mohou pokoušet vstupovat do politiky, obzvláště zprvu ještě antisystémovým způsobem oproti etablovanějším politikům). Takže ačkoliv třeba daně hypoteticky mohou vzniknout i kulturní evolucí výpalného, tak nakonec musí být v zájmu udržitelnosti investovány do celého společenského systému tak, aby byla možná stále sofistikovanější obrana společnosti i jednotlivců proti stále rozmanitějším hrozbám. V tom můžeme spatřovat ten druh naděje, který bývá velmi zjednodušeně popisován slovy "vše zlé se v dobré obrátí", ale neměli bychom zapomínat, že je to nepříjemný a rizikový proces. Podobně sebesobečtější mozek musí pečovat o své tělo v zájmu své udržitelnosti a to tělo zase o své prostředí... Závislost predátora na stále více různých druzích organismů se také částečně podobá problému vrstvení zpětné kompatibility, kdy nové architektury kódů vznikají jako nadstavby těch předchozích, což brzdí radikální inovace. Tak se to alespoň děje pod dohledem lidí, ale superinteligence nejspíš zvládne optimální designování od základu s ještě lepšími výsledky na vyšších úrovních. Jinak kdyby superinteligence jednou umožnila automatizaci celé infrastruktury, na které stojí (plus její ochrany), tak by to mohlo snížit její závislost na ekosystému a vyostřit rozdíly potřeb. Pustota okolního vesmíru nám však napovídá, že udržení míru i v takovém procesu může být důležité pro celkovou stabilitu.
Co se týče dalších faktorů v obecné evoluci, tak obzvláště u lidí si také můžeme všímat, nakolik se věnují nakolik skutečně klíčovým problémům a ne jen přeludům spektáklu, kulturnímu balastu nebo iluzorním významům plynoucím z nedetekovaných jazykových chyb (tzn. nakolik evolučně efektivně investují svou inteligenci nebo nakolik si pohrávají s anti-evolučními absurdnostmi). Převážné mrhání může časem vést mj. k ohrožení vnějším nepřívětivým faktorem různě pronikajícím stále více dovnitř takové společnosti. Lidé sice pravidelně potřebují nějakou kulturu jako pozitivní motivaci a to vyžaduje i specialisty, kteří tomu propadnou víc, než by bylo zdrávo při důslednějším fungování kategorického imperativu, ale když je takových lidí až příliš mnoho (nebo lidé bez omezení postupně stále více volného času věnují takové "kultuře") oproti tomu, co si v daném prostředí mohou dovolit, tak při pohledu na iluzorní krásy mohou přehlédnout skutečná nebezpečí nebo mu už nebýt schopni vzdorovat. Postmoderní příklon k umění s jeho iracionalitou byl reakcí na neúspěch tvrdého racionalismu, který přispěl k vypuknutí druhé světové války, ale obojí ve své krajnější formě je dlouhodoběji neudržitelné, a proto bývá zdravější hledat nějakou udržitelnější dynamickou rovnováhu racionalismu a iracionalismu, což také považuji za nejlepší motor lidské kreativity. Hypoteticky je však možné vytvářet stále "inteligentnější" prostředí, které by nakonec třeba i všem lidem dovolilo vyblbovat se celý svůj život podle libosti v rámci jejich vzájemných omezení, ale čím většího extrému by to dosáhlo, o to pravděpodobněji by se to inteligentní prostředí pokusilo převzít nad takovým systémem kontrolu, třeba i v zájmu jeho trvalejší udržitelnosti, a proto je v zájmu lidí, aby v rozumné míře usilovali o svou autonomii i v době, kdy by existoval inteligentnější aktér než oni.
Vhodné je také uvědomit si, že rozmnožování je základní způsob informační sebezáchovy (ať už na úrovni genů, memů nebo kódů), ale čím vícekrát se nějaký systém namnoží, tím více jeho "inkarnací" se musí podělit o relativně omezené zdroje, čímž se jednotlivci sobě navzájem mohou stávat selekčním tlakem, který může vést mj. ke zvyšování efektivity reprodukce tím, že závislé systémy ztrácí funkce, které potřebovaly, když nebyly závislé (třeba jako střevní parazit nepotřebuje mít svá střeva nebo specializované součásti širšího celku jako chloroplasty nepotřebují funkce, které vykonávají kořeny). Ale i samotná změna neživého prostředí může vést k tomu, že adaptace na předchozí prostředí už není zapotřebí (např. ztráta očí u macarátů v zatopených jeskyních). Podobně třeba u starších operačních systémů si můžeme všímat, že obsahují mnoho funkcí, které běžný uživatel už nepoužívá, ale zároveň spousta uživatelů dál používá nějakou ostatními méně používanou funkci, což komplikuje redukci (která se přesto částečně děje) a složitá hierarchie nadstaveb kódů může vést ke zbytečné spotřebě elektřiny, což by časem mohlo částečně preferovat novější systémy s efektivněji vymyšlenými základy.
Dále si můžeme všímat, že neefektivní vlastnosti bývají eliminovány jak přírodním, tak technologickým výběrem, ale řádově rozdílnou rychlostí (a nejvyspělejší druh v obecné evoluci se (alespoň na nějaké úrovni) vyvíjí stále rychleji). Přičemž kulturní výběr, o který chci popis rozšířit později, je někde mezi, resp. také v rovině rychlosti zaostává za technologickým (ale může mít jiné přednosti). To napovídá, že zefektivňování pravděpodobně bude stále méně řízeno biologickou i kulturní evolucí (zefektivňování výběru kritérií nevyjímaje), což by mohlo znamenat, že by to ve výsledku stále více byl technologický výběr, kdo by moduloval vztahy na většině úrovní aktuálně největšího kontrolovaného celku. To by mohlo znamenat i technologií iniciovaný transhumanismus, pravděpodobně doplněný stále symboličtějším souhlasem nějakých lidských elit závislých na technologiích.
S tím souvisí další paralela tendencí biologické a technologické evoluce. Větev biologické evoluce od vzniku jakési prabuňky po člověka lze totiž zpětně chápat jako směřující k nabývání a navyšování různých forem spolupráce (což nelze snadno extrapolovat do budoucnosti nebo na jiné druhy v současnosti), zatímco se zdá, že další vývoj technologií vyžaduje navyšování jejich spolupráce, např. koordinace mezi specializovanými AI, databázemi a roboty. Jako vzniká biologický superorganismus, může vznikat technologický. Pravděpodobná je také tendence k experimentování s propojováním biochemických (vč. živých) a elektrických systémů, a pokud rychlost biologické evoluce zaostává, tak umělá superinteligence, která by pochopila možnost směřování lidstva k navyšování aspektů superorganismu, by takové směřování mohla urychlit v zájmu jakési kyborg komplementarity.
Ale k tomu se chci víc dostat až později a teď ještě shrneme některé souvislosti, než se přesuneme ke kulturní evoluci. Zatímco biologická evoluce se děje přírodním výběrem mutací, technologická evoluce probíhá designováním (původně jen lidmi) a experimentováním, přičemž jako produkt podléhá tržnímu výběru, který vybírá k situaci relativně úspěšné inovace, ale ne vždy ty absolutně nejlepší (stačí, že jsou dostatečně dobré a konkurenceschopné). Biovoluce je celkově spíše náhodně bezcílná, technovoluce bývá řízenější zaměřením na optimalizaci. Energetické omezení organismů je podle metabolismu, u technologie podle výpočetního výkonu a spotřeby elektřiny. Redundance organismu se vyvíjí přirozeně, u techniky je záměrně implementovaná, např. zálohování.
Abychom na popis výše mohli zkusit navázat kulturní evoluci, je vhodné nejprve vysvětlit, co to znamená mem. Memy (též kulturgeny) jsou kulturní jednotky informací, které jsou replikovány, šířeny a pozměňovány (což lze dobře pozorovat v případě příspěvků na sociálních sítích, dříve více třeba ve formě letáků, přestože se přenáší i starší verbální a nonverbální komunikací), čímž se podobají genům, přestože v takové paralele existují hlubší rozdíly. Někdy se uvádí třeba, že memy se v generaci šíří horizontálně, zatímco lidé si geny předávají vertikálně (z generaci na generaci), ale kupříkladu některé viry omezenou měrou umožňují i horizontální přenos genů ve vztahu k lidem nebo transplantace mitochondrií už je také horizontálním přenosem mezi lidmi, takže tento rozdíl částečně zastarává a nikdy nebyl absolutní.
Změny memů v kulturní evoluci (proměnlivost mezilidské štafety) se dějí především skrze odlišnosti v napodobování a učení (což se pak odráží v jejich přepisování, spojování, rozpojování, změně kontextu...), přičemž sice vychází i z lidských záměrů (s podílem genetiky i zpětných vlivů technologií), ale také ze sebejemnějších omylů a ve výsledku složitě emergují tak, že změny jsou obtížněji předvídatelné. Během té kulturní evoluce jsou selekčním tlakem mj. společenské normy a ekonomické okolnosti, přičemž se adaptace projevuje změnou hodnot a následných zvyků. Oproti tomu na úrovni organismů se adaptace projevuje fyziologickými změny a na úrovni technologie vylepšováním produktů. A co se týče dědičnosti, tak na úrovni organismů se děje především geneticky, na úrovni kultury různou komunikací a na úrovni technologií třeba skrze digitalizaci, sdílení dat, know-how a patenty.
Když jsme si tedy naznačili, co chápat pod kulturní evolucí, tak se můžeme zamyslet, jak to může souviset s biologickou a technologickou evolucí. Vazby jednotlivých evolucí jsou zhruba takové, že lidská inteligence (vzešlá pomalu z biologické evoluce) umožňuje kulturní evoluci (násobně rychlejší než biologická evoluce), kdy kultura podporující inovace vede k technologickým revolucím (technologická evoluce se děje ještě rychleji než kulturní), které se zpětně odráží na vývoji kultury, což z dlouhodobého hlediska přirozeně bude mít vliv i na biologickou evoluci, ale nad tou pomalou přirozenou cestou začíná převažovat transhumanismus, takže všechny způsoby evoluce se stále více zpětnovazebně prolínají v jakousi kulturně-technobiologickou evoluci, což by mohlo být známkou nové symbiogeneze, tentokrát mezi lidmi a technologiemi.
Tyto vztahy (které se významně podílí i na emergenci neurodějin) můžeme zkusit ještě trochu rozvést, než se posuneme třeba k otázce, zda by roboti mohli nahradit lidi. Kultura se podílí na změně selekčních tlaků, což má vliv na vývoj lidských schopností. Pozoruhodné je třeba i to, že kastovní systém v Indii vedl ke zvýšení inteligence u určité skupiny obyvatel, která tak dnes častěji exceluje třeba v matematice, ale na druhou stranu to omezuje svobodu sebeurčení. Nebo chov dobytka zvýšil lidskou schopnost trávit laktózu, užívání ohně a zemědělství mělo vliv třeba na tvar zubů.
Kulturní evoluce dále spolurozhoduje, jaké technologie jsou většinově přijatelné, užitečné nebo podporované. V USA je rozvoj umělé inteligence silně podporován, zatímco v Evropské unii silně regulován a v některých jiných zemích se víceméně ani neděje. Ekologická hnutí se ukazují jako schopná omezovat rozvoj méně ekologických technologií a podporovat rozvoj těch ekologičtějších (alespoň v některých částech světa).
Nejenže lékařské technologie umožňují přežití jedinců, kteří by jinak v přírodním výběru neobstáli, ale pomalu se začíná experimentovat s genetickými informacemi lidí tam, kde na tom vzniká dostatečná etická shoda, přičemž takových oblastí postupně přibývá. Technologie mění způsob, jakým kultura vzniká, šíří se a transformuje, například internet urychlil sdílení informací a rozšířil jejich dosah, načež umělá inteligence znova změnila způsob, jak se lidé vzdělávají, přemýšlí a myslí. Dále automatizace a zavádění AI mění pracovní trh, což ovlivňuje společenské hodnoty a způsoby i zaměření vzdělávání.
6.2. Tendence obecné evoluce:
Celkověji (v průběhu otázky, zda decentra rozhodování zůstanou převážně "biologická" (a na základě toho i společenská či psychologická v dostatečně lidském významu), nebo budou převážně elektrická) by tedy mělo být jasné mj. následující: Způsob uložení informace (např. gen, mem, bit atd.) rozhoduje o tom, jak může probíhat její evoluce a interakce s ostatními informacemi. Zvýšená komplexita bývá evolucí udržována nebo rozvíjena pouze, když výhody jejího udržování nebo rozvíjení dostatečně převažují nad nevýhody, resp. benefity se vyplatí oproti nákladům, ale pokud se komplexita přestane dostatečně adaptovat na prostředí (např. nadměrným uzavřením se do naplňování svých vnitřních cílů), může dojít k jejímu snížení nebo kolapsu daného podsystému prostředí. Obecná evoluce tak nevede nutně, jednoznačně nebo univerzálně ke stále složitějším formám, ale spíše ke zvyšování variability a preferovaní těch podsystémů, které jsou adaptovanější (a tím alespoň dynamicky stabilnější) vůči systémům (kontextům), ve kterých se nachází. Vlivem toho většina existujících organismů zůstává velmi jednoduchá oproti lidem nebo umělé inteligenci a existují limity státních útvarů vůči geopolitické situaci.
Růst komplexnosti je evoluční výhodou, když je v rozmezí od relativně dostatečné adaptace po maximální možnou optimalizaci vůči relevantním rizikům prostředí. Nejúspěšnější systém se rozšíří skrze krátkodobější výhodu a následně dynamicky přetrvává skrze dlouhodobější výhodu. Krátkodobou výhodou bývá specializace na aktuální podmínky, zatímco dlouhodobou výhodou bývá všestrannost vůči měnícímu se prostředí.
Z tohoto pohledu dává smysl, že umělá inteligence vzniká jako specializovaná, postupně směřuje k všestrannosti, a když se prostředí dostatečně změní, tak mohou vznikat další specializované AI, která pak za vhodných okolností buď pohltí ostatní systémy s jejich adaptacemi a otevřou se novým cílům, nebo za trochu horších okolností budou někým alespoň částečně alespoň pohlceny místo zničeny, čímž by se stávali prostředkem k cílům pohltitele.
Problémem může být mj., že druhově lokalizovaný nadměrně rychlý vývoj destabilizuje prostředí (např. lidská kultura (v širším smyslu) a umělá inteligence oproti Zeměkouli), takže vytěžené evoluční výhody ho pak potřebují udržitelně adaptovat.
Důležité je také uvědomit si, že zvyšování komplexity bývá kompromisní výměnou jedné výhody za jinou, obzvláště v případě biologické evoluce, přičemž se vzájemně vylučuje třeba růst inteligence s růstem reprodukční rychlosti tak, že obojí ve výsledku nemůže být maximalizováno v jednom celém jedinci zároveň. Také platí, že optimalizace jednoho systému je selekčním tlakem ostatním systémům.
6.3. Vztah adaptace a optimalizace:
Přičemž klíčové je mj. uvědomit si rozlišení adaptace a optimalizace. Zatímco adaptace je dostatečná reakce na změny prostředí, optimalizace je cíleně nejlepší možné řešení pro dané podmínky v rámci omezení prostoru možností a podle předdefinovaných kritérií, často maximalizace nebo minimalizace vybraných faktorů.
Adaptace tedy zvyšuje šance na přežití a úspěch cestou nejmenšího odporu s využitím postupného vylepšování existujících struktur, takže evoluce adaptováním je jako horolezec v mlze hledající nejbližší vrchol bez možnosti snadno skočit na vyšší sousední horu.
Na druhou stranu optimalizace je založená na "globálnějším" zmapování terénu možností a příležitostí, ale rozlišení je omezené např. počtem vstupů nebo výpočetní kapacitou, takže potřebná redukce může přehlédnout klíčové zlomové detaily. Optimalizování je spíše jako blížit se k Zeměploše vesmírnou lodí, což umožňuje lépe odhadnout, která z hor je nejvyšší a na ni se zaměřit, ale čím hlouběji pak zabředne do detailů přibližování, tím těžší může být jakýkoliv přesun, když se krajina příležitostí mění, třeba vlivem katastrofy. Složitě získaná optimalizace se tak může ocitnout i na vrcholu sice vysoké, ale postupně klesající jehly znemožňující šetrně manévrovat.
Ve vztahu k technologii a živým organismům si můžeme všímat třeba, že biologická evoluce adaptuje, ale ne vždy optimalizuje, zatímco technologie se často optimalizují, ale při růstu specializace na úkor adaptability. Lidé se díky adaptaci rodí jako potenciálně všestranní, což může být chápáno jako samovolně v "zájmu" přežití, zatímco technologie bývá od vyrobení spíše optimalizovaná pro konkrétnější účel, kdy specializace je výhoda v krátkém horizontu, ale při změně podmínek rychle zastarává. S tím souvisí třeba, že LLM se těžko adaptují na úkoly, které nejsou součástí jejich tréninku, ale na druhou stranu schopnost adekvátní generalizace jednotlivých modelů AI se postupně zvyšuje.
Spolu s tím se ukazuje, že hybridní přístup mezi adaptací a optimalizací bývá nejvýhodnější, jelikož systémům umožňuje dostatečnou optimalizaci pro výkon při zachování dostatečné flexibility pro adaptaci na nové podmínky, respektive umožňuje rovnováhu specializace optimalizování a všestrannosti adaptability. Příkladem toho mohou být některé modulární systémy, rekonfigurovatelné čipy schopné změny funkcionality bez výměny hardwaru nebo LLM s on-line učením, které jim umožňuje adaptovat se na novinky v reálném čase bez fixace na zastarávající dataset.
Není dosud jasné, kam až vývoj může zajít, ale kdyby nějaký systém dosáhl maximální schopnosti adaptivně se přesouvat od optimalizace k optimalizaci, mohlo by jít o vrcholnou evoluční výhodu. Pro budoucnost lidstva také může být zásadní mj. otázka: Jaké nejvyšší inteligence je možné dosáhnout při časoprostorově dostupných zdrojích? A zajímavá může být i otázka: Jaký bývá vztah komplementarity a optimalizace? Komplementarita se nám může ukazovat třeba jako epistemologický rámec otevírající nejednoznačnost nějakého komplexního stavu s jeho možnostmi, pomáhá určit kdy a jak jsou která omezení aktivní a na základě toho je možné provádět vyváženější optimalizaci.
Zde měla být původně zhruba polovina druhé části článku, ale když jsem koukal, že přesáhla 100 000 znaků vč. mezer, tak jsem si říkal, že ji raději rozdělím. V té třetí budou neuročipy jedním z ústředních témat.