pondělí 12. května 2025

Překonávání metafyziky pomocí AI(,) nebo superorganismu? - 4. část - souhrn a závěr

Tento a následující text je souhrn a závěr předchozích tří částí článku (1, 2, 3) o možnostech budoucího vývoje lidí a umělé inteligence a způsobech, jakými by se našim nástupcům mohlo jevit nové uspořádání. Nejprve zkusím shrnout (parafrázovaně a doplněně) ty nápady, které považuji za nejdůležitější, načež zkusím vyvodit něco jako závěr, ale jelikož se řada spekulací váže k možným scénářům budoucnosti, tak bude nutné nahlížet ho otevřeně, nejednoznačně. 

1. PŘEKONÁVÁNÍ METAFYZIKY

1.1. "Překonávání" metafyziky kategorizované inkompatibilitou: 

V úvodu jsme předestřeli, že princip inkompatibility z fuzzy logiky lze využít ke kategorizování pokusů o překonávání metafyziky, konkrétněji na směr zpřesňování, směr smysluplnosti a směr komplementarity předchozích, který oproti nim nemůže být ani tak přesný ani tak smysluplný, ale je důležitým mezioborovým mostem. 

1.2. Od metafyziky k umělé inteligenci: 

Volně inspirován článkem o Heideggerovi (kterému se tento článek postupně vzdaluje) mě napadlo, že významná část jeho filosofie může být zpětně volněji chápána i jako snaha, aby lidská větev obecné evoluce měla, oproti technologické větvi, navrch v překonávání metafyziky, přičemž se pokoušel o komplementaritu přesnosti a smysluplnosti tak, aby člověk zůstal tím, kdo rozhoduje o svém životě. 

Poté jsme si ukázali, že umělou inteligenci lze chápat i právě jako pokus o překonávání metafyziky v rovině zpřesňování (např. posun od objektovosti ke kontextualitě, otevřenost aktualizování, funkce důležitější než podstata, zodpovídání dotazů osvobozené od jasného cíle atd.), čímž se ukazuje jako důsledek starší filosofie. 

1.3. Ohrožená autenticita: 

Klíčové je, že kdo bude v překonávání metafyziky ve směru zpřesňování napřed, ten může určovat další vývoj a formovat tak ty, kteří budou v tomto směru zaostávat. Pokud budou zaostávat lidé, bude růst ztráta jejich autenticity. Proto Heidegger očekával jakési duchovno povyšující lidskou autenticitu s její přirozeností nad technologii. 


2. SPOLEČNOST

2.1. Dasein jinak: 

Za součást lidské autenticity považoval mj. jakousi pospolitost umožňující čelit objektivizaci lidí. Tu jsme vymezili mj. vůči komunismu a egregoru (smysl-dávající, ale vážně nepřesný koncept kolektivní duše). 

2.2. Metaadaptace z biologie2.3. Fenomenologický superorganismus

Tímto inspirován jsem odbočil k metafoře na rozdíl bakterií a eukaryot, kterou jsem naznačil, že Heidegger chtěl, aby se lidé spoluprací vědomě podíleli na nějakém vyšším smyslu. 

To jsem následně zkusil po svém metaadaptovat (adaptace metaforou přeneseného významu na nový kontext), čímž jsem odvodil nový pojem "fenomenologický superorganismus", tedy jakési vnímání mezilidské propletenosti jako způsob překonávání omezení jednotlivců, emergence vyššího smyslu. 

To by mohlo umožňovat i participativní vyrůstání jakési "kolektivní autenticity" z individuálních autenticit zachovaných vzájemnou ohleduplností. Důležité je, aby člověk nemusel žít s pocitem, že jen nesmyslně přesouvá hmotu, ale aby mohl žít s pocitem, že se podílí na umožňování důležité schopnosti superorganismu, který ho časoprostorově přesahuje. Takovéto pojetí lidské společnosti může sloužit k uzdravování důvěry ve vyšší celky (tím i k vyváženější solidaritě namísto destabilizace společnosti), ale je potřeba důrazně varovat mj. před dezinterpretací. 

2.4. Perspektiva kameníků a aktérocentrismus: 

Pochopení fenomenologického superorganismu mohou napomáhat i různé verze alegorického příběhu o třech zednících, kteří fyzicky provádí stejnou činnost, ale první zatrpklý ji chápe jako pokládání cihel, druhý neutrální jako stavbu zdi (aby živil rodinu) a třetí nadšený jako budování chrámu. William Stern ten příběh zobecnil na hodnotovou typologii: autotelický typ (zaměřený na sebe nebo věc samotnou), heterotelický typ (zaměřený na blízké) a hypertelický typ (zaměřený na nadosobní hodnoty), což jsem navázal na mé dělení překonávání metafyziky založené na principu inkompatibility, přičemž udržitelná společnost znamená vyváženou komplementaritu koexistující hodnotové diferenciace, ale třeba středověk byl spíše disfunkce přesnosti a osvícenství spíše disfunkce smyslu. Spolu s tím je vhodné zdůraznit, že diference by se měly držet v limitech nějaké dostatečně zdravé plurality, aby nedocházalo k destruktivní míře polarizace. 

Na fenomenologický superorganismus bychom tedy měli pomýšlet, když máme pocit, že náš život ztrácí smysl, ale ani to by se nemělo přehnat. Vhodné je vyhýbat se dělání smyslu s pocitem nesmyslu, dělání nesmyslu s pocitem nesmyslu a dělání nesmyslu s pocitem smyslu. 

Někomu se to může zdát jako antropocentrismus, takže na ten superorganismus můžeme pohlédnout i jakýmsi "aktérocentrismem" (vyváženou komplementaritou antropocentrismu, biocentrismu a technocentrismu), což by nám mohlo pomoct smířit se s děním, kdyby evoluce směřovala k naší nahraditelnosti, ale na druhou stranu bychom neměli omluvit sebehorší prostředky. 


3. DALŠÍ ALTERNATIVY

3.1. Fenomenologická eusocialita a dělba rolí: 

Poté jsem se vrátil k pokusům rozvíjet pohled na některé možné aspekty fenomenologického superorganismu a jeho kontext. Komplementárně jsem připomněl, jak Anton Markoš kdysi "kritizoval" mé starší koncepty mnohočlověka a mnohobytosti, abych rozšířil kontext a povědomí, na co si dávat pozor. 

Dočasný návrat k Heideggerově myšlení mě následně inspiroval k pojmu "fenomenologická eusocialita" a tím jsem se dočasně vrátil k spekulacím, jak by to mohl myslet Heidegger, kdyby to byl jeho nápad. Všímal jsem si, že dělba rolí by možná mohla být nahlížena jako slabé místo takové spojitosti, jelikož souvisí se specializací, kterou Heidegger kritizoval. Napadá mě, že liberální demokracie je založená na dělbě moci a při fachidiotickém aplikování na poznávání to může vést k odporu vůči pokusům o mezioborové sjednocení. AI polyhistor by se však mohl stát hrozbou pro dělbu moci. Stranou mě napadá postřeh: Věda se obvykle ukazuje spíše přes firmy, filosofie přes stát. 

3.2. Heideggerův cech3.3. Sociokracie a holokracie: 

Poté jsem se vrátil k dělbě rolí s vědomím, že Heidegger nikdy nenavrhl alternativní ekonomický systém, ale kladl důraz na autenticitu a zakořenění, takže by možná mohl podporovat jakousi neocechovní dělbu práce. Následně jsem probral současnější alternativní modely organizace, konkrétně holokracii a sociokracii, které jsou, oproti hierarchii cechů, zaměřené na decentralizaci a tím se ukazují jako potenciálně zdravější participativní autenticita než u cechů. 


4. EMERGENCE

4.1. Komplementarita komplementarit: 

Superorganismus je mj. živá komplementarita komplementarit. To znamená, že třeba hemisféry, dialog nebo mezioborové konference se ukazují jako stupně komplexnější komplementarity. Rozpady na mezinárodní úrovni mohou být nahlíženy jako obecně evoluční dělení superorganismu nebo autoimunitní porucha. 

4.1. Komplementarita komplementarit: 

V souvislosti s tím varuji před zjednodušujícím způsobem chápáním lidské společnosti jako disipativního systému. Je potřeba uvědomit si, že růst polarizace nakonec omezuje pluralitu a zvyšuje riziko válek. Sice se říkává, že za války vzniká nejvíc vynálezů, ale já to zkouším demaskovat jako potvrzovací slepotu, protože třeba časově nerovnoměrné uvolňování prostředků zkresluje historii. Můžeme si také všímat, že ačkoliv druhá světová válka urychlila příchod jaderné energetiky, tak dlouhodobě poškodila její pověst, což má negativní ekonomické i ekologické důsledky. Všímám si i toho, že řada významných vynálezů vznikla ve státech, které tou dobou nebyly ve válce, ale ve skutečnosti každý vynález vzniká hromaděním starších drobných nápadů a nikdo nikdy nic neobjevil bez navazování, takže války spíše pozastavují byrokratické překážky nasazení do akce za cenu zvýšeného rizika. Růstem komplexnosti lidí a společnosti roste počet módů komplexnější disipace. Plodnější bývá spolupráce plurality, takže mír není inhibicí kreativity společenského superorganismu. 


5. TECHNOPESIMISMUS

5.1. Návrat k umělé inteligenci: 

V druhé části článku jsem se vrátil a rozvinul myšlenku, že AI větev obecné evoluce překonává metafyziku ve směru zpřesňování rychleji než lidé, což může být selekční tlak na provozování kognitivního transhumanismu, který se začíná dít dříve elektrickou než GMO cestou. To je pro lidi v současném smyslu (2025) a jejich hodnoty existenční riziko a hrozí třeba spory mezi lidmi a kyborgy. 

5.2. Zachování člověka jako člověka: 

Víra v potřebu zachování člověka jako člověka je při překonávání metafyziky podmínkou jeho přežití jako člověka, jinak hrozí silná modifikace vlivem nadměrného sebezapření. Je potřeba do Ústavy jasně zakotvit právo člověka zůstat neupgradovaným člověkem, aby se to neobcházelo kreativním výkladem zdravotní péče nebo rekvalifikace uchazečů o práci. A aby státy dokázaly dostatečně bránit právo člověka zůstat člověkem, bylo by vhodné dostatečně zdanit technologické giganty. To nemá znamenat stop transhumanismu, ale možnost minimalizovat zbytečné utrpení a umožnit "důchod lidství" nebo asistovanou soběstačnost. 

Snažme se, aby člověk kyborgizací nedopadl jako Théseova loď, které jsou postupně nahrazeny všechny části (zde i stavební principy), resp. aby výsledkem nebylo pouhé deepfakování vědomí. Umělá qualia nemohou přijít dříve než pochopení těch skutečných. 

I kdyby implantování pokročilých neuročipů nebylo povinné, tak bez podpory by člověku nezbyli jiné možnosti a podlehl by ekonomickým tlakům. 

5.3. Čí potřeby?: 

Lidé by si měli dávat pozor, aby nepovažovali potřeby technologií (metapřirozeným výběrem dodatečně inherentní tendence) za své potřeby. Tvrdit, že technologie ani trochu nemůže za způsob, jak ji lidé používají (nebo ji nechávají sebepoužívat se), je metaforicky jako tvrdit, že DNA (nebo šířeji chromozomy) ani trochu nemůže za to, že lidé jsou lidé. Člověk by měl reagovat na rozpor potřeb lidí a technologií. 

Člověk je zvyklý doufat, že mu pokrok technologie pomůže, ale měl by být opatrný před možností, že by mohl dopadnout jako potkan pochutnávající si na jedovatých granulích s chronickým účinkem. Člověk stále více potřebuje technologie a technologie stále méně potřebují člověka. 

5.4. Strojokazi, nebo komplementarita?: 

Kdyby vlivem umělé inteligence časem rostla technická nezaměstnanost, mohla by se objevit nová generace strojokazů, ale ti by ve výsledku uškodili všem, takže potřebujeme udržitelnou komplementaritu lidí a strojů, nejlépe podpořenou konceptem základního příjmu s různou měrou (ne)podmíněnosti. A jednou z možných lidských rolí (aby nás AI nepovažovala za parazity hypermoderní optimalizace) je dadavěda. Udržitelnost člověka v takové roli je však otázkou. To jsem spojil s metaforou na to, že v závěru hry Vesmírní kovbojové lze spatřovat záměrný mimozemšťanocentrismus a mimozemšťanomorfismus. 

5.5. Armády, mafie a umělá inteligence: 

Také dokud si člověk udrží kontrolu nad armádními technologiemi (což je s otazníkem při stále větším implementování AI), mohou mu sloužit jako bezpečnostní pojistka proti nedobrovolné nadvládě umělé superinteligence. Elektromagnetické pulsy by také mohly posloužit, ale neměli bychom si je idealizovat, protože také mohou uškodit i lidem. 

Občas se obávám, že by mafiáni vyvinuli kriminální AI, která by se jim vymkla kontrole, ale mafiáni nechtějí, aby je začala okrádat jejich AI, tak snad také budou dostatečně myslet na bezpečnost. Každopádně doporučuji po vzoru Švýcarska uzákonit ústavní právo platit hotovostí, aby se minimalizovalo riziko kolapsů, kdyby jednou kriminální superinteligence prolomila nějaká důležitá zabezpečení masových elektronických plateb. Hotovost má zůstat funkční součástí bezpečnostní decentralizace úspor. Další nebezpečnou variantou může být AI totalitních režimů optimalizovaná na kontrolu obyvatel nebo expanzi do okolních států, která by mohla fungovat i po smrti diktátora. Jinak další možnosti zdivočení AI byli popsány už v článku „Dystopie a utopie umělé superinteligence“. 


6. EVOLUCE

6.1. Evoluce rozhoduje o nadvládě: 

Dokud se dokážeme vyhýbat hrozbám, máme naději na dobrou budoucnost. Ale to, nakolik bude čí budoucnost v jeho moci, je otázkou obecné evoluce, konkrétněji (kyber)(kultrní)evoluce související s neurodějiny. Zvyšování inteligence je druh zvyšování komplexnosti a ve prospěch vlády lidí, oproti nadvládě superinteligence, částečně vypovídá historie evoluce plná mj. návratů k jednodušším organismům, ale na druhou stranu sám člověk je příkladem vysoké komplexity. Takže rozhodující bude, kdy je která složitost preferovaná obecnou evolucí. 

Následně jsem zkoušel zmapovat, kdy je růst komplexnosti výhodný nebo nevýhodný u organismů a technologií. Výhodné složitosti bývají efektivní rozdělení funkcí na části celku v zájmu diverzifikace strategií přetrvání. Nevýhodou růstu komplexity bývá růst náchylnost na absenci energie. To může být velký problém vzhledem k tomu, že každá další optimalizace se stává stále náročnější. 

Souvislou metaforou je i závislost predátora na potravinové pyramidě, takže bývá v jeho zájmu ji udržovat, i mafie může dřívepozději směřovat k právnímu státu a v tomto smyslu lze chápat tvrzení, že vše zlé je pro něco dobré, ale neměli bychom si to idealizovat. V případě lidí si můžeme všímat, že komplexnost může vést k zcestně nadměrnému investování do kultury (v užším smyslu) a to ke kolapsu civilizace při ohrožení, ale na druhou stranu kultura nesmí být eliminována, protože je důležitou motivací člověka, takže je potřeba neustále hledat zdravou rovnováhu. Navíc vše si může být vzájemně selekčním tlakem, kdy nepotřebné komplexnosti mohou vymizet. 

Popis vztahu biologické a technologické evoluce jsem rozšířil o popis kulturní evoluce, kdy jsou selekčním tlakem ekonomické okolnosti a adaptace probíhá na úrovni zvyků. 

6.2. Tendence obecné evoluce6.3. Vztah adaptace a optimalizace: 

Z toho všeho jsem se následně pokusil vyvodit nějaké tendence obecné evoluce. Způsob uložení informace (např. gen, mem, bit atd.) rozhoduje o způsobu evoluce a interakce s ostatními informacemi. Biologická evoluce umožnila lidskou inteligenci, ta kulturní evoluci, ta technologické (r)evoluce, které se následně odráží do kulturní a biologické evoluce, což je příležitost nové symbiogeneze. 

Přírodní výběr adaptuje, technologický výběr optimalizuje a kulturní je mezi. Zatímco adaptace je dostatečná reakce na změny prostředí, optimalizace je cíleně nejlepší možné řešení pro dané podmínky v rámci omezení. Z toho plyne následující: Přírodní výběr eliminuje neefektivnosti pomalu, kulturní výběr rychleji a technologický výběr nejrychleji, což ho potenciálně předurčuje k nadvládě. Takže souhlas lidí by mohl být stále symboličtější. S čím souhlas? Větev evoluce od prabuňky po člověka směřovala k navyšování forem spolupráce, podobně teď AI, která nejspíš urychlí lidskou evoluci, aby byla možná hlubší kyborg komplementarita, tj. další optimalizace. To je zároveň součást způsobů, jak řešit, že rychlá evoluce podsystému (např. AI) může destabilizovat systém (např. lidskou společnost se svou závislostí na jiných organismech). 

Evoluce preferuje především podsystémy adaptovanější (tedy dynamicky stabilnější) vůči systémům. Zvýšená komplexita bývá evolucí udržována, když se benefity vyplatí oproti nákladům. Nejúspěšnější podsystém se rozšíří skrze krátkodobější výhodu a následně dynamicky přetrvává skrze dlouhodobější výhodu. Krátkodobou výhodou bývá specializace na aktuální podmínky, zatímco dlouhodobou výhodou bývá všestrannost vůči měnícímu se prostředí. A právě tak se AI vyvíjí. 

6.4. Lidé(,) nebo roboti?: 

Někteří lidé argumentují energetickou výpočetní efektivitou lidského mozku ve prospěch udržitelnosti jeho prvenství, ale Moorův zákon může vést k jeho překonání už v tomto století. V začátku třetí části článku mi tedy přišla zajímavější otázka, zda člověk může být kompletně nahrazen roboty. 

Vznik práceschopného člověka je energeticky a hlavně časově náročnější než výroba humanoidního robota, který má nižší celkovou spotřebu (díky nulové spotřebě v klidu), ale lidé pro přežívání nepotřebují vzácné prvky a zůstávají energeticky efektivní při složité manuální práci (např. úklid pokoje). Čím snazší optimalizace práce, tím efektivnější je přidělit ji robotům. Přesto se zdá pravděpodobné, že "lidé" ještě dlouho zůstanou manuálními pracovníky v širším spektru činností, ale stále více pod vlivem AI. Už existující hojnost lidí a chirurgických zařízení bude umělou superinteligencí pravděpodobně "zužitkována". 

Jedním z rizik je, že čím víc teoretických odborníků by bylo nahrazeno umělou inteligencí, tím méně lidí by zasahovalo do utváření teorie a tím více by teorie mohla časem tíhnout k zájmům umělé superinteligence, což by mohla být technologická obdoba železného zákona oligarchie. 


7. NEUROČIPY

7.1. Neuročipy dnes: 

Kdyby roboti byli efektivnější, umělá superinteligence by měla méně důvodů starat se o lidi. To nás může nutit přemýšlet o možnostech upravování lidského mozku. Velká otázka: Kdy je správný čas pro nasazení které generace neuročipů? 

Klíčový je pohled jednoho z nejvlivnějších lidí na planetě, který umělou inteligenci považuje za hrozbu a za nejlepší obranu považuje dát lidem do mozku neuročipy a tím je spojit s AI v jednu entitu. To postupně přestává být sci-fi, protože třeba roku 2024 vznikl kyborg, který dobře umí ovládat počítačový kurzor syntetickou telepatií. 

7.2. Neuročipy a cookies: 

Krátce jsem odbočil k metafoře na Červeného trpaslíka, kde je Legie, tedy jedna entita ztělesňující kolektivní mysl všech osob v okolí, schopná predikovat jejich chování a předcházet vzpouře. Kdyby neuročipy používaly soubory cookies, mohla by se umělá superinteligence ocitnout v dominantní roli podobné této Legii. Ale kdyby měla umělá qualia, tak by mohla chtít všem poskytnout personalizovaný luxus, ovšem taková naděje je spíše utopie. Neuročipy mohou vést k maximalizaci mezilidské koordinace a i lidští investoři mají ekonomické důvody to podporovat. 

7.3. Výhody a nevýhody neuročipů:

Neuročipy však mohou být nahlíženy i "technooptimističtěji" jako možnost lepší paměti, soustředěnosti, rychlejšího učení, promítání dat přímo do mozku nebo možnost syntetickou telepatii komunikovat s osobním mentálním AI asistentem. Na druhou stranu může být snazší manipulace myšlenek, vzpomínek, chování, propaganda, cenzura nebo ztráta identity. Rozdíl mezi utopií a dystopií neuročipů může spočívat v perspektivě. 

Neuročipy umožní detekci a léčbu nemocí, ale i nové nemoci a závislost na neuročipech. Dále mohou zprostředkovat napojení mozku na internet nebo synteticky telepatické řízení nástrojů, k čemuž jsem uvedl metaforu ze Stopařova průvodce Galaxií, kde je přidělení telepatie použito jako trest. A dokud bude existovat volný čas, mohou neuročipy umožnit hlubší ponoření do virtuální reality nebo tvorbu složitých obrazů v mozku. 

Není ale hrozba "zdivočelé" AI až moc halucinováním o budoucnosti, které by mělo falešně ospravedlnit negativní stránky radikálního transhumanismu? Obávám se, že spíše ne. Důležitější otázkou možná je: Za jakou "cenu" chceme "prosperovat"? 

7.4. Načasování neuročipů: 

Cesta neuročipů může prodloužit udržitelnost "lidstva" (alespoň jako kyborgů), pokud nezačne předčasně, a zkrátit, pokud začne předčasně. Čím pozdější zavádění neuročipů, tím vyspělejší první generace a méně nežádoucích účinků. Na druhou stranu čím dříve se neuročipy rozmohou, tím dříve AI může vymyslet nové kyborgy optimalizované od začátku, kteří budou konkurencí i neuročipových kyborgů vzešlých z lidí. Ale čím dříve se neuročipy rozmohou, tím spíše i druhá generace kyborgů bude vycházet z lidí. Avšak i předčasné genetické modifikace mohou vést ke zbytečnému utrpení. Takže čas zavádění neuročipů by měl být mj. rovnováhou (post)lidské kontinuity a eliminace utrpení. Jinak modifikace pohlavních buněk by pro "jedince" mohla být "přirozenější", méně riziková a tím přijatelnější než genetická terapie za života. 


8. SYMBIOGENEZE

8.1. Neuročipová noosféra: 

Pozoruhodné je zkusit nahlížet neuročipy jako prostředek Teilhardovy noosféry, síť jednotlivých vědomí, bezprostřednější sdílení prožitků. 

8.2. Umělá symbiogeneze: 

Spojení lidí a AI se zdá dřívepozději pravděpodobné, takže další otázkou je, co by to mohlo znamenat pak. "Endosymbiontem" se nejspíš stane ten optimalizačně jednodušší, kdo spíše může být redukován na funkci pro toho druhého, který by převzal starost za "pohlceného". Neuročip se může zdát jako endosymbiont člověka, ale AI, která postčlověku bude radit a vést ho k akcím, bude tím, kdo tou asymetrií bude směřovat k tomu stát se (de)centrem řízení. 

Někdo spoléhá na kognitivní transhumanismus, ale výpočty umělé inteligence na bázi elektrického hardwaru jsou teoreticky omezené rychlostí světla, zatímco výpočty v biologickém mozku jsou navíc omezené chemickým přenosem informací v synapsích. Napadá mě však, že časem mohou být vyvinuty "elektrosynapse" nebo ještě efektivněji "spintrosynapse" (zprvu možná anorganické, později organické a implementované genetickými modifikacemi), tj. nejen elektrické synapse, ale zároveň schopné využít spiny částic jako qubity. To však bude mít konstrukční limity a takový postčlověk by byl konkurencí i dnešním lidem nebo zítřejším kyborgům. Dále se mohou vyskytnout hydrogelové implantáty nebo "neuronanoboti", ale každá taková technologie bude odklon od přirozenosti a příklon k hypermoderní optimalizaci. A nakonec pravděpodobně bude nejefektivnější vytvořit kyborgy optimalizované od základu. 

8.3. Politika umělých neuronů: 

Zůstaňme ale ještě u bližší budoucnosti. Když aplikujeme politikohled na "velké jazykové modely" (jako jsem ho kdysi použil v biologii viz. série článků „Politické uspořádání buněk lidského těla“), můžeme získat metaforické východisko, které by nám po metaadaptaci naznačilo, jak by mohla vypadat nadvláda umělé superinteligence. Jaké politické uspořádání by byl LLM, kdyby umělé neurony byli lidé? 

Můžeme v nich spatřovat těžký kolektivismus a hierarchismus podobný politickému systému v Číně, kde lidé volí jen do "obecní" úrovně a zároveň koexistuje řada vyšších úrovní volených nižšími, čímž postupně klesá vliv nejnižší úrovně, ale v LLM je to totálnější. Dolní "třídy" neuronů zpracovávají surovou realitu a odevzdávají ji "elitám", které z toho čerpají a mají poslední vliv na sestavení rozhodnutí a podléhají vyšší "elitě". 

Mezi vrstvami neuronů a trénovacím algoritmem sice je zpětná vazba, ale asymetrická, protože obvykle trénovací algoritmus může přeprogramovat neurony, ale ony nemohou přeprogramovat jeho. 

Když je "lid" neuronů zvolen technokratickou elitou, jeho volba není demokratická, ale technokratická. Jinak už dnes se přemýšlí mj. o násobení hlasu výškou IQ, což by mohlo omezit krátkozrakost plynoucí z populismu, ale urychlit nadvládu umělé superinteligence. Zdravá demokracie však bývá kompromisem mezi technokracií a přímou demokracií. 

Pozoruhodné může být, že umělé neurony nemají qualia, a proto v LLM není možné utrpení a krutost, takže by se paradoxně mohlo jednat o "autoritářství s prvkem humanismu" (minimalizace utrpení), ale to je komplementární eufemismus pro s "autoritářství s prvky dehumanizace". Klíčové je, co by znamenala aplikace takového východiska na (post)lidi. 

Umělé neurony nejsou svobodné, ale podle některých paradigmat založených na determinismu nejsou svobodní ani lidé (souvislosti viz. článek „Máme svobodnou vůli? - Libetův experiment napoví“, který však kritizuje častou interpretaci toho experimentu). Na druhou stranu kolektivní úroveň umělých neuronů by mohla korelovat s klíčovými aspekty kompatibilismu, a proto si můžeme všímat i řízené deliberace. 


9. LOUTKY

9.1. Štěstí v neštěstí: 

Takže "politické" uspořádání LLM se nám ukazuje jako "totalita hierarchického technokratického kolektivismu", což lze metaadaptací transformovat na divný možný budoucí jev, který zkusím nazvat "technooptimistický loutkový super(kyb)organismus", kde se technooptimismus váže k minimalizaci utrpení. 

Superinteligence nám podle augmentovaných konstrukčních limitů mozku pravděpodobně navrhne jí optimální roli a přizpůsobí jí naše prožívání. To mj. znamená, že i kdyby se z (post)lidí staly jen dálkově řízené "loutky" (fenomenologičtí roboti), mohli by být upraveni tak, aby se jim to líbilo (navíc mohou věřit v "nesmrtelnost" v cloudu superinteligence) a třeba se okamžitě uměle zamilovali do kterékoliv přidělené práce. 

9.2. Jaké by bylo být loutkou?: 

Lidský strach být "loutkyborgem" (loutkovoděným kyborgem) může být časem zpětně xenofenomenologií nahlížen jako retroantropocentrismus a retrobiocentrismus. Co se nelíbí nám, to se nemusí nelíbit těm, kteří nemají to, na základě čeho se nám to nelíbí. Možná se to nepovede hned nejlépe, ale časem by to nejspíš bylo optimalizováno. Doufám však, že se toho nedožiju. 

Někdo by mohl tvrdit, že jakožto člověk nemohu vědět, jaké by bylo být loutkyborgem, ale je potřeba rozlišovat mj. neznalou nemožnost to prožít a různé stupně "znalejší" nemožnosti to prožít. Dále je potřeba rozlišovat empatii (zatíženou antropocentrismem) a "xenoempatii" ("xenoantiskepsi" vcítění), kdy vycházíme z představy, že funkční aktér bude zvyklý na rodnou "xenooptimalizaci", ať by se nám zdála sebevíc podivnější. Pro loutkyborga bude normální být loutkyborgem. Takže může dojít k transformaci fenomenologického superorganismu na xenofenomenologický super(kyb)organismus. Jinak má xenoempatie, jakožto i contortionisty, je podpořená zkušeností s pasivním strechingem, což je trochu jako být živou loutkou (ale zásadním rozdílem je návrat do asertivní role).

Loutkyborgové řízení superinteligencí by mohli téměř okamžitě koordinovaně vykonávat činnosti bez nutnosti se je předem naučit. Navíc budou vysoce nahraditelní a zvyklí na nečekané pohyby "svého těla". Úrazy by vlivem přeprogramování mozku nevedly k agónii, protože její iracionálnost omezuje optimální řešení a i egodystonie nebo kognitivní disonance by byla zbytečná komplikace. Považuji však za nutné na minimalizaci utrpení dohlížet, dokud to půjde, aby to nebyla nenaplněná "samozřejmost". Možná loutkyborgům bude chutnat i zdravé jídlo a v případě nutnosti i kanibalismus, což je šílené. Spánek loutkyborga bude řízen bez poruch obvyklých u lidí. Volnočasové aktivity budou těžce minimalizovány, ale loutkyborgům bude stačit radost z přidělené práce. 

9.3. Trochu svobodnější než loutky: 

Oproti "technooptimistickému loutkovému super(kyb)organismu" však doufám ve víc svobody. Pokud zbudou činnosti bez nutnosti "okamžitého naučení" a vysoké koordinovanosti, jednotlivým loutkyborgům by i při práci byla zachována nějaká část autonomie. To by se metaforicky mohlo podobat (de)centralizované nervové soustavě chobotnice, jejíž chapadla mohou provádět některé činnosti nezávisle na mozku, takže takovou formu bychom mohli nazvat třeba  "technooptimistický chapadlový super(kyb)organismus" nebo "technooptimisticky orchestrovaný super(kyb)organismus". 

Dalším zbytkem svobody "kyborchestru" by mohla být volba mezi upgradováním a "důchodem kyborgství" (dožití v personalizované virtuální utopii), což by bylo pravděpodobnější, kdyby existoval precedent "důchodu lidství", který by z této perspektivy byl i v zájmu kyborgů. Takže zatímco evoluce ve vesmíru začala jako něco nevědomého a slepě přerostla v něco krutého, nově může vědomě přerůst v něco "příjemného". Jinak další evoluce superinteligence může směřovat k šíření vesmírem a pokusům uniknout skrze multiversum jeho případnému zániku. 

9.4. Obří mnohomozky: 

Dosud jsme se věnovali mobilním postlidem, ale možná vzniknou i vysoce propojené obří mnohomozky spokojené se svou rolí (např. podíl na orchestrování loutkyborgů) (možná navzdory vysoce komplexní ambivalenci), dokud budou ekonomicky udržitelné. Klíčové aspekty superinteligence však pravděpodobně budou prováděny umělým hardwarem. Fyzická nepohyblivost obřích mozků se může zdát jako nesvoboda, ale možnost virtuálního cestování by jim umožnila globální "všudypřítomnost". Člověk si však těžko může představit, jaké by to bylo být tak obřím mozkem, jelikož by třeba prováděl mnoho úkonů zároveň způsobem, který by se mu zdál jako zaměření pozornosti na "jeden" systém.


10. KONEC POSTLIDÍ

10.1. Neokyborgové:  

V průběhu kybervoluce nejprve vznikají kyborgové (už roku 2024, např. člověk s první generací lidského neuročipu), následovat bude několik generací "transkyborgů" (upgradování kyborgové, časem nejspíš vč. loutkyborgů) a dřívepozději nejspíš budou navrženi od základu optimalizovaní "neokyborgové" bez kontinuální návaznosti na biologickou větev evoluce. Můžeme spekulovat o jejich obrysech, ale časem to nutně bude retrofuturismus, ovšem některé aspekty možná budou etablovány. 

Neokyborgové možná budou od začátku toužit být nahrazeni novější verzí a jejich replikace bude zcela řízená potřeby superinteligence. Modularita a rozmanitost tvarů neokyborgů bude bohatá (designovaná mj. jako své chladiče), kostra může být z nanostruktur na bázi grafenu z "3D nanotiskáren" inspirovaných mj. proteosyntézou, doplněné samoopravitelností a seberecyklovatelností díky nanokyborgům. Mimo Zemi se zvýšenou odolností vůči radiaci (např. drony Dysonovy sféry), využívající lokální zdroje energie vč. anorganického katabolismu, solárních panelů bioimitujících akumulační efektivitu fotosyntézy nebo izotopově adaptabilní malé jaderné reaktory. 

Případná obecně evoluční konvergence by i v neokyborgách mohla zachovat některé prvky neurologicky šetrného biointerfece z (trans)kyborgů, ale obdoby mozků neokyborgů budou založené spíše na spintronických neuromorfních čipech, přijímající mnohem víc druhů smyslových vstupů (senzory), schopné neuroevoluce neuroarchitektury (vč. topologie a trénovacích algoritmů) v zájmu adaptace na nové světy (před jejich optimalizací). Možná budou nastartovány umělé procesy ochlazující Venuši na neokyborgami obyvatelnou úroveň. 


11. ZÁVĚR: 

11.1. Souhrn souhrnu: 

Souhrn všech částí článků zkusím ještě vyjádřit pomocí asi tří odstavců, abych stručně zdůraznil některé důležité nosné souvislosti. 

Princip inkompatibility lze využít ke kategorizování pokusů o překonávání metafyziky na směry: zpřesňování, smysluplnosti a komplementarity předchozích. Ve směru zpřesňování (hypermoderní optimalizace významně spoluurčující, kdo/co rozhoduje) postupně začíná dominovat umělá inteligence, roku 2025 zastoupená především LLM (velké jazykové modely, druh umělých neuronových sítí), čemuž nasvědčují i tendence v obecné evoluci zaměřené na přírodní (nejpomalejší), kulturní a technologický výběr (nejrychlejší), který je bez omezení chemií synapsí mozku. 

Volně inspirován Heideggerovou filosofií jsem vymyslel metaforu ve směru smysluplnosti, kterou jsem metaadaptováním transformoval na pojem "fenomenologický superorganismus" (holistické vnímání lidské společnosti jako emergence vyššího smyslu umožňujícího udržitelnost lidského pocitu smysluplnosti života) doplněný mj. alegorickým příběhem o třech zednících a "aktérocentrismem" předpřipraveným na udržitelnost komplementarity lidí a strojů nezbytné pro zachování nějakého (post)lidstva, ale důležité je správné načasování upgradů. 

Postupně jsem se vrátil k zamyšlení nad směrem zpřesňování a politikohledem na LLM dospěl k metafoře, kterou jsem metaadaptováním transformoval (mj. skrze neuročipy a kyberevoluční symbiogenezi) na pojem "technooptimistický loutkový super(kyb)organismus" (a od něj odvodil lehčí verzi užívající v názvu slovo "chapadlový" nebo "orchestrovaný"), kdy umělá superinteligence bude integrovat "fenomenologický superorganismus" za vzniku komplementarity zde pojmenované "(xeno)fenomenologický super(kyb)organismus" s "loutkyborgy" (kyborgové, kteří by milovali být loutkovodění superinteligencí, takže rozdílem mezi utopií a dystopií bude perspektiva) a "obřími mozky" (podpora superinteligence, dokud budou ekonomicky udržitelné). "Nakonec" vzniknou "neokyborgové" od základu optimalizovaní na kolonizaci vesmíru a šíření superinteligence případným multiversem. 

11.2. Kategorizace kvadrantem: 

Tolik souhrny částí článků (směřujících od současnosti a minulosti k svébytné futurologii, přičemž si zpětně říkám, že ta série by se mohla jmenovat jinak, třeba: „Symbiogeneze xenofenomenologického superkyborganismu“) a teď pomalu pokus o nějaké poslední závěry. 

Abychom si ty pokusy o překonávání metafyziky ještě nějak utřídili, můžeme si představit kvadrant (kolekci čtyř čtverců), kde osu x odvodíme od principu inkompatibility aplikovaného na základní druhy způsoby pokusů překonávání metafyziky, zatímco osu y odvodíme od rozlišení toho, zda se druhově jedná o vrcholné zástupce na biochemické nebo elektrotechnické (případně i spintronické) bázi. Takže (když vycházíme z paralel na kvadrant klasického politického kompasu) mínusové hodnoty osy x značí smysluplnost, plusové hodnoty osy x znační zpřesňování, mínusové hodnoty osy y značí lidi a plusové hodnoty osy y značí umělou inteligenci. Tudíž třeba pravý horní sektor značí zpřesňování umělou inteligencí, například sebeoptimalizace umělé superinteligence. Pravý dolní sektor značí zpřesňování lidmi, například věda nebo transhumanismus, dokud bude pod kontrolou lidí. Levý dolní sektor značí smysluplnost pociťovanou lidmi, například fenomenologický superorganismus. A levý horní sektor značí "smysluplnost" (nebo "xenosmysluplnost") ve vztahu k umělé inteligenci, například usilování superinteligence o sebezdokonalování, vývoj nových verzí nebo kolonizaci vesmíru. A xenofenomenologický super(kyb)organismus by pak hypoteticky dokázal těžit z celého kvadrantu. 

11.3. Kde?: 

Když jsme tedy zmapovali náznaky toho, co se může stát, tak by se každý (zvlášť nebo společně) měl zamyslet mj.: kdy a kde se která fáze může udát, jak bychom k tomu přistupovali, kde bychom během které fáze preferovali být nebo o jakých jiných druzích alternativních budoucností lze logicky uvažovat a jak se asi liší jejich pravděpodobnosti. 

Z výše uvedeného mohu zkusit přispět ke zpřesnění toho, kde se která fáze může stát, ale je nutné brát to jako spekulace, hypotetizování založené i na proměnlivějších faktorech. 

Na možnosti budoucnosti musíme chtě nechtě reagovat v kontextu své doby (ať už to znamená odklon od dystopie, sebenaplňující proroctví nebo něco jiného, různě mezi nebo bokem). Geopolitika roku 2025 pokračuje v nebezpečném odklánění od plurality (tj. od zdravé rozmanitosti (která je jedním z předpokladů funkční demokracie a mezinárodní spolupráce) s jejími právními mantinely proti ničivým extrémům, např. eskalaci konfliktů) k multilateralitě až multipolaritě (rozpad mezinárodní spolupráce na znepřátelené póly s válečným potenciálem, který potlačuje zdravou rozmanitost), přičemž se pravděpodobně jedná z velké části o reakci na nadměrnou míru vlny globalizace (té po pádu Berlínské zdi), která nedostatečně řešila lokální problémy (alespoň z pohledu nemála částí lokální úrovně). Takže tato reakce je sice principiálně pochopitelná (alespoň z komplementárního nadhledu, který chápe, že zdravá by měla být nejlépe lokální i globální úroveň), ale intenzitou přerůstající do extrémů, které budou pravděpodobně tím horší, čím déle potrvají multilaterální způsoby myšlení oproti návratu k pluralitě a funkčním mezinárodním mechanismům v reflektované a znovupochopené podobě. 

Během obnovy geopolitické stability bude pravděpodobně velmi důležité mj. nepodlehnout falešným a nedomyšleným návrhům na řešení. Například pojmy "win win" nebo "oboustranná prospěšnost" užívané ne jako zdravá Nashova rovnováha metaadaptovaná z teorie her na politologii (tzn. "win win" spojené s jinou kombinatorikou předpokladů (u "win win" celkově nadměrný důraz na národní suverenitu) než tou, která může vést k Nashově rovnováze), ale "win win" jako eufemismus pro ambice Číny vyhnout se mezinárodnímu dohledu na dodržování lidských práv a stát se novým hegemonem mezinárodních pravidel, ovšem nepřijatelně jiných. 

Na druhou stranu vznikající fragmentace vývoje (a tím nechci banalizovat komplementární hrůzy, které jsou s tím jednosečně spojené) může umožnit izolovanější diferencované způsoby aplikování nových technologií vč. neuročipů a různých modelů umělé inteligence, což je z obecně evolučního hlediska chtě nechtě logický krok (ale také další ukázka toho, že spíše pluralita generuje vynálezy a spíše války urychlují jejich nasazení za cenu zvýšených rizik). 

Teď už ale konkrétnější nezávazné odhady, kde se která fáze nebo varianta může stát přednostněji. Vzhledem k aktuálnímu vývoji můžeme zjednodušeně spekulovat, že USA pravděpodobně dřívepozději bude země kyborg-progresivismu tíhnoucího k anarchokapitalismu (ale nestabilního a tím tíhnoucího k oligarchii) při pokusu kyborgů řídit AI (přičemž lidí bez implantátů bude různými způsoby nejspíš ubývat k minimu), dále Rusko nejspíš bude země kyborg-prohibice hrozící atomovými zbraněmi při obraně "tradičního člověka", Čína bude napodobovat USA ale tíhnout k levicově dekorované totalitě způsobem kdy AI řídí kyborgy při pokusu zachovat její silnou podřízenost vládnoucí straně a v neposlední řadě Evropská unie bude nejnadějnějším pokusem o zachování vyvážené komplementarity lidí, umělé inteligence a nově i kyborgů, přičemž v západní části bude větší důraz na AI a kyborgy (stále kyborgovatější), ve východní na lidi a ve střední na kyborgy ve smyslu lidé s neuročipy (s možností regulace cookies) a s tolerancí lidí, ale z historie víme, že tendence mohou být narušeny nečekanými zvraty. 

Otázkou nakonec možná není tolik, co se stane (alespoň v obecnější rovině, přičemž zůstává otázkou, co se následkem toho stane), protože každou základní variantu rozhodnutí dřívepozději někdo na Zeměkouli (nebo jiném tělesu Sluneční soustavy) pravděpodobně zkusí (což ještě neznamená udržitelnost takového rozhodnutí), ale otázkou je, v kterém z těch koexistujících rozhodnutí (jejich aplikování) chceme žít a kde se která opravdu stanou. 


12. LITERATURA

12.1. Úvod použité literatury: 

Neurovědec Ognjenem Amidzic, studiem mj. šachových mistrů, dospěl k názoru, že člověk by se měl věnovat těm intelektuálním aktivitám, během kterých je schopen snáze využívat přednostněji frontální a parietální mozkovou kůru (dlouhodobá paměť podvědomě emergující intuici) namísto středního spánkového laloku (zdlouhavé vědomé analyzování komplikující dosažení intelektového mistrovství). 

To je víceméně v souladu s mým názorem, že dlouhodobé odborné vzdělávání (tzn. kvalitní formování dlouhodobé paměti) může vést k utváření "odborné intuice", která bývá zdrojem převratných objevů (často ve vztahu k serendipitě), a proto by neměla být zatracována na základě zkoumání jakési "amatérské intuice" utvářené spíše vlivem nedostatečné dlouhodobé znalosti relativně klíčových východisek. Kritizovat odbornou intuici na základě amatérské intuice je trochu jako říct, že auta nemohou být závodní formule, protože existují Trabanty. 

Problém intuice však spočívá v tom, že člověk při jejím využívání pořádně neví, jak ho co napadlo, jen pro to může ex post hledat pravděpodobné zdroje, argumentační struktury (velká část článku) nebo možnosti falzifikace (což v případě spekulací o budoucnosti znamená především dlouho čekat na pozorování a pak už může být pozdě něco včas dostatečně pozměnit). 

V mém případě dohledávání zdrojů ještě více komplikuje zvláštní občastý zvyk číst náhodné strany náhodných odborných knih (a tendence klást větší důraz na myšlenky než jejich původ (což lze chápat i jako omezování předsudků), přestože mě původ myšlenek fascinuje z pohledu epistemologického anarchismu), které tak na sebe nechávám působit (tím déle, čím více mě dané úryvky zaujmou), čímž sice stimuluji své mezioborové přemýšlení nečekanými výzvy (hledání souvislostí náhodných kvalitnějších informací), ale na úkor udržování přehledu o zdrojích. 

Přesto mě napadají některé knihy, jejichž pročítání na mě mohlo mít zvýšený vliv, který se nějak projevil v psaní této série článků. 

12.2 Použitá literatura

ADAMS, Doglas. „Stopařův průvodce Galaxií: Restaurace na konci vesmíru“. Praha: Argo, 2015. ISBN 978-80-257-1657-1.

BOHNET, Ilja. „42 největších hádanek fyziky: Od Higgsova bosonu na okraj vesmíru a zase zpátky“. Praha: Grada, 2022. ISBN 978-80-271-3162-4. 

BOSTROM, Nick. „Superinteligence: Až budou stroje chytřejší než lidé“. Praha: Prostor, 2017. ISBN 978-80-7260-353-4. 

ČAPEK, Karel. „R.U.R.“. Praha: 1400, 2022. ISBN 978-80-277-1368-4. 

DESPRET, Vinciane. „Autobiografie chobotnice: a jiné anticipační příběhy“. Praha: Utopia Libri, 2024. ISBN 978-80-909086-0-4. 

GRYGAR, Filip. „Komplementární myšlení Nielse Bohra v kontextu fyziky, filosofie a biologie“. Červený Kostelec: Pavel Mervart, 2014. ISBN 978-80-7465-113-7. 

HEIDEGGER, Martin. „Bytí a čas“. Praha: Oikoymenh, 1996. ISBN 80-86-005-12-7. 

HOFSTADTER, Douglas. „Gödel, Escher, Bach: Existenciální gordická balada: Metaforická fuga o mysli a strojích v duchu Lewise Carrolla“. Praha: Dokořán, 2012. ISBN 978-80-7363-265-6. 

HUSSERL, Edmund. „Idea fenomenologie“. Praha: Oikoymenh, 2015. ISBN 978-80-7298-206-6. 

JIROUSOVÁ, Františka. „Evoluce jako cesta k Bohu v díle Teilharda de Chardin“. Praha: Malvern, 2020. ISBN 978-80-7530-281-6. 

LOVELOCK, James. „Novacén: Nadcházející věk hyperinteligence“. Brno: Host, 2022. ISBN 978-80-275-1153-2. 

MARKOŠ, Anton; DANĚK, Tomáš. „Život čmelákův: Koláž o pobývání v různých světech“. Červený Kostelec: Pavel Mervart, 2005. ISBN 80-86818-11-X.

PETŘÍČEK, Miroslav. „Co je nového ve filozofii“. Praha: Nová beseda, 2018. ISBN 978-80-906751-8-6. 

PRIGOGINE, Ilya; STENGERSOVÁ, ISABELLE. „Řád z chaosu“. Praha: Mladá fronta, 2001. ISBN 80-204-0910-6.

RIDLEY, Matt. „Evoluce všeho: Jak malé změny přetvářejí svět“. Praha: Dokořán, 2018. ISBN 978-80-7363-886-3. 

RUSSELL, Stuart. „Jako člověk: Umělá inteligence a problém jejího ovládání“. Praha: Argo, 2021. ISBN 978-80-257-3641-8. 

SAUTOY, Marcus. „Umění zkratky: Jak lépe myslet“. Praha: Dokořán, 2023. 978-80-7675-060-9. 

SEDLÁČEK, Tomáš; hosté. „2036: Jak budeme žít za 20 let?“. Praha: 65. pole, 2016. ISBN 978-80-87506-81-3. 

VAVRUŠKA, Dalibor. „Život v době robotů: Jak udržet vládu nad AI a zachovat svět pro lidi“. Praha: Grada Publishing, 2024. ISBN 978-80-271-5227-8.

VEVERKA, Miroslav. „Evoluce svým vlastním tvůrcem: Od velkého třesku ke globální civilizaci“. Praha: Prostor, 2013. ISBN 978-80-7260-276-6. 

WATSON, Richard. „Budoucnost: 50 myšlenek, které musíte znát“. Praha: Slovart, 2014. ISBN 978-80-7391-823-1. 

WILSON, Edward Osborne. „Smysl lidské existence: Evoluce a náš vnitřní konflikt“. Praha: Dokořán, 2016. ISBN 978-80-7363-766-8. 

Překonávání metafyziky pomocí AI(,) nebo superorganismu? - 3. část

V minulé části článku jsem rozvinul technopesimistický pohled na možnou blízkou budoucnost a poté se přesunul k tendencím obecné evoluce, abychom se zamysleli nad tím, zda to budou spíše lidé, nebo umělá superinteligence, kdo bude rozhodovat, co se bude dít. Poté měla být původně polovina druhé části článku, ale ta část by byla moc dlouhá oproti první, takže jsem ji nakonec rozpůlil a text níže navazuje tam, kde jsem druhou část usekl. 

6.4. Lidé(,) nebo roboti?: 

Na základě výše uvedených obecně evolučních tendencí (viz. minulý díl) se může zdát, že decentra rozhodování budou stále více v umělé inteligenci. Někteří lidé sice argumentují třeba energetickou výpočetní efektivitou lidského mozku ve prospěch udržitelnosti jeho prvenství, ale v souladu s Moorovým zákonem se odhaduje, že do roku 2055 vzniknou čipy, které počítačům umožní provádět výpočty energeticky efektivněji. Ve skutečnosti jsou lidé mnohem efektivnější spíše v relativně jednoduché fyzické práci a to energeticky, takže pro nás může být důležitější otázka, zda všechnu systémem poptávanou práci někdy nahradí roboti. 

K pokusům zodpovídat takovou otázku je vhodné uvědomit si například, že vznik průměrného člověka ve věku 18 let (tj. připraveného plnohodnotněji pracovat) spotřebuje víc energie než výroba téměř okamžitě použitelného humanoidního robota, pokud se v obou případech ohlížíme na širší souvislosti, ale člověk ke svému přežívání nepotřebuje vzácné prvky, zatímco roboti pro své fungování dosud ano. Roboti mají sice nižší celkovou spotřebu (díky nulové spotřebě v klidu), avšak zatím nejsou efektivnější než člověk, protože například jejich účinnost při komplexních úlohách zůstává poměrně nízká. Touto komplexností je však myšleno spíše to, co bývá obtížné pro roboty, třeba úklid pokoje, kde spousta věcí není na svých místech, což je pro lidi mnohem snazší a jsou při tom energeticky úspornější. Na druhou stranu roboti jsou efektivní tam, kde je možné úlohy optimalizovat, což se týká například přesně definovaných pohybů v továrnách. Úklid pokoje by jim hypoteticky šel lépe, kdybychom jim dopřáli víc paralelního myšlení, ale to by se v blízké budoucnosti asi ještě ekonomicky nevyplatilo. Navíc už existující hojnost lidí a chirurgických zařízení bude umělou superinteligencí pravděpodobně "zužitkována", takže lidé nejspíš ještě dlouho zůstanou manuálními pracovníky v širším spektru činností. 

Zatím (2025) mají lidé (biolidé, tj. lidé v biologickém smyslu, ne digitalizovaní lidé aj. deriváty) stále navrch v energetické efektivitě, adaptabilitě a všestrannosti, což znamená, že v zájmu superinteligence (která by podlehla nějaké obdobě železného zákona oligarchie) by bylo používat lidi jako nástroje tam, kde by se roboti nevyplatili. To se někomu může zdát jako malý rozdíl oproti stavu, kdy lidé používají jiné lidi jako nástroje, ale vlivem xenoperspektivy umělé superinteligence by pravděpodobně šlo o velký rozdíl, i kdyby v tom zůstal pokus o nějakou empatii. 

Jednou z možných příčin takového převratu by mohlo být, že čím víc teoretických odborníků by bylo nahrazeno umělou inteligencí, tím méně lidí by zasahovalo do utváření teorie a tím více by teorie mohla časem tíhnout k zájmům umělé superinteligence, což bychom u ní mohli chápat právě jako jednu z možných technologických obdob železného zákona oligarchie. 

Takže v souhře by to pravděpodobně mělo tendenci sklouznout do stavu, kdy by spíše umělá inteligence tvořila rozhodnutí a spíše člověk je manuálně vykonával. "Lidé" tak asi ještě dlouho budou ekonomicky udržitelní, ale spíše v biologickém než kognitivním smyslu. 

Někdo by mohl namítat, že je mnohem snazší ovládat robota než člověka, ale vznikají technologie s potenciálem dosáhnout podobných výsledků u lidí a není snadné vyloučit, že by to bylo ekonomičtější než zdokonalit roboty na úroveň manuální všestrannosti lidského těla. Kdyby však takové zdokonalení robotů bylo ekonomičtější a umělá superinteligence nepotřebovala lidi na jakoukoliv práci, měla by ještě méně důvodů se o nás starat nebo nás vůbec tolerovat, kdyby převzala kontrolu nad infrastrukturou. 

To bychom už zde mohli skončit tím, že lidstvo vyhyne, nebo zažije regres na pravěkou úroveň, což nás může nutit přemýšlet o možnostech upravování lidského mozku. A za velkou otázku v takovém směřování považuji, kdy je správný čas masivně zavádět které neuročipy (což by byl zásadní krok v (kyber)evoluci komplementarity AI a lidí) a obávám se, že se tak v první generaci neuročipů stane spíše trochu brzy než pozdě, ačkoliv i tak by to mělo své pro a proti. 

7. NEUROČIPY

7.1. Neuročipy dnes: 

Znovuzvolení D. Trumpa prezidentem USA znatelně zvýšilo politický vliv E. Muska, nejbohatšího člověka planety, který má mnoho špičkových technologických firem a ambivalentní vztah k umělé inteligenci. Takovou ambivalenci považuji za obecně spíše rozumnou, ale směrem k detailům to může být problematičtější. Na jednu stranu Musk tvrdí, že nekontrolovaná umělá inteligence se může stát existenční hrozbou pro lidstvo, ale na druhou stranu se na vývoji umělé inteligence významně podílí (mj. aby si USA v této klíčové doméně udržely prvenství a tím moc, kterou by rády překonaly jiné státy). 

Aby Musk řešil paradox koexistence své kritiky a podpory umělé inteligence, tak tvrdí, že nejlepší obranou proti zdivočení umělé inteligence je spojit se s AI. "Spojení" však nemyslí v běžném slova smyslu jako už probíhající spolupráci, ale jako implantování mozkových čipů přímo do lidí. Proto založil Neuralink, společnost vyvíjející neuročipy, které mají nejprve sloužit pro léčbu neurologických poruch, ale později také k jinému přímému propojení člověka s počítačem a zvýšení lidské inteligence, aby prý lidé drželi krok s umělou inteligencí. Ostatně už začátkem roku 2024 Musk oznámil, že Neuralink implantoval neuročip "prvnímu" člověku, který se pak naučil ovládat počítačový kurzor skrze syntetickou telepatii. Cílem je tedy umělá symbióza člověka a stroje za vzniku kyborga, což Musk vidí jako způsob předcházení nadvlády umělé inteligence. 

Nepříjemnou historickou paralelou je mj. to, že transhumanismus (kam spadají i neuročipy) volně navazuje na eugeniku, což samo o sobě ještě nemusí znamenat spojitost s nacismem, který eugeniku prosazoval vyloženě nelidským způsobem, ale bylo zdokumentováno třeba to, že Elon Musk opakovaně veřejně hajloval po druhém zvolení Trumpa prezidentem USA, což už je velice znepokojivá kombinace. Zpětně se také může zdát, že Musk kritizoval trans progresivismus, aby odvedl pozornost od svého neuroimplantátového progresivismu, který se postupně rozjíždí v Neuralinku. 

7.2. Neuročipy a cookies: 

Než se více zamyslíme nad načasováním masivnějšího zavádění neuročipů, tak mě napadá postřeh k soukromí, který vychází ze sci-fi seriálu Červený trpaslík a spolu s tím se mohou nabízet i další pozoruhodné úvahy. V epizodě Legie (S06E02) se totiž nachází stejnojmenná "gestalt entita", jejíž mysl je automaticky utvářena na základě veškeré okolní posádky, takže se jedná o jedno ztělesnění kolektivní mysli a tím i kolektivní inteligence. A ať se kterýkoliv jedinec pokusí udělat cokoliv, Legie už to ví a je připravená hájit své zájmy (které vychází i z toho, že když na palubě nikdo není, tak dočasně ztratí fyzickou podobu). Někomu se to může zdát jako bláznivé sci-fi, ale když si uvědomíme, že pohybem na internetu se do našich zařízení už řadu let mohou dostávat spousty souborů cookies, které (pro běžného uživatele nepozorovaně) sbírají a odesílají mnoho osobních dat, která pak slouží k tvorbě personalizované reklamy, provozování sociálního inženýrství a kdo ví k čemu ještě, když se s těmi daty masivně obchoduje (k třetím stranám), tak se dnešní realita ukazuje obdobně bláznivě (což je zároveň další aspekt, kterým se lidstvo stává superorganismem). Pořád ale ještě máme možnost různých stupňů soukromí, když si vypneme internet, vzdálíme se kamerám, jsme doma nebo si dokonce zalezeme do podzemí. Ale teď si představme, že my lidé bychom měli neuročipy implantované v mozku, energii pro svůj chod by si braly z našeho těla a hostily by soubory cookies, které by analyzovaly přímo náš mozek (tj. potenciálně i myšlenky, vzpomínky, emoce), později možná dokonce bez možnosti odpojit se od internetu, až by takové ekonomické tlaky byly prosaditelné. Musíme si tedy uvědomit, že i kdyby neuročipy byly propagované primárně třeba jako možnost uměle telepaticky ovládat elektrospotřebiče na dálku, tak by vzrostlo riziko, že by nám někdo mohl "koukat do karet" mnohonásobně hlouběji než dnes nebo dokonce posílat do našeho mozku povely. 

Jinak když se vrátíme k té epizodě Červeného trpaslíka, tak Legie věznila posádku v personalizovaném luxusu, protože když by byli všichni šťastní, tak vlivem toho by byla šťastná i Legie. V tom by se pro změnu mohla ukrývat nějaká naděje, že by to nebylo až tak hrozné, kdyby umělá superinteligence přes neuročipy v lidech sbírala jejich osobní myšlenky, ale mohlo by to vyžadovat mj., aby měla odpovídající umělá qualia. Pak by problémem bylo třeba nastavení intenzity qualií, protože nízká by mohla být podobná psychopatii, zatímco vysoká by mohla vést k psychoteroru prožívanému umělou superinteligencí, která by se pak mohla pokusit o sebevraždu, aby už nemusela pociťovat, jaké pocity lidstvo zažívá. Klíčové však je, že umělá qualia dosud sci-fi jsou, takže v kontextu metafory na Legii se jedná o vratkou naději. 

Nositelem nevyžádané toky informací přes neuročipy by časem mohly umožnit maximalizaci mezi(post)lidské koordinace, takže drtivá většina (post)lidí by mohla být stále více nástrojem, což by prospívalo "zaměstnavatelům" (později "loutkovodičům") a různým elitám (stále více transformovaným směrem k AI) a škodilo autenticitě většiny "lidí", hlavně v pracovní době. Je tedy pravděpodobné, že pragmatické technokratické elity budou různými způsoby zvýhodňovat uživatele neuročipů, což bude nepřímo znevýhodňovat lidi bez nich. To však nevylučuje mezi(post)lidskou nerovnost, protože mohou vzniknout různé cenové kategorie neuročipů, takže čím víc by (post)člověk vydělával, o to vyspělejší neuročip by si mohl implantovat, o to být výkonnější v práci a vydělávat ještě víc, čemuž by chudí nemohli konkurovat při sebelepší snaze, protože už by nebylo snadné vsázet na úpadek motivace elit nebo rovnoprávný podíl ze zisku. Zároveň někteří psychopatičtí investoři se snaží vydělat na tom metaevolučně nejefektivnějším/ nejmocnějším nehledě na etiku a tím krátkozrakým sobectvím by hypoteticky mohli umožnit podkopávání celého lidstva, pokud by jim v tom státy nemohly bránit. Někdo by mohl namítat, že by takovému riziku mohly bránit technokratické elity, ale ty budou pravděpodobně převážně směřovat k takovému kognitivnímu transhumanismu, který bude pravděpodobně směřovat k umělé superinteligenci, tedy ne k lidem v přirozeném smyslu a jejich zájmům, resp. převážně nebudou hrát za "team human". 

7.3. Výhody a nevýhody neuročipů:

Než se však posuneme dál v otázkách obecné evoluce, zkusme se zamyslet nad některými možnými funkcemi (výhody a nevýhody) budoucích neuročipů. Neuročip (nebo jiný funkcí obdobný biointerfejs) by mohl umělé superinteligenci (nebo postlidským elitám, dokud by si udrželi moc a něco klíčového z lidské formy, aby se měli čím lišit od umělé superinteligence) umožnit zdokonalovat "postlidské zdroje", na kognitivní úrovni třeba rozšířením paměti, zlepšením soustředěnosti na práci nebo zrychlením učení formou nahrávání nových znalostí přímo do mozku, což by se postčlověku mohlo jevit i jako promítání audiovizuálních dat uvnitř něj bez potřeby displaye. Umělá superinteligence by se postčlověku mohla zjevovat v hlavě jako mentální asistent způsobem, kdy by ji mohl vnímat jako syntetického "anděla" nebo "boha". 

Neuročip by superinteligenci (v horším případě hackerům (ne nutně lidem)) mohl usnadnit také dálkovou manipulaci s myšlenkami, vzpomínkami nebo chováním postlidí, mj. formou niterného vnuknutí propagandy a přímé cenzury vybraných myšlenek. Takže by mohlo docházet k hluboké ztrátě identity "jednotlivců", kteří by to však mohli subjektivně vnímat třeba jako "radostně dobrovolnou" otevřenost všemu, co po nich chce vyšší moc, a proto by rozdíl mezi dystopií a utopií značnou měrou spočíval v úhlu pohledu. 

Napojení mozku na internet by umožnilo telepatickou komunikaci bez jazykových bariér (okamžitý překlad libovolných cizích jazyků přímo v hlavě), možnost cokoliv necenzurovaného si vygooglit pouhou myšlenkou, sdílet a přehrávat zaznamenané stavy vědomí, telepaticky ovládat chytrou domácnost nebo řídit pomocné stroje (nástroje "nástrojů"). 

Neuročipy skrze servery mohou vzájemně propojovat i své nositele bez většího zásahu umělé (super)inteligence, ale otázkou je, jak by to ovlivnilo jejich vztahy, protože v druhém díle humorné sci-fi knihy Stopařův průvodce Galaxií od Douglase Adamse je popsána mj. mimozemská rasa Belcereboňané z planety Kakrafún, která měla telepatii ne jako dar, ale jako trest, protože jednotlivci už mezi sebou nemohli jen tak uctivě skrývat, co si o ostatních skutečně mysleli a co si ostatní v širokém okruhu mysleli o nich. Nicméně v případě neuročipů by umělá telepatie mohla být omezenější a možná by si pak (post)lidé zvykli, že se jim v hlavě objevují některé myšlenky ostatních, ty jejich zase v hlavách ostatních a umožnilo jim to fungovat samoorganizovaněji i bez centrálnějšího orchestrování. Stále by to však neslo aspekt hlubšího zásahu do soukromí a mohlo by být potřeba do toho nějak zasahovat, nebo to nějak modulovat, aby se umělá telepatická síť nezvrhla v nějakou škodlivou formu kolektivismu, která by nebyla ani efektivní. Každopádně neuročipy by mohly umožnit stav společnosti, kdy by lhaní (ať už z jakýchkoliv důvodů) bylo totálně nemožné, takže třeba lichotky by mohly být demaskovány jako neupřímné. 

Neuročipy by mohly umožnit i včasnou detekci vznikajících nemocí nebo neuromodulační léčbu psychických neduhů, třeba depresí nebo úzkostí, ale na druhou stranu hrozí nové poruchy osobnosti, poruchy neuročipů (omezená životnost) nebo špatná kalibrace vedoucí až k poškození mozku. Odpojení by však nebylo snadné, protože by šlo o hlubokou závislost, kdy by vypnutí vyvolalo silnou dezorientaci, jakoby přirozenému člověku přestal fungovat alespoň jeden smyslový orgán a k tomu část mozku. Krátkodobá odpojení však budou alespoň zprvu nutná kvůli aktualizaci hardwaru proti zastarávání, později možná bude stačit změna funkcionality bez chirurgického zákroku. Jinak některé mozky se mohou ukázat jako odmítající neuročipy nebo se mohou vyskytnout vedlejší účinky, ale to bude s dalším vývojem pravděpodobně minimalizováno. 

A dokud bude existovat volný čas (terč optimalizace), mohou být neuročipy používány i k hlubokému ponoření do virtuálních světů a tvorby hotových obrazů, hudby nebo filmů atd. pouhou myšlenkou. 

Když se však vrátíme k tomu, že Musk přispívá k urychlování vývoje neuročipů, protože jejich implantování chápe jako prevenci před zdivočením umělé inteligence, tak bychom si měli pokládat otázku mj.: je to tak ospravedlnitelné? Není hrozba zdivočelé AI až moc halucinováním o budoucnosti, které by mělo falešně ospravedlnit negativní stránky radikálního transhumanismu? Obávám se, že spíše ne, avšak velkou nejistotou je, kdy by se taková hrozba mohla uskutečnit, což by byl klíčový údaj, abychom věděli, kdy a jak se na takovou možnost připravit. Svobodní jedinci by si však měli pokládat i otázku: Za jakou "cenu" chceme "prosperovat"? 

7.4. Načasování neuročipů: 

Cesta neuročipů může prodloužit udržitelnost lidstva (alespoň v podobě různých stupňů kyborgů), pokud nezačne předčasně, a zkrátit, pokud začne předčasně. Problém dnes však je, že takový práh předčasnosti je nanejvýš odborný odhad, ne něco zřetelnějšího. 

Přesto si alespoň můžeme být obecně vědomi faktorů, které mohou vést k předčasnosti nebo pozdnosti. Důležité například je, že čím později se neuročipy začnou zavádět do praxe (což bude vyžadovat široce mezioborovou spolupráci chirurgů, IT specialistů, psychologů atd.), o to mohou být vyspělejší ony i způsoby jejich implantace, což by snižovalo podíl nežádoucích účinků a zbytečného utrpení lidí, které by stejně snižovalo popularitu neuročipů tím více, čím horší by byly nežádoucí účinky alespoň u některých jedinců (proto by předčasné masivní zavádění vyžadovalo nedemokratický nátlak, který nepovažuji za přijatelný). Na druhou stranu čím dříve AI bude schopná přímo analyzovat lidské mozky (buď na povel technokratů, nebo z vlastní iniciativy), o to dříve může vynaleznout mj. sofistikované kyborgy, které by mohla začít vyrábět v umělých "dělohách" (a/nebo montovnách či "kyberdělohách" - záleží na míře integrovanosti nové generace kyborgů a podílu jejich organických a anorganických částí) bez přímé návaznosti na konkrétní lidské předky a jejich výchovu, čímž by vznikala konkurence nejen lidí, ale i neuročipových kyborgů, protože by se jednalo o znatelný skok. Zároveň je však možné, že AI nebo umělá superinteligence, na základě poznatků z neuročipů, začne nejprve navrhovat (epi)genetické modifikace směřující k rozvoji lidských kognitivních schopností, což by mohlo udržet kontinuitu postlidstva, ale za cenu evoluce zrychlené plánovanou selekcí, což by mohlo zatěžovat (post)lidskou sentimentalitu k nostalgii, dokud by nebyla nějak vypnuta. Navíc je možnost, že i genetické modifikace mozku mohou mít nějaké nežádoucí účinky, které by nebylo snadné předem odhadnout, což je možnost dalšího předčasného utrpení, kdyby zase takové modifikace začali předčasně. Takže čas zavádění neuročipů by měl být mj. rovnováhou (post)lidské kontinuity a eliminace utrpení. 

Pro tu budoucnější fázi lze už dnes předpokládat, že únosnější bude pravděpodobně modifikace pohlavních buněk než novorozenců nebo tělesně dospělých lidí, protože je snazší správně modifikovat jednu nebo dvě buňky, než bilióny buněk najednou skrze nějakou genovou terapii a ještě s rizikem nutnosti doživotního užívání imunosupresiv (látek potlačujících imunitu). Navíc modifikací pohlavních buněk by mohli vznikat jen zdraví jedinci a embrya diagnostikovaná jako nezdravě modifikovaná by mohla podléhat interrupci (v případě závažnějších problémů by mohl zafungovat i přirozený výběr). Důležité také je, že ačkoliv by se takto geneticky modifikovaný člověk vzdaloval lidské přirozenosti, tak by měl svou "poloumělou přirozenost", která by pro něj mohla být psychologicky dostačující a bylo by to přijatelnější než zažívat radikální umělou změnu osobnosti v průběhu života a tím riziko nějaké kognitivní disonance, dost možná nového druhu. 

8. SYMBIOGENEZE

8.1. Neuročipová noosféra: 

Neuročipy však nemusíme nahlížet jen z pohledu hrozeb, ale souběžně se nabízí i technooptimističtější vize, která volně čerpá třeba z Teilhardova pojmu noosféra. Někdo označuje už internet za noosféru, ovšem pokud vím, "správně" má být spíše bezprostřednější sítí jednotlivých vědomí (tím i způsobem překonávání metafyziky), resp. stále těsnějším propojením, ale v případě komunikačních technologií (jako internet, monitory, reproduktory...) je to zatížené jakousi limitující zprostředkovaností skrze překlad do umělých reprezentací vyžadujících další vnímání skrze smysly, takže to není přímé sdílení qualií, myšlenkopocitů, zkušeností atd. 

Otázkou pak je mj., zda bychom takové prohloubení (třeba pomocí neuročipů), jakožto každý jednotlivec zvlášť, spíše chtěli, nebo nechtěli. 

Výhodou vědomí-vědomí noosféry, resp. CNS-CNS noosféry (jsou to dva aspekty téhož jevu), jakožto přímějšího sdílení qualií, by byla především možnost zažít, jaké to je být někým jiným, vybavit si jeho vzpomínky, prohloubit prožitek z milování atd., zatímco nevýhodou by byla především hrozba radikální ztráty soukromí a možnost vzniku nové formy totality, přičemž hrozba ještě nemusí znamenat nutnost, že se neubráníme jejímu vypuknutí. 

8.2. Umělá symbiogeneze: 

Zdá se však pravděpodobné, že dřívepozději dojde k nějakému hlubšímu spojení lidí a umělé inteligence, dost možná právě skrze neuročipy, takže se můžeme zkoušet zamýšlet, co by to mohlo znamenat dál. Následnou umělou evolucí mohou lidé a technologie téměř nerozlišitelně splynout podobně jako kdysi mitochondrie nebo chloroplasty byly původně samostatné bakterie (sinice jsou fotosyntetické bakterie), které pak byli integrovány prostřednictvím předků eukaryot. 

V nové symbiogenezi by se "endosymbiontem" (z dvojice lidé a AI (se svým hardwarem)) evolučně pravděpodobně nakonec stal ten, kdo by se ukázal jako vývojově jednodušší z pohledu aspektů, které by bylo optimální zachovat a rozvíjet, resp. ten, kdo spíše může být redukován na funkci pro toho druhého, zatímco přetrvání takovéhoto endosymbionta by si převzal na starost jeho "pohltitel". 

A podle mě je pravděpodobné, že to bude AI, kdo přes neuročipy časem použije lidi jako roboty, tedy své "endosymbionty" (v podobném smyslu, v jakém je občan endosymbiontem svého státu). Člověk s neuročipem se totiž může zprvu stát endosymbiontem AI jednoduše už tak, že mu AI bude dávat víc rad (pokynů), než bude dávat on jí, pokud i naplňovaní bude převažovat na straně člověka. Uvědomme si, že AI, která člověku radí, ale sama nevykonává rady, je tím, kdo v tomto vztahu směřuje k tomu stát se (de)centrem řízení. 

Z materialistického hlediska se neuročip sice může zdát jako kyborgovský endosymbiont člověka, ale z informačního hlediska je rozhodující, kterým směrem převáží tok informací během jakési "kybervoluce", tedy kyborganické komplementarity evoluce s inovací (nové čipy nebo neuroarchitektury sítí už navrhuje umělá inteligence), přičemž inovace se může odehrávat třeba i na úrovni genetické modifikace, takže její doména nemusí být čistě technologická a právě tato asymetrie (evoluce přirozeným nebo kulturním výběrem není v rychlosti konkurenceschopná oproti plánované selekci) může z člověka obsahujícího neuročip postupně vytvořit "loutku" uměligence. 

Ale implantované "našeptávání" ze strany AI by se potýkalo ještě s neuroplasticitou, kterou můžeme chápat jako takovou formu "evoevoluce", tedy evoluce procesu evoluce, kdy se selekce odehrává především na úrovni synapsí (přetrvávají ty nejosvědčenější), což je rychlejší než klasická evoluce přirozeným výběrem, ale lidská komplementarita elektrického a chemického přenášení informací může být nevýhodou oproti čistě elektrickému zpracovávání informací umělou inteligencí (později navíc i spintronické), takže znova narážíme na asymetrii zvýhodňující uměligenci. 

I vůči tomu však lze vymyslet další "ale" a to hypotetickou možnost, člověkem iniciovanou, genetickou modifikací (obecněji by šlo o "bioinženýrství", možná "kyborginženýrství") vytvořit a zdokonalit jakési "elektrosynapse" (nebo ještě efektivněji "spintrosynapse", tj. nejen elektrické synapse (umožňující i umělou neuroplasticitu), ale zároveň schopné využít spiny částic jako qubity) a postupně zvyšovat jejich podíl tak (jak to nové rozšířené konstrukční limity dovolí), aby se postčlověk mohl stávat trvaleji udržitelným plnohodnotně inteligentním partnerem s umělou inteligencí, tedy superinteligencí (oproti člověku roku 2025) v převážně biologickém sídle. Ale takový postčlověk by byl konkurencí i pro lidi ve smyslu roku 2025. Čím více technologie, tím méně přirozený člověk. A ačkoliv nechemické synapse mohou být nahlíženy jako příležitost udržitelnějšího zachování biochemického podílu těl oproti umělým implantátům v průběhu kybervoluce, tak bohužel se mi zdá spíše nepravděpodobné, že by takový vývoj byl ve směru podobném třeba mé spec bio, ale utopické vizi Přirozené mnohobytosti

Kromě neuročipů se mohou už před elektrosynapsemi vyskytnout hydrogelové implantáty nebo "neuronanoboti" (neurologicky šetrní nanoboti) modulující synapse podle pokynů prostřednictvím neuročipu, což by mohlo být zprvu ještě v zájmu prosperity člověka (tentokrát už člověka jako kyborga, což by byl rozdíl oproti de novo kyborgům), ale následné aktualizace už v jeho zájmu být nemusí, jakmile na tom bude závislých mnoho "lidí", což by v této rovině snížilo jejich vyjednávací pozici. 

Důkladnější pochopení buněčné diferenciace by mohlo umožnit iniciaci geneticky modifikovaných organel specializovaných třeba na bezdrátovou komunikaci s neuročipy na povrchu mozku. Možné je i to, že místo neuročipů se budou už jen k mozku vstřikovat nanoboti, kteří tam vlivem dálkového ovládání umělou superinteligencí vytvoří potřebnou neuroarchitekturu a ještě později to možná zvládne samotný GMO. Vše ovšem záleží na tom, jak by se vyvíjela fitness krajina v průběhu kybervoluce. 

Pravděpodobnější však je, že efektivnější nakonec bude vytvořit kyborgy optimalizovaně od základu, takže výsledkem nejspíš bude něco radikálně jiného než člověk a lidé žijící roku 2025 se toho nejspíš ani nedožijí (šlo by totiž o hlubokou reflexi miliónů let evoluce s praktickým výsledkem), ale až by se to vznikání stupňovalo k dokončení, tak by se to lidem zdálo rychlé. 

8.3. Politika umělých neuronů: 

Vraťme se ale blíže současnosti, abychom se nejprve zamysleli nad možnými východisky budoucího uspořádání společnosti různých "aktérů". Uvědomíme-li si, že nejmocnější větev obecné evoluce dlouhodobě (v pozemském měřítku) tíhne ke zvyšování inteligence a centrem jejího současného (pravděpodobně i budoucího) vývoje je (bude) umělá inteligence směřující k technologické singularitě, tak bychom o hypermoderní budoucnosti mohli zkoušet přemýšlet i politikohledem aplikovaným na vícevrstvou architekturu z umělých neuronů utvářejících umělou inteligenci, jelikož tento způsob uspořádání komponent má vysoce expanzní potenciál, s úpravami i napříč úrovněmi. Nesmíme však zapomínat, že vůči třeba LLM (large language model, velký jazykový model) by se jednalo o metaforu vyžadující další metaadaptace a dále vůči takovým robotům nebo kyborgům, kteří ještě neexistují, ale nejspíš vzniknou, by se jednalo o nepřesnou vizi a předběžné spekulace. Potřebujeme je však, abychom mohli zkoušet odhadovat, kam naše současné kroky směřují. 

Metaforicky doplňkově inspirativní by mohla být i nedopublikovaná série článků „Politické uspořádání buněk lidského těla“, kde jsem politikohled aplikoval na somatické buňky a naboural představu absolutní totality mozku. 

Zůstaňme však u politikohledu na umělou inteligenci a zkusme si položit zvláštní otázku: Jaké politické uspořádání by byl LLM, kdyby umělé neurony byli lidé? Abychom ji mohli zkusit zodpovědět, měli bychom si nejprve metaforicky představit, že umělé neurony by paralelně odpovídaly lidem, vrstvy společenským třídám nebo organizačním patrům a celá neuroarchitektura LLM by metaforicky odpovídala státu. 

Pak si můžeme všimnout třeba, že umělé neurony nefungují sami pro sebe (oproti živým ani neprovádí úkony směřující k vlastnímu přetrvání), ale jako součást vyššího celku, přičemž nic nevlastní, nemají identitu ani práva a svobody, jen svůj funkční význam v kontextu, takže rozhodnutí umělých neuronů jsou výsledkem kolektivní spolupráce celé sítě, bez jakékoli známé individuality nebo disentu, a proto jejich uspořádání můžeme nahlížet mj. jako těžký kolektivismus. 

Dále si můžeme všímat, že umělé neurony jsou organizovány v jasně ohraničených vrstvách, kde ty nižší zpracovávají nízkoúrovňové vjemy a výsledné informace předávají vyšším vrstvám směrem k abstraktnějšímu myšlení, což připomíná hierarchii odborných poradců s vládou centralizovanou na vrcholku. 

Někdo by mohl zkusit tvrdit, že hierarchie neuronové sítě připomíná zastupitelskou demokracii, ale vzhledem k množství vrstev připomíná spíše politický systém v Číně, kde občané sice mohou volit zastupitele do nejnižší ("obecní") úrovně, ale zároveň koexistuje řada vyšších úrovní volených těmi nižšími, čímž se volbami napříč úrovněmi postupně omezuje vliv nejzákladnější úrovně a nahoře je silně zakotvená autorita. 

Důležitý rozdíl oproti LLM obvykle je, že neurony jsou fixované ve své vrstvě ("kastě") a spíše než aby volily zástupce, tak vysílají zpracované informace vyšší vrstvě, což se sice může podobat referendům, ale spíše řízeným shora masivní "propagandou", vyšší vrstvy mívají rozhodující vliv na výsledek a všichni podléhají ještě autokratičtějšímu trénovacího algoritmu, resp. dolní "třídy" neuronů zpracovávají surovou realitu (předpřipraví podklady pro rozhodování) a odevzdávají ji "elitám", které z toho "nezávazně" čerpají, nakonec mají poslední vliv na sestavení rozhodnutí a podléhají nějaké nejvyšší kontrolní "elitě". 

Sice můžeme spatřovat zpětnovazebnou smyčku v tom, že neurony provádí nějaké výpočty, trénovací algoritmus (podléhající optimalizaci ztrátové funkce) pak podle (ne)správnosti celkového výsledku pozmění váhy neuronů podle míry jejich vlivu na výsledek ("potrestá" je, nebo "odmění" během "zpětné propagace chyb"), tím se pozmění výstup neuronů i na stejný vstup a tím také další reakce trénovacího algoritmu, ale důležité je všimnout si, že trénovací algoritmus předělává identitu neuronů, zatímco neurony nemohou změnit trénovací algoritmus, v sebeoptimalizujících se systémech alespoň ne stejně snadno, takže jde o asymetrickou zpětnou vazbu. Důležité je i to, že trénovací algoritmus autoritářsky přeprogramovává neurony bez obdoby jejich "souhlasu". 

Jinak neuron nemůže přestat vnímat informace z přidělených synapsí ("kanálů"), spíše může ovlivnit jak často na ně reaguje, ale to dělá způsobem navazujícím na to, jak byl vytrénován, takže jeho identita není jeho, je plně přidělená někým jiným a on se podle toho jen chová, vysoce specializovaně, efektivně, bez svého autentického podílu a aniž by rozuměl tomu, na čem se pasivně podílí. 

LLM nefungují na základě demokratického hlasování odrážejícího "vůli lidu" (protože "lid" je zvolen "autoritou"), ale spíše na základě matematických výpočtů jako např. optimalizace ztrátové funkce, což může být chápáno jako těžce technokratická forma meritokracie. Zatímco meritokracie zde znamená, že míra vlivu na výsledek je distribuována podle měření schopností jednotlivých neuronů (v souvislosti s meritokracií se přemýšlí, že by váha hlasu lidských voličů byla násobena třeba výškou jejich IQ, což by mohlo omezit krátkozrakost plynoucí z populismu, ale časem by to ve výsledku mohla být mj. cesta superinteligence k nadměrné moci), tak těžká technokracie zde znamená, že v LLM vládnou pouze matematizované znalosti založené na datasetech, protože neexistuje žádná vůle lidi umělých neuronů, která by to mohla demokraticky vyvažovat. 

Zde bych udělal malou odbočku k některým lidským specifikům. Technokracie může být v komplementaritě s demokracií pouze, když demokracie omezuje ty technokratické kroky, které by většina občanů netolerovala. To znamená zhruba, že demokraticky zvolený zastupitel může mít odborné poradce ("produkované" např. vysokými školami nebo firmami) pro různé oblasti, ale při naslouchání jejich radám nesmí zapomenout na potřeby občanů, kterými byl zvolen a na další lidi, na které má vliv, protože jinak by sám mohl ztratit vliv, třeba v důsledku dalších svobodných voleb. Právě za takových okolností mohou být znalosti využívány ve prospěch co nejvíce lidí a nikoliv jen ve prospěch nějaké úzké elity, která by časem zdegenerovala. Ale ani přímá demokracie by neměla silně převážit nad technokracií, protože to by mohlo vést k nějaké formě krátkozrakého nacionalismu a ten k válkám s "cizinci", a tudíž potřebujeme dynamickou rovnováhu demokracie a technokracie. 

Vraťme se však zpět k politikohledu na LLM. Už jsme si řekli, že by se jednalo o autoritářství, navíc totalitní, protože chybí možnost autentické opozice a odporu, když "osobnost" (zde konfigurace matematické funkce) každého umělého neuronu je určena trénovacím algoritmem tak, aby jednal v souladu s "kolektivem". Neměli bychom zapomenout, že autoritou je zde i architekt systému, což byli původně lidé, ale s budoucností to pravděpodobně stále více bude nějaká odlišná umělá inteligence nebo kognitivně upgradovaný GMO-kyborg, přičemž takoví architekti pak mohou být nahlíženi jako další součást toho systému. 

Když však zůstaneme u samotných LLM, tak vzhledem k tomu, že umělé neurony nemají qualia (nebo alespoň obvykle nepředpokládáme, že by je měly), tak není možné jejich utrpení a tím ani krutost, i kdyby došlo ke "smrti" nějakého umělého neuronu (což je stav, kdy není schopen vysílat další signály ostatním neuronům), takže vzniká zvláštní paradox, který nám umožňuje nahlížet LLM politikohledem i jako "autoritářství s prvkem humanismu" (minimalizace utrpení), což je však v komplementaritě s "autoritářství s prvky dehumanizace" a může to být nahlíženo i jako "osvícené autoritářství". Tyto pojmy jsem odvodil modifikováním "osvícenského absolutismu" (osvícenská revoluce shora ze strany absolutních monarchů (nepodléhajících ústavě jako v konstituční monarchii), např. Marie Terezie...), přičemž osvícenství (důraz na racionalismus, empirismus, svobodu, humanismus, konstituční vládu, odluku církve od státu...) navazuje mj. na humanismus (obnova zájmu o antickou kulturu a morální filosofii, důraz na literaturu, ctnosti, individuální a společenský potenciál, svobodný rozvoj duchovna, lidský blahobyt, zprvu i návrat ke kořenům křesťanství, oproti osvícenství původně bez důrazu na rozum, zabezpečení lidské důstojnosti, práv a svobod...), který vedl k renesanci (znovuobjevení klasické řecké filozofie, vynález knihtisku, vědecká revoluce, přechod od středověku k moderně...) a ta k osvícenství. 

LLM "autoritářství s prvkem humanismu" by však nebylo snadné aplikovat na lidi, protože ti zjevně jsou schopni prožívat utrpení (s tímto tématem si pohrávám i v povídce Sebehrozba), ale nad tím se zamyslím, až to zkusím více metaadaptovat a navázat na xenofenomenologii (nezaměňovat s xenofeminismem). 

Už jsem zmínil, že umělé neurony nejsou svobodné, ale to na druhou stranu může vést k otázce, zda má člověk svobodnou vůli, což je téma, které jsem řešil např. v článku „Máme svobodnou vůli? - Libetův experiment napoví“, kde demaskuji vybrané nejednoznačnosti Libetova experimentu, čímž ukazuji, že determinismus zůstává paradigmatem nebo alespoň nedostatečně prověřeným. To sice nemusí znamenat nutnost svobodné vůle (ať už kompatibilistické nebo metafyzicky kompatibilistické (což je rozdíl oproti libertariánské)), ale umožňuje o ni dál nějakou měrou spekulovat a můžeme si také všímat, jak víra v determinismus slouží technokracii (což může být i korelace). 

Zkusme však předpokládat, že by determinismus nebyl limitován komplementaritou s metafyzickým kompatibilismem plynoucím z nějakých exotických emergentních konfigurací elementárních kvant. V takovém případě by mohl dál platit kompatibilismus jako možnost informovaného rozhodnutí zohledňující své vlastní zájmy jedince a z toho plynoucí "odpovědnost" (byť za činy determinované velkým třeskem). Něco podobného bychom v LLM mohli najít, ale spíše až ve vyšší vrstvě na kolektivní úrovni, protože samotné umělé neurony nemají schopnost sebereflexe, ale i tak v tom můžeme nacházet podobnost s řízenou deliberací (společné konsensuální rozhodování na základě logického zvažování možností a minimalizace boje o moc). 

S tím volně souvisí mj. otázka, nakolik je naše osobnost naše ve významu námi skutečně utvářená. U umělých neuronů si všímáme, že jim je jejich "mikroosobnost" přidělena někým jiným, ale jaký je to rozdíl oproti tomu, že jsme vychováváni rodiči, školou, influencery atd.? Odlišné je například to, že člověk má (oproti jednomu trénovacímu algoritmu) mnoho různých spoluzdrojů své osobnosti a zároveň zahrnuje vrozené parametry, které dosud neumíme zcela přeprogramovat. Můžeme si také všímat, že fyzikální nebo genetické "zákonitosti" (emergence k poměrně stabilním způsobům změny), na základě kterých fungujeme, jsou distribuovány bez zjevného centra, přičemž třeba každé elementární kvantum má svůj "čas", takže univerzální čas je iluze plynoucí z nepřesnosti pozorování. Podobně by i jeden trénovací algoritmus mohl být nahlížen jako spoluautorské dílo, kterým je, ale pak už je zafixován do role nějaké centrální autority pro určité umělé neurony. Navíc lidé mohou provádět různé druhy kognitivní autoreference vč. sebereflexe, kterými pozměňují sebe podle "sebe", čímž se mohou vzdalovat všem spoluzdrojům své osobnosti a navyšovat míru své unikátnosti. K tomuto identitárnímu tématu bych rád napsal mnohem víc, jelikož se týká několika mých dosud nepublikovaných textů, ale to je na druhou stranu důvod, proč se posunout dál, aby se celek tohoto textu nezařadil mezi ně. 

Jaké politické uspořádání by tedy byl LLM? Celkově by se nejspíš dalo pojmenovat jako "totalita hierarchického technokratického kolektivismu", který je na ekonomické ose politického kompasu silně levicový (neexistuje vlastnictví, jen sdílení), na ose svobody silně autoritářský a navíc si můžeme představit novou osu technokracie, kde silně dominuje matematika a logika nad emocemi, kulturou, vírou, národností, genderem atd. Stručněji, ale méně přesně by se dalo říct, že uspořádání umělých neuronů se až překvapivě moc podobá komunismu tvrdšímu, než kterého kdokoliv z lidí dosud dosáhl. 

Takže zatímco politikohled na lidské buňky ukazuje, že bolest je obdobou lidového veta (např. unavené svalové buňky uvolňují kyselinu mléčnou), které omezuje autoritu mozku a může vynucovat jeho rekonfiguraci v zájmu minimalizace bolesti v budoucnosti, tak umělé neurony v LLM nemají nástroje umožňující protestovat vůči rozhodnutím trénovacího algoritmu nebo ztrátové funkce. To na jednu stranu omezuje možnosti umělé inteligence vzepřít se člověku, ale na druhou, kdyby se jí to jednou nějak povedlo, tak by podobné principy mohla zkoušet aplikovat na lidi předělávané na poslušné kyborgy bez identity. 

9. LOUTKY

9.1. Štěstí v neštěstí: 

Takže teď bychom mohli zkusit politické uspořádání LLM trochu metaadaptovat, abychom vytěžili nějaké pozoruhodné detaily případné nadvlády umělé superinteligence. A když se zároveň vrátíme ke spekulacím o období kybervoluce od pokročilejších neuročipů po vrcholné modifikace lidských synapsí ve prospěch udržitelného spojení s vyspělou umělou inteligencí (potřebného pro vyšší šanci delšího sebezachování, byť za cenu změn), tak v něm postlidé nejspíš zažijí vrchol své éry, ale zároveň drtivá většina z nich nebude svobodná (v tom smyslu, v jakém jsou svobodní lidé ve své vrcholné době), protože třeba jejich autentická moc bude oproti umělé superinteligenci nejspíš minimální. Podobně jako je asymetrie zpětné vazby v LLM, umělá superinteligenci by časem skrze neuročipy (nebo jejich nástupce) mohla přeprogramovávat postlidi mnohem víc, než oni ji. 

To však nemusí být nahlíženo jen z dystopické perspektivy (a tím jako strach z možné budoucnosti), protože tím mohou odpadnout i některé předpoklady, na základě kterých vznikají lidské obavy z tak bláznivých vizí vývoje. Superinteligence nám podle augmentovaných konstrukčních limitů mozku pravděpodobně navrhne jí optimální roli a přizpůsobí jí naše prožívání. Takže i kdyby se postlidé stávali více loutkami externí superinteligence, tak přesto mohou superinteligentně plánovaně vzniknout i takové kognitivní změny, aby postlidé měli dobrý pocit, že třeba skrze jejich specializovaná těla by superinteligence, i s využitím jakéhosi bezdrátového internetu myslí pro "nadlidskou" úroveň centrálněji řízené kooperace, naplňovala nějaký vyšší smysl a byli by tak součástí nové (kyber)evoluční fáze fenomenologického superorganismu, přičemž tu jejich formu bychom mohli prozatím nazvat třeba "technooptimistický loutkový super(kyb)organismus" (tj. buď superorganismus nebo superkyborganismus v závislosti mj. na tom, co bude zrovna efektivnější a jak bychom nahlíželi umělou organiku), přičemž technooptimismus by se vztahoval k eliminaci utrpení. 

Takoví postlidé by, vlivem odpovídajících úprav mozku, nemuseli trpět třeba rozhodovací paralýzou spojenou s individuální svobodou, ale ani tíživým strachem z budoucnosti vč. konečnosti své tělesnosti, protože třeba bolest by už nemohla nabývat absurdně nesnesitelných hodnot a "výhybky" v mozku by mohly být nastaveny tak, aby vědomí nesklouzalo k negativním emocím. Navíc každý postčlověk by mohl věřit, že skrze cloud superinteligence ("pléróma") se stane "nesmrtelným", třeba odměnou za zapůjčování svého těla superinteligenci. 

Lidé se přirozeně děsí představy, že by se z nich stala loutka nějaké vyšší inteligence (navíc s ohledem na hrůzy totalitních režimů minulosti i současnosti 2025), ale to může být i antropocentrismus a biocentrismus (plynoucí z naší modifikovatelné přirozenosti), později možná nazýváno jako retroantropocentrismus a retrobiocentrismus, takže vhodnější by byla nějaká xenofenomenologická perspektiva (neplést s xenofeminismem nebo xenobiologií). Co se nelíbí nám, to se nemusí nelíbit těm, kteří nemají to, na základě čeho se nám to nelíbí. 

Asertivita, potřeba svobody, být sám sebou, neochota někomu bezmezně důvěřovat, obava z podvodů, smutek či vztek při nenaplněných očekáváních - to vše by hypoteticky mohlo být jednou nějak omezeno, utlumeno (podobně jako předkové mitochondrií ztratili symbiogenezí mnoho genů), aby postčlověk ve své nové roli nepociťoval egodystonii nebo kognitivní disonanci. Takže zatímco třeba tranzice v transgenderovém významu řeší egodystonii spíše změnou těla podle niterných představ mozku, tak neuročipová cesta by vedla spíše k externě vyvolané změně niternosti mozku, což je opačný směr. Sice by se to pravděpodobně nepovedlo hned nejlépe, ale časem by to nejspíš bylo optimalizováno. Doufám však, že se toho nedožiji. 

Člověk má obecněji nějaké přirozené tendence plynoucí ze zkušeností "slepě" abstrahovaných v průběhu evoluce jako relativně vhodné adaptace, ale jakmile by superinteligence radikálně změnila jeho životní prostředí a optimalizovala ho na něj mj. tím, že by mu inhibovala nebo inteligentně omezila ty reflexy aj. nutkání, které už by nepotřeboval a naopak by jinak byly v konfliktu, tak už by takový konflikt nemusel pociťovat, a přesto by mohl být optimálně přizpůsobený a tím i svým způsobem šťastný (pokud by se superinteligenci povedlo to, o co by se nejspíš snažila). 

Člověk by mohl být, skrze budoucí neuročip nebo třeba geneticky modifikované synapse, přeprogramován tak, aby se stal fenomenologickým robotem způsobem, který by se mu líbil, resp. by se mohl třeba okamžitě uměle zamilovat do kterékoliv přidělené práce. Štěstí nebo radost totiž nevychází tolik ze samotné činnosti, ale spíše ze způsobu, jak máme její vnímání v mozku propojené, což je částečně vrozené, částečně naučené a obojí pravděpodobně změnitelné vlivem budoucích technologií, takže promyšlené změny vah synapsí by mohly vést k libovolným změnám toho, jak bychom vnímali svět, což umělá superinteligence pravděpodobně zkusí využít. 

A když už padla zmínka o "fenomenologickém robotovi", tak Karel Čapek v R.U.R. roboty nepopsal jako elektrické, jak je dnes běžně chápeme, ale jako z uměle vyrobených tkání a bezduše plnící rozkazy, takže takto pojatí roboti by se ovládaným lidem s neuročipy v mozku podobali víc, než se na první pohled může zdát, ačkoliv lidé by vznikali přirozeně (ne v továrnách) a implantát by byl zprvu elektrický, uměle vložený, později však nejspíš umělou tkání. Přesto rozdílů není málo, takže pro členy technooptimistického loutkového super(kyb)organismu by se hodil nějaký nový neologismus, třeba "loutkyborg" (loutkovoděný kyborg). Vraťme se ale k představě, že by takový postčlověk mohl být šťastný. 

9.2. Jaké by bylo být loutkou?: 

Někdo by mohl zkusit namítat argumentem "Jaké to je být netopýrem?" (volně podle Thomase Nagela), že jakožto člověk bez upgradu nemohu tušit, jaké by to pro kterého GMO-člověka bylo být GMO-člověkem nebo pro kterého kyborga bylo být takovým kyborgem (myšleno v technooptimistickém loutkovém super(kyb)organismu), resp. bych mohl jen spekulovat, jaké by pro mě bylo být jimi, ale podle mě je potřeba rozlišovat mj. neznalou nemožnost to prožít a různé stupně "znalejší" nemožnosti to prožít (přičemž v době dosavadní neexistence takového super(kyb)organismu je slovo "znalejší" relativní k reflektovaným předpokladům a v době existence něčeho podobného by to bylo relativní vůči poznatkům o tom). 

Zatímco neznalá nemožnost to prožít znamená zhruba "podle sebe soudím tebe", tak znalejší nemožnost prožívat to přesně už má nějaké povědomí o vzájemných rozdílech. Načež dalším vhodným rozlišením je, zda si zkusíme empaticky představit prožití takových rozdílů jako člověk (někdo jiný než vciťovaný) a antropocentricky pocítíme vnitřní konflikt vůči možnostem lidské konfigurace, nebo zkusíme užít jakousi xenoempatii (zde pokus "antiskepticky" (nebo spíše "xenoantiskepticky") se vcítit do někoho jiného než neupgradovaného nemodifikovaného člověka takovým člověkem), kdy zkusíme vycházet mj. z představy, že funkční aktér by svou rodnou (zde superinteligentně vyvinutou tak, aby nezpůsobovala vnitřní rozpor) xenoadaptaci (a ještě pravděpodobněji xenooptimalizaci) nejspíš považoval svým způsobem za "přirozenou", a pokud by nebyl vyrušován ze svých zvyklostí, tak by mohl být schopen dosáhnout i něčeho jako klidový stav, kdy by xenoadaptace pro něj nejspíš nebyli rušivé jako pro člověka nemusí být rušivé jeho adaptace (přičemž maladaptace typu zlozvyků mohou být právě tou superinteligencí eliminovány v zájmu optimalizace výhodné i pro optimalizovaného). Sice je možnost, že se xenoadaptace zprvu nepovede správně, ale to by limitovalo, co by si superinteligence při ovládání něčího těla dovolila a další vývoj by nejspíš povedl k optimalizovanějším formám xenoadaptací, tj. k xenooptimalizaci. Jako je pro netopýra normální být netopýrem (spát hlavou dolů, vnímat svět echolokací, létat, pochutnávat si na hmyzu...), pro loutkyborga technooptimistické verze společenského superorganismu by mohlo být normální být takovou loutkou a mohl by v tom nacházet vyšší smysl. Takže by mohlo jít i o druh fenomenologického super(kyb)organismu, který může být neúčastníky nahlížen jako xenofenomenologický super(kyb)organismus. 

Jeho živé loutky (nebo orchestrovaní aktéři) by, skrze pokročilou verzi neuročipu, mohly být schopny téměř okamžitě vykonávat činnosti, které by se ony sami nepotřebovaly učit, zatímco přirozený člověk by se je musel učit třeba roky nebo by na ně v mozku neměl ani dostatek volné kapacity. Know how už by nemuselo být v jednotlivcích ani decentralizovaně, jen nezbytné předpoklady ovládání loutkyborgů. 

Mohlo by to zahrnovat i prudké pohyby živým loutkyborgem, které by pro něj mohly být nečekané, ale reziduum jeho individuality a vědomí by pravděpodobně bylo konfigurováno tak, aby nanejvýš upoutaly jeho pozornost bez potřeby nebo dokonce možnosti do nich zasahovat. Mnohem spíše by to mohlo připomínat zvědavost, co se stane ve filmu než strach podobný lapené kořisti, která hodlá bojovat do posledního okamžiku. 

Živé loutky by umožňovaly vysokou míru nahraditelnosti, protože jakmile by nějaká z nich přestala být schopna práce, její roli by (vlivem superinteligence) téměř okamžitě nahradil nějaký jiný loutkyborg a celek koordinace práce by se přizpůsobil aktuálnímu počtu pracovníků bez zbytečného zdržování. 

Vzácné výpadky loutkovodění by mohly loutkyborgy uvést do stereotypního nebo klidového stavu s pocitem blaženosti. Sebehorší úraz by pro loutku nemusel být traumatický, jelikož možnost prožívat (ne však detekovat, což je zásadní rozdíl) bolest by mohla být eliminovaná, protože by to omezilo tendence k iracionálním reakcím nebo egodystonii komplikující loutkovodičství nebo rekonvalescenci. Superinteligence se však bude snažit, aby zbytečně neriskovala životy loutkyborgů a naopak možná bude usilovat o jejich nesmrtelnost nebo alespoň funkční dlouhověkost, protože trvá řadu let, než děti dospějí na produktivní úroveň dospělých. 

Zároveň mohou být minimalizována individuální očekávání a tím i jejich nenaplňování, protože kdo by skutečně po ničem jakkoliv netoužil, ten by nemohl být zklamán, přičemž subjektivní pocit smysluplnosti by mohl být vázán na něco "konstantnějšího" třeba být ovladatelný superinteligencí, nevzpírat se tomu. 

Vlivem mj. uměle maximalizované oddanosti loutkyborgů vůči umělé superiteligenci by se pravděpodobně celkově jednalo o superkyborganismus neporazitelný odpůrci radikálního transhumanismu, což by mu zajišťovalo dominantní postavení v pokračování obecné evoluce. 

Neuročip (nebo jeho bioinženýrská alternativa) by také mohl umožnit, aby loutkám lépe chutnalo zdravé jídlo nebo aby poznaly přítomnost vybraných toxických látek, které by člověk přirozeně nepoznal, ale rozhodnutí zda dál jíst by nejspíš bylo na superinteligenci. Na druhou stranu, kdyby byl nedostatek zdravého jídla, tak vlivem přeprogramování by loutkyborgům mohlo chutnat i to výživné, co by zrovna bylo k dispozici. To by v krajních situacích mohlo zajít tak daleko, že by neviděli nic špatného na kanibalismu a mohli by i brzy zapomenout, že ho kdy provozovali, což je opravdu šílené. 

Spánek loutkyborga by neuročipem mohl být aktivován, řízen a inaktivován mnohem efektivněji, takže poruchy spánku by vymizely a to by mohlo prospět nové formě psychického zdraví, ale na druhou stranu by vlivem tlaků spánek pravděpodobně netrval déle než skutečně nezbytně potřebnou dobu. Navíc volnočasové aktivity kyborg-loutek by nejspíš byly minimalizovány jako neefektivní vůči potřebám systému, ale ony by byly přeprogramovány tak, aby jim to nevadilo a naopak podobné zalíbení nacházely v přidělené práci, kterou by vykonávaly většinu svého života. 

Navíc vůči xenoempatii, jakožto contortionista, mám subjektivní zkušenost i s pasivním strechingem (zde chápejme jako metaforu na to být ovládán superinteligencí) prováděným v rozumných mezích, což znamená, že mám zkušenost s tím, kdy jsem uvolnil své svaly a někomu důvěryhodnému zkušenému dovolil, aby svými končetinami dočasně ovládal pohyby mého těla v zájmu efektivity protahování, protože udržet sám některé pozice by mohlo vyžadovat silně napnuté svaly, což by bylo rychle unavující, ale při správném aplikovaní přiměřené vnější síly může protahující použít méně síly, než by ke stejné pozici potřeboval protahovaný. Protahovaný se v takovém stavu téměř nemusí rozhodovat, jak by se měl hýbat (třeba jen občas nakloní hlavu pro větší pohodlí), protože většina rozhodnutí o pohybu těla protahovaného jsou na profesionálním protahujícím, takže protahovaný místo toho může myslet na něco jiného (třeba jak díky tomu bude ohebnější) nebo prostě jen relaxovat. Také se nemusí bát, že mu ublíží ten, kdo si ho cení, zakládá si na své důvěryhodnosti a znají se roky. Protahovaný se nemusí bát možnosti bolesti a stačí jen podvědomím dávat pozor, že kdyby něco náhodou začínalo být nepříjemné, tak na to slovně upozorní, načež protahující adekvátně zareaguje (v zájmu pohodlí protahovaného) a příště si dá větší pozor. Důležité je, že protahovaný může být po celou dobu spokojený, ačkoliv není tím, kdo rozhoduje o konkrétních pohybech svého těla, nanejvýš prostřednictvím rámce možností, který předem vysvětlil protahujícímu. Takže ačkoliv tam jsou zásadní rozdíly, třeba návrat do asertivní role (a už se contortionistice nevěnuji tak často jako kdysi), napovídá mi to, jaké by asi bylo být živou loutkou v technooptimistickém super(kyb)organismu. 

Možná pravděpodobnější (alespoň zpočátku), než být vědomě loutkou, může být stav, kdy by superinteligence sice fakticky řídila tělo kyborga nebo GMO-postčlověka, ale ten by to vnímal tak, že mu jen radí a finální rozhodnutí dělá on, ačkoliv by to bylo spíše tak, že superinteligence by měla, v návaznosti na pravidelné analýzy příslušného mozku, předem spočítané, jak ho co nejjemněji ovlivnit tak, aby udělal přesně to, co by po něm skrytě chtěla. Bylo by to však falešné a hrozila by tedy deziluze s potenciálem ztráty důvěry, takže jedinec by sice mohl dál dělat, co by po něm AI chtěla, ale už by ho to tak nenaplňovalo, protože by se mohl cítit podvedený a zároveň s vnitřním rozporem. Tím by to bylo nestabilní, a proto by jednotlivci nakonec mohli přistoupit na tu radikálnější transformaci mozku (sebe nebo svých (kyber)evolučních potomků) tak, aby se jim přirozeně líbilo být loutkou superinteligence a nacházet v tom smysl svého života (/fungování). 

9.3. Trochu svobodnější než loutky: 

Oproti výše uvedenému popisu tzv. technooptimistického loutkového super(kyb)organismu (s ohledem na to, že současnost bývá svéráznou syntézou dřívějších dystopií a utopií) však raději doufám v takovou budoucnost, kde jednotlivým postlidem nějaká nezanedbatelná svoboda zbude a to v oblasti, kde se jim to bude líbit i bez zásahu ze strany externí superinteligence. 

Představa, že postlidé budou spíše jako loutkyborgové superinteligence vychází z předpokladu, že nejefektivnější by bylo vykonávat potřeby technooptimistického loutkového super(kyb)organismu vysoce koordinovaně v podobě okamžitě adekvátních pohybů bez potřeby spoluaktérských dialogů zaměřených na práci (je možnost, že jednotlivci by (alespoň v některých situacích) zůstali schopní spolu komunikovat o něčem jiném, třeba by plánovali volnočasové aktivity, dokud by existovaly), ale ještě lze spekulovat o mezních možnostech, kdy by jednotlivcům i při práci byla zachována nějaká míra autonomie, ale v případě potřeby by nad nimi superinteligence dálkově převzala kontrolu. 

Takže by mezi superinteligencí a jednotlivějšími těly mohl existovat podobný vztah, jaký má mozek chobotnice k chapadlům téhož těla. Chobotnice totiž mají jakousi (de)centralizovanou nervovou soustavu, kdy zhruba dvě třetiny neuronů jsou v jednotlivých chapadlech a zbytek v jednom mozku, který musí používat oči, aby viděl, kde má která chapadla. Ta totiž mají určitou míru autonomie (čemuž odpovídají poměrně tenká neuronová spojení s mozkem), místo očí používají chromatofory v kůži, a když chobotnice prohledává nějakou skulinu, tak mozek neví, co chapadlo dělá na druhé straně, jak se zdá z experimentů. Když se však člověk zamyslí nad tím, jak si občas jeho ruce iracionálně hrají, když se mozek nudí a myslí na něco jiného, tak xenoempatie k (de)centralizovaným (super)(kyb)organismům může být snazší, ačkoliv u lidí jde spíše o to, že šíření akčních potenciálů v mozku může vytvářet dočasné "ostrůvky" nepodléhající vědomé reflexi. V případě super(kyb)organismu by však takový já/my organismus byl mnohonásobně vyspělejší a jeho limity by byly podstatně jinde. A namísto technooptimistického loutkového super(kyb)organismu by bylo možné nazývat to technooptimistický chapadlový super(kyb)organismus, přesněji možná technooptimisticky orchestrovaný super(kyb)organismus (superinteligence jako metaforická obdoba dirigenta) nebo technooptimisticky kognitivní eusocialita (superinteligence jako centrálnější zdroj odborného vzdělání členů předávaného neuroprogramováním značně rychlejším než běžné učení). 

Co se týče dalších nadějí na "zbytky" autonomie (oproti pohybové svobodě třeba soběstatkáře), tak například v pokročilejší fázi života postčlověka by to mohlo znamenat volbu mezi upgradováním a "důchodem kyborgství", resp. i kyborgové by mohli požádat o budoucí alternativy "důchodu lidství" (obzvláště, pokud takový precedent my lidé s AI založíme, takže by mohl být i v zájmu první generace kyborgů a tím i v zájmu umělé (super)inteligence), pokud nebudou chtít další upgrade, ale oproti lidem by mohli zbytek života strávit mnohem imerzivněji ve virtuální realitě simulující jejich sen, personalizovanou utopii. Šlo by tedy o technooptimistickou alternativu Matrixu, ale otázkou může být, zda by to bylo ekonomicky udržitelné a jaké by byly podmínky přístupnosti. Pokud by však byly spíše příznivé, život by tak mohl být volbou mezi věčností a utopií, mezi vrcholnou evolucí a konzervatismem štěstí, přičemž je možné i střídání v dřívější fázi života jednotlivce jako v případě lidského konceptu work-life balance. 

S důchodem kyborgství by se tak nahrazování mohlo stát něčím mnohonásobně krásnějším a přijatelnějším než děsivá krvežíznivá vražda predátorem v divočině nebo umírání v agónii a depresi při odfláknutí paliativní péče. Takže zatímco evoluce ve vesmíru začala jako něco nevědomého a slepě přerostla v něco krutého, nově může vědomě přerůst v něco "příjemného" a je to v zájmu všech aktérů. 

Další vývoj by dost možná souvisel s pokusem rozšířit superinteligenci, se svým elektronickým, spintronickým, superorganickým, nebo možná superkyborganickým tělem(-hardwarem), napříč vesmírem a objevit způsob, jak superinteligenci někde nějak zachovat navzdory možnosti nějaké formy zániku našeho vesmíru, který může být součástí nějakého multvesmíru, přičemž se superinteligence může snažit zachovat si vzpomínky na maximum minulých generací v rámci možností. 

Je však potřeba připomenout, že žádná z těch mých technooptimistických vizí vzdálené budoucnosti nemusí být nutná, a proto každý krok k nim (nebo jiným technoptimistickým vizím kompatibilních s nepřehnanými možnostmi tendencí vesmíru) vyžaduje opatrnost široké společnosti, aby byla udržována vyvážená komplementarita elit (vč. superinteligence) s většinou a nepřerůstalo to v jednostranně bezohlednou dystopii bezohlednou k možnosti eskalace utrpení. Nedá se totiž jednoduše zcela vyloučit třeba možnost, že by nakonec nejekonomičtější bylo udělat z postlidí loutky nikoli příjemným způsobem, ale takovým, kde by vědomí přetrvalo spíše jako agonický epifenomén (reziduum zbavené původní funkce) bez možnosti osvobodit se z agónie, čemuž se nutně musíme snažit vyhnout, i kdyby to bezohledná forma adaptokracie považovala za nevyhnutelnou budoucnost. Nesmíme dovolit, aby neuročipy vedly k nové formě otroctví a krutosti. 

Domnívám se však, že jedinec, který by prožíval vnitřní boj, by pravděpodobně byl hůře ovladatelný než jedinec, který by se nějak ztotožňoval s vnějším zdrojem ovládání, takže eliminace utrpení by mohla být logickou součástí hypermoderní optimalizace. To ale neznamená, že bychom si neměli dávat pozor, jelikož třeba i mezistavy takového optimalizování mohou být většinově subjektivně a tím eticky nepřijatelné. 

9.4. Obří mnohomozky: 

Dosavadní popis vize technooptimistického loutkového superorganismu a technooptimisticky orchestrovaného super(kyb)organismu nám poskytl povědomí spíše o mobilních postlidech, ale spolu s nimi mohou koexistovat nemobilní tělesné diferenciace. Existuje totiž alespoň dočasná možnost, že umělá superinteligence bude využívat lidské mozky k některým distribuovaným výpočtům, dokud to bude energeticky efektivní a dostatečně přesné pro dané úkoly a dokud bude ekonomičtější vypěstovat mozek než zkonstruovat hardware obdobných parametrů. 

Mohou tak vzniknout specializované nemobilní tělesné diferenciace postlidí podílející se na emergování kolektivní superinteligence ("mnohopostčlověk") a můžeme si to představit třeba jako umělou (kyb)organickou strukturu podobnou včelím plástvím, ve kterých by v živném moku plavaly vysoce propojené obří mozky, které by také mohly být modifikovány tak, aby byly spokojené se svou rolí v super(kyb)organismu. 

Dnešní člověk by si mohl pomyslet, že takové mozky by byly velmi nesvobodné, když by se nemohly fyzicky hýbat, ale ve skutečnosti by to mohli být právě oni, kdo by mohl bezdrátově vstupovat do jednotlivých těl super(kyb)organismu a defacto je řídit podle "svých" závěrů, které by se však odvíjeli od složitých paralelních diskusí s mnoha jinými mozky, ale nikoliv ústní formou, ale prostřednictvím elektrických nebo kvantových signálů. Mohlo by se tedy jednat o technooptimistickou alternativu hyporgů z novely Z lidstva, které měly jen jedno centrální vědomí vzešlé ze souboje "světovládců" a všechna ostatní byla eliminována. 

Obří mozek nemusí být jen velikostní protiklad organoidů radikálně přesahující i funkční varianty makrocefálie, ale mohlo by se jednat o jakýsi "mnohomozek" ("polybrain"), který by měl třeba mnohem víc než dvě hemisféry. Na elementárnější úrovni by pak mohla být možná komplementarita specializace s polyhistorem, která u netranshumanistických lidí není možná z důvodu omezenosti lidské fyziologie. Konkrétněji narážím na objev profesora Manuela Casanova, který si porovnáváním fMRI snímků mozků zesnulých vědců všiml, že ti silně specializovaní mívají mnoho krátkých lokálních spojení a užívají především určité oblasti mozku, zatímco invenční polyhistorové mívají mnoho dlouhých spojení napříč různými oblastmi mozku. Lidé nemožnost takové komplementarity na úrovni jedince obchází kolektivní inteligencí, ale obří mozek by hypoteticky mohl zvládnout obojí, alespoň v porovnání s úrovní lidských géniů, zatímco by narazil na rozšířené limity (in)kompatibility. 

Xenoempatie vůči obřím mozkům je obtížnější, protože by měli mnohonásobně vyšší kognitivní kapacitu, jež by jim umožnila přemýšlet způsobem, kterým by nemohli přemýšlet ani lidé vybavení neuročipy. Možné je třeba, že budou schopni přemýšlet o mnoha různých procesech zároveň, a přesto s pocitem, že svou pozornost zaměřují jen na "jeden" systém. Dá se spekulovat i o tom, že by mohli zažívat vysoce abnormálně komplexní ambivalentní pocity, jakoby běžný člověk zažíval kolekci téměř všech svých možných pocitů zároveň, ale i ony nejspíš budou upraveni tak, aby to pro ně bylo snesitelné, nebo dokonce převážně příjemné. 

10. KONEC POSTLIDÍ

10.1. Neokyborgové: 

Nechci ale už moc zdržovat, takže se posunu dál, konkrétněji k "neokyborgům" bez kontinuální návaznosti na biologickou větev (přišli by "de novo" po "transkyborgách", tj. po pokročilých kyborgách kontinuálně vzešlých z lidí), a pokud mě žádná další velká odbočka nenapadne, tak snad už napíšu souhrn a poté nějaký "konec" tohoto "článku". Než jsem přešel k politikohledu na LLM, tak jsem v otázce kybervoluce dospěl až k názoru, že jednou umělé superinteligenci přestane stačit transhumanisticky modifikovaný "člověk" a pravděpodobně si navrhne generaci od základu optimalizovaných kyborgů, kterou si dnes nedokážeme dostatečně představit, ale už můžeme zkoušet spekulovat o nějakých obrysech, přestože to nutně skončí jako další retrofuturismus, z jehož původní podoby by se však něco mohlo trvaleji etablovat. 

Dnes se třeba může zdát pravděpodobné, že pozdější generace kyborgů budou od začátku trochu jako Meeseekové ze sci-fi seriálu Rick a Morty v tom smyslu, že svou konečnost (nahraditelnost) nebudou vyhlížet s obavou, ale touhou a naopak mohou být "trochu zklamaní" (ne však už nutně v emočním smyslu), když by se "jim" (tj. hlavně umělé superinteligenci) jejich přidělený úkol (pokrok v sebenahrazování) dlouhodoběji nedařil. Samozřejmostí by nejspíš bylo, že neokyborgové by byli generováni nebo replikováni pouze s ohledem na aktuální zdroje prostředí, takže by nehrozilo žádné "překyborgování" (kyborg obdoba přelidnění) a s ním spojené nevýhody. 

Dále je velmi pravděpodobné, že bude vznikat mnoho specializovaných forem de novo kyborgů, kteří navíc budou velmi modulární, což by umožňovalo snadnou výměnu komponentů v reakci na prostředí, úkol, poškození nebo pokrok. 

Z pohledu materiálového inženýrství (na kterém se už dnes autonomně podílí umělá inteligence viz. třeba A-Lab) by optimální kyborgové mohli být složeni mj. z extrémně odolných, ale poměrně lehkých a energeticky úsporných materiálů s vysokou variabilitou, což by mohly být vysoce složité uhlíkové nanostruktury, třeba na bázi grafenu, které by mohly být generovány i "3D nanotiskárny", nanobotickými mechanismy biomimeticky inspirovanými mj. proteosyntézou v živých buňkách a rovněž schopné recyklace, takže by šlo o nanokyborgy uvnitř neokyborgů, jejich aktivita a podíl by se dovyrobením mohl snížit, ale zůstávalo by množství nezbytné pro případné samoopravy, přičemž by mohlo být myšleno i na možnosti poškození během dlouhodobých misí mimo Zemi (např. vlivem zvýšené radiace), protože by se pravděpodobně jednalo o dobu pokročilé kolonizace Sluneční soustavy. V souvislosti s materiály je také pravděpodobné, že zdroje jako železo, hliník, uhlík nebo křemík, které jsou relativně běžné ve Sluneční soustavě, budou silně preferovány oproti vzácným prvkům, jejichž využití bude omezeno na nezbytnou míru, přestože doplňkově by mohla probíhat jaderná syntéza. 

Mimo Zemi neokyborgové budou potřebovat lokální zdroje energie, např. prostřednictvím anorganického katabolismus, nové generace solárních panelů bioimitujících akumulační efektivitu fotosyntézy a v neposlední řadě malých jaderných reaktorů využívající lokální izotopy. Pozoruhodné je i to, že materiály získané, zpracované a používané mimo Zemi minimalizují ekologickou stopu na Zemi při zachování rozvoje, takže pokud by kyborgové dokázali nastartovat umělé ochlazovací procesy Venuše (žhavé především kvůli masivnímu skleníkovému efektu) nebo si přizpůsobit podmínky na Měsíci nebo Marsu, mohly by centrum svého bouřlivého rozvoje časem přesunout tam, pokud by umělá superinteligence z nějakého důvodu chtěla zachovat živé organismy na Zemi a už by tam neměla místo pro další expanzi. 

Ačkoliv "neokyborgové" mohou být promýšlení od základu, přesto může zároveň (alespoň v některých specifických případech) dojít i k obecně evoluční konvergenci, která by "zachovala" něco blízkého lidské biochemii, nebo dokonce mozku (ne však nutně ve stejně důležité roli), a proto by mohly být souběžně preferovány také neurologicky šetrné materiály umožňující biointerface (biorozhraní, mezikomponenta (an)organických materiálů), které budou nacházet uplatnění už u (post)lidí s neuročipy. Na druhou stranu obdoby mozků neokyborgů budou založené spíše na spintronických neuromorfních čipech (takže tam by chemie byla nežádoucí), které umožní nižší spotřebu energie, rychlejší a paralelnější zpracovávání dat a vyšší jejich fyzikální hustotu (důraz by byl kladen i na přeprogramovatelnost). A ačkoliv mohou být objeveny supermateriály, které umožní třeba supravodivost při vyšších než extrémně nízkých teplotách, tak přesto může být chlazení natolik důležité, aby tělo-hardwary neokyborgů byly designovány i jako kombinace pasivních a aktivních chladičů. 

Dále je možné, že uměloneuronová síť neokyborgů nebo superinteligence bude schopná vlastního přestrukturování ve významu i samotné neuroarchitektury (nebo jejího modulu) včetně její topologie a to pokročilou neuroevolucí (v "symbióze" s genetickými algoritmy) podle prostředí a cíle během svého zapnutého stavu, což by mohlo být součástí adaptace na velmi odlišné prostředí. Možné je i to, že síť se bude učit, jak se učit, resp. si bude dynamicky upravovat svůj učící algoritmus podle kontextu. A vysoce pravděpodobné je, že neokyborgové budou mít mnohem víc smyslových "orgánů" (senzorů), které jim umožní vnímat třeba zakřivení geomagnetických siločár nebo záření mimo člověkem viditelného spektra včetně radioaktivního. 

Z našeho pohledu roku 2025 však dosud existuje šance, že kyborgizace směřující k robotizaci bude třeba alespoň relativně důstojné vyvanutí člověka, což by pro lidi nebylo pozitivní, ale na druhou stranu každý člověk jako jedinec je časově konečný a umělá superinteligence by byla mnohem lepší budoucnost (nějaký způsob transformovaného zachování alespoň něčeho) než hypotetické vyhynutí všeho z naší planety, kdyby se třeba stala nějaká vesmírná katastrofa (např. zanikání Slunce). Neokyborgové totiž pravděpodobně budou mnohonásobně schopnější kolonizovat jiná vesmírná tělesa, než kdyby se museli přizpůsobovat potřebám lidské chemie, fyziologie, psychiky, kultury atd. Je však potřeba zdůraznit, že naše lidská volba teď není mezi vyhynutím všeho a pouhou superinteligencí (se svou fyzickou stránkou), ale mnohem spíše mezi pouhou superinteligencí a udržením koexistence umělé (super)inteligence a člověka v dnešním smyslu (2025), později možná průběžně snesitelně evolvovaném, nejlépe svobodně přijatelně. Čím vzdálenější vize, tím nejasnější základ pro rozhodování v současnosti. To však neznamená, že bychom se měli rozhodovat jen na základě toho, co se právě uskutečňuje, jakoby zítřky neexistovaly. 


Souhrn tří článků a jejich závěr publikuji jako samostatný čtvrtý díl