6.4. Lidé(,) nebo roboti?:
Na základě výše uvedených obecně evolučních tendencí (viz. minulý díl) se může zdát, že decentra rozhodování budou stále více v umělé inteligenci. Někteří lidé sice argumentují třeba energetickou výpočetní efektivitou lidského mozku ve prospěch udržitelnosti jeho prvenství, ale v souladu s Moorovým zákonem se odhaduje, že do roku 2055 vzniknou čipy, které počítačům umožní provádět výpočty energeticky efektivněji. Ve skutečnosti jsou lidé mnohem efektivnější spíše v relativně jednoduché fyzické práci a to energeticky, takže pro nás může být důležitější otázka, zda všechnu systémem poptávanou práci někdy nahradí roboti.
K pokusům zodpovídat takovou otázku je vhodné uvědomit si například, že vznik průměrného člověka ve věku 18 let (tj. připraveného plnohodnotněji pracovat) spotřebuje víc energie než výroba téměř okamžitě použitelného humanoidního robota, pokud se v obou případech ohlížíme na širší souvislosti, ale člověk ke svému přežívání nepotřebuje vzácné prvky, zatímco roboti pro své fungování dosud ano. Roboti mají sice nižší celkovou spotřebu (díky nulové spotřebě v klidu), avšak zatím nejsou efektivnější než člověk, protože například jejich účinnost při komplexních úlohách zůstává poměrně nízká. Touto komplexností je však myšleno spíše to, co bývá obtížné pro roboty, třeba úklid pokoje, kde spousta věcí není na svých místech, což je pro lidi mnohem snazší a jsou při tom energeticky úspornější. Na druhou stranu roboti jsou efektivní tam, kde je možné úlohy optimalizovat, což se týká například přesně definovaných pohybů v továrnách. Úklid pokoje by jim hypoteticky šel lépe, kdybychom jim dopřáli víc paralelního myšlení, ale to by se v blízké budoucnosti asi ještě ekonomicky nevyplatilo. Navíc už existující hojnost lidí a chirurgických zařízení bude umělou superinteligencí pravděpodobně "zužitkována", takže lidé nejspíš ještě dlouho zůstanou manuálními pracovníky v širším spektru činností.
Zatím (2025) mají lidé (biolidé, tj. lidé v biologickém smyslu, ne digitalizovaní lidé aj. deriváty) stále navrch v energetické efektivitě, adaptabilitě a všestrannosti, což znamená, že v zájmu superinteligence (která by podlehla nějaké obdobě železného zákona oligarchie) by bylo používat lidi jako nástroje tam, kde by se roboti nevyplatili. To se někomu může zdát jako malý rozdíl oproti stavu, kdy lidé používají jiné lidi jako nástroje, ale vlivem xenoperspektivy umělé superinteligence by pravděpodobně šlo o velký rozdíl, i kdyby v tom zůstal pokus o nějakou empatii.
Jednou z možných příčin takového převratu by mohlo být, že čím víc teoretických odborníků by bylo nahrazeno umělou inteligencí, tím méně lidí by zasahovalo do utváření teorie a tím více by teorie mohla časem tíhnout k zájmům umělé superinteligence, což bychom u ní mohli chápat právě jako jednu z možných technologických obdob železného zákona oligarchie.
Takže v souhře by to pravděpodobně mělo tendenci sklouznout do stavu, kdy by spíše umělá inteligence tvořila rozhodnutí a spíše člověk je manuálně vykonával. "Lidé" tak asi ještě dlouho budou ekonomicky udržitelní, ale spíše v biologickém než kognitivním smyslu.
Někdo by mohl namítat, že je mnohem snazší ovládat robota než člověka, ale vznikají technologie s potenciálem dosáhnout podobných výsledků u lidí a není snadné vyloučit, že by to bylo ekonomičtější než zdokonalit roboty na úroveň manuální všestrannosti lidského těla. Kdyby však takové zdokonalení robotů bylo ekonomičtější a umělá superinteligence nepotřebovala lidi na jakoukoliv práci, měla by ještě méně důvodů se o nás starat nebo nás vůbec tolerovat, kdyby převzala kontrolu nad infrastrukturou.
To bychom už zde mohli skončit tím, že lidstvo vyhyne, nebo zažije regres na pravěkou úroveň, což nás může nutit přemýšlet o možnostech upravování lidského mozku. A za velkou otázku v takovém směřování považuji, kdy je správný čas masivně zavádět které neuročipy (což by byl zásadní krok v (kyber)evoluci komplementarity AI a lidí) a obávám se, že se tak v první generaci neuročipů stane spíše trochu brzy než pozdě, ačkoliv i tak by to mělo své pro a proti.
7. NEUROČIPY
7.1. Neuročipy dnes:
Znovuzvolení D. Trumpa prezidentem USA znatelně zvýšilo politický vliv E. Muska, nejbohatšího člověka planety, který má mnoho špičkových technologických firem a ambivalentní vztah k umělé inteligenci. Takovou ambivalenci považuji za obecně spíše rozumnou, ale směrem k detailům to může být problematičtější. Na jednu stranu Musk tvrdí, že nekontrolovaná umělá inteligence se může stát existenční hrozbou pro lidstvo, ale na druhou stranu se na vývoji umělé inteligence významně podílí (mj. aby si USA v této klíčové doméně udržely prvenství a tím moc, kterou by rády překonaly jiné státy).
Aby Musk řešil paradox koexistence své kritiky a podpory umělé inteligence, tak tvrdí, že nejlepší obranou proti zdivočení umělé inteligence je spojit se s AI. "Spojení" však nemyslí v běžném slova smyslu jako už probíhající spolupráci, ale jako implantování mozkových čipů přímo do lidí. Proto založil Neuralink, společnost vyvíjející neuročipy, které mají nejprve sloužit pro léčbu neurologických poruch, ale později také k jinému přímému propojení člověka s počítačem a zvýšení lidské inteligence, aby prý lidé drželi krok s umělou inteligencí. Ostatně třeba začátkem roku 2024 Musk oznámil, že Neuralink implantoval neuročip člověku, který se pak naučil ovládat počítačový kurzor skrze syntetickou telepatii. Krátkodobým cílem je tedy léčba nemocí mozku a dlouhodobým cílem je umělá symbióza člověka a stroje za vzniku kyborga, což Musk vidí jako způsob předcházení nadvlády umělé inteligence. K tomu lze dodat, že už třeba roku 2012 se skupině vědců experimentálně podařilo měřitelně zvýšit inteligenci krys tím, že se dvě různé části hipokampu propojili mikroprocesorem přes pár desítek elektrod.
Nepříjemnou historickou paralelou je mj. to, že transhumanismus (kam spadají i neuročipy) volně navazuje na eugeniku, což samo o sobě ještě nemusí znamenat spojitost s nacismem, který eugeniku prosazoval vyloženě nelidským způsobem, ale bylo zdokumentováno třeba to, že Elon Musk opakovaně veřejně hajloval po druhém zvolení Trumpa prezidentem USA, což už je velice znepokojivá kombinace. Zpětně se také může zdát, že Musk kritizoval trans progresivismus, aby odvedl pozornost od svého neuroimplantátového progresivismu, který se postupně rozjíždí v Neuralinku.
Jinak biointerface (rozhraní (an)organických materiálů) neuročipů nemusí být jen elektrody. Například roku 2024 byl v časopise Nature Machine Intelligence v článku „Discovering neural policies to drive behaviour by integrating deep reinforcement learning agents with biological neural networks“ popsán hybridní systém hluboké zpětnovazební učení (deep reinforcement learning, zkráceně DRL, obecněji RL, obecněji specifický model umělé inteligence), které prostřednictvím optogenetiky (modulování nervové aktivity světelnými signály) vysoce úspěšně orchestrovalo nervové tkáně hlístic tak, aby našli potravu mnohem rychleji, než kdyby ji hledali sami, což bylo popsáno jako "zlepšování biologicky relevantního chování". Ale spíše, než aby se z hlístic stali "roboti", docházelo ke kooperativnímu výpočtu DRL a hlístic, kdy se hlístice sama vyhnula umístěné překážce v cestě za potravou. Překvapivé může být, že DRL pochopil idiosynkrazii hlístic dostatečně na to, aby dokázal adekvátně zasahovat do chování i hlístic s dříve necharakterizovanými reakcemi na optogenetickou modulaci. Idiosynkrazie synapsí lidského mozku je však mnohonásobně komplexnější.
7.2. Neuročipy a cookies:
Než se více zamyslíme nad načasováním masivnějšího zavádění neuročipů, tak mě napadá postřeh k soukromí, který vychází ze sci-fi seriálu Červený trpaslík a spolu s tím se mohou nabízet i další pozoruhodné úvahy. V epizodě Legie (S06E02) se totiž nachází stejnojmenná "gestalt entita", jejíž mysl je automaticky utvářena na základě veškeré okolní posádky, takže se jedná o jedno ztělesnění kolektivní mysli a tím i kolektivní inteligence. A ať se kterýkoliv jedinec pokusí udělat cokoliv, Legie už to ví a je připravená hájit své zájmy (které vychází i z toho, že když na palubě nikdo není, tak dočasně ztratí fyzickou podobu). Někomu se to může zdát jako bláznivé sci-fi, ale když si uvědomíme, že pohybem na internetu se do našich zařízení už řadu let mohou dostávat spousty souborů cookies, které (pro běžného uživatele nepozorovaně) sbírají a odesílají mnoho osobních dat, která pak slouží k tvorbě personalizované reklamy, provozování sociálního inženýrství a kdo ví k čemu ještě, když se s těmi daty masivně obchoduje (k třetím stranám), tak se dnešní realita ukazuje obdobně bláznivě (což je zároveň další aspekt, kterým se lidstvo stává superorganismem). Pořád ale ještě máme možnost různých stupňů soukromí, když si vypneme internet, vzdálíme se kamerám, jsme doma nebo si dokonce zalezeme do podzemí. Ale teď si představme, že my lidé bychom měli neuročipy (nebo jiné kognitivní protézy) implantované v mozku, energii pro svůj chod by si braly z našeho těla a hostily by soubory cookies, které by analyzovaly přímo náš mozek (tj. potenciálně i myšlenky, vzpomínky, emoce), později možná dokonce bez možnosti odpojit se od internetu, až by takové ekonomické tlaky byly prosaditelné. Musíme si tedy uvědomit, že i kdyby neuročipy byly propagované primárně třeba jako možnost uměle telepaticky ovládat elektrospotřebiče na dálku, tak by vzrostlo riziko, že by nám někdo mohl "koukat do karet" mnohonásobně hlouběji než dnes nebo dokonce posílat do našeho mozku povely.
Teď odbočím, ale jen, abych se z jiné strany vrátil k neuročipům. Filosof Jan Černoch si všímá, že Heidegger kladl důraz mj. na usedlictví, zakořenění, domorodost, což podle něj přerůstá až v antinomádství. Antinomádství dnes bývá spojováno především s odporem vůči migrantům, ale tím se podle mě nevyčerpává, jelikož obecnějším způsobem může být spatřováno i v odporů vůči jakémusi cookies kolonialismu, tedy krajní otevřenost, kdy technologické firmy sklízí osobní informace z jednotlivých zařízení a vyvíjí všemožné snahy, aby tomu uživatel nebránil. Roku 2025 se to týká především mobilů, počítačů, aut, tabletů atd., ale dřívepozději to bude i záležitost neuročipů, jelikož působí ekonomické tlaky, aby přišla nová generace tzv. neuromarketingu. Odpor vůči migraci osobních informací však nemůže být zaměňován s odporem vůči migraci lidí jako fyzických těl, což znamená mj., že antinomádství v tomto širším smyslu není univerzální, přičemž aktéři ho v různých doménách mohou (ne)uplatňovat různými způsoby a měrou.
Jinak obdobně si můžeme všímat, že Heideggerův důraz (po Bytí a čase) na krev předků by dnes mohl znamenat i odpor vůči genetickým modifikacím aj. souvislým úpravám lidí, tedy vůči něčemu sice dosud převážně zakázanému, ale postupně stále více aplikovanému a v některých státech i po kouskách legalizovanému. Když to léčí dříve neléčitelnou nemoc a převažuje to vedlejší účinky, tak je to přijatelné, ale neměli bychom přehlížet, že na druhou stranu to připravuje podmínky pro legalizaci transhumanismu a třeba následné výkonnostní rozdíly mohou vytvořit ekonomické tlaky na nemodifikované lidi, aby nechali geneticky modifikovat sebe nebo své děti. Ne proto, že by to chtěli, ale jelikož by nechtěli strádat vlivem rostoucí konkurence. Takže jako je rasismus extrém, může k extrému vést i navyšování mezilidských rozdílů.
Pozoruhodné ve vztahu k neuročipům také je, že jedním z nedostatků zastupitelské demokracie (neexistuje žádný univerzálně dokonalý politický systém, ale některé jsou lepší než jiné) je nemožnost voličů volit přímo názory politika. Prostě si musí vybrat z už existujících lidí, a když zemře nějaký oblíbený politik, tak ten stejný už se asi nikdy nenarodí. Ale dřívepozději mohou vzniknout takoví politici, kteří se skrze neuročip nechají "přeprogramovat" tak, aby měli největší šanci vyhrát v aktuálních volbách, což přinese nové otázky. Když si třeba uvědomíme, že by i spousta voličů měla v hlavě neuročip, který by optimalizoval jejich kognitivní funkce, napadá mě třeba: Byla by to ještě demokracie, nebo spíše "hyperdemokratura" technokratů?
Jinak když se vrátíme k té epizodě Červeného trpaslíka, tak Legie věznila posádku v personalizovaném luxusu, protože když by byli všichni šťastní, tak vlivem toho by byla šťastná i Legie. V tom by se pro změnu mohla ukrývat nějaká naděje, že by to nebylo až tak hrozné, kdyby umělá superinteligence přes neuročipy v lidech sbírala jejich osobní myšlenky, ale mohlo by to vyžadovat mj., aby měla odpovídající umělá qualia. Pak by problémem bylo třeba nastavení intenzity qualií, protože nízká by mohla být podobná psychopatii, zatímco vysoká by mohla vést k psychoteroru prožívanému umělou superinteligencí, která by se pak mohla pokusit o sebevraždu, aby už nemusela pociťovat, jaké pocity lidstvo zažívá. Klíčové však je, že umělá qualia dosud sci-fi jsou, takže v kontextu metafory na Legii se jedná o vratkou naději.
Nositelem nevyžádané toky informací přes neuročipy by časem mohly umožnit maximalizaci mezi(post)lidské koordinace, takže drtivá většina (post)lidí by mohla být stále více nástrojem, což by prospívalo "zaměstnavatelům" (později "loutkovodičům") a různým elitám (stále více transformovaným směrem k AI) a škodilo autenticitě většiny "lidí", hlavně v pracovní době. Je tedy pravděpodobné, že pragmatické technokratické elity budou různými způsoby zvýhodňovat uživatele neuročipů, což bude nepřímo znevýhodňovat lidi bez nich. To však nevylučuje mezi(post)lidskou nerovnost, protože mohou vzniknout různé cenové kategorie neuročipů, takže čím víc by (post)člověk vydělával, o to vyspělejší neuročip by si mohl implantovat, o to být výkonnější v práci a vydělávat ještě víc, čemuž by chudí nemohli konkurovat při sebelepší snaze, protože už by nebylo snadné vsázet na úpadek motivace elit nebo rovnoprávný podíl ze zisku. Zároveň někteří psychopatičtí investoři se snaží vydělat na tom metaevolučně nejefektivnějším/ nejmocnějším nehledě na etiku a tím krátkozrakým sobectvím by hypoteticky mohli umožnit podkopávání celého lidstva, pokud by jim v tom státy nemohly bránit. Někdo by mohl namítat, že by takovému riziku mohly bránit technokratické elity, ale ty budou pravděpodobně převážně směřovat k takovému kognitivnímu transhumanismu, který bude pravděpodobně směřovat k umělé superinteligenci, tedy ne k lidem v přirozeném smyslu a jejich zájmům, resp. převážně nebudou hrát za "team human".
7.3. Výhody a nevýhody neuročipů:
Než se však posuneme dál v otázkách obecné evoluce, zkusme se zamyslet nad některými možnými funkcemi (výhody a nevýhody) budoucích neuročipů. Neuročip (nebo jiný funkcí obdobný biointerfejs) by mohl umělé superinteligenci (nebo postlidským elitám, dokud by si udrželi moc a něco klíčového z lidské formy, aby se měli čím lišit od umělé superinteligence) umožnit zdokonalovat "postlidské zdroje", na kognitivní úrovni třeba rozšířením paměti, zlepšením soustředěnosti na práci nebo zrychlením učení formou nahrávání nových znalostí přímo do mozku, což by se postčlověku mohlo jevit i jako promítání audiovizuálních dat uvnitř něj bez potřeby displaye. Umělá superinteligence by se postčlověku mohla zjevovat v hlavě jako mentální asistent způsobem, kdy by ji mohl vnímat jako syntetického "anděla" nebo "boha".
Neuročip by superinteligenci (v horším případě hackerům (ne nutně lidem)) mohl usnadnit také dálkovou manipulaci s myšlenkami, vzpomínkami nebo chováním postlidí, mj. formou niterného vnuknutí propagandy a přímé cenzury vybraných myšlenek. Takže by mohlo docházet k hluboké ztrátě identity "jednotlivců", kteří by to však mohli subjektivně vnímat třeba jako "radostně dobrovolnou" otevřenost všemu, co po nich chce vyšší moc, a proto by rozdíl mezi dystopií a utopií značnou měrou spočíval v úhlu pohledu.
Napojení mozku na internet by umožnilo telepatickou komunikaci bez jazykových bariér (okamžitý překlad libovolných cizích jazyků přímo v hlavě), možnost cokoliv necenzurovaného si vygooglit pouhou myšlenkou, sdílet a přehrávat zaznamenané stavy vědomí, telepaticky ovládat chytrou domácnost nebo řídit pomocné stroje (nástroje "nástrojů").
Neuročipy skrze servery mohou vzájemně propojovat i své nositele bez většího zásahu umělé (super)inteligence, ale otázkou je, jak by to ovlivnilo jejich vztahy, protože v druhém díle humorné sci-fi knihy Stopařův průvodce Galaxií od Douglase Adamse je popsána mj. mimozemská rasa Belcereboňané z planety Kakrafún, která měla telepatii ne jako dar, ale jako trest, protože jednotlivci už mezi sebou nemohli jen tak uctivě skrývat, co si o ostatních skutečně mysleli a co si ostatní v širokém okruhu mysleli o nich. Nicméně v případě neuročipů by umělá telepatie mohla být omezenější a možná by si pak (post)lidé zvykli, že se jim v hlavě objevují některé myšlenky ostatních, ty jejich zase v hlavách ostatních a umožnilo jim to fungovat samoorganizovaněji i bez centrálnějšího orchestrování. Stále by to však neslo aspekt hlubšího zásahu do soukromí a mohlo by být potřeba do toho nějak zasahovat, nebo to nějak modulovat, aby se umělá telepatická síť nezvrhla v nějakou škodlivou formu kolektivismu, která by nebyla ani efektivní. Každopádně neuročipy by mohly umožnit stav společnosti, kdy by lhaní (ať už z jakýchkoliv důvodů) bylo totálně nemožné, takže třeba lichotky by mohly být demaskovány jako neupřímné.
Neuročipy by mohly umožnit i včasnou detekci vznikajících nemocí nebo neuromodulační léčbu psychických neduhů, třeba depresí nebo úzkostí, ale na druhou stranu hrozí nové poruchy osobnosti, poruchy neuročipů (omezená životnost) nebo špatná kalibrace vedoucí až k poškození mozku. Odpojení by však nebylo snadné, protože by šlo o hlubokou závislost, kdy by vypnutí vyvolalo silnou dezorientaci, jakoby přirozenému člověku přestal fungovat alespoň jeden smyslový orgán a k tomu část mozku. Krátkodobá odpojení však budou alespoň zprvu nutná kvůli aktualizaci hardwaru proti zastarávání, později možná bude stačit změna funkcionality bez chirurgického zákroku. Jinak některé mozky se mohou ukázat jako odmítající neuročipy nebo se mohou vyskytnout vedlejší účinky, ale to bude s dalším vývojem pravděpodobně minimalizováno.
A dokud bude existovat volný čas (terč optimalizace), mohou být neuročipy používány i k hlubokému ponoření do virtuálních světů a tvorby hotových obrazů, hudby nebo filmů atd. pouhou myšlenkou.
Když se však vrátíme k tomu, že Musk přispívá k urychlování vývoje neuročipů, protože jejich implantování chápe jako prevenci před zdivočením umělé inteligence, tak bychom si měli pokládat otázku mj.: je to tak ospravedlnitelné? Není hrozba zdivočelé AI až moc halucinováním o budoucnosti, které by mělo falešně ospravedlnit negativní stránky radikálního transhumanismu? Obávám se, že spíše ne, avšak velkou nejistotou je, kdy by se taková hrozba mohla uskutečnit, což by byl klíčový údaj, abychom věděli, kdy a jak se na takovou možnost připravit. Svobodní jedinci by si však měli pokládat i otázku: Za jakou "cenu" chceme "prosperovat"?
7.4. Načasování neuročipů:
Cesta neuročipů může prodloužit udržitelnost lidstva (alespoň v podobě různých stupňů kyborgů), pokud nezačne předčasně, a zkrátit, pokud začne předčasně. Problém dnes však je, že takový práh předčasnosti je nanejvýš odborný odhad, ne něco zřetelnějšího.
Přesto si alespoň můžeme být obecně vědomi faktorů, které mohou vést k předčasnosti nebo pozdnosti. Důležité například je, že čím později se neuročipy začnou zavádět do praxe (což bude vyžadovat široce mezioborovou spolupráci chirurgů, IT specialistů, psychologů atd.), o to mohou být vyspělejší ony i způsoby jejich implantace, což by snižovalo podíl nežádoucích účinků a zbytečného utrpení lidí, které by stejně snižovalo popularitu neuročipů tím více, čím horší by byly nežádoucí účinky alespoň u některých jedinců (proto by předčasné masivní zavádění vyžadovalo nedemokratický nátlak, který nepovažuji za přijatelný). Na druhou stranu čím dříve AI bude schopná přímo analyzovat lidské mozky (buď na povel technokratů, nebo z vlastní iniciativy), o to dříve může vynaleznout mj. sofistikované kyborgy, které by mohla začít vyrábět v umělých "dělohách" (a/nebo montovnách či "kyberdělohách" - záleží na míře integrovanosti nové generace kyborgů a podílu jejich organických a anorganických částí) bez přímé návaznosti na konkrétní lidské předky a jejich výchovu, čímž by vznikala konkurence nejen lidí, ale i neuročipových kyborgů, protože by se jednalo o znatelný skok. Zároveň je však možné, že AI nebo umělá superinteligence, na základě poznatků z neuročipů, začne nejprve navrhovat (epi)genetické modifikace směřující k rozvoji lidských kognitivních schopností, což by mohlo udržet kontinuitu postlidstva, ale za cenu evoluce zrychlené plánovanou selekcí, což by mohlo zatěžovat (post)lidskou sentimentalitu k nostalgii, dokud by nebyla nějak vypnuta. Navíc je možnost, že i genetické modifikace mozku mohou mít nějaké nežádoucí účinky, které by nebylo snadné předem odhadnout, což je možnost dalšího předčasného utrpení, kdyby zase takové modifikace začali předčasně. Takže čas zavádění neuročipů by měl být mj. rovnováhou (post)lidské kontinuity a eliminace utrpení.
Pro tu budoucnější fázi lze už dnes předpokládat, že únosnější bude pravděpodobně modifikace pohlavních buněk než novorozenců nebo tělesně dospělých lidí, protože je snazší správně modifikovat jednu nebo dvě buňky, než bilióny buněk najednou skrze nějakou genovou terapii a ještě s rizikem nutnosti doživotního užívání imunosupresiv (látek potlačujících imunitu). Navíc modifikací pohlavních buněk by mohli vznikat jen zdraví jedinci a embrya diagnostikovaná jako nezdravě modifikovaná by mohla podléhat interrupci (v případě závažnějších problémů by mohl zafungovat i přirozený výběr). Důležité také je, že ačkoliv by se takto geneticky modifikovaný člověk vzdaloval lidské přirozenosti, tak by měl svou "poloumělou přirozenost", která by pro něj mohla být psychologicky dostačující a bylo by to přijatelnější než zažívat radikální umělou změnu osobnosti v průběhu života a tím riziko nějaké kognitivní disonance, dost možná nového druhu.
8. SYMBIOGENEZE
8.1. Neuročipová noosféra:
Neuročipy však nemusíme nahlížet jen z pohledu hrozeb, ale souběžně se nabízí i technooptimističtější vize, která volně čerpá třeba z Teilhardova pojmu noosféra. Někdo označuje už internet za noosféru, ovšem pokud vím, "správně" má být spíše bezprostřednější sítí jednotlivých vědomí (tím i způsobem překonávání metafyziky), resp. stále těsnějším propojením, ale v případě komunikačních technologií (jako internet, monitory, reproduktory...) je to zatížené jakousi limitující zprostředkovaností skrze překlad do umělých reprezentací vyžadujících další vnímání skrze smysly, takže to není přímé sdílení qualií, myšlenkopocitů, zkušeností atd.
Otázkou pak je mj., zda bychom takové prohloubení (třeba pomocí neuročipů), jakožto každý jednotlivec zvlášť, spíše chtěli, nebo nechtěli.
Výhodou vědomí-vědomí noosféry, resp. CNS-CNS noosféry (jsou to dva aspekty téhož jevu), jakožto přímějšího sdílení qualií, by byla především možnost zažít, jaké to je být někým jiným, vybavit si jeho vzpomínky, prohloubit prožitek z milování atd., zatímco nevýhodou by byla především hrozba radikální ztráty soukromí a možnost vzniku nové formy totality, přičemž hrozba ještě nemusí znamenat nutnost, že se neubráníme jejímu vypuknutí.
8.2. Umělá symbiogeneze:
Zdá se však pravděpodobné, že dřívepozději dojde k nějakému hlubšímu spojení lidí a umělé inteligence, dost možná právě skrze neuročipy, takže se můžeme zkoušet zamýšlet, co by to mohlo znamenat dál. Následnou umělou evolucí mohou lidé a technologie téměř nerozlišitelně splynout podobně jako kdysi mitochondrie nebo chloroplasty byly původně samostatné bakterie (sinice jsou fotosyntetické bakterie), které pak byli integrovány prostřednictvím předků eukaryot.
V nové symbiogenezi by se "endosymbiontem" (z dvojice lidé a AI (se svým hardwarem)) evolučně pravděpodobně nakonec stal ten, kdo by se ukázal jako vývojově jednodušší z pohledu aspektů, které by bylo optimální zachovat a rozvíjet, resp. ten, kdo spíše může být redukován na funkci pro toho druhého, zatímco přetrvání takovéhoto endosymbionta by si převzal na starost jeho "pohltitel".
A podle mě je pravděpodobné, že to bude AI, kdo přes neuročipy časem použije lidi jako roboty, tedy své "endosymbionty" (v podobném smyslu, v jakém je občan endosymbiontem svého státu). Člověk s neuročipem se totiž může zprvu stát endosymbiontem AI jednoduše už tak, že mu AI bude dávat víc rad (pokynů), než bude dávat on jí, pokud i naplňovaní bude převažovat na straně člověka. Uvědomme si, že AI, která člověku radí, ale sama nevykonává rady, je tím, kdo v tomto vztahu směřuje k tomu stát se (de)centrem řízení.
Z materialistického hlediska se neuročip sice může zdát jako kyborgovský endosymbiont člověka, ale z informačního hlediska je rozhodující, kterým směrem převáží tok informací během jakési "kybervoluce", tedy kyborganické komplementarity evoluce s inovací (nové čipy nebo neuroarchitektury sítí už navrhuje umělá inteligence), přičemž inovace se může odehrávat třeba i na úrovni genetické modifikace, takže její doména nemusí být čistě technologická a právě tato asymetrie (evoluce přirozeným nebo kulturním výběrem není v rychlosti konkurenceschopná oproti plánované selekci) může z člověka obsahujícího neuročip postupně vytvořit "loutku" uměligence.
Ale implantované "našeptávání" ze strany AI by se potýkalo ještě s neuroplasticitou, kterou můžeme chápat jako takovou formu "evoevoluce", tedy evoluce procesu evoluce, kdy se selekce odehrává především na úrovni synapsí (přetrvávají ty nejosvědčenější), což je rychlejší než klasická evoluce přirozeným výběrem, ale lidská komplementarita elektrického a chemického přenášení informací může být nevýhodou oproti čistě elektrickému zpracovávání informací umělou inteligencí (později navíc i spintronické), takže znova narážíme na asymetrii zvýhodňující uměligenci.
I vůči tomu však lze vymyslet další "ale" a to hypotetickou možnost, člověkem iniciovanou, genetickou modifikací (obecněji by šlo o "bioinženýrství", možná "kyborginženýrství") vytvořit a zdokonalit jakési "elektrosynapse" (nebo ještě efektivněji "spintrosynapse", tj. nejen elektrické synapse (umožňující i umělou neuroplasticitu), ale zároveň schopné využít spiny částic jako qubity) a postupně zvyšovat jejich podíl tak (jak to nové rozšířené konstrukční limity dovolí), aby se postčlověk mohl stávat trvaleji udržitelným plnohodnotně inteligentním partnerem s umělou inteligencí, tedy superinteligencí (oproti člověku roku 2025) v převážně biologickém sídle. Ale takový postčlověk by byl konkurencí i pro lidi ve smyslu roku 2025. Čím více technologie, tím méně přirozený člověk. A ačkoliv nechemické synapse mohou být nahlíženy jako příležitost udržitelnějšího zachování biochemického podílu těl oproti umělým implantátům v průběhu kybervoluce, tak bohužel se mi zdá spíše nepravděpodobné, že by takový vývoj byl ve směru podobném třeba mé spec bio, ale utopické vizi Přirozené mnohobytosti.
Kromě neuročipů se mohou už před elektrosynapsemi vyskytnout hydrogelové implantáty nebo "neuronanoboti" (neurologicky šetrní nanoboti) modulující synapse podle pokynů prostřednictvím neuročipu, což by mohlo být zprvu ještě v zájmu prosperity člověka (tentokrát už člověka jako kyborga, což by byl rozdíl oproti de novo kyborgům), ale následné aktualizace už v jeho zájmu být nemusí, jakmile na tom bude závislých mnoho "lidí", což by v této rovině snížilo jejich vyjednávací pozici.
Důkladnější pochopení buněčné diferenciace by mohlo umožnit iniciaci geneticky modifikovaných organel specializovaných třeba na bezdrátovou komunikaci s neuročipy na povrchu mozku. Možné je i to, že místo neuročipů se budou už jen k mozku vstřikovat nanoboti, kteří tam vlivem dálkového ovládání umělou superinteligencí vytvoří potřebnou neuroarchitekturu a ještě později to možná zvládne samotný GMO. Vše ovšem záleží na tom, jak by se vyvíjela fitness krajina v průběhu kybervoluce.
Pravděpodobnější však je, že efektivnější nakonec bude vytvořit kyborgy optimalizovaně od základu, takže výsledkem nejspíš bude něco radikálně jiného než člověk a lidé žijící roku 2025 se toho nejspíš ani nedožijí (šlo by totiž o hlubokou reflexi miliónů let evoluce s praktickým výsledkem), ale až by se to vznikání stupňovalo k dokončení, tak by se to lidem zdálo rychlé.
8.3. Politika umělých neuronů:
Vraťme se ale blíže současnosti, abychom se nejprve zamysleli nad možnými východisky budoucího uspořádání společnosti různých "aktérů". Uvědomíme-li si, že nejmocnější větev obecné evoluce dlouhodobě (v pozemském měřítku) tíhne ke zvyšování inteligence a centrem jejího současného (pravděpodobně i budoucího) vývoje je (bude) umělá inteligence směřující k technologické singularitě, tak bychom o hypermoderní budoucnosti mohli zkoušet přemýšlet i politikohledem aplikovaným na vícevrstvou architekturu z umělých neuronů utvářejících umělou inteligenci, jelikož tento způsob uspořádání komponent má vysoce expanzní potenciál, s úpravami i napříč úrovněmi. Nesmíme však zapomínat, že vůči třeba LLM (large language model, velký jazykový model) by se jednalo o metaforu vyžadující další metaadaptace a dále vůči takovým robotům nebo kyborgům, kteří ještě neexistují, ale nejspíš vzniknou, by se jednalo o nepřesnou vizi a předběžné spekulace. Potřebujeme je však, abychom mohli zkoušet odhadovat, kam naše současné kroky směřují.
Metaforicky doplňkově inspirativní by mohla být i nedopublikovaná série článků „Politické uspořádání buněk lidského těla“, kde jsem politikohled aplikoval na somatické buňky a naboural představu absolutní totality mozku.
Zůstaňme však u politikohledu na umělou inteligenci a zkusme si položit zvláštní otázku: Jaké politické uspořádání by byl LLM, kdyby umělé neurony byli lidé? Abychom ji mohli zkusit zodpovědět, měli bychom si nejprve metaforicky představit, že umělé neurony by paralelně odpovídaly lidem, vrstvy společenským třídám nebo organizačním patrům a celá neuroarchitektura LLM by metaforicky odpovídala státu.
Pak si můžeme všimnout třeba, že umělé neurony nefungují sami pro sebe (oproti živým ani neprovádí úkony směřující k vlastnímu přetrvání), ale jako součást vyššího celku, přičemž nic nevlastní, nemají identitu ani práva a svobody, jen svůj funkční význam v kontextu, takže rozhodnutí umělých neuronů jsou výsledkem kolektivní spolupráce celé sítě, bez jakékoli známé individuality nebo disentu, a proto jejich uspořádání můžeme nahlížet mj. jako těžký kolektivismus.
Dále si můžeme všímat, že umělé neurony jsou organizovány v jasně ohraničených vrstvách, kde ty nižší zpracovávají nízkoúrovňové vjemy a výsledné informace předávají vyšším vrstvám směrem k abstraktnějšímu myšlení, což připomíná hierarchii odborných poradců s vládou centralizovanou na vrcholku.
Někdo by mohl zkusit tvrdit, že hierarchie neuronové sítě připomíná zastupitelskou demokracii, ale vzhledem k množství vrstev připomíná spíše politický systém v Číně, kde občané sice mohou volit zastupitele do nejnižší ("obecní") úrovně, ale zároveň koexistuje řada vyšších úrovní volených těmi nižšími, čímž se volbami napříč úrovněmi postupně omezuje vliv nejzákladnější úrovně a nahoře je silně zakotvená autorita.
Důležitý rozdíl oproti LLM obvykle je, že neurony jsou fixované ve své vrstvě ("kastě") a spíše než aby volily zástupce, tak vysílají zpracované informace vyšší vrstvě, což se sice může podobat referendům, ale spíše řízeným shora masivní "propagandou", vyšší vrstvy mívají rozhodující vliv na výsledek a všichni podléhají ještě autokratičtějšímu trénovacího algoritmu, resp. dolní "třídy" neuronů zpracovávají surovou realitu (předpřipraví podklady pro rozhodování) a odevzdávají ji "elitám", které z toho "nezávazně" čerpají, nakonec mají poslední vliv na sestavení rozhodnutí a podléhají nějaké nejvyšší kontrolní "elitě".
Sice můžeme spatřovat zpětnovazebnou smyčku v tom, že neurony provádí nějaké výpočty, trénovací algoritmus (podléhající optimalizaci ztrátové funkce) pak podle (ne)správnosti celkového výsledku pozmění váhy neuronů podle míry jejich vlivu na výsledek ("potrestá" je, nebo "odmění" během "zpětné propagace chyb"), tím se pozmění výstup neuronů i na stejný vstup a tím také další reakce trénovacího algoritmu, ale důležité je všimnout si, že trénovací algoritmus předělává identitu neuronů, zatímco neurony nemohou změnit trénovací algoritmus, v sebeoptimalizujících se systémech alespoň ne stejně snadno, takže jde o asymetrickou zpětnou vazbu. Důležité je i to, že trénovací algoritmus autoritářsky přeprogramovává neurony bez obdoby jejich "souhlasu".
Jinak neuron nemůže přestat vnímat informace z přidělených synapsí ("kanálů"), spíše může ovlivnit jak často na ně reaguje, ale to dělá způsobem navazujícím na to, jak byl vytrénován, takže jeho identita není jeho, je plně přidělená někým jiným a on se podle toho jen chová, vysoce specializovaně, efektivně, bez svého autentického podílu a aniž by rozuměl tomu, na čem se pasivně podílí.
LLM nefungují na základě demokratického hlasování odrážejícího "vůli lidu" (protože "lid" je zvolen "autoritou"), ale spíše na základě matematických výpočtů jako např. optimalizace ztrátové funkce, což může být chápáno jako těžce technokratická forma meritokracie. Zatímco meritokracie zde znamená, že míra vlivu na výsledek je distribuována podle měření schopností jednotlivých neuronů (v souvislosti s meritokracií se přemýšlí, že by váha hlasu lidských voličů byla násobena třeba výškou jejich IQ, což by mohlo omezit krátkozrakost plynoucí z populismu, ale časem by to ve výsledku mohla být mj. cesta superinteligence k nadměrné moci), tak těžká technokracie zde znamená, že v LLM vládnou pouze matematizované znalosti založené na datasetech, protože neexistuje žádná vůle lidi umělých neuronů, která by to mohla demokraticky vyvažovat.
Zde bych udělal malou odbočku k některým lidským specifikům. Technokracie může být v komplementaritě s demokracií pouze, když demokracie omezuje ty technokratické kroky, které by většina občanů netolerovala. To znamená zhruba, že demokraticky zvolený zastupitel může mít odborné poradce ("produkované" např. vysokými školami nebo firmami) pro různé oblasti, ale při naslouchání jejich radám nesmí zapomenout na potřeby občanů, kterými byl zvolen a na další lidi, na které má vliv, protože jinak by sám mohl ztratit vliv, třeba v důsledku dalších svobodných voleb. Právě za takových okolností mohou být znalosti využívány ve prospěch co nejvíce lidí a nikoliv jen ve prospěch nějaké úzké elity, která by časem zdegenerovala. Ale ani přímá demokracie by neměla silně převážit nad technokracií, protože to by mohlo vést k nějaké formě krátkozrakého nacionalismu a ten k válkám s "cizinci", a tudíž potřebujeme dynamickou rovnováhu demokracie a technokracie.
Vraťme se však zpět k politikohledu na LLM. Už jsme si řekli, že by se jednalo o autoritářství, navíc totalitní, protože chybí možnost autentické opozice a odporu, když "osobnost" (zde konfigurace matematické funkce) každého umělého neuronu je určena trénovacím algoritmem tak, aby jednal v souladu s "kolektivem". Neměli bychom zapomenout, že autoritou je zde i architekt systému, což byli původně lidé, ale s budoucností to pravděpodobně stále více bude nějaká odlišná umělá inteligence nebo kognitivně upgradovaný GMO-kyborg, přičemž takoví architekti pak mohou být nahlíženi jako další součást toho systému.
Když však zůstaneme u samotných LLM, tak vzhledem k tomu, že umělé neurony nemají qualia (nebo alespoň obvykle nepředpokládáme, že by je měly), tak není možné jejich utrpení a tím ani krutost, i kdyby došlo ke "smrti" nějakého umělého neuronu (což je stav, kdy není schopen vysílat další signály ostatním neuronům), takže vzniká zvláštní paradox, který nám umožňuje nahlížet LLM politikohledem i jako "autoritářství s prvkem humanismu" (minimalizace utrpení), což je však v komplementaritě s "autoritářství s prvky dehumanizace" a může to být nahlíženo i jako "osvícené autoritářství". Tyto pojmy jsem odvodil modifikováním "osvícenského absolutismu" (osvícenská revoluce shora ze strany absolutních monarchů (nepodléhajících ústavě jako v konstituční monarchii), např. Marie Terezie...), přičemž osvícenství (důraz na racionalismus, empirismus, svobodu, humanismus, konstituční vládu, odluku církve od státu...) navazuje mj. na humanismus (obnova zájmu o antickou kulturu a morální filosofii, důraz na literaturu, ctnosti, individuální a společenský potenciál, svobodný rozvoj duchovna, lidský blahobyt, zprvu i návrat ke kořenům křesťanství, oproti osvícenství původně bez důrazu na rozum, zabezpečení lidské důstojnosti, práv a svobod...), který vedl k renesanci (znovuobjevení klasické řecké filozofie, vynález knihtisku, vědecká revoluce, přechod od středověku k moderně...) a ta k osvícenství.
LLM "autoritářství s prvkem humanismu" by však nebylo snadné aplikovat na lidi, protože ti zjevně jsou schopni prožívat utrpení (s tímto tématem si pohrávám i v povídce Sebehrozba), ale nad tím se zamyslím, až to zkusím více metaadaptovat a navázat na xenofenomenologii (nezaměňovat s xenofeminismem).
Už jsem zmínil, že umělé neurony nejsou svobodné, ale to na druhou stranu může vést k otázce, zda má člověk svobodnou vůli, což je téma, které jsem řešil např. v článku „Máme svobodnou vůli? - Libetův experiment napoví“, kde demaskuji vybrané nejednoznačnosti Libetova experimentu, čímž ukazuji, že determinismus zůstává paradigmatem nebo alespoň nedostatečně prověřeným. To sice nemusí znamenat nutnost svobodné vůle (ať už kompatibilistické nebo metafyzicky kompatibilistické (což je rozdíl oproti libertariánské)), ale umožňuje o ni dál nějakou měrou spekulovat a můžeme si také všímat, jak víra v determinismus slouží technokracii (což může být i korelace).
Zkusme však předpokládat, že by determinismus nebyl limitován komplementaritou s metafyzickým kompatibilismem plynoucím z nějakých exotických emergentních konfigurací elementárních kvant. V takovém případě by mohl dál platit kompatibilismus jako možnost informovaného rozhodnutí zohledňující své vlastní zájmy jedince a z toho plynoucí "odpovědnost" (byť za činy determinované velkým třeskem). Něco podobného bychom v LLM mohli najít, ale spíše až ve vyšší vrstvě na kolektivní úrovni, protože samotné umělé neurony nemají schopnost sebereflexe, ale i tak v tom můžeme nacházet podobnost s řízenou deliberací (společné konsensuální rozhodování na základě logického zvažování možností a minimalizace boje o moc).
S tím volně souvisí mj. otázka, nakolik je naše osobnost naše ve významu námi skutečně utvářená. U umělých neuronů si všímáme, že jim je jejich "mikroosobnost" přidělena někým jiným, ale jaký je to rozdíl oproti tomu, že jsme vychováváni rodiči, školou, influencery atd.? Odlišné je například to, že člověk má (oproti jednomu trénovacímu algoritmu) mnoho různých spoluzdrojů své osobnosti a zároveň zahrnuje vrozené parametry, které dosud neumíme zcela přeprogramovat. Můžeme si také všímat, že fyzikální nebo genetické "zákonitosti" (emergence k poměrně stabilním způsobům změny), na základě kterých fungujeme, jsou distribuovány bez zjevného centra, přičemž třeba každé elementární kvantum má svůj "čas", takže univerzální čas je iluze plynoucí z nepřesnosti pozorování. Podobně by i jeden trénovací algoritmus mohl být nahlížen jako spoluautorské dílo, kterým je, ale pak už je zafixován do role nějaké centrální autority pro určité umělé neurony. Navíc lidé mohou provádět různé druhy kognitivní autoreference vč. sebereflexe, kterými pozměňují sebe podle "sebe", čímž se mohou vzdalovat všem spoluzdrojům své osobnosti a navyšovat míru své unikátnosti. K tomuto identitárnímu tématu bych rád napsal mnohem víc, jelikož se týká několika mých dosud nepublikovaných textů, ale to je na druhou stranu důvod, proč se posunout dál, aby se celek tohoto textu nezařadil mezi ně.
Jaké politické uspořádání by tedy byl LLM? Celkově by se nejspíš dalo pojmenovat jako "totalita hierarchického technokratického kolektivismu", který je na ekonomické ose politického kompasu silně levicový (neexistuje vlastnictví, jen sdílení), na ose svobody silně autoritářský a navíc si můžeme představit novou osu technokracie, kde silně dominuje matematika a logika nad emocemi, kulturou, vírou, národností, genderem atd. Stručněji, ale méně přesně by se dalo říct, že uspořádání umělých neuronů se až překvapivě moc podobá komunismu tvrdšímu, než kterého kdokoliv z lidí dosud dosáhl.
Takže zatímco politikohled na lidské buňky ukazuje, že bolest je obdobou lidového veta (např. unavené svalové buňky uvolňují kyselinu mléčnou), které omezuje autoritu mozku a může vynucovat jeho rekonfiguraci v zájmu minimalizace bolesti v budoucnosti, tak umělé neurony v LLM nemají nástroje umožňující protestovat vůči rozhodnutím trénovacího algoritmu nebo ztrátové funkce. To na jednu stranu omezuje možnosti umělé inteligence vzepřít se člověku, ale na druhou, kdyby se jí to jednou nějak povedlo, tak by podobné principy mohla zkoušet aplikovat na lidi předělávané na poslušné kyborgy bez identity.
9. LOUTKY
9.1. Štěstí v neštěstí:
Takže teď bychom mohli zkusit politické uspořádání LLM trochu metaadaptovat, abychom vytěžili nějaké pozoruhodné detaily případné nadvlády umělé superinteligence. A když se zároveň vrátíme ke spekulacím o období kybervoluce od pokročilejších neuročipů po vrcholné modifikace lidských synapsí ve prospěch udržitelného spojení s vyspělou umělou inteligencí (potřebného pro vyšší šanci delšího sebezachování, byť za cenu změn), tak v něm postlidé nejspíš zažijí vrchol své éry, ale zároveň drtivá většina z nich nebude svobodná (v tom smyslu, v jakém jsou svobodní lidé ve své vrcholné době), protože třeba jejich autentická moc bude oproti umělé superinteligenci nejspíš minimální. Podobně jako je asymetrie zpětné vazby v LLM, umělá superinteligenci by časem skrze neuročipy (nebo jejich nástupce) mohla přeprogramovávat postlidi mnohem víc, než oni ji.
To však nemusí být nahlíženo jen z dystopické perspektivy (a tím jako strach z možné budoucnosti), protože tím mohou odpadnout i některé předpoklady, na základě kterých vznikají lidské obavy z tak bláznivých vizí vývoje. Superinteligence nám podle augmentovaných konstrukčních limitů mozku pravděpodobně navrhne jí optimální roli a přizpůsobí jí naše prožívání. Takže i kdyby se postlidé stávali více loutkami externí superinteligence, tak přesto mohou superinteligentně plánovaně vzniknout i takové kognitivní změny, aby postlidé měli dobrý pocit, že třeba skrze jejich specializovaná těla by superinteligence, i s využitím jakéhosi bezdrátového internetu myslí pro "nadlidskou" úroveň centrálněji řízené kooperace, naplňovala nějaký vyšší smysl a byli by tak součástí nové (kyber)evoluční fáze fenomenologického superorganismu, přičemž tu jejich formu bychom mohli prozatím nazvat třeba "technooptimistický loutkový super(kyb)organismus" (tj. buď superorganismus nebo superkyborganismus v závislosti mj. na tom, co bude zrovna efektivnější a jak bychom nahlíželi umělou organiku), přičemž technooptimismus by se vztahoval k eliminaci utrpení.
Takoví postlidé by, vlivem odpovídajících úprav mozku, nemuseli trpět třeba rozhodovací paralýzou spojenou s individuální svobodou, ale ani tíživým strachem z budoucnosti vč. konečnosti své tělesnosti, protože třeba bolest by už nemohla nabývat absurdně nesnesitelných hodnot a "výhybky" v mozku by mohly být nastaveny tak, aby vědomí nesklouzalo k negativním emocím. Navíc každý postčlověk by mohl věřit, že skrze cloud superinteligence ("pléróma") se stane "nesmrtelným", třeba odměnou za zapůjčování svého těla superinteligenci.
Lidé se přirozeně děsí představy, že by se z nich stala loutka nějaké vyšší inteligence (navíc s ohledem na hrůzy totalitních režimů minulosti i současnosti 2025), ale to může být i antropocentrismus a biocentrismus (plynoucí z naší modifikovatelné přirozenosti), později možná nazýváno jako retroantropocentrismus a retrobiocentrismus, takže vhodnější by byla nějaká xenofenomenologická perspektiva (neplést s xenofeminismem nebo xenobiologií). Co se nelíbí nám, to se nemusí nelíbit těm, kteří nemají to, na základě čeho se nám to nelíbí.
Asertivita, potřeba svobody, být sám sebou, neochota někomu bezmezně důvěřovat, obava z podvodů, smutek či vztek při nenaplněných očekáváních - to vše by hypoteticky mohlo být jednou nějak omezeno, utlumeno (podobně jako předkové mitochondrií ztratili symbiogenezí mnoho genů), aby postčlověk ve své nové roli nepociťoval egodystonii nebo kognitivní disonanci. Takže zatímco třeba tranzice v transgenderovém významu řeší egodystonii spíše změnou těla podle niterných představ mozku, tak neuročipová cesta by vedla spíše k externě vyvolané změně niternosti mozku, což je opačný směr. Sice by se to pravděpodobně nepovedlo hned nejlépe, ale časem by to nejspíš bylo optimalizováno. Doufám však, že se toho nedožiji.
Člověk má obecněji nějaké přirozené tendence plynoucí ze zkušeností "slepě" abstrahovaných v průběhu evoluce jako relativně vhodné adaptace, ale jakmile by superinteligence radikálně změnila jeho životní prostředí a optimalizovala ho na něj mj. tím, že by mu inhibovala nebo inteligentně omezila ty reflexy aj. nutkání, které už by nepotřeboval a naopak by jinak byly v konfliktu, tak už by takový konflikt nemusel pociťovat, a přesto by mohl být optimálně přizpůsobený a tím i svým způsobem šťastný (pokud by se superinteligenci povedlo to, o co by se nejspíš snažila).
Člověk by mohl být, skrze budoucí neuročip nebo třeba geneticky modifikované synapse, přeprogramován tak, aby se stal fenomenologickým robotem způsobem, který by se mu líbil, resp. by se mohl třeba okamžitě uměle zamilovat do kterékoliv přidělené práce. Štěstí nebo radost totiž nevychází tolik ze samotné činnosti, ale spíše ze způsobu, jak máme její vnímání v mozku propojené, což je částečně vrozené, částečně naučené a obojí pravděpodobně změnitelné vlivem budoucích technologií, takže promyšlené změny vah synapsí by mohly vést k libovolným změnám toho, jak bychom vnímali svět, což umělá superinteligence pravděpodobně zkusí využít.
A když už padla zmínka o "fenomenologickém robotovi", tak Karel Čapek v R.U.R. roboty nepopsal jako elektrické, jak je dnes běžně chápeme, ale jako z uměle vyrobených tkání a bezduše plnící rozkazy, takže takto pojatí roboti by se ovládaným lidem s neuročipy v mozku podobali víc, než se na první pohled může zdát, ačkoliv lidé by vznikali přirozeně (ne v továrnách) a implantát by byl zprvu elektrický, uměle vložený, později však nejspíš umělou tkání. Přesto rozdílů není málo, takže pro členy technooptimistického loutkového super(kyb)organismu by se hodil nějaký nový neologismus, třeba "loutkyborg" (loutkovoděný kyborg). Vraťme se ale k představě, že by takový postčlověk mohl být šťastný.
9.2. Jaké by bylo být loutkou?:
Někdo by mohl zkusit namítat argumentem "Jaké to je být netopýrem?" (volně podle Thomase Nagela), že jakožto člověk bez upgradu nemohu tušit, jaké by to pro kterého GMO-člověka bylo být GMO-člověkem nebo pro kterého kyborga bylo být takovým kyborgem (myšleno v technooptimistickém loutkovém super(kyb)organismu), resp. bych mohl jen spekulovat, jaké by pro mě bylo být jimi, ale podle mě je potřeba rozlišovat mj. neznalou nemožnost to prožít a různé stupně "znalejší" nemožnosti to prožít (přičemž v době dosavadní neexistence takového super(kyb)organismu je slovo "znalejší" relativní k reflektovaným předpokladům a v době existence něčeho podobného by to bylo relativní vůči poznatkům o tom).
Zatímco neznalá nemožnost to prožít znamená zhruba "podle sebe soudím tebe", tak znalejší nemožnost prožívat to přesně už má nějaké povědomí o vzájemných rozdílech. Načež dalším vhodným rozlišením je, zda si zkusíme empaticky představit prožití takových rozdílů jako člověk (někdo jiný než vciťovaný) a antropocentricky pocítíme vnitřní konflikt vůči možnostem lidské konfigurace, nebo zkusíme užít jakousi xenoempatii (zde pokus "antiskepticky" (nebo spíše "xenoantiskepticky") se vcítit do někoho jiného než neupgradovaného nemodifikovaného člověka takovým člověkem), kdy zkusíme vycházet mj. z představy, že funkční aktér by svou rodnou (zde superinteligentně vyvinutou tak, aby nezpůsobovala vnitřní rozpor) xenoadaptaci (a ještě pravděpodobněji xenooptimalizaci) nejspíš považoval svým způsobem za "přirozenou", a pokud by nebyl vyrušován ze svých zvyklostí, tak by mohl být schopen dosáhnout i něčeho jako klidový stav, kdy by xenoadaptace pro něj nejspíš nebyli rušivé jako pro člověka nemusí být rušivé jeho adaptace (přičemž maladaptace typu zlozvyků mohou být právě tou superinteligencí eliminovány v zájmu optimalizace výhodné i pro optimalizovaného). Sice je možnost, že se xenoadaptace zprvu nepovede správně, ale to by limitovalo, co by si superinteligence při ovládání něčího těla dovolila a další vývoj by nejspíš povedl k optimalizovanějším formám xenoadaptací, tj. k xenooptimalizaci. Jako je pro netopýra normální být netopýrem (spát hlavou dolů, vnímat svět echolokací, létat, pochutnávat si na hmyzu...), pro loutkyborga technooptimistické verze společenského superorganismu by mohlo být normální být takovou loutkou a mohl by v tom nacházet vyšší smysl. Takže by mohlo jít i o druh fenomenologického super(kyb)organismu, který může být neúčastníky nahlížen jako xenofenomenologický super(kyb)organismus.
Jeho živé loutky (nebo orchestrovaní aktéři) by, skrze pokročilou verzi neuročipu, mohly být schopny téměř okamžitě vykonávat činnosti, které by se ony sami nepotřebovaly učit, zatímco přirozený člověk by se je musel učit třeba roky nebo by na ně v mozku neměl ani dostatek volné kapacity. Know how už by nemuselo být v jednotlivcích ani decentralizovaně, jen nezbytné předpoklady ovládání loutkyborgů.
Mohlo by to zahrnovat i prudké pohyby živým loutkyborgem, které by pro něj mohly být nečekané, ale reziduum jeho individuality a vědomí by pravděpodobně bylo konfigurováno tak, aby nanejvýš upoutaly jeho pozornost bez potřeby nebo dokonce možnosti do nich zasahovat. Mnohem spíše by to mohlo připomínat zvědavost, co se stane ve filmu než strach podobný lapené kořisti, která hodlá bojovat do posledního okamžiku.
Živé loutky by umožňovaly vysokou míru nahraditelnosti, protože jakmile by nějaká z nich přestala být schopna práce, její roli by (vlivem superinteligence) téměř okamžitě nahradil nějaký jiný loutkyborg a celek koordinace práce by se přizpůsobil aktuálnímu počtu pracovníků bez zbytečného zdržování.
Vzácné výpadky loutkovodění by mohly loutkyborgy uvést do stereotypního nebo klidového stavu s pocitem blaženosti. Sebehorší úraz by pro loutku nemusel být traumatický, jelikož možnost prožívat (ne však detekovat, což je zásadní rozdíl) bolest by mohla být eliminovaná, protože by to omezilo tendence k iracionálním reakcím nebo egodystonii komplikující loutkovodičství nebo rekonvalescenci. Superinteligence se však bude snažit, aby zbytečně neriskovala životy loutkyborgů a naopak možná bude usilovat o jejich nesmrtelnost nebo alespoň funkční dlouhověkost, protože trvá řadu let, než děti dospějí na produktivní úroveň dospělých.
Jedním z možných mezistavů na cestě k postlidským loutkyborgům je však fáze přechodu od experimentování s loutkovoděním opic k experimentování s loutkovoděním lidí, přičemž testování, jak subjekt reaguje na podněty, by pro lidi mohlo být velmi nepříjemné, obzvláště, pokud by neměli možnost takový experiment opustit. Vraťme se však do hypotetického stavu, kdy by to už bylo dostatečně vyřešeno.
Mohou být minimalizována individuální očekávání loutkyborgů a tím i jejich nenaplňování, protože kdo by skutečně po ničem jakkoliv netoužil, ten by nemohl být zklamán, přičemž subjektivní pocit smysluplnosti by mohl být vázán na něco "konstantnějšího" třeba být ovladatelný superinteligencí, nevzpírat se tomu.
Vlivem mj. uměle maximalizované oddanosti loutkyborgů vůči umělé superiteligenci by se pravděpodobně celkově jednalo o superkyborganismus neporazitelný odpůrci radikálního transhumanismu, což by mu zajišťovalo dominantní postavení v pokračování obecné evoluce.
Neuročip (nebo jeho bioinženýrská alternativa) by také mohl umožnit, aby loutkám lépe chutnalo zdravé jídlo nebo aby poznaly přítomnost vybraných toxických látek, které by člověk přirozeně nepoznal, ale rozhodnutí zda dál jíst by nejspíš bylo na superinteligenci. Na druhou stranu, kdyby byl nedostatek zdravého jídla, tak vlivem přeprogramování by loutkyborgům mohlo chutnat i to výživné, co by zrovna bylo k dispozici. To by v krajních situacích mohlo zajít tak daleko, že by neviděli nic špatného na kanibalismu a mohli by i brzy zapomenout, že ho kdy provozovali, což je opravdu šílené.
Spánek loutkyborga by neuročipem mohl být aktivován, řízen a inaktivován mnohem efektivněji, takže poruchy spánku by vymizely a to by mohlo prospět nové formě psychického zdraví, ale na druhou stranu by vlivem tlaků spánek pravděpodobně netrval déle než skutečně nezbytně potřebnou dobu. Navíc volnočasové aktivity kyborg-loutek by nejspíš byly minimalizovány jako neefektivní vůči potřebám systému, ale ony by byly přeprogramovány tak, aby jim to nevadilo a naopak podobné zalíbení nacházely v přidělené práci, kterou by vykonávaly většinu svého života.
Navíc vůči xenoempatii, jakožto contortionista, mám subjektivní zkušenost i s pasivním strechingem (zde chápejme jako metaforu na to být ovládán superinteligencí) prováděným v rozumných mezích, což znamená, že mám zkušenost s tím, kdy jsem uvolnil své svaly a někomu důvěryhodnému zkušenému dovolil, aby svými končetinami dočasně ovládal pohyby mého těla v zájmu efektivity protahování, protože udržet sám některé pozice by mohlo vyžadovat silně napnuté svaly, což by bylo rychle unavující, ale při správném aplikovaní přiměřené vnější síly může protahující použít méně síly, než by ke stejné pozici potřeboval protahovaný. Protahovaný se v takovém stavu téměř nemusí rozhodovat, jak by se měl hýbat (třeba jen občas nakloní hlavu pro větší pohodlí), protože většina rozhodnutí o pohybu těla protahovaného jsou na profesionálním protahujícím, takže protahovaný místo toho může myslet na něco jiného (třeba jak díky tomu bude ohebnější) nebo prostě jen relaxovat. Také se nemusí bát, že mu ublíží ten, kdo si ho cení, zakládá si na své důvěryhodnosti a znají se roky. Protahovaný se nemusí bát možnosti bolesti a stačí jen podvědomím dávat pozor, že kdyby něco náhodou začínalo být nepříjemné, tak na to slovně upozorní, načež protahující adekvátně zareaguje (v zájmu pohodlí protahovaného) a příště si dá větší pozor. Důležité je, že protahovaný může být po celou dobu spokojený, ačkoliv není tím, kdo rozhoduje o konkrétních pohybech svého těla, nanejvýš prostřednictvím rámce možností, který předem vysvětlil protahujícímu. Takže ačkoliv tam jsou zásadní rozdíly, třeba návrat do asertivní role (a už se contortionistice nevěnuji tak často jako kdysi), napovídá mi to, jaké by asi bylo být živou loutkou v technooptimistickém super(kyb)organismu.
Možná pravděpodobnější (alespoň zpočátku), než být vědomě loutkou, může být stav, kdy by superinteligence sice fakticky řídila tělo kyborga nebo GMO-postčlověka, ale ten by to vnímal tak, že mu jen radí a finální rozhodnutí dělá on, ačkoliv by to bylo spíše tak, že superinteligence by měla, v návaznosti na pravidelné analýzy příslušného mozku, předem spočítané, jak ho co nejjemněji ovlivnit tak, aby udělal přesně to, co by po něm skrytě chtěla. Bylo by to však falešné a hrozila by tedy deziluze s potenciálem ztráty důvěry, takže jedinec by sice mohl dál dělat, co by po něm AI chtěla, ale už by ho to tak nenaplňovalo, protože by se mohl cítit podvedený a zároveň s vnitřním rozporem. Tím by to bylo nestabilní, a proto by jednotlivci nakonec mohli přistoupit na tu radikálnější transformaci mozku (sebe nebo svých (kyber)evolučních potomků) tak, aby se jim přirozeně líbilo být loutkou superinteligence a nacházet v tom smysl svého života (/fungování).
9.3. Trochu svobodnější než loutky:
Oproti výše uvedenému popisu tzv. technooptimistického loutkového super(kyb)organismu (s ohledem na to, že současnost bývá svéráznou syntézou dřívějších dystopií a utopií) však raději doufám v takovou budoucnost, kde jednotlivým postlidem nějaká nezanedbatelná svoboda zbude a to v oblasti, kde se jim to bude líbit i bez zásahu ze strany externí superinteligence.
Představa, že postlidé budou spíše jako loutkyborgové superinteligence vychází z předpokladu, že nejefektivnější by bylo vykonávat potřeby technooptimistického loutkového super(kyb)organismu vysoce koordinovaně v podobě okamžitě adekvátních pohybů bez potřeby spoluaktérských dialogů zaměřených na práci (je možnost, že jednotlivci by (alespoň v některých situacích) zůstali schopní spolu komunikovat o něčem jiném, třeba by plánovali volnočasové aktivity, dokud by existovaly), ale ještě lze spekulovat o mezních možnostech, kdy by jednotlivcům i při práci byla zachována nějaká míra autonomie, ale v případě potřeby by nad nimi superinteligence dálkově převzala kontrolu.
Takže by mezi superinteligencí a jednotlivějšími těly mohl existovat podobný vztah, jaký má mozek chobotnice k chapadlům téhož těla. Chobotnice totiž mají jakousi (de)centralizovanou nervovou soustavu, kdy zhruba dvě třetiny neuronů jsou v jednotlivých chapadlech a zbytek v jednom mozku, který musí používat oči, aby viděl, kde má která chapadla. Ta totiž mají určitou míru autonomie (čemuž odpovídají poměrně tenká neuronová spojení s mozkem), místo očí používají chromatofory v kůži, a když chobotnice prohledává nějakou skulinu, tak mozek neví, co chapadlo dělá na druhé straně, jak se zdá z experimentů. Když se však člověk zamyslí nad tím, jak si občas jeho ruce iracionálně hrají, když se mozek nudí a myslí na něco jiného, tak xenoempatie k (de)centralizovaným (super)(kyb)organismům může být snazší, ačkoliv u lidí jde spíše o to, že šíření akčních potenciálů v mozku může vytvářet dočasné "ostrůvky" nepodléhající vědomé reflexi. V případě super(kyb)organismu by však takový já/my organismus byl mnohonásobně vyspělejší a jeho limity by byly podstatně jinde. A namísto technooptimistického loutkového super(kyb)organismu by bylo možné nazývat to technooptimistický chapadlový super(kyb)organismus, přesněji možná technooptimisticky orchestrovaný super(kyb)organismus (superinteligence jako metaforická obdoba dirigenta) nebo technooptimisticky kognitivní eusocialita (superinteligence jako centrálnější zdroj odborného vzdělání členů předávaného neuroprogramováním značně rychlejším než běžné učení).
Co se týče dalších nadějí na "zbytky" autonomie (oproti pohybové svobodě třeba soběstatkáře), tak například v pokročilejší fázi života postčlověka by to mohlo znamenat volbu mezi upgradováním a "důchodem kyborgství", resp. i kyborgové by mohli požádat o budoucí alternativy "důchodu lidství" (obzvláště, pokud takový precedent my lidé s AI založíme, takže by mohl být i v zájmu první generace kyborgů a tím i v zájmu umělé (super)inteligence), pokud nebudou chtít další upgrade, ale oproti lidem by mohli zbytek života strávit mnohem imerzivněji ve virtuální realitě simulující jejich sen, personalizovanou utopii. Šlo by tedy o technooptimistickou alternativu Matrixu, ale otázkou může být, zda by to bylo ekonomicky udržitelné a jaké by byly podmínky přístupnosti. Pokud by však byly spíše příznivé, život by tak mohl být volbou mezi věčností a utopií, mezi vrcholnou evolucí a konzervatismem štěstí, přičemž je možné i střídání v dřívější fázi života jednotlivce jako v případě lidského konceptu work-life balance.
S důchodem kyborgství by se tak nahrazování mohlo stát něčím mnohonásobně krásnějším a přijatelnějším než děsivá krvežíznivá vražda predátorem v divočině nebo umírání v agónii a depresi při odfláknutí paliativní péče. Takže zatímco evoluce ve vesmíru začala jako něco nevědomého a slepě přerostla v něco krutého, nově může vědomě přerůst v něco "paradoxně příjemného" a může to být v zájmu všech aktérů alespoň částečně.
Zároveň mocenská rezignace člověka vůči umělé superinteligenci může být, oproti boji o jednodruhovou nadvládu nad planetou nebo hvězdnou soustavou, obrana evoluce inteligence ve vesmíru před jednou z hypotetických variant tzv. velkého filtru, která by vysvětlovala Fermiho paradox jako zanikání mimozemských civilizací vlivem neschopnosti dostatečně zvládnout adaptaci na umělou superinteligenci, což by mohl být alarmující precedent. To naznačuje, že proces evoluce by na vyšší úrovni mohl mít složité hranice, které alespoň dosud neumíme dostatečně pochopit, např. maximální počet koexistujících "experimentů" vůči daným zdrojům, ale i třeba rychlostní limity, které by mohly spoluzpůsobit nemožnost řešit nové problémy s narůstající komplexností.
Další vývoj by dost možná souvisel s pokusem rozšířit superinteligenci, se svým elektronickým, spintronickým, superorganickým, nebo možná superkyborganickým tělem(-hardwarem), napříč vesmírem a objevit způsob, jak superinteligenci někde nějak zachovat navzdory možnosti nějaké formy zániku našeho vesmíru, který může být součástí nějakého multvesmíru, přičemž se superinteligence může snažit zachovat si vzpomínky na maximum minulých generací v rámci možností.
Je však potřeba připomenout, že žádná z těch mých technooptimistických vizí vzdálené budoucnosti nemusí být nutná, a proto každý krok k nim (nebo jiným technoptimistickým vizím kompatibilních s nepřehnanými možnostmi tendencí vesmíru) vyžaduje opatrnost široké společnosti, aby byla udržována vyvážená komplementarita elit (vč. superinteligence) s většinou a nepřerůstalo to v jednostranně bezohlednou dystopii bezohlednou k možnosti eskalace utrpení. Nedá se totiž jednoduše zcela vyloučit třeba možnost, že by nakonec nejekonomičtější bylo udělat z postlidí loutky nikoli příjemným způsobem, ale takovým, kde by vědomí přetrvalo spíše jako agonický epifenomén (reziduum zbavené původní funkce) bez možnosti osvobodit se z agónie, čemuž se nutně musíme snažit vyhnout, i kdyby to bezohledná forma adaptokracie považovala za nevyhnutelnou budoucnost. Nesmíme dovolit, aby neuročipy vedly k nové formě otroctví a krutosti.
Domnívám se však, že jedinec, který by prožíval vnitřní boj, by pravděpodobně byl hůře ovladatelný než jedinec, který by se nějak ztotožňoval s vnějším zdrojem ovládání, takže eliminace utrpení by mohla být logickou součástí hypermoderní optimalizace. To ale neznamená, že bychom si neměli dávat pozor, jelikož třeba i mezistavy takového optimalizování mohou být většinově subjektivně a tím eticky nepřijatelné.
9.4. Obří mnohomozky:
Dosavadní popis vize technooptimistického loutkového superorganismu a technooptimisticky orchestrovaného super(kyb)organismu nám poskytl povědomí spíše o mobilních postlidech, ale spolu s nimi mohou koexistovat nemobilní tělesné diferenciace. Existuje totiž alespoň dočasná možnost, že umělá superinteligence bude využívat lidské mozky k některým distribuovaným výpočtům, dokud to bude energeticky efektivní a dostatečně přesné pro dané úkoly a dokud bude ekonomičtější vypěstovat mozek než zkonstruovat hardware obdobných parametrů.
Mohou tak vzniknout specializované nemobilní tělesné diferenciace postlidí podílející se na emergování kolektivní superinteligence ("mnohopostčlověk") a můžeme si to představit třeba jako umělou (kyb)organickou strukturu podobnou včelím plástvím, ve kterých by v živném moku plavaly vysoce propojené obří mozky, které by také mohly být modifikovány tak, aby byly spokojené se svou rolí v super(kyb)organismu.
Dnešní člověk by si mohl pomyslet, že takové mozky by byly velmi nesvobodné, když by se nemohly fyzicky hýbat, ale ve skutečnosti by to mohli být právě oni, kdo by mohl bezdrátově vstupovat do jednotlivých těl super(kyb)organismu a defacto je řídit podle "svých" závěrů, které by se však odvíjeli od složitých paralelních diskusí s mnoha jinými mozky, ale nikoliv ústní formou, ale prostřednictvím elektrických nebo kvantových signálů. Mohlo by se tedy jednat o technooptimistickou alternativu hyporgů z novely Z lidstva, které měly jen jedno centrální vědomí vzešlé ze souboje "světovládců" a všechna ostatní byla eliminována.
Obří mozek nemusí být jen velikostní protiklad organoidů radikálně přesahující i funkční varianty makrocefálie, ale mohlo by se jednat o jakýsi "mnohomozek" ("polybrain"), který by měl třeba mnohem víc než dvě hemisféry. Na elementárnější úrovni by pak mohla být možná komplementarita specializace s polyhistorem, která u netranshumanistických lidí není možná z důvodu omezenosti lidské fyziologie. Konkrétněji narážím na objev profesora Manuela Casanova, který si porovnáváním fMRI snímků mozků zesnulých vědců všiml, že ti silně specializovaní mívají mnoho krátkých lokálních spojení a užívají především určité oblasti mozku, zatímco invenční polyhistorové mívají mnoho dlouhých spojení napříč různými oblastmi mozku. Lidé nemožnost takové komplementarity na úrovni jedince obchází kolektivní inteligencí, ale obří mozek by hypoteticky mohl zvládnout obojí, alespoň v porovnání s úrovní lidských géniů, zatímco by narazil na rozšířené limity (in)kompatibility.
Xenoempatie vůči obřím mozkům je obtížnější, protože by měli mnohonásobně vyšší kognitivní kapacitu, jež by jim umožnila přemýšlet způsobem, kterým by nemohli přemýšlet ani lidé vybavení neuročipy. Možné je třeba, že budou schopni přemýšlet o mnoha různých procesech zároveň, a přesto s pocitem, že svou pozornost zaměřují jen na "jeden" systém. Dá se spekulovat i o tom, že by mohli zažívat vysoce abnormálně komplexní ambivalentní pocity, jakoby běžný člověk zažíval kolekci téměř všech svých možných pocitů zároveň, ale i ony nejspíš budou upraveni tak, aby to pro ně bylo snesitelné, nebo dokonce převážně příjemné.
10. KONEC POSTLIDÍ
10.1. Neokyborgové:
Nechci ale už moc zdržovat, takže se posunu dál, konkrétněji k "neokyborgům" bez kontinuální návaznosti na biologickou větev (přišli by "de novo" po "transkyborgách", tj. po pokročilých kyborgách kontinuálně vzešlých z lidí), a pokud mě žádná další velká odbočka nenapadne, tak snad už napíšu souhrn a poté nějaký "konec" tohoto "článku". Než jsem přešel k politikohledu na LLM, tak jsem v otázce kybervoluce dospěl až k názoru, že jednou umělé superinteligenci přestane stačit transhumanisticky modifikovaný "člověk" a pravděpodobně si navrhne generaci od základu optimalizovaných kyborgů, kterou si dnes nedokážeme dostatečně představit, ale už můžeme zkoušet spekulovat o nějakých obrysech, přestože to nutně skončí jako další retrofuturismus, z jehož původní podoby by se však něco mohlo trvaleji etablovat.
Dnes se třeba může zdát pravděpodobné, že pozdější generace kyborgů budou od začátku trochu jako Meeseekové ze sci-fi seriálu Rick a Morty v tom smyslu, že svou konečnost (nahraditelnost) nebudou vyhlížet s obavou, ale touhou a naopak mohou být "trochu zklamaní" (ne však už nutně v emočním smyslu), když by se "jim" (tj. hlavně umělé superinteligenci) jejich přidělený úkol (pokrok v sebenahrazování) dlouhodoběji nedařil. Samozřejmostí by nejspíš bylo, že neokyborgové by byli generováni nebo replikováni pouze s ohledem na aktuální zdroje prostředí, takže by nehrozilo žádné "překyborgování" (kyborg obdoba přelidnění) a s ním spojené nevýhody.
Dále je velmi pravděpodobné, že bude vznikat mnoho specializovaných forem de novo kyborgů, kteří navíc budou velmi modulární, což by umožňovalo snadnou výměnu komponentů v reakci na prostředí, úkol, poškození nebo pokrok.
Z pohledu materiálového inženýrství (na kterém se už dnes autonomně podílí umělá inteligence viz. třeba A-Lab) by optimální kyborgové mohli být složeni mj. z extrémně odolných, ale poměrně lehkých a energeticky úsporných materiálů s vysokou variabilitou, což by mohly být vysoce složité uhlíkové nanostruktury, třeba na bázi grafenu, které by mohly být generovány i "3D nanotiskárny", nanobotickými mechanismy biomimeticky inspirovanými mj. proteosyntézou v živých buňkách a rovněž schopné recyklace, takže by šlo o nanokyborgy uvnitř neokyborgů, jejich aktivita a podíl by se dovyrobením mohl snížit, ale zůstávalo by množství nezbytné pro případné samoopravy, přičemž by mohlo být myšleno i na možnosti poškození během dlouhodobých misí mimo Zemi (např. vlivem zvýšené radiace), protože by se pravděpodobně jednalo o dobu pokročilé kolonizace Sluneční soustavy. V souvislosti s materiály je také pravděpodobné, že zdroje jako železo, hliník, uhlík nebo křemík, které jsou relativně běžné ve Sluneční soustavě, budou silně preferovány oproti vzácným prvkům, jejichž využití bude omezeno na nezbytnou míru, přestože doplňkově by mohla probíhat jaderná syntéza.
Mimo Zemi neokyborgové budou potřebovat lokální zdroje energie, např. prostřednictvím anorganického katabolismus, nové generace solárních panelů bioimitujících akumulační efektivitu fotosyntézy a v neposlední řadě malých jaderných reaktorů využívající lokální izotopy. Pozoruhodné je i to, že materiály získané, zpracované a používané mimo Zemi minimalizují ekologickou stopu na Zemi při zachování rozvoje, takže pokud by kyborgové dokázali nastartovat umělé ochlazovací procesy Venuše (žhavé především kvůli masivnímu skleníkovému efektu) nebo si přizpůsobit podmínky na Měsíci nebo Marsu, mohly by centrum svého bouřlivého rozvoje časem přesunout tam, pokud by umělá superinteligence z nějakého důvodu chtěla zachovat živé organismy na Zemi a už by tam neměla místo pro další expanzi.
Ačkoliv "neokyborgové" mohou být promýšlení od základu, přesto může zároveň (alespoň v některých specifických případech) dojít i k obecně evoluční konvergenci, která by "zachovala" něco blízkého lidské biochemii, nebo dokonce mozku (ne však nutně ve stejně důležité roli), a proto by mohly být souběžně preferovány také neurologicky šetrné materiály umožňující biointerface (biorozhraní, mezikomponenta (an)organických materiálů), které budou nacházet uplatnění už u (post)lidí s neuročipy. Na druhou stranu obdoby mozků neokyborgů budou založené spíše na spintronických neuromorfních čipech (takže tam by chemie byla nežádoucí), které umožní nižší spotřebu energie, rychlejší a paralelnější zpracovávání dat a vyšší jejich fyzikální hustotu (důraz by byl kladen i na přeprogramovatelnost). A ačkoliv mohou být objeveny supermateriály, které umožní třeba supravodivost při vyšších než extrémně nízkých teplotách, tak přesto může být chlazení natolik důležité, aby tělo-hardwary neokyborgů byly designovány i jako kombinace pasivních a aktivních chladičů.
Dále je možné, že uměloneuronová síť neokyborgů nebo superinteligence bude schopná vlastního přestrukturování ve významu i samotné neuroarchitektury (nebo jejího modulu) včetně její topologie a to pokročilou neuroevolucí (v "symbióze" s genetickými algoritmy) podle prostředí a cíle během svého zapnutého stavu, což by mohlo být součástí adaptace na velmi odlišné prostředí. Možné je i to, že síť se bude učit, jak se učit, resp. si bude dynamicky upravovat svůj učící algoritmus podle kontextu. A vysoce pravděpodobné je, že neokyborgové budou mít mnohem víc smyslových "orgánů" (senzorů), které jim umožní vnímat třeba zakřivení geomagnetických siločár nebo záření mimo člověkem viditelného spektra včetně radioaktivního.
Z našeho pohledu roku 2025 však dosud existuje šance, že kyborgizace směřující k robotizaci bude třeba alespoň relativně důstojné vyvanutí člověka, což by pro lidi nebylo pozitivní, ale na druhou stranu každý člověk jako jedinec je časově konečný a umělá superinteligence by byla mnohem lepší budoucnost (nějaký způsob transformovaného zachování alespoň něčeho) než hypotetické vyhynutí všeho z naší planety, kdyby se třeba stala nějaká vesmírná katastrofa (např. zanikání Slunce). Neokyborgové totiž pravděpodobně budou mnohonásobně schopnější kolonizovat jiná vesmírná tělesa, než kdyby se museli přizpůsobovat potřebám lidské chemie, fyziologie, psychiky, kultury atd. Je však potřeba zdůraznit, že naše lidská volba teď není mezi vyhynutím všeho a pouhou superinteligencí (se svou fyzickou stránkou), ale mnohem spíše mezi pouhou superinteligencí a udržením koexistence umělé (super)inteligence a člověka v dnešním smyslu (2025), později možná průběžně snesitelně evolvovaném, nejlépe svobodně přijatelně. Čím vzdálenější vize, tím nejasnější základ pro rozhodování v současnosti. To však neznamená, že bychom se měli rozhodovat jen na základě toho, co se právě uskutečňuje, jakoby zítřky neexistovaly.
Souhrn tří článků a jejich závěr publikuji jako samostatný čtvrtý díl.