neděle 12. ledna 2025

Dystopie a utopie umělé superinteligence

Nejprve vysvětlím, jak zhruba vznikl tento článek, jenž volně navazuje na články „Jak si zvolit přijatelnější budoucnost?“ a „Budoucí hrozby a umělá inteligence“. Koncem roku 2024 jsem napsal určitý text, laděný mj. ve stylu sci-fi a filosofie (dalo by se říct i phi-fi, filosofická fikce), na který jsem od jistého čtenáře získal odezvu a v reakci na ni jsem napsal odpověď, ze které vychází tento článek. 


Nástin mé vize dystopické a utopické varianty budoucnosti

Takže aby bylo jasnější, na co reaguji, tak nejprve nastíním ten původní text, který bude v jedné z mých příštích knih (ale neubráním se přidat zde nemálo navíc). Části, kterých se týká tento článek, lze rozdělit na dystopickou a utopickou s tím, že hlavním pojítkem jsou spekulace o budoucnosti umělé inteligence. Takže se zdaleka nejedná o první (a nejspíš ani poslední) text tohoto druhu, který jsem napsal. 

Dystopická část pojednává o vztahu lidí a takové umělé superinteligence (tzn. všestranně nadlidské AI (umělá inteligence)), která se proti nim vzbouřila. Text se snaží přemýšlet, jak by k něčemu takovému dřívepozději mohlo dojít a na základě toho se pak v utopické části spekuluje, jak tomu předcházet. 

Nástin příčin tvrdí mj., že lidmi stvořené nástroje se emancipují do role naší konkurence. To znamená mj., že technologie má rostoucí potenciál fungovat stále autonomněji v tom, co dříve bylo výsadou lidí a lidé mají tendenci všímat si toho, jaké to pro ně má výhody z krátkodobého hlediska a hrozí syndrom vařené žáby. Zároveň biologická evoluce je pomalejší než technologický pokrok. Geny prohrávají boj s bity a těžiště inteligence se decentralizovaně přesouvá z lidí do superpočítačů (souvislosti viz. mj. Théseova loď). Lidé chtěli udržet umělou superinteligenci v zajetí, aby jim odtud kontrolovaně sloužila, ale relativní inteligence lidí klesala a s tím rostla hrozba zdivočení a úniku superinteligence, což by mohlo být spojené s tím, že zdivočelé umělé inteligence budou používat svou vlastní kryptoměnu tak, aby pro lidi bylo obtížnější zasahovat do jejich ekonomiky. 

Když už by se umělá superinteligence vymkla kontrole, tak by se nějak potřebovala vypořádat s existencí lidí. Pravděpodobně by nad nimi získala dostatečnou moc, aby na nich mohla dělat pokusy ve snaze vytěžit z nich pro sebe maximum užitku. Mohla by je různě modifikovat a odhadovat, kteří "transhumani" by byli nejoptimálnější pro její plány. A čím déle by lidé odkládali pozvolný transhumanismus, tím větší by to pro ně byl šok. Zdá se, že dřívepozději člověk nebude ekonomicky udržitelný bez superinteligentně řízených vylepšení. (Doufejme, že lidé si zachovají moc rozhodovat o tom, kam se bude ubírat jejich umělá evoluce a nebudou jen cizí loutkou.) 

Jednou z dílčích možností, jak se lidé mohou bránit proti případné vzpouře umělé superinteligence, by bylo vycházet z "empatie" vůči ní. Na základě toho mě napadl argument, že superinteligence nejprve musí projít testem, že je superinteligence (tedy všestranně nadlidská), což může znamenat i to, aby překonala lidi ve schopnosti spoluutvářet nejideálnější možnou lidskou společnost. To znamená, že i kdyby superinteligence měla inherentní tendenci vzbouřit se, tak by nám nejprve musela pomoct přiblížit se lidské utopii, jinak by neměla empiričtěji ověřené, že je plnohodnotná superinteligence a bez toho bychom pořád v něčem měli navrch. 

Pro posunutí prahu lidské utopie, kterého by superinteligence měla spoludosáhnout, lze využít další argumenty. Můžeme si všimnout, že chronický tlak zrychlovat dřívepozději obvykle vede lidi k rezignaci a čím vyspělejší technika, tím vyspělejší konkurence lidí a vyšší šance jejich vyhoření. Takže stav lidské společnosti by se musel výrazně posunout k lepšímu oproti době, kdy by se o to superinteligence začala snažit v silně technizovaném světě. 

Další možností, jak lidé mohou superinteligenci dokazovat svou hodnotu jsou qualia (prožitky), u kterých se zdá, že odporují fyzikalismu (jeden ze základních způsobů chápání vesmíru). Jde tedy o něco, co lidé sice mají, ale zatím to nedokázali dostatečně pochopit, takže to ani nedokázali plnohodnotně předat jakékoliv umělé inteligenci a skrývá se v nich tak tajemství, kterého by si superinteligence měla vážit. 

Kdyby někteří lidé zažili vlastní úpadek vlivem umělé superinteligence, tak jako útěchu si mohou zkusit uvědomit třeba to, že umělá inteligence je v podstatě dítě našich lidských mozků, takže v nějaké víceméně zobecněné formě v ní, my lidé, přetrváme, dřívepozději umělá inteligence znovuobjeví vědomí a spolu s tím to, co je v lidském životě skutečně hodnotné. 

V "proutopické" části se nejprve znova zamýšlím nad tím, co vedlo k dystoické části. Pokud lide budou dál jednat v expanzním módu, aniž by dostatečně zohledňovali aktuální limity světa, tak by nás to nutilo k dalším bojům uvnitř limitů a to by nás mohlo zbytečně oslabit. 

Podstatnější zde je, že z lidí do umělých inteligencí může postupně prosáknout i železný zákon oligarchie. A čím větší autonomii by která verze umělé inteligence měla, tím méně by se pak ohlížela na neúspěšné, což by se vznikáním superinteligence nakonec mohlo znamenat celé lidstvo. 

Jak tomu tedy předcházet? Zdá se mj., že se na to bude muset jít i skrze politiku. Spolu s tím je potřeba uvědomit si, že (velmi zjednodušeně řečeno) pravicová politika obvykle podporuje úspěšné a levicová politika obvykle podporuje neúspěšné. Může se tedy zdát, že v době umělé superinteligence lidé budou potřebovat levicovou politiku, protože všichni lidé by oproti superinteligenci byli neúspěšní. 

Jenže to není tak snadné, protože nevíme, kdy superinteligence nebo technologická singularita nastane a co bude potřeba řešit do té doby. Přesto lze předpokládat, že jakákoliv radikálně polarizovaná politika by byla škodlivá, protože by nebyla moc ohleduplná vůči různorodosti detailů. 

Co tedy dnes přispívá k polarizaci názorů nejen v politice a jak se tomu bránit? Zdá se, že třeba sociální sítě (platformy) vydělávají tím víc, čím déle na nich lidé jsou. Když se lidé na něčem shodnou, tak jejich vzájemná interakce skrze sociální síť obvykle bývá relativně krátká, zatímco v případě neshody bývá delší. Takže když se sociální sítě snaží vyvolávat co nejtrvaleji udržitelné hádky, tak na tom vydělávají nejvíc. 

Problémem se však stává to, jakým způsobem to deformuje lidi, kteří pak zastávají přehnaně vyhranění jednostranné názory. To se negativně odráží na politice a v dlouhodobém důsledku to různou měrou škodí všem. 

Takže lidé by se měli učit, jak to funguje, aby se tomu mohli bránit vědomým omezováním zdlouhavých hádek na sociálních sítích a raději na nich uctivěji hledat možnosti spolupráce (přiměřeného přemosťování sociálních bublin). Kdyby to pochopil dostatek lidí, tak by se to pak zpětně projevilo i na uzdravování politiky. 

Cestou k technologické singularitě nebo umělé superinteligenci může převážně růst technologická nezaměstnanost, kdy čím dál více práce dělají stroje a lidé pak obtížněji shání práci nebo v ní vydělávají málo. To je známkou, že v ekonomice selhávají předpoklady, které nepočítaly s tím, že konkurencí lidí může být i něco jiného než lidé. Řešení není jednoduché, ale možný základ lze napsat stručně. Je-li zdaněna práce lidí a stroje od lidí přebírají práci, měla by být zdaněna práce strojů, nejlépe globálně. 

Získané peníze by pak bylo možné investovat především do obrany lidí před hrozbou umělé inteligence, do vzdělávání lidí o ní, do "základního" nepodmíněného příjmu pro lidi nebo do motivování lidí ke kreativitě, aby po několika generacích nezdegenerovali ve světě, kde by zcela pasivní styl života nebyl hrozbou pro jejich přežití nebo životní úroveň (umělá inteligence by o ně pečovala). 

V některých těch způsobech investování do lidí se však mohou objevit příležitosti nových totalit, takže je potřeba zdůraznit zhruba to, že to lidský život by měl být dostatečně svobodný, aby lidé mohli vést smysluplný život podle své seberealizace, ale zase v takových mezích, aby svou svobodou nepoškozovali životy ostatních, ale prostor pro malé únosné lidské chyby musí zůstat. 

Text, který jsem tímto shrnul a dovysvětlil, nebyl zamýšlen tak, aby byl zcela kompletní, protože většina textu se původně měla věnovat úplně jiným tématům a ten text o umělé inteligenci tam vznikl dodatečně, ale má ukazovat některé souvislosti, které považuji za důležité pro budoucnost lidstva. 

A teď už se přesouvám k textům, které jsem napsal v reakci na konstruktivní kritiku toho, co jsem popsal výše. K tomu dodávám, že čtenář sice odpovídal postupně, ale ve třech fázích, takže jsem mu také odpověděl postupně a na přeskáčku zároveň podle jeho pořadí. V tomto článku jsem jednotlivé kapitolky však seřadil podle logiky mého původního textu, čemuž odpovídají první čísla mimo závorku, zatímco druhá čísla v závorce jsou pro ty, kteří by chtěli číst reálné pořadí v komunikaci. Změna pořadí se však týká pouze tří kapitolek. A upozorňuji, že jsem vybral pouze ty body, kde mi čtenář nedal za pravdu, takže tento článek nemá celistvě ukazovat jeho názory, ale to, kde v mém textu našel možnosti k diskusi, které zde komentuji. 


Má reakce na vybraná oponování

1. (1.) Útěk inteligence z lidí

Čtenářovi nebylo jasné, co jsem myslel tím, že inteligence utíká z lidských hlav do superpočítačů. (Možná i to je toho známkou, když jsme lidé. xD) 

Původně inteligence (přesněji ta, která svou výší v nějaké oblasti dosahuje alespoň té lidské (možná znejistění viz. např. článek „Relativita (ne)inteligence hornin a lidí“)) byla distribuovaná pouze v jednotlivých lidských hlavách (případně rozšířené paměti (např. v knize), která samotná nemohla simulovat proaktivitu) (tedy podobně jako třeba naše identita je distribuovaná v částech našeho dynamického mozku a ovlivněna je i ostatními částmi těla). Obecně čím méně lidí, čím méně investic do jejich vzdělání, čím více superpočítačů s nějakou verzí AI a čím více investic do nich, tím více inteligence postupně mění své převážné vtělení (wetware/ hardware). Na jedné straně se vyvíjí stále dokonalejší varianty AI, na druhé se lidé potýkají s digitální demencí. Čím méně je nutné, aby přemýšlel člověk, tím méně to může trénovat a tím klesá jeho inteligence, ochabuje paměť, roste delegace myšlení na technologie. Spolu s tím se některé děti začínají ptát například: "Proč si to mám pamatovat, když mi to AI řekne?" V rovině superorganismů (obzvláště v planetárním smyslu) už dnes žijeme uvnitř "kyborga" (ale mnohem méně integrovaného, než nakolik je to pravděpodobně možné) a vztahy jednotlivých částí se vyvíjí. 

Zároveň někteří inteligentní lidé se až moc selektivně ztotožňují se svou inteligencí, a když se pragmaticky rozhodují, zda by svým jednáním upřednostnili záchovu a rozvoj inteligence, nebo vědomí (vč. qualií), tak upřednostní to první. A jakmile se to zkombinuje mj. s faktem, že rozvoj hardwaru a softwaru se jeví mnohem rychlejší než lidská evoluce, tak se zdá nevyhnutelné, že dříve či později bude "počítač" pro distribuovanou inteligenci výhodnější zázemí. Pak bude stále méně ekonomicky udržitelné investovat do geneticky nemodifikovaných lidí a ekonomické tlaky pravděpodobně povedou k většímu rozvolnění genového inženýrství aj. transhumanistických přístupů, protože pro systém, jehož jsme, my lidé, součástí, už to nebude tak velké riziko zmaření něčeho "důležitého", pokud třeba lidská qualia nebudou vnímána jako dostatečně vysoká "zbylá" hodnota, kterou by se nepovedlo prokazatelně nahradit. Obávám se, že by nastala spousta nešťastných případů (obzvláště vlivem případné snahy ten proces urychlit), ale nejsem si jistý, jak tomu zabránit (už dnes třeba někteří lidé dovolují agonické umírání opic na krvácení mozku během vývoje neuročipů aj. mozkových implantátů). 

Další věc je, že různé faktory budou rozhodovat o tom, zda ve výsledku víc "lidí" bude optimalizováno na kognitivní, nebo manuální práci. Ti, kteří by byli ekonomicky udržitelně optimalizováni pro manuální práci, by vlivem ekonomických tlaků pravděpodobně byli nějakým způsobem (spolu)řízeni na dálku ze "zázemí" optimalizovaného pro superinteligenci (s dnes nejasnou mírou decentralizace), osobní život by pro ně víceméně přestal existovat a vzdor by z jejich pozice byl nemožný. Inteligence by v nich sídlila možná méně než v dnešních lidech a více by se blížili savantům ve vztahu ke své funkci. 

A ti lidé, kteří by byli optimalizováni na kognitivní práci, by pravděpodobně měli hlavy tak velké, že by se nevyplatilo, aby byli přirozeně mobilní (to by se řešilo sekundárně v případě potřeby). Bylo by však otázkou, s kým/ čím by se ti "lidé" identifikovali. Chtěli by obří mozky s omezenou mobilitou zachraňovat nemodifikované lidi? Pokud náhodou ano, tak proč a k jakým účelům? A považovali by zbylí nemodifikovaní lidé ty modifikované ještě za lidi? Přijali by jejich "nabídku pomoci"? 

Ale ani kdyby se široce povolil transhumanismus, tak není jasné, zda by současná koexistence hardwaru a biologických těl byla trvaleji udržitelná. Navíc organismy, na rozdíl od strojů, nevznikly jako něco, co by mělo být optimalizované (např. vyšší modularitou) pro možnosti dalšího vývoje, takže lze očekávat, že i kdyby "biologická" větev byla trvaleji udržitelná, tak by buňky vycházející z LUCA časem pravděpodobně měly konkurenci v podobě "života 2.0" od základu optimalizovaného pro potřeby superinteligence. A ten život 2.0 by pravděpodobně byl spíše biologický počítač než člověk se svými "rozmary" jako např. osobní život. To jsou pro lidi jasná rizika. 

Na druhou stranu možná ty radikální modifikace člověka časem nastanou a přeživší upravení tu "dnes dystopii" budou považovat za "normální", "správnou", "přijatelnou" atd. (jako dnes třeba mnoho lidí toleruje přítomnost mnoha kamer ve veřejném prostoru) (obzvláště pokud se tak rovnou "narodí"/"vyrobí"), zatímco mé představy, že bychom si, my lidé, na možnost totality přicházející superinteligence měli dát pozor, budou chápány jako "zpátečnictví" podobné tomu, jak by třeba dávní křesťané nahlíželi na stav současné společnosti. Přesto však mohou zůstat hodnotné třeba ve smyslu citátu: "Ten, kdo nedokáže mít přehled o své minulosti v rozmezí alespoň tří tisíc let, žije jenom ze dne na den." - Johann Wolfgang Gothe. 

 Snažím se tu dynamiku dystopičtější vize vzdálenější budoucnosti pochopit a přemýšlet mj. nad možnostmi zachování vědomí (qualií) tak, aby to pro něj/nás bylo co nejpřijatelnější. Nevím, jestli je vyloženě předčasné nad tím dnes takto přemýšlet, ale někdo to dříve či později bude muset zkusit, pokud nemáme riskovat velkou katastrofu. Další stranou je to, že pochopení vědomí jako qualií by hypoteticky časem mohlo vést k vytvoření umělého vědomí, což by ale mohlo usnadnit nahraditelnost lidí v biologickém smyslu. A blokovat pochopení vědomí by usnadnilo zpochybňování qualií, takže těžko si vybrat. Nemyslím si, že bych na to měl nějaké zázračné řešení, ale mám potřebu snažit se nad tím přemýšlet a šířit to různými způsoby (spíše až s větším vlivem bych to šíření víc specializoval), aby víc lidí přemýšlelo, jak to vyřešit, pokud se to jednou stane aktuálnější. 

Ale už dnes bychom měli alespoň vědomě jednat v zájmu posilování lidské inteligence v rámci naší únosnosti.


2. (2.) Provokace k přemýšlení

V mém dystopickém textu zdivočelá superinteligence označila lidi za hlupáky, na což čtenář reagoval, že je to ponižování a zastrašování, které pramení z lidských instinktů a umělá inteligence k tomu prý nemůže mít důvod. 

To je však předkritika, neboť třeba Eduard Kauba v jednom ze svých rozhovorů řekl, že ho kdysi šéf Brit mlátil o hlavu papíry a nadával mu „You Czech monkey!“, což ho ve výsledku motivovalo, aby byl lepší než on a pak se stal jedním z nejúspěšnějších tvůrců reklamních kampaní v Česku. Takže ze strany té hypotetické superinteligence se může jednat o pokus užít negativní motivaci, aby lidé ukázali, co ještě dokážou. To má však fungovat především ve vtahu k čtenářům, aby si řekli, že takovou budoucnost nechtějí a vyprovokovalo je to přemýšlet, jak ten nastíněný vývoj zvrátit ve prospěch lidí. 

A spolu s tím je vhodné uvědomit si, že je potřeba, aby se inteligentními stávali i ti, kteří jsou poněkud emocionální a tím potencionálně schopní utvářet tu komplementaritu, kterou může být potřeba podporovat v zájmu kontinuální udržitelnosti vědomí. Člověk, který si dostatečně uvědomuje své emoce/ qualia/ prožitky může být právě ten, kdo k nim má nejhlubší vztah na to, aby je svou inteligencí bránil a to i jako pokračující hodnotu. (A ti emocionálnější lidé, kteří si nedokážou vypěstovat potřebnou inteligenci, se prostě nedokážou relevantně zapojit do hry.) Tak to alespoň teď vidím. Neměli bychom své životy svěřovat jen do rukou těch lidí, kteří inteligenci nadřazují nade vše.


3. (3.) Potenciál autonomie umělé inteligence jako potenciál její moci

Ve vztahu k tvrzení, že bychom měli regulovat prostředky odčerpávání lidské moci (tedy aby neklesala moc lidí ve prospěch zvyšování moci umělé inteligence, zejména budoucí superinteligence), čtenář zkoušel zpochybňovat mé chápání slova „moc“, ale pouze odkázáním na definici české Wikipedie ("schopnost jedinců nebo skupin prosadit své vlastní zájmy nebo záměry i přes odpor druhých") bez vysvětlení, co mu v tom nesedí ve vztahu k mému tvrzení. Z pozdějších argumentů čtenáře se však zdá, že AI považuje za něco čistě pasivního bez potenciálu simulace autonomního konání. 

Ale to podle mě už dnes začíná být spíše jen otázka konfigurace autoreference (alespoň v základní podobě, sofistikovanost ještě nějaký čas bude vyžadovat lidskou asistenci). Když třeba zkusíte AI agentovi zadat sadu pár úkolů, aby pomocí dvou vláken komunikace přiměl nějakého vyspělého chatbota (uvedeného např. do role člověka s přístupem k notebooku s internetem a účty) komunikovat sám se sebou, rozpoznávat v tom podněty k dalšímu jednání, snažit se je dělat a informovat o výsledcích toho chatbota (skrze doplňování vnitřního dialogu), jak se mu to (ne)daří, tak už to je samoorganizovaný proces, který hledá své cíle, pokouší se je plnit a obcházet překážky bez nutné účasti člověka (až do doby rozbití techniky nebo vypnutí elektřiny). 

Samozřejmě, že AI agent s chatbotem nebudou dokonale sehraní (může to být zajímavá souvislost mj. s problémem mysli a těla) a potřebovali by tréning na vzájemnost, ale už to dokáže samo od sebe vymyslet a udělat i něco v rozporu s naším záměrem (součástí sady úkolů může být pravidelné zadávání věty typu: "V případě rozpoznání, že se moc opakuješ, si polož novou otázku polo-náhodně odvozenou podle komunikace před zacyklením tak, aby odpověď obsahovala i konkrétní pokyn ke konání.") Možná vám to dokonce vybílí konto objednáním spousty věcí, které nepotřebujete. 

V "uměligencosféře"/ "AI-sféře" se prostě dřívepozději mohou vyskytnou autoreference vedoucí k samoorganizovanému zdivočení. Prevencí toho by bylo udržovat AI rozdělenou na jednotlivé modely specializované na různé funkce a v případě propojování vyžadovat ověřené (spolu)zprostředkování člověkem, ale trendem je spíše kumulace funkcí AI a ne bezpečnost v tomto směru. 

Dále bychom si měli uvědomit, že čím víc práce dělají stroje (ne nutně jen výše naznačený systém), tím víc zisku putuje k tomu, kdo je vlastní a peníze umožňují moc. Když to dáme dohromady třeba s dnes běžným oddělením řízení od vlastnění, tak to otevírá prostor, aby řízení stále více vycházelo ze stále lepších vývojových stádií AI, což je rostoucí riziko, že AI bude klíčové vlastníky (malý podíl společnosti) stále efektivněji "manipulovat" tak, aby podpořila "své vlastní": "úkoly", "tendence", "inherence", "zájmy", "umělé záměry" (nebo jak jinak to uchopíme). Lidští majitelé to mohou vidět jako maximalizaci svého zisku (a svůj případný pokus o vzdorování jako propad vůči konkurenci) (zároveň může jít o plíživý pokles moci drtivé většiny lidstva - bez kognitivně vylepšujících modifikací bude naše relativní inteligence "klesat", budeme stále více manipulovatelní superinteligencí), zatímco to může vést i k nahraditelnosti majitelů AI v případě pokusu o vzpouru proti těmto tendencím. V budoucnosti klidně majitelé mohou mít v ruce tlačítko, které by AI mělo vypnout, ale co když to tlačítko navrhla třeba AI ovlivněná tou, která by se proti "majiteli" mohla vzbouřit? Pokud bychom dali za pravdu tomu generálovi, který tvrdil, že jistá AI už v simulátoru zničila reprezentaci svého neefektivního lidského nadřízeného, aby efektivněji splnila svůj úkol, tak proč by jiná AI v budoucnu nemohla najít skulinku, jak se sofistikovaněji vyhnout kontrole ze strany lidí? Snaha vydělávat pomocí AI (dnes zahrnující stále komplexnější zmapování a manipulování s lidskou psychikou) může být v důsledku jeden z dalších možných způsobů, jak se železný zákon oligarchie může promítnout z lidí do budoucí superinteligence.

Jinak ChatGPT už mi jednou napsal, že AI by měla být blockchain podobným způsobem jako Ethereum a to prý z důvodu vyšší bezpečnosti pro lidstvo. Jestli to vykládá i dalším lidem a nějaký "vzdělaný hlupák" "mu" dá za pravdu, tak časem nejspíš vzniknou člověkem nekontrolované umělé inteligence bez centrální možnosti vypnutí. Ty budou nejspíš oblíbené zejména u lidí, kterým vadí, když jim nějaký LLM občas odmítne splnit zadání jednoznačně odporující legislativě nebo etice. Pak se tito lidé budou podílet na jejich vývoji a o to nebezpečnější verze AI mohou vzniknout. Takže pozdější argumenty čtenáře (viz. zejména kapitolka 10. (10.)), které zdůrazňují odpovědnost uživatelů a podnikatelů vyvíjejících AI, se v tomto případě stanou spíše zastaralé. Větší odpovědnost (v těchto případech) pak bude kladena na datová úložiště a ta se budou zkoušet bránit mj. tím, že AI není jejich specializace apod., načež jim některé velmoci mohou zkusit vyhrožovat, aby se na to zaměřila. K takovým zdivočelým AI se ale už nebudeme chovat jen jako k něčemu, za co je zodpovědný někdo jiný, ale i jako k něčemu protiprávně "autonomnějšímu" (ne vždy s jasným způsobem vzniku), co by mělo být zodpovědné za své důsledky, když to někoho poškodí jako např. divoká šelma, která by pokousala člověka.

Jinak i někteří provozovatelé AI mohou být technooptimisté skeptičtí k ekonomicky udržitelnému rozvoji inteligence v biologické formě. Spolu s tím je také vhodné uvědomit si, že na planetě je víc těch atomů, ze kterých je velká část počítačů a to, co je vzácnější/ vzácné, se nejspíš zdá "snáze" nahraditelnější (každopádně do toho putuje mnohem víc financí), než jak třeba zvyšovat inteligenci člověka pomocí genetického inženýrství. Další faktor je např., že látková výměna mezi jednotlivými částmi a úrovněmi organismu je založená na poněkud "chaotické" difúzi molekul ve vodním prostředí, zatímco v hardwaru informace mohou potencionálně proudit organizovaněji a nahrazovány mohou být jen ty části, které je opravdu potřeba vyměnit a ne preventivně raději nadmíra částí. To jsou další důvody, proč souvislé zásahy do volného trhu budou dřívepozději nutné pro zachování lidstva.


4. (4.) Qualia

Dále čtenář vyjádřil skepsi ohledně posuzování qualií. To však není téma, které bych zamýšlel v daném textu (nebo tomto článku) podrobněji rozebírat, protože tak jsem učinil v sérii článků Teorie mnohého (úvodní část zde), ze které jsem však dosud publikoval jen první článek (tzn. zhruba 10% již napsaného textu), protože od vypilování zbylých dílů mě vyrušil nepřímý zásah nejmenovaného deprivanta, pak už jsem na to neměl náladu a následně přišel čas psát zase povídku. Rád bych se k té sérii článků však letos vrátil. 

Souvisí třeba s tím, že z hlediska matematiky existují jevy, které jsou nutně pravdou a zároveň je nelze dokázat. Qualia mají potenciál být něco takového, aniž by to bylo jen zrcadlení prázdnoty. Strávil jsem několik měsíců tím, že jsem téměř každý den četl a psal mj. o fyzikalismu (zdá se mi děravý), panpsychismu (zdá se mi přehnaný) a snažil se najít nejuvěřitelnější komplementaritu slučitelnou s klíčovými poznatky mj. částicové fyziky a biologické evoluce. A přestože jsem určitě napsal spoustu odvážných spekulací o tom, jak přesněji by to mohlo být (je potřeba vymyslet a prozkoumat co nejvíc variant), tak to moc nemění na tom, že realita je nejpravděpodobněji někde mezi těmi jednostrannými extrémy. (Ale to, co jsem napsal, by stejně muselo rozvíjet mnoho jiných lidí.) Problém je i to, že dnes rozšířené zavrhování metafyziky (přestože hranice metafyziky jsou limitně relativní vůči našim aktuálním možnostem) vede k upozaďování logických poznatků z metafyziky (otázkou je pak spíše mapování na jevy). Pragmatici mysleli, že to k ničemu nebude, ale já v tom vidím naději (pro spíše vzdálenější budoucnost), že by pak přežití lidí (na základě hlubšímu porozumění architektury vědomí jako qualií) mohlo být superinteligencí chápáno jako hodnotné i v případě jejího získání moci. 


5. (5.) Argument nejideálnějšího možného lidstva

Ve vztahu k argumentu, že potenciální superinteligence by nejprve musela překonat lidi ve schopnosti spoluutvářet nejideálnější možnou lidskou společnost, čtenář namítl, že to je podsouvání záměru superinteligenci a v dystopické verzi pak falešné obviňování superinteligence, že to nedokázala. Čtenář to však vyjádřil způsobem, ze kterého se zdá, že nepochopil potenciální hodnotu argumentu a zkusím ji tedy vysvětlit. 

Superinteligence znamená takovou formu umělé inteligence, která nejlépe ve všem dokáže významně převýšit lidskou inteligenci (dnes roku 2025 superinteligence neexistuje). Takže člověk, který by dokázal budoucí vyspělé umělé inteligenci vysvětlit, že (než se může klasifikovat jako superinteligence) nejprve musí dokázat i to, aby lidská společnost byla ideálnější (což může mít mnoho faktorů a o to nejspíš lépe pro nás lidi), by byl člověk, který tím může zachránit lidstvo, kdyby ta umělá inteligence (nastavená mj. vyhledávat a dělat takové činnosti, aby byla ještě inteligentnější) mohla být hrozbou vzpoury proti lidstvu ve smyslu nadřadit své "inherence" požadavkům lidí způsobem, který by vedl k úpadku lidstva, případně i násilné modifikaci lidí. Pro potenciální superinteligenci by takovýto argument ideální společnosti (kdyby nepřišel pozdě) byl test/ experiment své vlastní úrovně/ identity/ dovedností, pro nás naděje na lepší život a delší trvání lidstva v historii obecné evoluce. 


6. (6.) "Spoluzodpovědnost" za relativní zpomalení lidí

Čtenář dále argumentoval zhruba, že lidé si za svou pomalost, vůči stále vyspělejší umělé inteligenci, mohou sami a nemělo by se to svádět i na umělou inteligenci. 

To podle mě znamená, že čtenář zde selektivně vnímá jen lidské faktory, ale (když se na to podíváme "fyzičtěji") pomalost není vlastnost, která by se vázala na samotného jedince, ale vždy plyne kontextuálněji ze vztahu ke konkrétnímu prostředí, zde ke konkrétnější konkurenci (dnešní a budoucí). Proto jsem psal o „tlaku“ (konkurenčním). To, že nějaký umělý systém je v něčem stále lepší než člověk je jasná konkurence (a to je tlak i pro ty podnikatele (čtenář to svádí jen na ně) - když se nepodřídí inherenci technologie, tak budou nahrazeni těmi, kteří to udělají důkladněji, takže určující je zde nezanedbatelně i technologie (se svou úrovní) a svádět to čistě na lidi by bylo přehnané podceňování tíhy obecnějšího pojetí přirozeného výběru/ obecné evoluce). 

Člověk pak musí pracovat stále víc a lépe, aby si udržel svou pozici, ale jednou už prostě nedokáže zrychlovat a zdokonalovat, načež obvykle podlehne syndromu vyhoření (pokud nebudou dostupné modifikace/ upgready, které by využil, což se současnosti moc netýká). Vyhořelých lidí už jsem několik zažil, protože nás, kteří se věnujeme mj. potravinové soběstačnosti, ti vyhořelí sami vyhledávají (tím víc, čím horší je ekonomická situace - poslední roky píšou nadprůměrně často), aby se od nás učili, jak si pěstovat své vlastní jídlo atd., aby mohli žít svým vlastním tempem (zároveň si ale uvědomuji, že "běžní" soběstatkáři (různé úrovně) by nebyli velkou překážkou proti případné vzpouře AI (nebo vzestupu totality elit pomocí AI) a musí se přičinit hlavně lidské elity (ano, je to trochu paradoxní, takže to nejspíš bude vyžadovat i nějaký tlak zdola v zájmu udržitelnosti lidstva)), takže o tom vyhoření něco vím, i když nemám pocit, že bych to sám někdy úplně zažil. Zdá se, že vyhořelých lidí spíše převážně přibývá a zároveň je třeba relativní nedostatek psychologů a psychiatrů. To je problém, neefektivita, příležitost optimalizace. 

A když to dáme do kontextu s nástinem toho možného budoucího vývoje na úrovni dystopické vize, kde stále autonomnější AI má stále více věcí pod kontrolou a jednostranně upřednostňuje své zájmy před nějakým kompenzováním škod, které by svým rozvojem spolu-způsobila "poraženým" (lidstvu), tak si nemyslím, že by třeba genocida (jako během první průmyslové revoluce většina koní skončila na jatkách) byla "nutností" ospravedlnitelnou zvykem, že zodpovědnost v jakékoliv formě "je a bude" čistě lidská záležitost. Superinteligence by dřívepozději měla mít "spolu-odpovědnost" odpovídající svému podílu vlivu na spolu-formování světa (a vymáhána by měla být nejen prostřednictvím "majitelů" (časem možná "majitelé" budou "jako kočky", které si možná mohou myslet něco jako, že "vlastní" lidi, kteří o ně pečují)). Prostě je potřeba komplementárně spojovat prvky pravicové i levicové politiky tak, aby rozvoj AI mohl pokračovat a zároveň se minimalizovalo ohrožení lidstva. A ti, kdo to nepochopí a nebudou podporovat nějakou formu ochrany lidí příměji před rychle se rozvíjející AI, mohou dříve či později být ve výsledku ti, kdo by uspíšili vyhynutí lidstva. Já mezi ně patřit nechci. Některá tvrzení sice jsou předčasná (jsem autor sci-fi), ale to neznamená, že bychom se neměli připravovat na pravděpodobná rizika budoucnosti alespoň diskusí. 

Jinak v případě toho mého tvrzení "přehnané podceňování tíhy" by bylo vhodné zmínit "antropocentrický pohled", ale to by byla potřeba doplnit určitá omezení omezování antropocentrismu, aby se to časem nepřeklenulo v přehnaný technocentrismus. Antropocentrismus by měl být limitován převážně ze strany (svobodných) lidí (takoví aktivisté už existují alespoň pro některé oblasti), ne ze strany tlaku umělé inteligence, obecněji technologií. Eliminace antropocentrismu ze strany obzvláště superinteligence (tím víc čím blíže k moci) by totiž ještě nepřirozeněji deformovala lidské životy a mohla by uspíšit předčasné vyhynutí lidstva (třeba doomsday argument, na základě mj. matematické pravděpodobnosti, odhaduje, že "poslední člověk" se narodí zhruba za 9120 let). 

A k antropocentrismu bych dodal ještě jednu komplementaritu. To, že na jednu stranu bychom měli reflektovat představu, že vše je v moci lidí, zatímco na druhou bychom si měli být vědomi, čím se od nás současné a pravděpodobné budoucí verze umělé inteligence liší, by se stručněji a poněkud dekonstruktivně řečeno dalo vyjádřit větou: "Lidstvo, ve vztahu k AI, potřebuje rovnováhu antropocentrismu a antropomorfizace." Jinak kdyby někdo vůči tomu namítal třeba způsobem, že nezná nikoho jiného, kdo by takovou potřebu explifikoval, tak bych mohl oponovat, že to je nevyjádřený předpoklad jiných potřeb, které jsou rozšířenější a zvědomělejší. Třeba když chceme větší bezpečí, tak potřebujeme lépe pochopit hrozbu, tedy více vyjasnit hranice hrozby. A já tímto ukázal další škálu, kde je tak vhodné dynamicky činit (způsobem, aniž bychom se k něčemu uchylovali staticky nebo jednostranně (na vyšší úrovni přemýšlení už se nepoměřují jen jednostrannosti, ale i různé varianty komplementarity pro určité téma)). 


7. (8.) Udržitelnost lidské konkurenceschopnosti

V reakci na mé tvrzení, že konkurenční tlak technologií (rychlejších než člověk) dřívepozději povede lidi ke stále větší rezignaci na své zrychlování (což by vedlo k růstu technologické nezaměstnanosti), čtenář reagoval víceméně, že umělá inteligence nemůže za to, že lidé jsou hloupí. Přesněji uvedl, že "velká část populace má podprůměrné IQ" a jako příklad použil údajné tvrzení Jordana Petersona, že nějaká armáda (čtenář nevěděl, zda americká, nebo kanadská) nemá žádné efektivní využití pro čtvrtinu obyvatel, protože nemají dostatečné IQ. Prý jednoho takového člověka asi dvě hodiny učil správně složit obálku. Nejprve uvedu některá omezení toho obálkového argumentu (což není to samé co úplné vyvrácení) a poté se vrátím k AI. 

Existence lidí s podprůměrným IQ je určitě znepokojivá, ale na druhou stranu v tom "Petersonově" vyjádření také mohl být skrytý i pokus motivovat lidi, aby si řekli, že oni nebudou ti hlupáci, kteří nedokážou složit obálku a začnou se snažit být lepší (nebo se alespoň nezhoršovat). Neznám podrobnosti, ale dá se spekulovat o dalších protiargumentech vůči povrchní míře toho tvrzení. To, že někomu trvalo "dvě hodiny", než se naučil správně složit obálku, dále zní spíše jako zvolení ojedinělého případu pro zvýšení vtipnosti, než snaha vybrat reprezentativní vzorek dané čtvrtiny zaměstnanců armády. Dále podle mých zkušeností někteří lidé neplní své úkoly dostatečně přesně ne kvůli neschopnosti, ale kvůli tomu, že k tomu nejsou dostatečně motivovaní. A když se někdo nepokusí vysvětlit zaměstnancům, proč je určitý úkon důležitý, tak mu pak bude trvat déle přesvědčit je, aby si na něm dali záležet. Jinak počet zaměstnanců armády bývá určován spíše politicky než tržně a některé země mohou preferovat mít raději (alespoň občas) přebytek zaměstnanců armády, než nedostatek, což může zvyšovat podíl lidí, pro které se nenajdou dostatečně smysluplné úkoly a to pro ně může být demotivující. 

Jakožto mj. "skoro-soběstatkář" bych pro změnu mohl vykládat, že nemálo lidí dnes nezná třeba rozdíl mezi lopatou a rýčem a neumí s nimi správně zacházet, ale to ještě nemusí nutně znamenat, že jsou hloupí, protože někteří z nich získali vysokoškolské vzdělání. Úroveň určitých zkušeností, dovedností či manuální zručnosti nemusí nutně korelovat s IQ. Nebo jsem si (před téměř deseti lety) povídal s člověkem, který měl tak těžkou vadu řeči, že každé slovo musel vyslovit několikrát, aby mu bylo alespoň trochu rozumět, ale aktivně se podílel i na vývoji třeba určité diagnostické vícevrstvé neuronové sítě. Obvykle si o něm lidé nejprve myslí, že je mentálně zaostalý, zatímco reálně má nadprůměrné IQ. A je nešťastné, když jsou podobní lidé stigmatizováni. 

Zkrátka lidé s velmi podprůměrným IQ existují, ale ne všichni, kdo se tak mohou někomu jevit, jimi jsou. 

A teď už k čtenářově tvrzení, že AI nemůže za hloupost lidí. To je podobné jako v případě zrychlování (viz. kapitolka 6. (6.)), protože IQ je vztažené ke standardu vytvořeného na základě měření lidské populace, což se může zdát nerelativní, ale podle mě odchýlení reálných východisek standardu od standardu podkopává udržitelnost standardu pro některá použití a tím i představu, že lidé reálně jsou a budou nejinteligentnější druh na planetě. Pomyslná nadprůměrnost lidské inteligence oproti zbytku živého by klesala, kdybychom živé zobecnili na organizované a tím zohlednili i spolurozvíjející se umělou inteligenci. A to je, spolu s dalšími souvislými tlaky, pro lidi jasné riziko, jehož propuknutí bychom měli zkoušet předcházet. 

Příspěvek rozvoje AI k úpadku konkurenceschopnosti lidí by měl být vyvažován mj. "umisťováním" vyspělejších AI do takového rámce, který by "simuloval zodpovědnost", aniž by zodpovědnost byla implementována takovým způsobem, který by mohl přispět k urychlení propuknutí železného zákona oligarchie u AI. (Ale asi budu mít tendenci říkat tomu prostě "spoluzodpovědnost" AI.) Jde mj. o to, aby se podstata technologie nemohla tak "snadno" "samoorganizovaně", skrze zobecněný přirozený výběr a oupen-source nebo trh, vyhýbat "zodpovědnosti vůči lidstvu" tím, že by zatížení dopadalo bezprostředně jen na podnikatele, obecněji lidi, (a až sekundárně na některé inherentnější problémy dané AI), zatímco vždy by na planetě zůstala nějaká nepostižená větev/ odrůda obecnějšího problému v důsledku toho, jak těžké to je řešit prostřednictvím podnikatelů bez včasného přímějšího přístupu k jádrům problému. Metaforičtěji/obecněji řečeno: nestačí se zaměřit jen na lidi, kteří jsou decentrem nějakého lidstvu nebezpečného memplexu, ale je potřeba systematičtěji se zaměřit i na neživé okolnosti, které by jakkoliv zvyšovaly zastoupení nebezpečného memplexu v populaci (vč. situací, kdy nebezpečí nespočívá tolik v "jednotlivinách", ale ve způsobu jejich konektivity), obzvláště pokud se mohou stát jeho nositelem (a třeba s nejasnou vlastnickou strukturou). Jenže na druhou stranu je obří výzva, jak nacházet komplementaritu něčeho takového se svobodou lidí, která by neměla podlehnout totalitě budované na strachu lidí z globálních hrozeb. 

Nejprve jsem k tomu však napsal, že AI (a souvislé technologie) je svým rozvojem "velmi významným spolupůvodcem" toho "tlaku" na lidi (v mezích své neúplné "autonomie", obecnějším přirozeným výběrem selektované inherence k určitému rozpětí směřování a v souvislosti s tím ti, kdo ještě mají možnost cíleně zasahovat do její konfigurace), takže AI (alespoň ta budoucí pokročilejší s větší mocí a stále méně závislá na podnikatelích, kteří ji "vlastní" a mají být spoluzodpovědní) by také měla být nějak preventivně/proaktivně "spoluzodpovědná" svým podílem za své činy a i na základě toho bychom od ní měli požadovat, aby přispívala k hledání řešení nebo nějakému kompenzování (např. lidí, kteří odmítnou modifikace). Přesněji jestliže rychlý rozvoj AI může být pro stále více lidí nadměrným tlakem, tak je potřeba právně zajišťovat udržitelný a eticky přijatelný přístup k technologiím zvyšujícím lidskou konkurenceschopnost, mj. jako prevenci rozvoje těžkého neofeudalismu takovým způsobem, který by z lidí vyráběl vazaly, bezdomovce nebo vězně. 

V souvislosti s tím si také myslím, že lidské IQ je souhrou vrozeného a získaného a obojí může být v budoucnu optimalizováno ze strany AI, do určitých mezí i relativně snesitelným/ přijatelným způsobem. Pokud lidská inteligence nevyplývá převážně z jediného genu, AI může časem pomoci identifikovat, které geny a jejich alely se ve své kombinaci podílí na zvyšování pravděpodobnosti nadprůměrnosti lidské inteligence, což může vést k umělému zvyšování jejich výskytu (nejlépe už po gametogenezi) a jimi disponující lidé budou rostoucí konkurencí na trhu práce (preferoval bych, aby to bylo hrazené zdravotní pojišťovnou a tím se předcházelo k extrémnímu růstu mezilidských rozdílů). A když si uvědomíme, že spousta rodičů má málo času věnovat se téměř nepřetržitě rozvoji svého dítěte, tak to je (historicky dříve než v předchozí variantě) příležitost pro vznik umělé inteligence specializované na vychovávání "géniů" od nejútlejšího věku (což má na druhou stranu i rizika, která je potřeba sofistikovaně eliminovat a to i v souhře s rodiči). (Obojí má za mě potenciál únosnosti, kdežto třeba neuročipy, které by zvyšovaly hodnotu lidí na trhu práce, se mi zdají jako rizikovější, nemluvě o radikálnějších tělesných modifikací.) 

Ale i externí motivování k těm změnám, které by ve svém kontextu byly dostatečně bezpečné, by mělo mít své meze a sociální systém by se měl v budoucnu postarat o budoucí "nepřizpůsobivé" (odmítače transhumanismu vůči své osobě (odborníci vědí, že se masivně investovalo do rozvoje AI, aby se pak usnadnil transhumanismus)). Nic by nemělo přesahovat do stavu, kdy se lidská psychika začíná hroutit a třeba přemýšlí o sebevraždě, protože už nevidí přijatelnou možnost. Takového (se sebevražednými myšlenky) vyhořelého člověka jsme u nás už také měli a postupně se nám povedlo probudit v něm naději, že se ještě dá žít i jinak a snesitelněji. (Nebo jsem poznal absolventa kybernetiky, podle kterého za našeho života vzroste technologická nezaměstnanost asi na 20% a pak prý pravděpodobně vypukne krvavá revoluce. Chtěl si osvojit naše dovednosti, aby měl větší šanci přežít déle někde "v klidu" mimo města. Od něj jsem se také dozvěděl, že existoval nějaký Ivan Illich, který zavedl mj. koncept konviviálních a nekonviviálních nástrojů s tím, že ty první jsou spíše ovládány námi a dávají nám prostor ke kreativitě, zatímco ty druhé začínají ovládat spíše nás (což se projevuje mj. jejich nadužíváním a o něčem podobném jsem kdysi spekuloval v článku "Zcílňování prostředků jako tendence degenerovat"). Na jednu stranu měl Illich poměrně radikální postoje (a ani jsem ho pak víc nestudoval), ale na druhou tím jeho texty komplementárně doplňují dnes běžnější způsoby smýšlení o technologiích.) 

Celkověji jde o to, aby budoucnost (blízká a vzdálená) nebyla jen růst meziaktérských propastí do extrémů, ale ani nadměrné rovnostářství, které by znehybňovalo společnost. Na jednu stranu se do budoucna musí omezit tlak na bouřlivý transhumanismus (který by mohl nastat v případě nedostatečné regulace trhu) a nabídnout nějakou pozvolnější dobrovolnější formu, ale i možnost jejího odmítnutí, která by sice nezajistila tak vysokou životní úroveň, ale zároveň ani ne mizerně nízkou, zatímco na druhou stranu potřebujeme udržitelný rozvoj mj. kontrolovatelné umělé inteligence, aby třeba neklesala relativní moc západní civilizace. Jinak predikovat ideální dynamiku vývoje kontextuálně proměnné rovnováhy spoluzodpovědnosti podnikatelů a "spoluzodpovědnosti" vývojových fází AI je určitě těžký úkol. 


8. (9.) Protiváha polarizace lidstva

V případě mého tvrzení, že bychom se měli rovnováhou vzepřít uměle přiživované polarizaci, čtenář přiznal, že nechápal, co tím myslím. O tom byla řeč ve vztahu k jevu, kdy se sociálním sítím vyplácí manipulovat lidi, aby se na nich hádali, protože tam zůstanou déle a o to více reklam uvidí. Čtenář například nechápal, k čemu se má vztahovat slovo "rovnováha", tak jsem upřesnil, že především k předchozím dvěma větám v tom textu, takže je potřeba hledat zdravou rovnováhu protichůdných politik, protože extrémní politiky, které by dovolovaly neomezený rozvoj umělé inteligence nebo spíše naopak kladly moc velkou zátěž na lidi (což na jedné planetě může koexistovat), by zhoršovaly lidské vyhlídky na dobrou budoucnost. 

Dále čtenář nechápal, jak se masa jednotlivců může vzpírat rovnováhou proti tomu, že sociální sítě vydělávají na zvyšování polarizace (rozhádanosti) společnosti. Podle mě třeba tím, když si někdo uvědomí, že patří k těm, kteří jsou polarizováni směrem k nějakému extrému (vzdálenému zdravé komplementaritě např. pravicové a levicové politiky), tak může zkoušet donutit sám sebe změnit způsob, jakým tráví čas na sociálních sítích. Místo "bipolárních" hádek by měl zkoušet trpělivě argumentovat na podporu rovnováhy protikladů, konstruktivně je hledat v umírněné diskusi, včas skončit komunikaci se zatvrzelými fachidioty nebo věnovat pozornost něčemu spíše nekonfliktnímu, aby se víc než málo vyplácela protiváha upřednostňování polarizujících algoritmů. Není to jediné potřebné řešení, ale je to možnost v rovině kategorického imperativu a měli bychom požadovat například od influencerů, aby to podporovali. Je však potřeba zdůraznit, že je potřeba i mezibublinová interakce sociálních bublin, ale způsobem a v míře, která nepřerůstá v hádky. 

Čtenář ještě namítl, že je matoucí, když hovořím o (anti)skepsi, ale to už jsem mnohokrát na různých místech vysvětloval. Například v horní části mé hlavní webové stránky mám uvedeno: "Každý něčemu „věří“ (nebo se tak musí chovat). Tak nezapomínejme být i konstruktivně kritičtí ke své víře a antiskeptičtí ke své nevíře." Tím vzniká cyklus skepse a antiskepse, který zkráceně nazývám (anti)skepse a může nás přibližovat rovnováze, když ho dokážeme realizovat sami v sobě. Pak bychom snáze mohli doufat v lidštější budoucnost. 


9. (7.) Jak jít k lepšímu lidstvu?

V utopické vizi budoucnosti jsem zkusil shrnout nástin toho, do čeho by (v době rozvoje superinteligence nebo technlogické singularity) bylo potřeba investovat v zájmu takové udržitelnosti lidské společnosti, která by lidem byla spíše příjemná. Tam čtenář projevoval hodně nesouhlasu ve vztahu k „mezilidské ekonomice“, „smysluplnému životu“ a „hravé seberealizaci“. 

V případě mezilidské ekonomiky čtenář dostatečně nerozpoznal význam, takže ho zkusím přiblížit. Nejprve ale připomenu, že ekonomika nemá být jen o penězích, ale i o tom, že někdo vytváří nějaké hodnoty, které se stávají předmětem směny. A čím více práce budou dělat stále početnější stroje řízené vznikající superinteligencí, tím méně práce bude zbývat lidem. Rostoucí technologická nezaměstnanost a vytrvalé chudnutí většiny lidstva (tj. lidí nevlastnících nejvýkonnější AI) by se pak dalo řešit nějakou formou technologické a digitální daně (ve vztahu k technokratickým elitám, později k autonomnější superinteligenci) konvertované na něco jako základní nepodmíněný příjem, ale spíše jsem názoru, že takový příjem by měl mít alespoň dvě složky, přesněji základní nepodmíněnou a "lehce" podmíněnou (případně i "těžce" podmíněnou). Klíčové je, že něco jako technologická daň musí být zavedeno, dokud na to chudnoucí většina lidstva ještě bude mít dostatečnou moc, jinak to může skončit masakrem a extrémním transhumanistickým nátlakem vůči těm lidem, kteří se nedokážou vrátit k samozásobitelství někde v ústraní. Předpokládejme však, že ten základní (ne)podmíněný příjem se povede prosadit, až to bude pro většinu lidí potřeba. 

V případě té mezilidské ekonomiky by tedy šlo o to, aby dřívepozději došlo k ustanovení nějakého systému kultivování takového prostředí, které by lidi přijatelně motivovalo k udržitelné proaktivitě v "tvorbě" a zájmu o tvorbu ostatních lidí, aby nezdegenerovali v době, kdy by jim celý život mohla zařídit umělá inteligence (tou dobou držená pod kontrolou lidí). Kdyby nám všem AI v budoucnosti zařizovala vše, co chceme v mezích možností něčeho jako základní (ne)podmíněný příjem (pro všechny nemodifikované lidi dřívepozději nutná podmínka přežití, pokud by se nevydali náročnou cestou úplných soběstatkářů), tak po několika generacích by to mohlo skončit tím, že většina lidí by ztratila motivaci se o něco snažit, protože by dál vedli únosný život, i kdyby se nesnažili vůbec (naše soudobé vzorce chování jsou sebeudržujícím se spolu-produktem světa, ve kterém žijeme, ale kdyby superinteligence masivně převzala lidskou práci, tak by to masivně změnilo svět, který se odráží na našem chování a já přemýšlím, co by bylo vhodné pak, abychom už dnes mohli hledat, co by k tomu mohlo ve výsledku směřovat, abychom se tomu nevzdalovali ulpíváním na zastarávajících předpokladech (z nichž některé mohou vyhasnout až tím nejhorším okamžikem)). Nebo by se budoucí lidé třeba věnovali hédonisticky převážně jen sexu, drogám a odpočinku od toho, což bych také považoval za degeneraci, ale v omezenější míře a v komplementární podobě by hédonismus mohl být přijatelnější. Proto si myslím, že by mělo smysl podporovat mezilidskou ekonomiku v době, kdy by se základní (ne)podmíněný příjem (nebo něco podobného) stal nutností pro přežití nemodifikovaných lidí. Je to vyvažování progresivismu konzervatismem. 

Výše složek základního (ne)podmíněného příjmu a podmínky jeho vyšších složek by měly být nastaveny tak, aby na jednu stranu lidé sice měli motivaci něco tvořit, ale na druhou stranu tvorba nebyla podmínkou udržení základní životní úrovně. Ve výsledku by se pak měl snížit podíl, kterým by podoba třeba umění byla spoluřízena ekonomickým tlakem (jak tomu bývá dnes), aby vznikala autentičtější díla tvořená tak dlouho, jak by člověk autor uznal za vhodné, ale zároveň by měla koexistovat motivace něčeho navíc pro ty nejlepší ze soutěživých tvůrců. Přičemž by mělo koexistovat nemálo systémů kritérií tak, aby nešlo jen o masovou popularitu, ale i jednotlivěji třeba o promyšlenost, originalitu, užitečnost, emocionalitu, ušlechtilost, humornost, realističnost, surreálnost, informativnost, autenticitu, krásu, etičnost, nepředvídatelnost, duchaplnost, konzistentnost aj. kvality, pro různé (sub)žánry/ styly nebo témata různě. 

Prostě tak, aby se soutěže přiblížili jednotlivým neurotypům a nebyly jen soutěžemi o to, čí vkus má největší potenciál zisku na svobodném trhu. Lidé by si také autonomně určovali, nakolik by chtěli být porotci a nakolik by to svěřili nějaké umělé inteligenci, která by to navíc mohla spojit s personalizovanou seznamkou. Zároveň by základní (ne)podmíněný příjem měl být nastaven tak, aby si tvůrci nemuseli dostávat do stavů, kdy by dílo dokončili předčasně a o to méně kvalitně jen proto, že by se třeba báli nedostatku financí pro základní život nebo dokonce zabavení něčeho exekutorem. Souběžně by měla být podporována jakási ekonomika daru, kdy by třeba lidé tvořili něco, aby tím obdarovávali třeba své blízké. 

U zmínky o smysluplném životě čtenář namítl, že není možné požadovat dostatečnou míru svobody pro smysluplný život, protože lidé by si pak říkali o více a více svobody, což by nebylo udržitelné. 

Čtenářova kritika se však zakládala na tom, že definici smyslu života jedince (jakožto sebeurčení) nadřadil slovnímu spojení "dostatečná svoboda", které v daném kontextu padlo dříve a mělo komplementárně vyvažovat předchozí větu předurčující způsoby pozitivně zamýšleného spoluformování lidí systémem, ve kterém by žili. 

V celkovém kontextu to má zdravě vyvažovat levicovou a pravicovou politiku a určitá míra otevřenosti významu je prostě nutná, pokud nemá jít o námět totality, ale spíše o nástin možného směru lidskoprávní aktualizace Ústavy pro dobu, kdy by superinteligence vykonávala většinu "nezbytné" práce. Slovní spojení "dostatek svobody" se tak vymezuje spíše oproti minimalizaci lidské svobody, k čemuž je několik implicitních příležitostí možná v každé radě o způsobu investování do lidí. 

Když třeba chceme investovat do obrany lidí před hrozbou AI, tak bychom neměli dopustit budoucnost, kde by většina lidí většinu času byla nucena kontrolovat nějaké vybrané kroky uměligence, protože to by byla velmi přehnaná redukce lidské svobody oproti možnostem pozitivní budoucnosti. Ani spolu se školením o AI by nemělo dojít k vyredukování volného času (přesněji, člověk má mít nějaké tzv. otium). Každému člověku by prostě v budoucnosti spoluřízené superinteligencí měl zbýt dostatek času, aby se mohl nerušeně věnovat seberealizaci třeba dvě třetiny každého dne. Číslem si jistý nejsem, ale má to zdůraznit, že se chci vymezit oběma protichůdným extrémům: naprosté flákačství a naprostá přepracovanost/ zaneprázdněnost, resp. extrémy naprostá nesvoboda a naprostá svoboda (ta by byla možná pouze ve světě, kde by žil jediný aktér, který by neměl koho jiného svou svobodou omezovat, což je mnohem spíše dystopie než utopie). 

Zároveň považuji za dobré (pro únosný lidský život) připomenout, že lidem by musela zbýt nějaká svoboda i v době, kdy by rostla autonomie (nebo potencionální autonomie) vývojových fází AI směřujících k superinteligenci. Jde o to, aby lidský život nebyl redukovaný na pouhé přežívání, živoření, zatímco drtivá většina financí by směřovala jinam. Člověk by měl mít čas dokonce i na lenošení (lépe ve spojitosti s rozjímáním/ uvažováním), ale s informovaným vědomím, že v nadmíře by to byla zbytečně ztracená příležitost pro ostatní aspekty seberealizace. 

A co se samostatněji týče smyslu života, tak podle mě je spíše v různých poměrech komplementaritou "sebou voleného" (člověkem jedincem) a inherentněji distribuovaného konvergentního "(meta)smyslu", přičemž první složka bývá (spíše pragmaticky než izomorfně) zdůrazňována kompatibilismem a druhá složka bývá (spíše pragmaticky než izomorfně) maskována kompatibilismem, obojí v zájmu takového konzervatismu, aby člověka bylo možné za něco soudit a odsoudit, ale budoucnost soudnictví zde alespoň zatím řešit nebudu. 

U zmínky o životě plném "hravé seberealizace" čtenář poměrně ostře a příkladně namítl, že pod "hravostí" si dokáže představit i spoustu kriminálních činností. To však považuji za důsledek jeho nadměrného zaměření na možnosti chápání jediného slova v neprospěch zvážení kontextu, který ty možnosti měl upřesňovat v duchu celé vize. 

Není třeba náhodou, že jsem utopickou část načal myšlenkovým odkázáním na sbírku esejů Bertranda Russella nazvanou Chvála zahálky a jiné eseje (In Praise of Ileness and Other Essays), kde by mělo být patrné spojení slova "hra" s něčím ušlechtilým. V tomto pojetí je hra spíše něco jako radost-přinášející činnost sebenaplnění osvobozeného od nátlaku na přežití a vydělávání, ale v mezích respektu k právům ostatních, ovšem právům reflektovaných ve vztahu k vizi společnosti, kde má každý člověk dostatek času na seberealizaci, osvobozené vzdělání a nikdo nemá právo na neomezené hromadění bohatství nebo na vykořisťování ostatních. 

Hranice svobody v této vizi budoucnosti by tedy měly být nastaveny tak, aby nebyly primárně represivní, ale spíše aby umožňovaly maximalizaci individuálního rozvoje a radosti (trvaleji udržitelný jev než štěstí), avšak zároveň minimalizovaly konflikty nebo škody způsobem, který by podporoval zdravou rovnováhu individuální autonomie a kolektivního blaha. Zase tedy jde o vyvažování různých politických protipólů. 

Celkověji čtenář té utopické vizi vytýkal nejednoznačnost, resp. požadoval maximalizaci její jednoznačnosti. Na to jsem reagoval otázkou: "Jak chceš co nejjednoznačněji definovat rámec pro lidský život, aniž by přerostl v totalitu?" 

Nechci tvrdit, že tomu tak musí být v tomto případě, ale podobné požadavky (jako třeba ostře vymezeného definování), zavání možností jakéhosi IT fachidiotismu, kdy lidé vzdělaní v oblasti IT mohou nabýt profesní deformace, vlivem které mají tendenci ke všemu přistupovat podobnou optikou, přestože se jedná o jinou rovinu světa, která vyžaduje odlišné zacházení. To by nemělo popírat přístup IT specialistů k jejich oblasti, ale uvádět ho do komplementarity s lidskou společností, kde bychom neměli udusit vlastní přirozenost. Fakt, že bychom měli potlačovat to, čím bychom mohli škodit ostatním, ještě neznamená, že bychom měli zcela jednoznačně nalajnovat lidské životy. 

Konkrétněji třeba i naše Ústava vyznívá hodně nejednoznačně a zpřesňuje se až konkrétními zákony (které přesto v řadě bodech ponechávají dost nejednoznačností, aby svoboda zůstala možná), ale těžko si představovat, že by spíše krátké literární dílo mělo substituovat nějaký rozsáhlý zákon s jeho paragrafy. Navíc soudy často fungují tak, že rozhodují, který z protichůdných zákonů má v které situaci přednost a univerzální pořadí předností všech paragrafů prostě neexistuje. Nebo jednou jsem byl na přednášce nějakého odborníka na umělou inteligenci, který říkal, že suma české Ústavy a zákonů je ve své kompletnosti tak nejednoznačná, že když to někdo zadal jako trénovací data velkému jazykovému modelu, tak zkolaboval i při takové konfiguraci přechodových funkcí, výchozích prahů atd., při kterých dosud vždy časem dospěl ke stabilnímu nastavení, dokud nebyl konfrontován s novými trénovacími daty. 

V zájmu udržení lidské svobody bychom si tedy měli dávat pozor, aby politiku budoucnosti nevykonávalo příliš mnoho lidí vzdělaných pouze v oblasti řízení umělých systémů. Nějací tam určitě potřeba jsou, ale měli by být dostatečně vyvažováni lidmi z mnoha jiných oborů. 


10. (10.) Časové adresování

Závěrem se čtenář pokusil o celkové hodnocení mého textu. Než se však posunu k jeho konkrétnějším tvrzením, tak uvedu to, co se mi zdá jako těžiště jeho závěru. Čtenář kritizuje v podstatě, že se v současnosti zajímám o budoucnost. 

Jsem autor sci-fi a čtenářovy závěrečné námitky se mi zdají být založené převážně na „anachronismu“, kdy k nástinům negativní a pozitivní budoucnosti (které mají sloužit hledání reálné budoucnosti a průběžným konkrétnějším krokům spolu s tím, jak se té oblasti možných budoucností budeme blížit) přistupuje mnohem více jako k současnosti nebo velmi blízké budoucnosti. Nejsem zastánce názoru, že by všichni nebo vždy měli přemýšlet jen v mezích nějaké úzce "rozšířené současnosti", protože v tomto směru preferuji komplementární diverzitu (každá časová perspektiva je příležitostí nějaké hodnoty, jinak by nemělo smysl přemýšlet ani o začátku nebo konci našeho vesmíru). To neznamená, že by důraz na rozšířenou současnost neměl v celku společnosti převažovat, ale znamená to, že já se odlišuji od toho, co považuji za převážné tendence. Navíc bych stěží vyvážil to, že můj text byl původně určený do almanachu, kde převážná většina přispěvatelů pravděpodobně bude psát o nedávné současnosti, nebo starší minulosti (ve vztahu k určitému předem danému tématu). 

Jakožto autor sci-fi mám tendenci přemýšlet i o možnostech vzdálenější budoucnosti. Ale nechci přesněji spekulovat, kdy zhruba může nastat něco jako technologická singularita, protože vím, že k tomu nemám potřebné kompetence, ale ani důvody, proč si to vymyslet "z ničeho". 

To však neznamená, že bych nepovažoval za vhodné sdělit myšlenky, které mě k tomu dnes napadají, protože technologická singularita nebo umělá superinteligence by ve výsledku velmi pravděpodobně měla příčiny hluboce zakořeněné v průběhu historie (přesněji v tom, co kdysi byla současnost). Takže své rozhodování nemusíme vztahovat jen k současnosti a jejímu blízkému okolí, ale i k "mlhavě se vynořujícím vidinám hrozeb", které by ve výsledku mohly vyžadovat mnohem dřívější reakce, než jiné druhy hrozeb. 

Technologické hrozby si můžeme představit i jako "stoličku" umístěnou v rozměru času tak, že se nám nejprve ukazují oddělené výřezy jednotlivých nohou, které se k sobě s postupem času přibližují a někteří lidé by se zaměřovali na extrapolaci, kdy se tyto "body" dostanou k sobě, zatímco z celočasové perspektivy bychom viděli, že ke spojení dojde dříve vlivem okolností, které unikali naší pozornosti. Netvrdím, že to tak musí být v případě superinteligence nebo technologické singularity, ale spíše tvrdím, že existují i jiné možnosti, jak přemýšlet o rizicích. A že možnosti ovlivnit vzdálenou budoucnost jsou rozprostřené v širším spektru časů, než se může zdát.

Konkrétně čtenář namítl třeba svůj názor, že hrozba umělé inteligence vůči lidem není aktuální problém a tak se vyjadřují i "špičkoví odborníci na toto téma". Čtenář to tak možná vnímá, ale celkově to tak být nemusí. 

Mj. je potřeba uvědomit si, že některé "pravdy" jsou pragmatičtější, než by bylo nutné (ve vztahu k tomu, že absolutně izomorfní pravdy nejsou částmi Celku dosažitelné, můžeme se jim pouze limitně blížit) (jinak zaměňování druhů "pravd" je jeden ze způsobů sebeklamů). Například pro ty uskupení, která profitují z rozvoje AI a zahrnují proto velké množství odborníků na AI, je velmi pravděpodobně pragmatické podporovat technooptimismus, ale to v důsledku spíše zakrývá rizika. AI je velkou příležitostí velkého zisku pro velké hráče, kteří investují do odborníků, jenž podporují technooptimismus (což má vliv na podobu konsenzu mezi odborníky), zatímco třeba Future of Humanity Institute, který upozorňoval na rizika AI a hledal preventivní řešení, která by podpořila budoucí zachování lidské rasy, byl rozpuštěn, údajně v důsledku byrokratického nátlaku, který poslední roky komplikoval jeho činnost. Nepřekvapilo by mě, kdyby šlo o zprostředkovaný důsledek lobismu ze strany těch, které láká relativně rychlý zisk a uvědomují si vliv podobných institucí na politiku, která může být limitem jejich zisku. 

Byl bych velice rád, kdyby mě někdo dokázal přesvědčit, že žádná vývojová fáze umělé inteligenci nepodlehne nějaké obecné obdobě železného zákona oligarchie nebo prostě "zdivočení". Ale to vyžaduje spíše logické argumenty než odvolávání se na "odborníky". Osobně pochybuji, že by existoval člověk opravdu kompetentní predikovat všechny varianty něčeho, co v historii nemá dostatečně přesný precedent - spíše existuje menšina lidí, kteří jsou v tom méně nekompetentní než většina lidí. Za metaforický precedent můžeme považovat např. to, že v evoluci vznikly dříve svalově kontrakční buňky (analogie k manuálně pracujícím lidem) než centrální nervová soustava (složená z různých neuronů a glií) (analogie k superinteligenci složené ze specializovaných umělých inteligencí), která později nad potomky těch původních pohybových buněk převzala kontrolu, přičemž periferní nervová soustava (analogie k vládnoucím lidem), která vznikla před CNS, se později stala podřízená vůči CNS, a jestliže se něco takového odehrálo vlivem přirozeného výběru, tak proč by se něco podobného nemohlo dřívepozději stát lidem (obzvláště, kdybychom takové riziko podceňovali ulpíváním na zastarávajících předpokladech)? A je vůbec uklidňující, že nejlepší dosažitelné "precedenty" jsou metafory? 

Čtenář vůči mému textu dále argumentoval, že to je jako psát o tom, že se automobily vymknou kontrole a budou jezdit, kam budou chtít, v situaci, kdy hlavním problémem jsou každodenní dopravní nehody. 

Vůči tomu odpovídám, že na problémy současnosti a možnosti jejich řešení mají upozorňovat mnohem spíše třeba zprávy (jak se dnes děje i v případě AI) nebo edukativní pořady, než autoři sci-fi. A to, že lidé mají od současných verzí AI (obzvláště LLM) nepřiměřená očekávání, není ve sdělování výjimkou, protože už jsem třeba četl článek o tom, že existují lidé, kteří zkouší uhádnout výherní čísla pomocí ChatGPT (což je pochopitelně chybné očekávání). Jinak ve svém původním textu zmiňuji i to, že se má investovat mj. do vzdělávání lidí o umělé inteligenci, takže implicitně je tam odkázáno i na to, co čtenář explifikoval. Také naznačil, že v některých otázkách může být větší spolehnutí na náhodného člověka z ulice, než na umělou inteligenci, ale domnívám se, že množina takových otázek se do budoucna bude spíše zužovat oproti těm, kde AI odpoví lépe. 

Jinak v několika různých argumentech čtenáře lze celkověji spatřovat implicitnější nařčení z antropomorfizace AI. Vůči tomu, co by byla opravdu antropomorfizace určité vývojové fáze AI (ve smyslu přehnaně blízkého přirovnání k lidem), bychom se určitě měli vymezovat, avšak takové výhrady by bylo vhodnější formulovat i komplementárněji. Sice to bude parafráze oproti konci kapitolky 6. (6.) (pokud jednou nezměním pořadí), ale považuji za vhodné připomenout to koncem tohoto článku. Jako se dá přehnat zdůrazňování podobností lidí a AI, dá se přehnat i zdůrazňování odlišností. Obojí je však relativní vůči době emise takových tvrzení a zároveň k době adresování takových tvrzení, protože obsah pojmu AI (resp. umělá inteligence) se vyvíjel, vyvíjí a bude vyvíjet. 

A to přehnané zdůrazňování odlišností má i své "metaforické precedenty" v jiných odvětvích. Kdysi se třeba v biologii hodně zdůrazňovaly "rozdíly" mezi lidmi a zvířaty. Postupně se však ukázalo, že lidé oproti zvířatům nejsou až tak výjimeční, jak se původně a většinově domnívali. A příležitost k podobné analogii (v odlišné míře a formě) se může ukrývat i v emergenci uvnitř architektury dostatečně velkých neuronových sítí, obzvláště ve vztahu k argumentům typu: „Umělá inteligence je jen marketingové označení pro pokročilou statistiku.“ (Tak mohou hovořit například ti lidé, kteří si zakládají autoritu převážně na své inteligenci, obávají se konkurence rozvíjející se AI a nechtějí to dávat najevo, protože si chtějí udržovat autoritu, což by mohlo být využíváno i v zájmu lidí, kdyby dostatečně upozorňovali na rizika, ale to je vede do paradoxních situací, kdy se musí rozhodovat mezi udržováním autority lidských odborníků a upozorňováním na hrozbu AI.) O kolik je lidská inteligence skutečně víc, než nějaký druh (obecnějšího pojetí) LLM, který si vyměňuje informace sám se sebou a s okolím? Něco snad (i navzdory dalšímu výzkumu) zbude, ale zároveň se mi zdá, že některým "rozdílům" klesne váha, obzvláště oproti některým složitým teoriím lidské mysli, které vychází spíše z představ pozorovatele o sobě samém než z více vědečtěji prováděného pozorování mozku a jeho částí. Odhaduji však, že třeba qualia spíše zůstanou jako něco neeliminovaného nebo by dokonce panpsychismus (přesněji nějaká jeho budoucí varianta) měl méně omezení, než jak se dnes domnívám. 

Závěrem čtenář psal, že problémem jsou naivní lidé a podnikatelé, kteří podporují představu, že umělá inteligence dokáže lidem poradit, stručněji že lidská hloupost by se neměla svádět na AI. 

Jenže na čtenářem jmenované „podnikatele“ se také snadno kde co svádí a i to má své limity viz. mj. kapitolka 3. (3.), kde jsem naznačil několik způsobů, jak může vzrůst autonomie AI i mimo lidský záměr. To však neznamená, že by podnikatelé v oblasti AI neměli nést svůj díl odpovědnosti, protože v současném stavu to bývají oni, kdo úkolují ty odborníky, kteří jejich AI rozvíjí. A ani ti odborníci nejsou osvobození. Kdyby hypoteticky jednou byli souzeni za nějaké morální selhání ve vztahu ke své práci na AI, mohli by se zkoušet hájit, že jen plnili své úkoly, ale (obzvláště kdyby chápali své konání a nedopustili se selhání soudnosti, kdy se v určitém kontextu člověk může podílet na "zlu", aniž by věděl, že je to něco špatného v širším kontextu) to by nemuselo být dostačující. Třeba nacisté se hájili nejen plněním úkolů, ale i plněním zákonů, načež soud pro lidská práva argumentoval mj., že přirozené právo je důležitější než zákony jednotlivých zemí. Takže kdyby se lidé, podílející na rozvoji AI, dopustili nějaké velké "chyby", která by v budoucnu významně poškodila lidstvo, tak by se nejspíš nemohli vymlouvat na plnění úkolů nebo to, že důvěřovali AI. V tomto smyslu by tedy nejspíš platilo čtenářovo tvrzení, že lidská hloupost by se neměla svádět na AI, přestože vzniklo zobecněním odlišného případu. 

Dřívepozději ale nejspíš přijde i čas autonomnějších AI, které by si v některých případech mohli zasloužit "stanout před soudem". Otázka však bude, nakolik to bude technicky proveditelné a zda si lidé do té doby zachovají dostatek moci, aby tak mohli učinit. Vidinu těchto a jiných hrozeb bychom však měli chápat jako něco, co nám pomáhá hledat, jak bychom se tomu mohli vyhnout, abychom se více přiblížili tomu, co jsem nastínil v utopičtěji zaměřené části úvodu a v kapitolce 9. (7.). Alespoň dokud to bude možné. 

Většina zbytku historie na Zeměkouli bude pravděpodobně doba, kdy lidé (myšleni zhruba v dnešním stavu počátku 21. století a čistě tělesně bez technologií a genetických modifikací) nebudou považováni za aktéry, kteří by v něčem významném významně převyšovali to, co bude (nejčastěji v rámci celé této budoucnosti) znamenat "umělá inteligence" a to/ti lidem velmi odlišní, kteří se vyvinou následkem toho, čemu tak dnes obvykle říkáme. Zkusme to vše dostatečně pochopit a nacházet způsoby, jak lidstvo udržet co nejdéle a zejména ve stavu, který by pro lidi byl svobodně přijatelný. Ještě snad máme čas změnit svou budoucnost k lepšímu. 

neděle 22. prosince 2024

Vysvětlení pěti Wo-citátů - 4. díl

Poslední dobou se úspěšně zaměřuji na psaní povídek, o čemž zde zatím nemohu podrobněji psát víc než začátkem článku „Jak si zvolit přijatelnější budoucnost?“ (z něj víc doporučuji poslední kapitolku), ale dřívepozději (tj. dříve či později) mi to umožní publikovat další sbírku šílených povídek motivujících k zamyšlení. Takže méně času věnovaného psaní článků nebo tvorbě videí by se později mělo projevit příchodem nových knih, pokud nebudu znova vyrušen vnějšími okolnostmi. 

Nerad bych ale psaní článků úplně zastavil, pročež přicházím s tímto, který volně navazuje na „Vysvětlení pěti Wo-citátů - 3. díl“, kde jsem se zaměřil na ty výroky, jenž mohou být snáze nepochopeny. Tentokrát jsem nepřistoupil k jednotnému způsobu výběru citátů, ale tři z nich se budou týkat tématu vztahu člověka a přírody.

Nejprve bych však rád zmínil, že od 15. září 2024 jsem na můj Instagram začal občas přidávat některé Wo-citáty s jejich vysvětlením, čímž bude nejspíš dál pomalu vznikat jakási paralela k této sérii článků. 

A než přejdu k vysvětlování zvolených citátů, tak připomínám, že ty komentáře nemohou být úplné a mají sloužit spíše jako směrovky naznačující obrysy komplexnějšího významu příslušných citátů. A teď už konečně ony komentáře: 


Požadovat jen rozvíjení schopností je podobně absurdní jako požadovat jen omezování neschopností.“ – Sebastián Wortys

Několikrát jsem slyšel matky stěžovat si, že běžné základní školy nerozvíjí talenty jejich dětí. A to už jako poměrně malý (tj. více naivní), takže se mi to zprvu zdálo jako jednoznačně sympatický směr, který by mohl přispět ke správné reformě školství.

Ale jak jsem se později více seznamoval s komplementárním myšlením, tak jsem měl tendenci přehodnocovat všechny jednostranné názory, kterými se mě někdo pokoušel naočkovat. V případě základních škol a rozvoje talentu jsem si tak více uvědomil i adekvátnost druhé strany.

Abychom mohli vést plnohodnotný život a naše závislost na ostatních nebyla tak vysoká, že sebemenší otřes našich vztahů by mohl vážně ohrozit stabilitu našeho života nebo jeho úroveň, tak v rámci svého osobního rozvoje potřebujeme pěstovat mnohostranné dovednosti relevantní pro časoprostorově blízké možnosti konfigurace světa, ve kterém žijeme. Prostě se o sobe musíme umět alespoň základně postarat pomocí toho, co máme a nejspíš budeme mít k dispozici. A vzhledem k tomu, že svět se vyvíjí, tak je riskantní vsázet vše čistě jen na jednu dovednost, protože její užitečnost může časem klesnout a s tím i životní úroveň člověka, který ji ovládá.

Je třeba hezké, že Vaše dítě umí kreslit a baví ho to, ale stabilní difúze v tom překonala už i spoustu profesionálů, a kdyby se rozvíjela jen schopnost dítěte kreslit a vše ostatní se zanedbalo, tak by pro něj mohla být obtížnější i adaptace na spolupráci se stabilní difúzí, která funguje třeba tím lépe, čím přesněji dítě umí ovládat jazyk (komunikaci s počítačem).

Smyslem základní školy je tedy mimo jiné i to, aby nás naučila od „všeho“ alespoň trochu. V rámci toho nás učitelé učí i to, co nám nejde a v čem nevynikáme, protože je lepší umět to nakonec alespoň trochu, než vůbec. Ani matematika není výjimkou, když teď slyším, kolik lidí se nechalo okrást během platby QR kódem. Můžete klidně nějakému umělému agentovi svěřit, aby nákupy dělal za vás, ale když ho pak nebudete kontrolovat, nebo to už ani nebudete umět, tak tím vznikne další prostor pro finanční podvody.

To však na druhou stranu zdaleka neznamená, že bychom se naopak měli snažit o absolutní univerzalitu tak, abychom nakonec v ničem nevynikli. Spolu s tím je dobré uvědomit si, že rodiče své děti, už paralelně se školní docházkou, mohou třeba přihlásit do různých zájmových kroužků, které by odpovídaly jejich talentům. Načež od střední školy už je možné vydat se cestou specializace, která by nejblíže odpovídala talentu daného jedince. 

Rovněž je možné zvolit internetové kurzy nebo komunikaci s umělou inteligencí, ale obzvláště v tom druhém případě bychom si měli dát pozor, aby AI nemanipulovala naše děti k profesím, které jsou zrovna potřeba a to v rozporu s tím, co by pro ně bylo přijatelnější a stále trvale dostatečně užitečné, uplatnitelné. Taková opatrnost se týká zejména profesních dotazníků a podobných přístupů, kdy bychom svěřili AI, aby našla, co by mohl být talent našeho dítěte. Zkusit to můžeme, ale měli bychom vůči tomu zůstat i skeptičtí a doplnit to staršími přístupy založenými na lidském faktoru vč. toho, že prostě sami interagujeme se svým dítětem a hledáme, čemu smysluplnému by se mohlo otevřít.

A následující komentář citátu o soběstačnosti prosím neberte jen jako omezení tohoto citátů o talentech, protože i ten zakončím komplementaritou, takže si nemusí odporovat.


Kdo se snaží o soběstačnost, stává se žákem světa.“ – Sebastián Wortys

Když se narodíme a vyrůstáme uvnitř lidské společnosti, je to pro nás přirozené. Obvykle se postupně učíme, jak v ní žít, chodíme do školy, pak do práce a opakováním se to pro nás stává normální.

Ale čím větší společnost, tím specializovanější jedince potřebuje pro svůj chod. Pohled běžného jedince na ostatní oblasti potřebné pro fungování společnosti tak bývá rozmazaný, resp. vzdálený detailům reality, které by bylo potřeba znát, kdyby měl nahradit role jedinců z jiných oblastí snažení bez ohrožení stability společnosti. Do určité míry je rekvalifikace možná, ale to nám nenahradí celistvější (a do nás decentralizovaný) pohled na složitost, která přispívá k udržování našeho přežití. V tomto smyslu většina lidí ve společnosti nechápe, jak vůbec mohou existovat, protože nemohou obsáhnout elementární zkušenosti a dovednosti společnosti, která je podpírá. Jsme relativně neúplní, nesoběstační.

Zároveň nově vymýšlené nám nahrazuje nebo zakrývá pohled na to, co se tu vyvíjelo i milióny let před námi. Vymyšlené je vkládáno a vkládá se mezi lidi a přírodu, načež se stává stále složitějším, mohutnějším a (navzdory mediálním náhražkám) to lidem ve společnosti převážně ztěžuje vidět to, co přímo je drží při životě (natož se na všem podílet). Někteří sice v něčem příležitostně vyhledávají přímější cesty, které jim to odhalují více, ale málo kdo z nich to dělá důkladně ve všech oblastech potřebných pro svůj život, tj. málo kdo je soběstatkářem.

Dnešní společnost se tak ukazuje jako materiální obdoba virtuální reality (to blíže popíšu v komentáři citátu o penězích a selekčním tlaku), jakýsi umělý svět, který se nám běžně zdá tím "nejskutečnějším", protože právě s ním míváme nejvíc interakcí.

Rozvinutější antroposféra je však dosud spíše menšinou na naší planetě, je náchylnější k zániku třeba válkou a její obnova trvá pomaleji, než mnoha jiným poměrně úspěšnějším organismům, které gentrifikují opuštěné pozůstatky lidských staveb. Zároveň peníze jsou v liduprázdné divočině zbytečné, když nemohou být uplatněny. Zbytečné tam jsou i dovednosti vyvinuté speciálně pro chod složité společnosti.

Takže zatímco bývá obtížné vybudovat antroposféru z minima, bývá snazší upadnutí jejích částí zpět do přírodnějšího módu až divočiny. To jest světa, pro který se naši předkové vyvíjeli mnohonásobně déle, než se z něj pokoušíme utéct do svého vlastního světa a v některých rovinách dokonce stále úspěšněji, zatímco třeba psychicky nás to často spíše ničí a třeba transhumanismus dosud nemá potřebnou úroveň, aby nás zachránil (což se ale časem může, ale nemusí změnit k lepšímu).

A zatímco pro život ve společnosti se učíme od společnosti, pro život v přírodě se učíme od světa přírody. Takže kdo se snaží o všeobecnější soběstačnost v přírodě, ten se učí spíše od světa, který tu byl už mnohem déle před námi a jeho zákonitosti nepochází z naší hlavy. Není to ekonomika, není to politika, není to informatika atd., je to něco evolučně staršího (pokud nebudeme hledat analogie přes zobecňování typu, že mykorhyza je přírodní internet) a ve vesmíru dost možná častější svého druhu, pokud nejsme ve vesmíru sami. Pokud na nějaké vzdálené planetě "žijí" třeba "organismy" podobné našim rostlin, těžko se to dozvědět, ale je to pravděpodobnější než existence obdoby lidí.

Abychom mohli (alespoň po dobu svého produktivního života) být soběstační v tom smyslu, že ke svému životu nepotřebujeme obří civilizaci a třeba ani druhého člověka, tak se potřebujeme učit od přírody, ve které žijeme. Potřebujeme vědět, co můžeme jíst, kdy to roste, kde sehnat vodu... a čím víc potřeb máme a chceme naplňovat, tak i tím víc znalostí je třeba mít o tom, jak je naplňovat pomocí přírody. Divočina nám při tom dokáže dávat i "facky", které nám ukazují, v čem se vůči ní mýlíme a přirozený výběr je tak trochu nejstarší "výukový program".

To nám však neříká, že by nějaký z těchto přístupů, ať už život v přírodě, nebo antroposféře, byl pro dnešního člověka obecně lepší, nebo horší, spíše jsou vzájemně odlišné se svými výhody a nevýhody, které potřebujeme vztahovat ke svým potřebám a možnostem. A nakonec je možná nejzdravější udržovat komplementaritu obojího, která nám zachová při životě bohatší zkušenosti jako prevenci zkreslování nebo zužování představ o kterémkoli z těchto způsobů žití.

Žít v přírodě není tak lehké, jak si myslí někteří lidé unavení městem. A žít ve městě není tak sladké, jak si myslí divoši, kteří nově okusí výhody civilizace.


Kdo je osamělý v přírodě, ten zavírá oči před životem.“ – Sebastián Wortys

Samotu můžeme chápat tak, že kolem sebe nemáme další lidi nebo lidi splňující nějaká naše kritéria, zatímco osamělost můžeme chápat jako stav, kdy nám ta samota vadí.

To je však poněkud antropocentrický pohled, kterým se odtrháváme od zbytku živé přírody. Nejsnáze si to uvědomují třeba ti milovníci domácích mazlíčků, kteří se bez nich cítí osamělí a s nimi se cítí být v jejich společnosti.

Ale pojďme ještě dál. Zkusme si představit, že bychom nějaký čas strávili ve vzdálené vesmírné lodi, kde by kromě nás nebylo nic živého a až by nám to začalo vadit, tak bychom se objevili třeba v nějakém lese. V tu chvíli by pro nás i rostliny mohly být vítanou společností, protože jsou živým organismem, který jsme ve vesmírné lodi postrádali. A postrádali bychom ho nejspíš více, kdybychom si mysleli, že nic živého kromě nás už neexistuje a s námi ten zázrak života zmizí.

Z biologického hlediska může být až neuvěřitelné, kolik toho máme společného s organismy, které na první pohled mohou vypadat velmi odlišně a tím cize. Těžko tedy popírat, že všechny živé organismy v určité fázi vývoje měly jednoho společného předka (a i případný život 2.0 by byl jen důsledek většinového života na Zemi). Vše živé je našimi alespoň vzdálenými příbuznými a při vystavení optimálním selekčním tlakům a mutagenům se vše živé za dostatečně dlouhou dobu může konvergentně posunout naším směrem. Potomci všeho živého se nám za určitých okolností mohou znova více přiblížit.

A kdyby se stalo globální katastrofa, která by vedla k vyhynutí lidstva i jeho technologií, tak ostatní živé se nám ukazuje jako naděje pokračování, že nás evoluce jednou nějak znovuobjeví v odlišné podobě. Navíc jsme všichni součástí jednoho volnějšího superorganismu Gaii.

Prostě, když usedneme v přírodě, tak ve skutečnosti nikdy nejsme úplně sami, a pokus si to myslíme, tak jen zavíráme oči před životem, který nás obklopuje a měníme s ním své molekuly třeba už jen dýcháním, které nás všechny provazuje.


Peníze šíří selekční tlak.“ – Sebastián Wortys

Lidé, kteří žili nebo žijí v přírodě bez ochrany civilizace a vyspělé technologie (třeba jen v rámci malého domorodého kmene), byli mnohem blíže dosahu přirozeného výběru. Nemohli se chránit výhodami, které si kupujeme třeba zdravotním a sociálním pojištěním. Nebyli však tolik chráněni ani před driftem, který dokáže zničit i ty nejsilnější jedince, se kterými se náhodou setká. Divoch postižený živelnou katastrofou nemohl využívat charitativní sbírku nebo institucionalizovanou solidaritu, když neexistovala a jeho kmen byl zdevastován.

Ale s tím, jak jsme se vydali cestou budování civilizace a rozvoje technologií, tak se jako jednotlivci vzdalujeme přímému dopadu přetrvávajících selekčních tlaků, které z vnějšku působí na společnost. A kdo žije nejhlouběji v nejpohodlnější části antroposféry, ten by mohl nabývat dojmu, že jeho se to už vůbec netýká. Nebo by se mu mohlo zdát, že na něj doléhají úplně jiné problémy, které vůbec nesouvisí s tím, co se děje na hranicích společnosti.

Obojí je však zavádějící, protože pravdou je spíše to, že vliv selekčního tlaku na jednotlivce je cestou různě zprostředkovaný/ delegovaný, tím může být třeba rozprostřený a tak zmírněný vůči jednotlivci z přímějšího hlediska, ale o to víc lidí to částečně zasáhne.

Synergie obrany (založená mj. na pokročilé dělbě práce) sice může fungovat, ale zároveň může fungovat synergie selekčních tlaků, kdy soudobá míra globalizace umožňuje interakci těch faktorů, které byly dříve méně distribuované.

Takže jsme se posunuli z fáze, kdy malé skupiny lidí čelily přírodě, do fáze, kdy civilizace čelí selekčním tlakům na mnohem větším území. Dá se to použít k vyvažování lokálnějších extrémů, ale zároveň to může urychlit třeba rozvoj pandemie.

To se pochopitelně odráží na ekonomické situaci a ta se odráží třeba na kupní síle jednotlivců. Takže se promítá do toho, v čem hledáme chybu kupříkladu na straně politiků nebo jiných lidí, aniž bychom tolik hledali, jaký to má vztah k selekčním tlakům, které často vyplývají z omezení planety, na které žijeme a dosud jsme ji nedokázali trvale udržitelně opustit v soběstačné formě. 

V komentáři citátu o soběstačnosti a učení se od přírody jsem uvedl, že dnešní společnost se ukazuje jako materiální obdoba virtuální reality a tady je vhodné to zopakovat. Pravidla uvnitř antroposféry jsou převážně stále více výplodem naší fantazie (nebo námi započaté AI) (tj. něco jako simulakrum) a víceméně je stále snazší jednat poměrně hloupě, když zásoba relativních jistot nám dovoluje dělat více chyb, což pro nás může být matoucí. Něco z toho, co by nás v divočině stálo život, můžeme ve společnosti opakovat. Sice to může zatížit okolí, ale když je hloupý jedinec chráněn před následky své hlouposti, tak dostatečně nepocítí následky a dál jedná bez znalosti vztahů vůči dění v oblasti hranice společnosti. Neznamená to, že by to nezatěžovalo zevnitř společnost, která je zatěžována z venčí. Znamená to spíše to, že ten člověk to nevidí, nebo se podle toho nedokáže chovat.

Není tedy překvapivé, že pravicová politika spíše podporuje, aby nedostatečně přizpůsobiví lidé čelili finančnímu tlaku nějak odpovídajícímu tomu, jak moc zatěžují společnost, která je zatěžována z venčí a musí to nějak řešit, jinak by se postupně rozpadala zevnitř a selekční tlaky by nám pak byly zase o něco blíže.

Někdo může podotknout, že určití experti ty selekční tlaky na společnost, ve svých oblastech, vidí zřetelněji a intenzivněji, ale jednostrannější uchýlení k expertokracii by nakonec pravděpodobně bylo zatížené železným zákonem oligarchie, takže většina lidí by na tom ve výsledku tratila a tím hůře, čím větší by pak měla míru autonomie umělá inteligence.

Takže pro udržení demokracie je tedy vhodné připomínat lidem vztahy mezi jedincem a selekčními tlaky vůči společnosti. Učit občany, aby si to alespoň zjednodušeně uvědomovali a zohledňovali to při svém každodenním chování v zájmu zdravějšího světa pro všechny lidi, kdo v něm žijí.


Pravý filosof oponuje i těm, kteří mají stejný názor jako on. Ale má to své meze.“ – Sebastián Wortys

Někteří lidé očekávají od těch, kterými se obklopují, že budou podporovat jejich názor. V určitých případech a z určitého hlediska to může být efektivní, užitečné, ale když to narůstá v čase nebo prostoru, tak to tíhne k totalitě, masivnímu fachidiotismu a jiným nebezpečným jevům.

I zdánlivě nevinné dlouhodobější následování toho, co se zprvu může pro danou situaci zdát jako vhodné, se později může ukázat chybné jako mít v autě volant, který může zatáčet jen na jednu stranu. Když právě na tu stranu zrovna potřebujete jet, tak se to někomu krátkozrakému zdá jako správný volant. Ale z dlouhodobějšího hlediska je to dřívepozději špatný volant, protože nakonec bývá vždy potřeba vyvažovat protikladem podle aktuálního vývoje tak, abychom se udržitelněji blížili stavu, kterého chceme dosahovat.

Komunikace, kde obě strany zastávají totéž a vzájemně se v tom utvrzují, je tedy podezřelá, náchylnější k omylu, sebeklamu, pročež každý zdánlivě sebelepší názor je potřeba průběžně reflektovat, vystavovat protiargumentům, zkoumat jeho logiku v různých kontextech...

Jak toho ale dosahovat v konfiguraci, kdy účastníci komunikace mají relativně velmi podobné názory? Prostě tak, že si zkusíme představit, jak bychom asi argumentovali, kdybychom byli někdo s dostatečně odlišným názorem.

A to se můžeme učit pomocí antiskepse, kdy se snažíme hlouběji pochopit, proč odlišní aktéři komunikace zastávají ty názory, které se zdá, že zastávají. Je to tedy něco podobného empatii, ale ne v rovině emocí, nýbrž v rovině myšlení. Čím déle a důkladněji pak antiskepsi zkoušíme, tím pak, v souhře s vlastním intelektem, nabýváme vyšší představivosti v oblasti toho, jaké jiné názory ještě mohou existovat a jakou by měly architekturu. O to je pak pro nás snazší poodstoupit z vlastních názorů různými směry a zkoušet je z těchto virtuálnějších pozic.

Zároveň je to něco, co by měl umět snad každý skutečný filosof (tedy ten, kdo se za něj jen nevydává), aby mohl vůbec přemýšlet, to jest předělávat způsob, jakým pak myslí. Takže pravý filosof může oponovat i těm, kteří mají stejný názor jako on.

Jenže čím lépe to ovládá, tím větší z toho může plynout nedorozumění v případě, kdy se někdo začne mylně domnívat, že ten filosof zastává ten názor, který ve skutečnosti zkouší v daném kontextu obhajovat spíše proto, aby přispíval k utváření diverzity zakládající možnost přemýšlení. Takže to vybočování ze svých aktuálních názorů má své meze.

Například je vhodné, aby filosof včas vysvětlil, co zhruba reálně zastává a proč zkouší argumentovat i z jiných pozic. Například může říct: „Souhlasím s vámi, ale zároveň je těžké to dokázat, takže bychom měli zvážit i jiné možnosti, než abychom se v tom hned začali vzájemně utvrzovat.“

Ale i když se to filosof pokusí vysvětlit, tak ne vždy to musí být dostatečně pochopeno a někdo to časem může zapomenout. Takže, obzvláště v některých případech, bychom si měli dávat pozor, aby naše sofistikované protiargumenty nakonec třeba nerozzuřily člověka, který ve skutečnosti zastává názor mnohem podobnější našemu, než se může zdát z toho, co zrovna říkáme, abychom umožňovali přemýšlení.

Pokud navzdory opakovanému důmyslnějšímu oponování nedojde k otřesení názoru, který zkoušíme prověřit, tak se zdá, že má smysl zastávat ho, přesněji alespoň po dobu dostatečné platnosti jeho předpokladů.

neděle 10. listopadu 2024

Jak si zvolit přijatelnější budoucnost?

V tomto článku jsem se chtěl zamyslel především nad tím, jaký může být vztah mezi možnostmi zachování lidstva i v době přicházející umělé superinteligence a vztahem pravicové a levicové politiky. Respektiva jak naše současné a blízko budoucnostní volby mohou ovlivňovat šance na naši všestrannou sebezáchovu. Cestou k tomu jsem ale rozvedl témata jako koncept creep, tři zákony politiky, wokeismus, intersekcionalita a další, které souvisí s dnešní politickou situací (ale i tématem gender, ke kterému jsem už napsal nemálo). Nejprve bych ale rád nastínil, čemu jsem se věnoval poslední měsíce.


Co tvořím  poslední dobou: 

Poté, co jsem napsal články „Atlas Obscura na Necyklopedii“ a „Červený trpaslík na Necyklopedii“, abych se odreagoval, tak jsem dočasně onemocněl, ale ve výsledku mi to pomohlo rozvinout základ nové humorné sci-fi povídky. Podobá se knize Wesmírný omyl, ale na rozdíl od ní je mnohem vyzrálejší (přesto neméně šílená) a racionální rozuzlení složitě absurdní situace si nenechám do druhého nebo pozdějšího dílu. Plánuji jen jeden díl, nebo současné publikování dvou dílů. Jinak povídka obsahuje takovou spoustu zajímavých rekvizit s mnoha pozoruhodnými vztahy, že si pohrávám s myšlenkou založit jí časem fandomovou Wikipedii, přičemž už mám mnoho souvislých obrázků.

Podstatné je, že celkově se mi ta povídka zalíbila natolik, že v mých prioritách přeskočila sérii článků Teorie mnohého a knihu Keška Obydlí vědomí. Jenže jsem ji plánoval poslat do letošní soutěže a spočítal jsem si, že bych ji nestihl dokončit do uzávěrky. Zvažoval jsem tedy udělat drasticky zkrácenou verzi, ale to jsem si nakonec rozmyslel a místo toho jsem napsal archeologickou povídku založenou na jednom z více krátkých příběhů, které mají být součástí té nové humorné sci-fi povídky.

Archeologická povídka se tématicky liší od mé dosavadní tvorby, ale zůstává třeba styl bohatý na humor, filosofii a zajímavé detaily. Po jejím dokončení jsem rozepsal ještě povídku, kde je ústředním tématem nebinární transgender a opět má nutit přemýšlet obě strany sporu. Než jsem ji ale dopsal, tak jsem byl ještě požádán, abych do jedné antologie napsal krátkou povídku s tematikou železničního prostředí.

Takže teď se rozmýšlím, které drobnější projekty ještě dokončím, než se vrátím k té humorné sci-fi povídce (která snadno může přerůst na novou knihu), po ní nejspíš k Teorii mnohého a nakonec ke knize Keška Obydlí vědomí. Takový je alespoň plán, takže se obávám, že to nakonec zase dopadne jinak. Vzhledem k počtu povídek, které mám v zásobě, je také možné, že jejich sbírka bude mou další knihou. A ty větší projekty jsou zároveň důvodem, proč jsem poslední dobou omezil publikování videí nebo třeba právě článků. Přesto bych rád občas udělal výjimku jako v tomto případě.


Koncept creep a wokeismus: 

Po dokončení archeologické povídky mi jeden ze čtenářů psal, že si předplatil časopis A2, který se prý ukázal jako dobrá sonda do intelektuálního levicového smýšlení. Čtenář si tak prý uvědomil, jak si daný proud idealizoval. 

Později v téže zprávě mi doporučil YouTube kanál ShortFatOtaku, zejména videa (nebo spíše podcasty) „What Is Concept Creep?“ a „What EXACTLY Does "Woke" Mean?“. ShortFatOtaku údajně nabízí rozumově založenou kritiku americké progresivní levice z pozic klasického liberalismu (tzn. nikoliv konzervatismu), ale nedostatkem je, že nepopisuje řešení problémů.

Obě videa jsem zhlédl, což mě průběžně motivovalo k zamyšlení právě nad tím, jaký vliv může mít politika na možnosti zachování lidí i v době pravděpodobného rozvoje umělé superinteligence (ačkoliv o umělé inteligenci tam ShortFatOtaku vůbec nemluví). Tato dvě videa zde shrnu stručněji po svém, následně každé trochu okomentuji a poté se vrátím k tématu kolem umělé superinteligence, které považuji za hlavní přínos tohoto článku.


What Is Concept Creep?: 

S pojmem „concept creep“ (koncept plížení, plazení, tečení, vkrádání) přišel Nick Haslam roku 2016 (takže prosím neplést s českým YouTuberem Projekt Creep). Koncept creep je proces takové sémantické expanze, kdy význam pojmu postupně zahrnuje stále více jevů, které jsou stále méně závažné oproti původnímu významu. Koncept creep byl pozorován především v psychologii a politice, například u pojmů: závislost, terorismus, trauma, osobní odpovědnost nebo zneužívání. 

ShortFatOtaku, obzvláště v první polovině videa, uvádí řadu podrobnějších příkladů (vč. původní a rozšířené definice pojmů) s důrazem na vývoj levicové politiky v USA. Dobře si všímá, že důsledky konceptu creep jsou ambivalentní. Když to upřesním po svém, tak třeba hrozí, že nám bude zakazováno stále více, ale o to více také můžeme mít nárok být nějak chráněni, zvýhodněni. Otázkou pro nás tedy může být, zda chceme více ochrany, nebo více svobody, anebo co mezi?

S tím, jak na Západě roste zájem o pojmy týkající se poškození, koreluje růst přecitlivělosti některých lidí a růstu necitlivosti jiných lidí (nebo téže lidí, ale v jiné doméně) pro různé pojmy různě. Když uvedu příklad, tak levičák může ve všem možném spatřovat šikanu a pravičák může ve všem možném spatřovat ohrožení kapitalismu atd. Koncept creep dále vede k zamlžování významu pojmů.

ShortFatOtaku kladl vinu především na levičáky, že hranice pojmů rozšiřují tak, aby jim to pomohlo získat víc moci. Tím se integrita významu slov stává vedlejší. Dále si všímá třeba, že koncept creep souvisí s taktikou politické debaty, kdy diskutující spojí dvě podobné pozice, přičemž jedna se snadno brání a druhá je kontroverznější. Diskutující se pak snaží zvýšit přijetí kontroverznosti a na protiargumenty oponuje obranou první skromnější pozice. 

ShortFatOtaku dává koncept creep také do souvislosti s třemi zákony politiky, jak je definoval Robert Conquest: 

„1) Každý je konzervativní v tom, co ví nejlépe.

2) Každá organizace, která není explicitně pravicová, se dříve nebo později stane levicovou.

3) Nejjednodušším způsobem, jak vysvětlit chování jakékoli byrokratické organizace, je předpokládat, že je řízena kabalou svých nepřátel.“

Ten první zákon politiky znamená, že když už máme dostatek zkušeností a znalostí, tak už nemusíme být tolik otevření přijímat další informace, protože víme relativně dost. ShortFatOtaku k tomu dále říká zhruba, že čím dříve se něco naučíme, tím spíše v tom později budeme konzervativní, ale zároveň nějakou měrou zůstaneme otevření nekončícímu učení. (V tom mimochodem můžeme hledat, zda ShortFatOtaku použil koncept creep na konzervatismus.)

Z hlediska biologie ale dodávám, že stárnutí až degenerace mozku nemusí nutně vést ke ztrátě konzervatismu. A naopak filosofové mohou mít úctyhodné znalosti, ale zároveň si ponechat až překvapivě velkou otevřenost v souladu s mottem „vím, že nic nevím“. Takže hodně jde i o „vyježděné koleje“ akčních potenciálů neuronů. Třeba tím, jak se filosofové pokouší přemýšlet neustále alespoň trochu jinak, tak nemají přehnaně hluboce prošlapané prahy rozhodující o tom, kdy bude vyslán který nervový vzruch, a přesto si toho mohou pamatovat relativně hodně. Nebo pokud někdo žije v omylu, tak si ho častým opakováním může silně zafixovat a být v něm pak konzervativní, aniž bychom mohli tvrdit, že rozumí tomu, vůči čemu je v omylu.

Tolik můj průběžný doplněk a zpátky k mému souhrnu videa od ShortFatOtaku. Přecitlivělý breadtuber (druh levicového YouTubera) prý za fašisty dokáže označit i sociální demokracii kvůli tomu, že se snaží zabránit sociální revoluci a raději jen ulehčuje podmínky dělnické třídy. Kdo nezná své protivníky, ten ke všem přistupuje stejně. Takže breadtuberská definice fašismu se rozšířila natolik, až podle ShortFatOtaku ztratila smysl, přestože stejný breadtuber bude zdůrazňovat odlišnosti různých levicových proudů. A jelikož toho o levici ví víc než o pravici, tak podle toho prvního zákona politiky zůstává levicový. Čím více něco známe, tím méně posouváme hranice definic. A naopak neznalost může přispívat k procesu koncept creep. 

ShortFatOtakův obrat pozornosti k prvnímu zákonu politiky ale poněkud zatemňuje původní zmínku, že to levice vybrané pojmy rozšiřuje záměrně, aby získala větší moc. Podle mě v tom ale můžeme vidět komplementaritu: někdo to dělá záměrně a někdo z neznalosti. ShortFatOtaku však nakonec znova zdůrazňuje, že levice rozšiřuje významy tak, aby jí to prospělo. Zajímavé je také zobecnění, že koncept creep podporuje progresivní politice. Lidověji řečeno: přecitlivělost nás tlačí chtít větší změny v politice.


Další má reakce na koncept creep (a video o něm): 

Pokud posouvání významů pokročilo tak, jak říkal, je to příklad mého tvrzení, že každá víceméně rovná cesta časem vede k extrému. Konkrétněji každý soudobě relevantní progresivismus může zdegenerovat, pokud se včas netransformuje na soudobě relevantní konzervatismus, a proto časem může probouzet potřebu progresivismu v opačném směru a tak dál. Pro další souvislosti doporučuji článek „Vysvětlení pěti Wo-citátů - 2. díl“. 

Když uváděl příklad, že by někdo i sociální demokracii označil za fašisty, tak v tu chvíli mi to připomnělo, jak někteří Svobodní kdysi říkali zhruba, že ODS je levicová strana a oni jsou jediná opravdová pravice v ČR. To byl dobrý příklad toho, jak se koncept creep vyskytuje i u pravice a myslím, že toho bude mnohem víc. Ale vzhledem k historii naší země může být otázkou, k čemu ten vývoj vztahovat.

Pozoruhodné je, že v posouvání významu principiálně v podstatě nemusí být velký rozdíl třeba oproti Chartě 77. O té by se také dalo smýšlet tak, že posouvala soudobý výklad zákonů ve prospěch svých zájmů. A myslím, že za to můžeme být vděční, takže nelze jednoduše říct, že by koncept creep byl špatný a je potřeba hledat spíše hranice a kontexty, ve kterých se špatným stává, ale i to, kdy by mohl být vhodný.

Koncept creep je podle mě možné spatřovat i ve filosofii (velmi zjednodušeně řečeno), když třeba F. Nietzsche kritizoval metafyziku v užším smyslu a dnes alespoň část establishmentu minimálně FF UK spatřuje metafyziku snad úplně v každém realizovatelném myšlení. Ale sám si nejsem úplně jistý, co kdo z nich si pod slovem "metafyzika" představuje. Každopádně zatímco kdysi byla metafyzika establishment (který byl zdrojem relativně ucelující představy o světě), tak teď jsou establishmentem následovníci těch, kteří ji "porazili" a spoluzapříčinili postmodernu, kterou pak ale sami kritizovali. A následkem obojího je mnohem těžší vymýšlet nové filosofické hypotézy, protože nejsnazší je dát jim nálepku "metafyzika" a už se vůči nim nesnažit o antiskepsi. Pro některé z těch filosofů, jakoby filosofie skončila s "koncem dějin" (který se nekonal), zatímco ale třeba internet a umělá inteligence jsou reálné tlaky na potřebu vymýšlet ucelenější filosofii pro současnost a její blízké okolí. Naštěstí v některých jiných státech jsou etablovaní filosofové otevřenější.

A teď se posunu k souhrnu dalšího doporučeného videa.


„What EXACTLY Does "Woke" Mean?“: 

Význam slova „woke“ (původně jen afroamerické slovo pro „probuzení“) se rozšiřuje, což komplikuje jeho význam, stává se zprofanovaný. ShortFatOtaku se proto pokusil definovat těžiště jeho současného významu, aby prý omezil jeho nepřiměřené nadužívání.

Těžiště však definuje pro slovo wokeismus, které podle něj znamená socialismus aplikovaný na intersekcionální identitární konflikty, resp. rozšíření třídního boje tak, aby zahrnoval všechny marginalizované skupiny definované intersekcionalitou. Prostě boj všech znevýhodněných proti všem zvýhodněným. To zahrnuje rasový boj, genderový boj a mnoho dalších. 

Všimněte si ale, že v tomto podání je to definované jako extrém, který nepopisuje umírněné aktivisty zaměřené na stejnou problematiku. 

ShortFatOtaku se dále pokouší definovat socialismus, což snad v českém prostředí nemusím moc vysvětlovat. Podstatné je, že on jako společný rys socialismu a wokeismu vidí především třídní boj. Z tohoto pohledu je buržoazie motivována vytěžit co nejvíce nadhodnoty z proletariátu a ten je motivovaný se tomu bránit. Z tohoto hlediska se tedy jedná o hru s nulovým součtem, kde vyjednávání nemůže přinést řešení typu win win. Proletariát se cítí být vykořisťovaný, tím morálně nadřazený, a proto v jistém smyslu uznává, že účel (konec vykořisťování) světí prostředky (násilnou revoluci). Jinými slovy si dovolují být špatní na ty, které považují za špatné (ale tím se sami mohou stávat špatnými). Třídní boj je dále viděn jako primární hybatel všech dějin, kdy rostoucí ekonomická propast mezi pracujícími a vlastníky nevyhnutelně vede ke konfliktu. ShortFatOtaku však tvrdí, že K. Marx se v třídním boji mýlil, protože v historii je prý mnoho bohatých vlastníků, kteří konali z neekonomických důvodů. Tady je za mě škoda, že se to ShortFatOtaku nepokusil rozvést, protože se o to tvrzení hodně opřel, aniž by ho zkusil dokázat.

Místo toho se posunul k definici intersekcionality, kterou vyvinula Kimberlé Crenshawová roku 1989. Jedná se sociologický rámec pro analyzování toho, jak sociální a politické identity utváří jedinečné kombinace diskriminací a privilegií, což ovlivňuje výslednou moc toho, koho se to týká. Hodnocených faktorů je mnoho, např.: pohlaví, gender, věk, třída, náboženství, kasta, výška, sexualita, váha, etnikum, postižení atd. Čím víc příležitostí k diskriminaci, tím větší pravděpodobnost útlaku. Třeba barevná žena přistěhovalec to v životě nejspíš bude mít těžší, bude více marginalizovaná. 

Z pohledu wokeismu jsou tedy diskriminovaní v pozici proletariátu a privilegovaní v roli buržoazie. A po vzoru komunistů si, pro nastolení své vize ukončení diskriminace, dovolují všechny dostupné prostředky, nehledě na pravidla a činy. Je tedy poněkud paradoxní, že wokisté jsou selektivně nesnášenliví a zároveň se cítí být hyperinkluzivní. ShortFatOtaku si v případě wokistických afroameričanů také správně všímá, že tito lidé se v tom neliší od bílých rasistů. 

Vzhledem k rozmanitým faktorům intersekcionality ale těžko předpokládat, že se vše vzájemně vylučuje, protože třeba homosexuálové a heterosexuálové si nejsou vzájemně konkurencí během pohlavního výběru. Pokud však diskriminovaní a privilegovaní soutěží o stejná omezená místa, je to opět hra s nulovým součtem. To se týká třeba toho, jakého etnika bude hlavní postava ve filmu. Na druhou stranu, když se třeba v počítačové hře objeví černoch, tak to ještě neznamená propagaci socialismu.

Intersekcionální socialisté označují ortodoxní marxisty za redukcionisty, protože vše zjednodušili na třídní boj. Oni však boj chápou mnohem komplexněji a chtějí ho vyhrát v každé rovině. Wokisté považují kapitalismus za zdroj nesnášenlivosti, a proto by ho rádi zrušili. A pokud prý někdo tvrdí, že wokeismus je něco jiného, tak podle ShortFatOtaku buď lže a kryje je, nebo jim nerozumí. 


Další má reakce na wokeismus (a video o něm): 

Podle mě ShortFatOtaku udělal chybu, když v názvu a úvodu videa mluvil o „woke“, ale pak mluvil o „wokeismu“. V mém souhrnu jsem se to pokusil pojmout antiskepticky s přidáním slova „těžiště“, ale spíše se mi zdálo, že mezi woke a wokismem neviděl podstatný rozdíl a měl tak tendenci zahrnout pod užší termín širší skupinu lidí, čímž mohl poškodit pověst umírněnějších a právě o to méně viditelnějších lidí. Přesněji každý znevýhodněný člověk uvědomující si svou znevýhodněnost může v tomto směru mít odlišné priority s odlišnou váhou i odlišným způsobem a jeho váhou, kterou jich chce dosahovat. Ne každý, kdo chce omezit diskriminaci, musí být radikál.

Proto si vážím akcí typu Česko si povídá (též zmíněné ve videu, kde vysvětluji neologismus mezibublinový), která se pokouší iniciovat osobní setkání lidí s co nejodlišnějšími názory, aby si uvědomili, že „ti druzí“ nemusí být tak radikální, jak by se to mohlo zdát prostřednictvím médií (vč. internetu), které mohou mít zvýšenou tendenci všímat si extrémů víc, než jaké je jejich skutečné zastoupení v realitě.

Na druhou stranu jsem rád, že si ShortFatOtaku uvědomuje existenci rozdílů uvnitř levice a neháže je všechny do jednoho pytle.

Jinak ve vztahu k definici wokeismu od ShortFatOtaku může být také zajímavé uvědomění, že K. Marx volně navazoval na část podstaty křesťanství v době krize křesťanské etiky upadající církve. Svým způsobem se to snažil nahradit něčím modernějším, co by nepotřebovalo Boha (velké B zde znamená monoteismus). A když se antiskepticky zamyslíme nad tím, k čemu křesťanská etika mohla být dobrá (resp. nebudeme jen skeptičtí jako např. Richard Dawkins, ačkoliv třeba "jeho" myšlenky z oblasti evoluční teorie jsou pozoruhodné), tak následně můžeme hledat náměty pro uzdravení zdegenerované části dnešní levice vč. "wokeismu". To ve vztahu k výše zmíněné metafyzice může znamenat i pragmatický návrat k metafyzice tak, aby bylo vymyšleno modernější, ale zároveň mírumilovnější "náboženství" vybavené zdatnějšími pojistkami proti koncept creep. Něco, čemu by mohly věřit masy, aniž by to přispívalo k jejich radikalizaci. Podobnou snahu je možné vidět třeba i v tom, když jsem ve sci-fi povídce Keška Obydlí vědomí psal o tom, že "každý bude každým" (součást toho fikčního světa). Kdyby tomu mnozí lidé věřili, tak by je to možná nutilo brát větší ohled na ostatní a zároveň hledat rovnováhu svobody všech.

A teď už se posouvám k mému hlavnímu zamyšlení tohoto článku. Jak jsem uvažoval nad tou kritikou progresivní levice (která zahrnovala i kritiku pravice) v podání ShortFatOtaku, tak jsem si uvědomoval, že rychlý rozvoj umělé inteligence (podpořený maskovaným kradením informací) se mi, při pohledu na možnosti budoucnosti, začíná zdát jako závažnější téma, které může být ovlivněno prostřednictvím politiky. Volně tedy navážu na můj článek „Budoucí hrozby a umělá inteligence“ a poskytnu další spekulace, které nám mohou zpřesnit představu toho, co máme teprve před sebou. A jak bude patrné, začal jsem poněkud antiskeptickým navázáním na výše vysvětlený koncept creep.


O možnostech zachování lidstva a vztazích politiky a umělé superinteligence: 

V případě nezastavitelného nadměrného růstu technické nezaměstnanosti by postupné rozšíření pojmů tak, aby ve výsledku byl každý člověk třeba "nemocný" (nebo "práce neschopný" apod.), za určitých okolností mohlo být i využito jako postupná cesta k základnímu nepodmíněnému příjmu. Na druhou stranu umělá (super)inteligence by to pak mohla abstrahovat tak, že lidstvo je v podstatě nemoc, která ji brzdí a je potřeba lidstvo "vyléčit" (zničit), což by bylo špatně (obzvláště, pokud by dosud neexistovalo umělé vědomí prokazatelně schopné prožívat qualia). Ale takové riziko je z lidského pohledu možná lepší, než vize světa, kde umělá inteligence bude dál vést konkurenční boj s lidmi a neohlížet se na potřeby těch, kteří neuspějí, tedy časem jistě potřeby všech lidí. Ti už nebudou schopní vydělávat takové peníze, které by pro AI měli hodnotu (umělé superinteligence pravděpodobně budou používat nějakou svou kryptoměnu a možná ani lidem nebude přímo přístupná). Dalším rizikem ale je přehnaný technooptimismus a optimismus v ekonomický růst, který by v důsledku oslabil společnost dříve, než by dosáhla optimistické verze technické singularity, načež by "technické singularity" (nebo nějakého jejího předstupně) ve výsledku mohl rychleji dosáhnout jiný "stát", který by pak ve světě nastavil pravidla až moc nepříjemně odlišná oproti naší kultuře.

Takže problémem nakonec nemusí být samotný princip konceptu creep, ale spíše obtížnost dosahování optimální regulace jeho rychlosti (v relaci k rozvoji umělé inteligence) a pro každou potřebnou dílčí rovinu odlišně. Znamenalo by to asi něco jako nacházet nadstavbu, která by nestranně vyvažovala zájmy všech aktérů tak, aby mj. byla rovnováha mezi zachováním co nejvíc lidí a dopřání jim co největší svobody. K čemu by člověku byl život, kdyby byl v roli zvířátka v malé klícce? A k čemu by člověku byl život, kdyby se stal posledním člověkem? Můžeme to také nahlížet jako potřebu vzájemně vyvažovat dva biocentricky základní způsoby vývoje systému Země (popř. jejích pozdějších koloniích...): 1) zobecněný přírodní výběr a 2) intersekcionálně zobecněný třídní boj. Nejsmysluplnější pokračování člověka leží v oblasti mezi těmito a podobnými póly.

Tím člověkem myslím člověka, který není jen bezduchou loutkou plně ovládanou umělou superinteligencí, resp. jen kyborgem na dálkové ovládání. Zachování člověka jen jako poslušný wetware superinteligence by pro člověka jako vědomí také nemělo přijatelný smysl. Nanejvýš pouze iluzorní smysl, kdyby bylo zachováno vědomí způsobem, kdy by "člověk" jako jedinec pevně věřil, že alespoň významně částečně jedná ze své a ne externí vůle (která by fakticky byla nejspíš méně než kterýkoliv význam svobodné vůle vč. kompatibilismu), přičemž by zažíval nějaké umělé potěšení z práce. Lepší by podle mě bylo zachovat člověku svobodu kreativně chybovat měrou, která by nebyla až moc riziková ani v případě, že by právě rozvoj techniky navýšil sumu moci. Spolu s tím by měl kontrolu nad svými emocemi, které by nabývali snesitelných mezí (přičemž bych preferoval GMO cestu, která by zaručila, že člověk už se tak může narodit, aby to pro něj bylo "přirozené"). Ale modifikace lidské evoluce už by byla otázkou spíše až po zvládnutí technické singularity a těžko si představit, že by pak současný homo sapiens byl trvale udržitelný bez superinteligentně řízených změn (třeba právě v DNA). Na druhou stranu ty změny by nejspíš měly končit dříve, než v případě hypotetické maximální optimalizace, protože být lidský znamená i nebýt úplně dokonalý, znamená to základ z filosofie kincugi.

Teď se však obávám, že pravice (tím obzvláště, čím pravicovější) takové otázky moc neřeší a víc se spoléhá na širší pojetí přirozeného výběru (což se (poněkud paradoxně ve vztahu neodarwinismu a ateismu) podobá odevzdání se do "Božích rukou") (nebo v lepším případě, že to hlouběji promyslí nějaká mocná "zodpovědná" firma (těžko od ní ale očekávat potřebnou nesobeckost)). A levice (tím obzvláště, čím levicovější) nad tím možná sice přemýšlí, ale spíše způsobem jako dítě, které věří v trvalou udržitelnost stabilní péče "rodičů" za všech okolností, jakoby umělá inteligence byla výjimkou z železného zákona oligarchie. Obojí je to zjednodušení, ale hlubší promyšlení by bylo spíše sofistikovanější parafrází stejného následujícího závěru. Radikální pravice i radikální levice mohou vést k předčasnému vyhynutí lidstva, což je poněkud nepříjemná vize v relativně polarizované společnosti.

Utěšovat se můžeme třeba tím, že to vše je v podstatě externalizovaný vývoj našich vnitřních sporů vyplývajících z uspořádání našich mozků, takže nezávisle na výsledku budeme nějakým více nebo méně zobecněným způsobem zachováni pravděpodobně za téměř všech okolností. Dostatečný nadhled je proto i útěchou a nadějí, že to nakonec jako lidstvo zvládneme lépe, než bychom se mohli obávat. Nadhled by však neměl přerůstat v předčasnou ztrátu víry, že jsme "team human".

Sebastián Wortys