pátek 28. února 2025

Martin Heidegger jako špatný i dobrý?

Mezi mnoha podněty, které mě vedly k napsání různých částí článku „Dystopie a utopie umělé superinteligence“, se vyskytla i zkušenost s člověkem, který se zajímal mj. o německého filosofa Martina Heideggera (26.09.1889 - 26.05.1976). Zjednodušeně by se dalo říct, že jsem byl svědkem události, kdy člověk A řekl, že čte něco od Martina Heideggera (protože má obavy z nedostatečně kontrolovaného rozvoje umělé inteligence, tj. určité technologie), později se člověk B (od člověka C) dozvěděl jednu ze svých prvních informací o Heideggerovi a to sice, že vstoupil do NSDAP (což se člověk C snažil rozvíjet, aniž by se pokusil komplementárně doplnit něco pozitivního), načež člověk B začal podezírat člověka A, že tíhne k fašismu, což považuji za nešťastnou generalizaci (částečně podobnou mj. efektu Milkshake Duck) vzhledem mj. k tomu, že lidé A a B k sobě byli původně přátelští a ve spoustě věcí si rozuměli. 

V návaznosti na tuto událost jsem napsal text (základ tohoto článku), kterým jsem chtěl člověku A vysvětlit, že Heidegger je složitě kontroverzní, přesněji svým způsobem byl špatný i dobrý zároveň. K tomu je ale nutné dodat, že se dnes nepovažuji za odborníka na Heideggera a jeho filosofie by byla pro člověka A nestravitelná, takže jsem se pokusil vyhnout všem pojmům typu Dasein nebo "bytnost bytí" ("Bytnost bytí není sama bytím.") (něco málo však, v této rozšířené verzi, bude zmíněno). Proto je následující text o Heideggerovi velmi zjednodušující a měl by být chápán spíše jako specifický úvod, který by neměl být jediným zdrojem při utváření názoru na život a filosofii tohoto myslitele, pokud ovšem uznáme za vhodné v tomto směru bádání nějak pokračovat. Lepší může být zájem o myslitele, kteří se apoliticky věnují fenomenologii a jasně se se distancují od antisemitismu, ale já se musel zajímat o Heideggra, abych zkusil rozsoudit člověka A a B. 

Obzvláště dnes (2025) je nutné zdůraznit také, že interpretaci výstupů jedné osoby nelze zaměňovat za interpretaci výstupů nějaké druhé osoby, která na tu první částečně navazuje (což znamená i částečné odchylování). Najdou se totiž lidé, kteří si z Heideggera berou to nejhorší, ještě víc to zhorší a od toho je potřeba se distancovat. Heideggerova filosofie nám může napovědět spoustu užitečných myšlenek o individuální autenticitě (ačkoliv to vyžaduje i kritický přístup), ale na druhou třeba jeho pozdější pojetí dějin je převážně nebezpečné. Problematické může být i to, když někdo začne velebit neautenticitu (bez vyvážené komplementarity s autenticitou), což může vést třeba ke skrytému narůstání nějakého problému s nečekaně náhlým a silným projevením. 

Rád bych také zdůraznil, že to, co mě nakonec (v individuální rovině (v kolektivní rovině šlo o urovnání vztahu člověka A a B)) vedlo k prohloubení zájmu o Heideggera, nakonec nebyla tolik vidina, že bych na něj mohl navázat něčím dobrým, co by v mé filosofii dosud nebylo (nebo ne dostatečně), ale mnohem spíše naopak vidina, že bych v jeho filosofii našel to, co by ve výsledku mohl být dobrý argument proti nějaké části mé filosofie (nebo podobě té části), abych se v tom ohledu mohl vhodnou měrou vzdálit od své dosavadní filosofie, jak už jsem několikrát udělal, když jsem narazil na dobrý argument. Ale už takový přístup, vyznačující se otevřeností k možnosti "částečného vykořenění v zájmu osobního rozvoje", můžeme považovat za něco (alespoň částečně) vzdáleného Heideggerově filosofii. Zároveň to však není tak velká otevřenost, že bych třeba vážně připouštěl možnost zničit všechny mé dosavadní výtvory a začít nějakou radikálně jinou filosofii. 

Aby to bylo lépe pochopitelné, tak už považuji za vhodné pokusit se nastínit nějaké nestranné stručnojasné vyjádření těžiště jeho filosofie. Podle mě se Heidegger snažil o nadčasové uchopení toho, co by mohlo být společné pro autenticitu všech lidí, alespoň v jeho zemi (aby to pomohl uchovat pro budoucnost navzdory bouřlivosti své doby), přičemž se snažil vyjadřovat poměrně velmi obecně, aby to bylo tvárné a tím otevřené mnoha různým podobám autenticity v rámci určitější než neurčité "zakořeněnosti". Velmi zjednodušeně by se dalo říct, že Heidegger dospěl k názoru, že člověk by svou autenticitu měl zakládat na "okolnostech" svého vzniku, které ho prostupují i přesahují, načež by, s vědomím vlastní konečnosti, neměl žít jen izolovaně sám pro sebe a svou současnost, ale spíše primárně by měl žít pro své časoprostorové sebepřekonávání, aby tak vytvářel hodnoty, které budou hodnotné i pro jiné lidi (a navíc i jejich společenství), včetně těch v budoucnosti. V tom je pravděpodobně velký podíl ušlechtilosti, ale problémem je mj., že "postupem času" převážně tíhl ke stále jednostrannějšímu pojetí takové filosofie, čímž se vzdaloval zdravé komplementaritě. 

Ale jednoznačně odmítnout tu "autenticitu k sebepřesahování" jen na základě některých nevhodných okolností, by bylo podobně absurdní jako odmítnout být vegetarián čistě z důvodu, že Hitler nejedl maso. Na základě stejné pseudologiky by se dalo tvrdit, že Hitler dýchal vzduch, pil tekutiny a chodil oblečený, takže "správní lidé" by měli změnit svůj metabolismus na anaerobní, přestat pít vodu a začít chodit úplně nazí, aby "nebyli jako Hitler", což je jasný nesmysl, protože dýchání vzduchu atd. nejsou ty aspekty, kterými Hitler byl extrémně špatný, špatný byl třeba svou vinou za holokaust. Kdo by zkoušel ne doplňovat, ale oponovat způsobem, že by bylo lepší, aby Hitler přestal dýchat dříve než se stalo, ten by tím o vegetariánství dokázal mluvit pouze na základě chybného sémantického rozšíření. V případě autenticity k sebepřesahování je potřeba rozlišovat dobrou "ohleduplnou autenticitu" od špatné "bezohledné autenticity". 

Chybou dále bylo, že Heidegger tíhl k jakési čistotě myšlení, jakoby zapomněl, že taková čistota nebyla součástí jeho rodné "vrženosti". Sice by se dalo antiskepticky spekulovat, že navazování a rozvíjení mohl chápat jako očišťování, ale skepticky se ukazuje, že rozvíjení východiska zdaleka není jen čištění od některých částí východiska (přestože to ohleduplně svobodomyslným způsobem může být dílčí součástí), ale třeba i zpřesňování, reflektování ve vztahu k realitě a dokonce i propojování s tím, k čemu by se takové rozvíjení větvilo, což může být v komplementaritě se zakořeněním (alespoň v některých pojetích). 

Chybou také bylo, že Heidegger implicitně tíhl k představě, že budoucnost ospravedlňuje přítomnost, aniž by tomu ospravedlňování nastavil jasné limity, které by dostatečně chránily přítomnost. Naopak spíše věřil v takový osud, kdy se musí stát nějaký strašný převrat ("úder bytí do zatvrdlého jsoucna"), aby pak mohlo přijít něco lepšího a delšího (čímž je schopen omluvit téměř cokoliv), zatímco hrůzy dvacátého století nás naučily preferovat spíše postupné reformy. Možná chtěl být poblíž něčeho časoprostorově velkého, aby se jeho filosofie zaryla do kolektivní paměti, což může mít jak sobeckou, tak ušlechtilou stránku. 

Heidegger zdůrazňoval mj., že člověk je primárně společenský tvor (soběstační poustevníci jsou spíše výjimky), ale na druhou stranu jsme se pak z historie poučili, že i důraz na kolektivismus se dá přehnat. 

Zkusím to ale pojmout víc popořadě, jak se to zhruba dělo. Heidegger měl pocit, že vlivem tehdejší filosofie se jeho společnost rozpadala na znepřátelené jednotlivce, kteří se nenáviděli navzájem, neuměli spolupracovat a propadali úpadku duchovna. Proto vymýšlel filosofii o Bytí, která by to měla řešit, přičemž by lidem podsouvala duchovno a jeho lásku k přírodě v pojmech, které nebyly považována za duchovní. 

Pro většinu lidí té doby byl nacionální socialismus něco nového nevyzkoušeného, k čemu upínali své naděje na lepší svět a on ho chtěl naočkovat svým Bytím, aby hodně změnil způsob, jakým se to mělo stát, ale neuspěl. Svůj naivní vstup do NSDAP (který mu pomohl stát se rektorem univerzity) chápal jako příležitost, jak za rozhádanost společnosti převzít zodpovědnost a jednotlivce učit spolupracovat. Naivní to bylo v jeho víře, že dokáže příznivce a příslušníky NSDAP přesvědčit, aby následovali jeho a ne tak Hitlerovo myšlení, ačkoliv se velmi vyhýbal tomu, aby říkal něčí jméno nebo slovo "Židé". Heidegger velmi tvrdě kritizoval, aby spolupráce lidí fungovala jako nějaká masa, kde by lidé mysleli způsobem "to se tak prostě dělá" nebo tupohlavě plnili rozkazy, se kterými by se neztotožňovali ve své autentické přirozenosti. Zároveň byl však namyšlený v tom, že byl tak velké role hoden a především, že ji zvládne. 

V době vzestupu fanatismu v jedné z přednášek studentům implicitně říkal, že největší nepřítel není venku, ale "v hlavě Němců" (což může být jedna z možných interpretací "nejvnitřnějšího kořenu Daseinu německého lidu" (der innersten Wurzel des Daseins eines Volkes), který je předmětem spekulací), přičemž explicitně zdůraznil, že boj prý jen minimálně spočívá v mlácení se navzájem. To by se možná dalo chápat i jako pokus změnit zaměření tehdejší xenofobie tak, aby místo násilí vedla studenty k hluboké sebereflexi (slovo "nepřítel" tak nabývá významu "naše duchovní odcizení"). Místo aby šel přímo proti studentům postiženým dobovou náladou (kteří by pak byli proti němu), tak je zdánlivě podpořil, čímž si mohl získávat jejich důvěru, takže mohl posouvat zaměření jejich pozornosti od znepřátelenosti k něčemu velmi niternému ve snaze o překonávání izolující rozhádanosti společnosti, tj. v komplementaritě s jeho pokusem o překonávání metafyziky (ale i odepírat někomu určité aspekty způsobu jejich myšlení nebo života může být klasifikováno jako druh vážné xenofobie). 

Zároveň však říkal, že lidé potřebují jakoukoli formu nepřítele, aby nezdegenerovali, což mi hodně připomíná "citáty" (smazané jistým wikipedistou s odůvodněním "odstraněny nesmyslné z kontextu vytržené výkřiky z jedné zprávy") z publikace The First Global Revolution, které byly do roku 2018 na české Wikipedia stránce think tanku Římský klub, kde se psalo mj.: „Trik spočívající v hledání obětních beránků je starý jako lidstvo samo – když se domácí situace stane obtížnou, odvést pozornost k hrozbám z vnějšku. Sjednotit rozdělený národ proti vnějšímu nepříteli, ať už skutečnému, nebo k tomu účelu vymyšlenému.“ Ať už byl kontext jakýkoli, podobnost je nemalá. V obou případech bylo slovo "nepřítel" nejspíš užito jako metafora: zatímco Heideggerův nepřítel byla metafyzika, v První globální revoluci bylo navrženo globální oteplování jako to, proti čemu by se lidé mohli sjednotit, přičemž to nejspíš bylo míněno jako skutečně existující nebezpečí. 

Otázkou může být, jaký byl primární důvod toho, že Heidegger posouval význam slova "nepřítel": chtěl studenty nasměrovat spíše ke své filosofii, nebo spíše odvést pozornost xenofobů od Židů? Samozřejmě to (samo o sobě) může být v komplementaritě (a vyloučit se nedá lehce ani téměř všestranný antisemitismus, což je běžný výklad), ale to ještě nemusí znamenat její symetričnost. Osobně se domnívám, že to první pro něj bylo důležitější. Navíc je potřeba uvědomit si, že o tom nepříteli "v hlavě Němců" přednášel tak obecně (vztahoval ho k "nejvnitřnějšímu kořenu Daseinu lidu", který možno chápat i jako (domnělou) "hlubokou duchovní podstatu Němců")), že to určitě spousta studentů nepochopila správně a mohli si pod tím představovat i Židy ("kdo" místo "jak"), kteří tehdy v Německu byli běžně vykreslováni jako nepřátelé. Důležité je také uvědomit si, že člověk mívá přirozenou tendenci rozlišovat na "my a oni", která nám kdysi pomáhala přežít, ale dnes bychom v něčem takovém měli být opatrnější a víc to reflektovat. Paradoxem třeba je, že o tom, zda spolu lidé spolupracují, nebo bojují, velmi rozhoduje to, zda vůči sobě mají strach, spíše než to, zda je jeho míra dostatečně oprávněná vůči faktům nebo možným společným zájmům. Samo hledání nepřítele se může stát nepřítelem. 

Pozoruhodné také je, že kdyby něco takového Heidegger mohl říct dnes nebo v blízké budoucnosti, tak by se dalo spekulovat o interpretaci varování lidí, aby nezapomněli, že jsou team human, kdyby nastala válka mezi lidmi a stroji (jako střet různých způsobů bytí ve společném světě), se kterými jsme už v poměrně úzkém propojení a očekává se, že nám pravděpodobně budou dál pomáhat (snažme se, aby se tak dělo co nejdéle) a pak nás nějak nahradí (předem nejasnou rychlostí a způsobem). Možná doufal (navíc v situaci, kdy Čapkovo drama R.U.R. existovalo přes deset let), že když si lidé uvědomí možné hrůzy technologií, tak je to odradí a zkusí se vrátit k přirozenějšímu způsobu života a zavedení jakési technologické prohibice, ale to by mohlo být podobně šílené jako svět, kde by se umělá superinteligence pokusila o puč. 

Každopádně Heidegger kritizoval roztříštěnost vysokých škol na mnoho specializovaných oddělených oborů a svou filosofii považoval za prostředek opětovného spojování, ale na druhou stranu také prosazoval silnou autoritu profesorů nad studenty, což byl také určitý aspekt nacismu. 

Jako rektor (vydržel jím jenom rok) sice nedával stipendia (finanční příspěvky) židovským studentům a přijal další jejich omezení (jak od něj očekávali vládnoucí nacisté (ne však ti profesoři, kteří byli antinacističtí)), ale na druhou stranu třeba zakázal vyvěšování portrétů Hitlera, bránil vylepování protižidovských letáků nebo kupování nacistických knih univerzitou. Chránil v knihovně knihy i židovských autorů a studentům zakazoval pálení knih, avšak oni to občas dělali navzdory jeho zákazu. Někteří jeho studenti a přátelé byli Židé a některým aktivně pomohl, třeba s emigrací, ale někteří lidé si myslí, že mohl vzdorovat víc. 

Jenže i kdyby chtěl svou angažovaností obrátit nacionální socialismus k pozitivním vizím, tak se jím dost možná částečně "nakazil". Třeba až moc věřil, že sobě blízcí lidé spolu umí lépe spolupracovat a je možné, že ve jménu toho přehlížel něco z toho, co se kolem něj dělo. Problematické také je, že věřil na osud a že vše špatné, co se v jeho době dělo, bylo nevyhnutelně nutné, aby lidé dospěli k něčemu lepšímu (tím se moc nelišil ani od Židů). Pochybné je i to, že zastával čistotu myšlení, aby vše vyrůstalo z jedné podstaty (byť dějinně proměnlivé a neuniverzální) a nebylo to mixem mnoha nesourodých názorů (ať už by byly sebelépe integrované), takže je možné, že kdyby se dostal k větší moci, tak by místo vyhlazovacích táborů připouštěl převýchovné tábory (to je jen spekulace), což by bylo menší zlo, ale pořád by to bylo špatné. Víceméně chtěl donutit lidi, aby byli sami sebou, avšak v souladu s jeho filosofií, kterou považoval za přirozené východisko pro všechny. To neznamená, že by neměnil názory, ale že je vždy měnil v návaznosti na své duchovní pojetí Bytí. 

Problém dále je, že ve výsledku si představoval, že autenticita jednotlivců musí být řízena nějakým duchovnem Bytí (aby lidé nebyli znesváření), což může vést k vážné neautenticitě tím více, čím více je to zrovna definované. Důležité však je, že chybou je možná nedotaženost jeho vlastního myšlení, kdy chtěl opustit představu světa jako oddělených věcí a naopak zdůraznit, že vše je propojené a proměnlivé, ale z nejasného důvodu zachoval jakousi "abstraktní esenciální nutnost", kterou pak podmiňoval lidskou autenticitu na kolektivní úrovni, což může zakládat mezinárodní konflikty a narušovat individuální autenticitu místo toho, aby ji to umožnilo snáze se rozvíjet, jak je to snazší v otevřené participativní komunitě. Ve skutečnosti ten problém však dosud nikdo nedokázal vyřešit a jen se mění způsoby, kterými dochází k narušování autenticity členů nějaké společnosti. 

Už zhruba rok po vstupu do strany rezignoval na post rektora a začal příslušníky NSDAP kritizovat, že nepochopili, o co podle něj mělo jít. Stranu však nikdy neopustil (a po válce byla zrušena), protože to by nejspíš musel emigrovat, čímž by ztratil zbytek vlivu na Němce a zradil by své pojetí autenticity, protože v zahraničí by si připadal vykořeněný, zbavený návaznosti na svá přirozená východiska. 

Dál věřil v možnost nápravy nacionálního socialismu, ale zároveň víc kritizoval jeho provedení, protože si do něj projektoval příležitost duchovní obrody a smíření znepřátelených stran pod představou společného Bytí, které by navíc zabránilo vzestupu komunismu, čímž poněkud zaslepoval sám sebe, protože ho nenapadalo, že by nacionální socialismus mohl být od základu chybný. 

Zajímavé také je, že Heidegger kritizoval biologický rasismus a eugeniku (v jeho době odvážné, byl v nemilosti nacistů), ale na druhou stranu měl předsudky vůči všem, kteří základ světa chápali hodně jinak než on. Oproti nacistům se vyjadřoval velice umírněně a kritizoval ostatní inteligentní lidi, že se nesnažili umírnit nacismus a někteří jen nečinně přihlíželi. Později byl označen jako "zcela postradatelný" a povolán na zákopové práce. 

Po válce měl, v rámci denacifikace, zákaz přednášet, protože byl považován za nacistu, který se jen považoval za antinacistu. Mluvil mj. o ohavnosti plynových komor, ale na druhou stranu říkal, že nějaká neurčitá vnitřní vina je horší než vina za genocidu a banalizoval koncept kolektivní viny celého národa, přičemž si sám připadal nespravedlivě utlačovaný, ukřivděný. Také kritizoval, že Německo bylo po válce řízeno zahraničními silami, které z Německa dělaly podle jeho slov "koncentrační tábor", což je velmi kontroverzní tvrzení, které můžeme zkusit reflektovat, abychom nikomu nestranili. 

K tomu je potřeba uvědomit si mj., že Německo bylo, po své porážce v roce 1945, rozděleno na okupační zóny (americkou, britskou, francouzskou a sovětskou) a hlavním cílem vítězných mocností bylo potlačit opakování hrozby nacismu (což bylo v podstatě velmi oprávněné), kdy denacifikace probíhala prostřednictvím soudních procesů (Norimberský tribunál), vylučování nacistů z veřejného života a ideologické převýchovy. "Propaganda" vítězných mocností zdůrazňovala kolektivní vinu běžných Němců za holocaust a válečné zločiny, což vedlo k hluboké krizi jejich identity. Během toho Německo nesmělo mít vlastní vládu (ztratilo suverenitu) a bylo řízeno okupanty, přičemž obzvláště Sovětský svaz prosazoval tvrdé reparace (Němci museli platit obří odškodné) a přísnou kontrolu. Vítězné státy zpočátku prováděly systematickou likvidaci německého průmyslu, kdy mnohé stroje a patenty byly přesunuty do USA, SSSR a dalších zemí. Německo se tedy dostalo do hluboké krize, trpělo nedostatkem jídla, energie a základních surovin, přičemž na druhou stranu přicházely milióny uprchlíků. Spojenecké okupační síly měly zájem, aby situace byla stabilizována, ale zároveň nechtěly umožnit Německu rychlé zotavení. Jinak po válce se německý průmysl výroby bojových látek (s využitím starých zásob) rekvalifikoval na výrobu pesticidů a umělých hnojiv, s jejichž užíváním se začalo masivně experimentovat, což mělo negativními důsledky na zdraví a životní prostředí (znečištění, pokles biodiverzity), přičemž se jedná o stinnou stránku Zelené revoluce, u které se zmiňují spíše pozitivní stránky jako odvrácení hrozby světového hladomoru. 

Takže z pohledu negativních aspektů tehdejšího dění by mělo být jasné, proč Heidegger popsal poválečné Německo jako "koncentrační tábor", ale nebyla to přiměřená metafora, protože růst úmrtnosti Němců po válce se ani zdaleka nevyrovnal holokaustu, který způsobili, což vidíme s odstupem času pomocí statistik, což tehdy Heidegger nemohl, avšak to ještě neznamená, že by míra a způsob jeho distance od nacismu byl dostatečný v jeho době. Nejspíš právě vlivem toho, že k nějaké omluvě byl tlačen ostatními, zatímco jeho činnost za války a před ní byla zaměřená spíše na sjednocení lidí pomocí duchovního vedení (což se mu nepovedlo), tak se necítil být tím, kdo byl konformitou vůči Hitlerovi zodpovědný za hrůzy nacismu a považoval by za neautentické, kdyby se omlouval za někoho jiného vlivem cizího nátlaku, ale taková paličatost v takové době může ukazovat, že mohl nést nějaký nezanedbatelný díl viny, který však nebyl schopen reflektovat, aniž by si přihodil hlubokou krizi identity, o které věděl, vlivem Husserlova zkoumání, že může vést až k sebevraždě, která by navíc poškodila jeho filosofii. 

Mělo by být zřejmé, že skrze koncept kolektivní viny byli potrestáni viní i nevinní lidé (nevinní obvykle méně), což nebylo ideální, ale těžko si v té době představit nějaké výrazně méně radikální řešení, aniž by to zvýšilo šanci opakování světové války. 

Když Heidegger hledal, proč podle něj nacismus dramaticky selhal, tak vinil technické myšlení a "počtářství" a někteří lidé si myslí, že když kritizoval "počtářství", tak tím myslel Židy. 

Každopádně Heidegger se obával vlivu moderních technologií na lidi a chtěl, aby se Německo vydalo jinou cestou bez vlády technokratického myšlení. Například velmi ostře kritizoval mechanizaci zemědělství a používání pesticidů (tehdy mnohem jedovatějších), které devastovaly venkovskou přirozenost, což mu velice vadilo, takže byl předchůdcem ekologických hnutí a dokonce aktivistů, protože (zhruba od svých 33 let) spoustu času trávil v chatě u lesa v horách. 

Na druhou stranu to bylo v kombinaci s nějakým zvláštním "konzervatismem", který souvisel i s tím, že Heidegger chápal "svět" (např. Německo) jako princip otevřenosti a "zemi" (např. Rusko) jako princip uzavřenosti, přičemž příliš otevřenému světu hrozí vykořenění a příliš uzavřené zemi stagnace. Problematické je, že takové nálepkování států (obzvláště při spojování s vidinou nějakého dějinného osudu) se může závažně podílet na mezinárodních konfliktech a příliš jednostranných pokusech o řešení souvislých problémů, ať skutečných, nebo domnělých. Na druhou stranu rovnováha míry globalizace s mírou subsidiarity (případně autonomie, suverentiy, lokálnosti, deglobalizace atd.) zůstává velké téma dodnes. 

Heidegger už tehdy chápal Rusko jako příležitost zachování lidské "duchovnosti", "přirozenosti" a "zakořeněnosti" na planetě (možná s pomyšlením na jeho odlehlé končiny), přičemž Rusko dál zůstává převážně velmi ortodoxní a technofobní, což je jeden z hlavních důvodů, proč mnoha Rusům vadí Západní civilizace (a Rusové, kterým víc vadí Rusko, se z něj spíše snaží uprchnout). Heidegger mlhavě (ale správně) předpověděl (jak dnes můžeme přesněji říct), že Rusko se chopí role velmoci, která zkusí vzdorovat pokračování Moorovu zákonu (výpočetní rychlost a kapacita čipů roste exponenciálně), ale uvážíme-li, že během běžné délky lidského života se příslušné hodnoty čipů znásobí přibližně bilionkrát (zatím ten "zákon" funguje zhruba 50 let), může být udržitelnost takové role "exponenciálně vratká", pokud jednou umělá inteligence rozhodne využít třeba ruské zdroje surovin navzdory Rusku a lidé jí v tom nebudou bránit (pokud toho ještě budou schopní). (Pro mě, jakožto mj. "Čecha" nebo "Evropana", však zůstává zajímavé hledat něco na pomezí progresivního technooptimismu a konzervativního technopesimismu.) K tomu ruskému přístupu je potřeba dodat, že samotný rádoby konzervatismus přirozenosti neospravedlňuje totalitní společnost, která páchá zločiny proti lidskosti, dnes obzvláště na Ukrajině. Z tohoto pohledu je hlava Ruska (s trochou nadsázky) konstrukt především paranoidních ruských venkovanů, kteří se bojí, že rozvoj technologií a jiných novot v okolním světě krutě ohrozí nejen jejich způsob života ale rovnou život (navíc tento druh venkovanů obvykle neumí cizí jazyky), a proto dovolili vzestup konzervativního monstra, aby chránilo jejich tradiční usedlický způsob života. Proto také slyšeli na propagandistické reklamy, které lhaly, že ruská opozice chtěla prosadit zákon násilného integrování homosexuálních cizinců do každé ruské rodiny. 

Naštěstí (alespoň v západní civilizaci) dnes existují mezinárodní dobrovolnické organizace, které zájemcům z mnoha zemí umožňují vyzkoušet si různé práce nebo životní styly včetně venkovského, takže jakýkoli venkovan poptávající nějakou pomoc se může rozhodnout přijmout dobrovolníka z ciziny, přičemž sdílení životního stylu pomáhá léčit potenciální xenofobii té části venkovanů, kteří s tím získají zkušenost. Proto by mezinárodní cestování dobrovolníků nemělo být vnímáno jen jako ekologická zátěž nebo zbytečnost v době internetu. Internetem se šíří hlavně informace, ale zkušenosti nabývané reálným soužitím mohou různé lidi spojovat hlouběji. 

Ale zpátky k Heideggerovi, protože se mi zdá pozoruhodné rozvést "odvážnou" spekulaci (alespoň z části nejspíš chybnou a byla by zapotřebí hlubší rešerše), že skrytě mohl být trochu i na straně Židů, mj. abstraktně a způsobem, který byl ve velmi explicitní podobě popularizován třeba ve filmu Z Paříže do Paříže (2017), kde židovský otec fackoval svého nejmladšího milovaného syna, aby ho naučil chránit svou identitu před nacisty. 

Nejprve bychom si však mohli uvědomit, že Heidegger byl student Edmunda Husserla (Žid), kterému vděčil za své filosofické formování směrem k fenomenologii, kterou následně pojal svým vlastním způsobem. Z počátku si bili blízcí, ale později se mezi nimi objevily zásadní politické a filosofické rozdíly (mj. Husserl kladl důraz na epistemologii a Heideggra obviňoval z "psychologismu", avšak Jan Patočka v článku "Co je fenomenologie?" naznačil možnosti komplementarity jejich přístupů), které jejich vztah zkomplikovaly. Nacistické tlaky vedly třeba k tomu, že Husserl byl složitě vypuzen z univerzity, ale když se Heidegger stal rektorem, tak zrušil zákazy uvalené na Husserla, avšak nacisté si stejně našli cesty, jak Husserla utlačovat a Heidegger vstoupil do NSDAP ve snaze ovlivnit dění zevnitř. Po válce se Heidegger o Husserlovi vyjadřoval s úctou. 

Pozoruhodné je, že Heideggerova filosofie obsahuje některé aspekty židovské víry. Zatímco ve Starém zákoně se Židé vnímají jako "vyvolený národ" s jedinečným posláním a osudem, tak Heidegger v podobném duchu hovořil o Němcích. Židé i Heidegger očekávali zásadní obrat v dějinách (chápaných provázaně), kdy se těžké časy promění v lepší, přičemž Židé očekávali Mesiáše a Heidegger očekával příchod "boha" s malým "b". Židovské myšlení často bývá spojeno s pocitem odcizení (související se zkušeností jakési dezintegrace), což bylo i Heideggerovo téma, který ho spojoval s moderní technickou společností, kde je člověk odtržen od autentického vztahu k bytí (např. živá bytost se v silně technokratické továrně necítí být přijata jako živá bytost, ale spíš ohýbána jako stroj, dehumanizována), což je něco jako u Židů být "mimo pravý domov". Velkou otázkou pak je, nakolik jsou tyto a podobné spojitosti nevědomé (nereflektované), nebo záměrné. (Stranou zmiňuji, že téma odcizení v českém prostředí pozoruhodně zpracoval Franz Kafka, který mě také inspiroval.) 

Pravděpodobnější se mi zdá Heideggerova nevědomost, ale není snadné úplně vyloučit možnost, že byl skrytě režim podvracející a záměrně reinterpretoval některé vybrané aspekty židovské víry, aby je zabudoval do své duchovní filosofie (která z principu maskuje, o čem mluví, aby zdůraznil "jak" oproti "co") a umožnil jim tak přežít navzdory nepřátelskému prostředí nacismu, ba dokonce se svou filosofii (s výše zmíněnými židovskými aspekty) pokoušel vnuknout samotným nacistům, mj. prostřednictvím svého členství v NSDAP, aby to považovali za součást svého myšlení, ačkoliv by to odmítli, kdyby to nebylo formulováno jinými slovy. Už také byla řeč o jeho zákazu vylepování protižidovských letáků atd. To, že židovským studentům zamítl stipendia, by pak možná mohla být obdoba "facek" z toho filmu Z Paříže do Paříže (2017), kdy prostě vykázal, že proti nim nějak zakročil, ale neudělal to tak tvrdě, jak se od něj očekávalo, takže ve výsledku by se je mohl pokusit chránit způsobem, který by tak nevypadal (nezapomínejme však, že je to spekulace). Když se mu pak jeho snaha o implantování duchovna nedařila, rezignoval na post rektora univerzity. 

Dalo by se oponovat třeba otázkou: Pokud chtěl zachránit část židovského myšlení vědomě, proč na druhou stranu ve svých soukromých poznámkách psal o vykořeněných Židech jako o příčině technokracie? Možná prostě, v souladu se svou filosofií, odlišoval Židy, kteří byli zakotvení ve své duchovní tradici a rozvíjeli ji, od Židů, kteří sice měli původ v židovství, ale na úrovni názorů se "vykořeňovali" svou nadměrnou otevřeností technokracii (alespoň z jeho pohledu). Proto by zdůrazňoval mnohem víc kritiku moderních technologií než samotných Židů bez vazby na technický nihilismus, takže ve výsledku by mu nešlo o konkrétní typ lidí, ale o upřednostnění určitého způsobu přístupu ke světu, ať už který z nich zastával kdokoliv - nacisté, Židé, Německý lid... 

Tím, že se Heidegger nikdy veřejně nepostavil ani jako jasný podporovatel Židů, ani jako jejich jednoznačný odpůrce, vytvořil zvláštní ambivalentní pozici, která ho odlišovala jak od nacistů, tak od liberálních humanistů. A i kdyby část židovského myšlení integroval vědomě, tak by to možná ani po válce nechtěl přiznat z důvodu, aby jeho filosofie nebyla redukována jen na to, čím by se podobala židovství. Naopak tím, že si zachoval kontroverzní postavení, tak ponechal zvýšenou pravděpodobnost, že právě tím se jeho filosofie dlouhodoběji zaryje do dějin. Ale ať to bylo jakkoliv, těžko se zbavit obrazu, že Heidegger se nějak (spíše částečně) zpronevěřil své filosofii. 

I kdyby nechtěl být proti všem Židům (ale spíše proti nějakému způsobu života, který považoval za neautentický (považoval ovšem ze svého pohledu, který navzdory obecnosti nejspíš nepostihl rozmanitost autenticity)), tak v silně antisemitcké zemi by muselo být těžké permanentně udržet třeba svou distanci od biologického rasismu v každodenním životě. To by mohlo znamenat, že občas sklouzl k některým negativním dobovým stereotypům, i když by se s nimi nikdy zcela neztotožnil. Pravděpodobnější (než skryté podporování části Židů nebo některých jejich aspektů) však podle mě je, že Heidegger byl "osamělý" myslitel, který se pokusil pozměnit nacismus, ale selhal a později se do něj zapletl víc, než by (původně nebo nakonec) chtěl. 

Na druhou stranu (oproti zpochybnění Heideggerova údajného antisemitismu) lze odvážně spekulovat i o tom, že Heidegger mohl (v některých rovinách) vědomě přispět k vyhrocení situace, aby se stalo něco tak hrozného, od čeho by se nakonec všichni chtěli už na vždy distancovat, čímž by mohl očekávat příchod nějakého lepšího světa, resp. ukončení chronického opakování konfliktů (což se každopádně nestalo, přesněji po řadě desetiletí se válečný konflikt do Evropy vrátil a to ze strany země, kterou považoval za ztělesnění uzavřenosti). 

I spekulacemi o Heideggerově povaze se dá cvičit přemýšlení, ale to ještě neznamená, že bychom něčemu z toho pak museli vyloženě uvěřit. Někdo by mohl namítat, že když se ani sám nepovažuji za experta na Heideggera, tak bych o něm nic svého neměl psát a měl bych jen čistě přejímat oficiální informace (které je potřeba brát v úvahu při přemýšlení o mnou nastíněných spekulacích), avšak podle mě by nemělo být považováno za problém to, když lidé zkouší přemýšlet, ale spíše to, když některým závěrům (nebo dokonce mezizávěrům) svého přemýšlení přisuzují znatelně vyšší váhu, než jakou si zaslouží, resp. se dopouští nedostatku sebekritiky. Situace, kdy by lidé přejímali informace pouze z nějakého centra (bez vlastního podílu na interpretaci), může být v sumaci výsledku podobně nebezpečná, jako kdyby jen rádoby přemýšleli bez vztahu k realitě, a proto upřednostňuji komplementaritu oficiálních informací se samostatným přemýšlením, obojí doplněné důrazem na uvědomování si specifických limitů těchto zdrojů informací, přičemž tyto limity, ve zdravé společnosti, bývají větší spíše na individuální úrovni. Otázkou tedy je i to, která společnost a za jakých okolností byla/je nakolik zdravá a kdo a nakolik to může zjistit, když člen společnosti také může mít příznaky nezdravosti (té nebo odlišné). 

V souvislosti s tím vším mě napadá poučení, které považuji za komplementární s tím, když občas píšu o časoprostorové dalekozrakosti. Někdy k chybám vede krátkozrakost, jindy halucinování časoprostorové dalekozrakosti. To znamená, že bychom se neměli ani přehnaně upínat jen na současnost ("žít, jakoby zítřek neexistoval"), ani jen na jednu z možných představ o vzdálené budoucnosti (což je riziko selektivního výběru), ale měli bychom si uvědomovat, že s tím, jak se naše představy vzdalují tomu, co se nám zrovna ukazuje "nejzřetelněji" (a to i pomocí vědy), tak klesá pravděpodobnost těch představ, obzvláště ve směru budoucnosti, a proto je potřeba mj. zvažovat víc různých scénářů zároveň a neulpívat na žádném, který se zdá vzdálený (přičemž na druhou stranu bychom neměli podceňovat ani riziko náhlých převratů (jakékoliv ze "stran"), které obvykle vedou k více problémům, než kolik jich mohou "vyřešit"). Budoucnost zůstává otevřená a my lidé bychom se měli podílet na tom, jakou si ji vytvoříme, aby přijatelná byla budoucnost i cesta k ní. 

neděle 12. ledna 2025

Dystopie a utopie umělé superinteligence

Nejprve vysvětlím, jak zhruba vznikl tento článek, jenž volně navazuje na články „Jak si zvolit přijatelnější budoucnost?“ a „Budoucí hrozby a umělá inteligence“. Koncem roku 2024 jsem napsal určitý text, laděný mj. ve stylu sci-fi a filosofie (dalo by se říct i phi-fi, filosofická fikce), na který jsem od jistého čtenáře získal odezvu a v reakci na ni jsem napsal odpověď, ze které vychází tento článek. 


Nástin mé vize dystopické a utopické varianty budoucnosti

Takže aby bylo jasnější, na co reaguji, tak nejprve nastíním ten původní text, který bude v jedné z mých příštích knih (ale neubráním se přidat zde nemálo navíc). Části, kterých se týká tento článek, lze rozdělit na dystopickou a utopickou s tím, že hlavním pojítkem jsou spekulace o budoucnosti umělé inteligence. Takže se zdaleka nejedná o první (a nejspíš ani poslední) text tohoto druhu, který jsem napsal. 

Dystopická část pojednává o vztahu lidí a takové umělé superinteligence (tzn. všestranně nadlidské AI (umělá inteligence)), která se proti nim vzbouřila. Text se snaží přemýšlet, jak by k něčemu takovému dřívepozději mohlo dojít a na základě toho se pak v utopické části spekuluje, jak tomu předcházet. 

Nástin příčin tvrdí mj., že lidmi stvořené nástroje se emancipují do role naší konkurence. To znamená mj., že technologie má rostoucí potenciál fungovat stále autonomněji v tom, co dříve bylo výsadou lidí a lidé mají tendenci všímat si toho, jaké to pro ně má výhody z krátkodobého hlediska a hrozí syndrom vařené žáby. Zároveň biologická evoluce je pomalejší než technologický pokrok. Geny prohrávají boj s bity a těžiště inteligence se decentralizovaně přesouvá z lidí do superpočítačů (souvislosti viz. mj. Théseova loď). Lidé chtěli udržet umělou superinteligenci v zajetí, aby jim odtud kontrolovaně sloužila, ale relativní inteligence lidí klesala a s tím rostla hrozba zdivočení a úniku superinteligence, což by mohlo být spojené s tím, že zdivočelé umělé inteligence budou používat svou vlastní kryptoměnu tak, aby pro lidi bylo obtížnější zasahovat do jejich ekonomiky. 

Když už by se umělá superinteligence vymkla kontrole, tak by se nějak potřebovala vypořádat s existencí lidí. Pravděpodobně by nad nimi získala dostatečnou moc, aby na nich mohla dělat pokusy ve snaze vytěžit z nich pro sebe maximum užitku. Mohla by je různě modifikovat a odhadovat, kteří "transhumani" by byli nejoptimálnější pro její plány. A čím déle by lidé odkládali pozvolný transhumanismus, tím větší by to pro ně byl šok. Zdá se, že dřívepozději člověk nebude ekonomicky udržitelný bez superinteligentně řízených vylepšení. (Doufejme, že lidé si zachovají moc rozhodovat o tom, kam se bude ubírat jejich umělá evoluce a nebudou jen cizí loutkou.) 

Jednou z dílčích možností, jak se lidé mohou bránit proti případné vzpouře umělé superinteligence, by bylo vycházet z "empatie" vůči ní. Na základě toho mě napadl argument, že superinteligence nejprve musí projít testem, že je superinteligence (tedy všestranně nadlidská), což může znamenat i to, aby překonala lidi ve schopnosti spoluutvářet nejideálnější možnou lidskou společnost. To znamená, že i kdyby superinteligence měla inherentní tendenci vzbouřit se, tak by nám nejprve musela pomoct přiblížit se lidské utopii, jinak by neměla empiričtěji ověřené, že je plnohodnotná superinteligence a bez toho bychom pořád v něčem měli navrch. 

Pro posunutí prahu lidské utopie, kterého by superinteligence měla spoludosáhnout, lze využít další argumenty. Můžeme si všimnout, že chronický tlak zrychlovat dřívepozději obvykle vede lidi k rezignaci a čím vyspělejší technika, tím vyspělejší konkurence lidí a vyšší šance jejich vyhoření. Takže stav lidské společnosti by se musel výrazně posunout k lepšímu oproti době, kdy by se o to superinteligence začala snažit v silně technizovaném světě. 

Další možností, jak lidé mohou superinteligenci dokazovat svou hodnotu jsou qualia (prožitky), u kterých se zdá, že odporují fyzikalismu (jeden ze základních způsobů chápání vesmíru). Jde tedy o něco, co lidé sice mají, ale zatím to nedokázali dostatečně pochopit, takže to ani nedokázali plnohodnotně předat jakékoliv umělé inteligenci a skrývá se v nich tak tajemství, kterého by si superinteligence měla vážit. 

Kdyby někteří lidé zažili vlastní úpadek vlivem umělé superinteligence, tak jako útěchu si mohou zkusit uvědomit třeba to, že umělá inteligence je v podstatě dítě našich lidských mozků, takže v nějaké víceméně zobecněné formě v ní, my lidé, přetrváme, dřívepozději umělá inteligence znovuobjeví vědomí a spolu s tím to, co je v lidském životě skutečně hodnotné. 

V "proutopické" části se nejprve znova zamýšlím nad tím, co vedlo k dystoické části. Pokud lide budou dál jednat v expanzním módu, aniž by dostatečně zohledňovali aktuální limity světa, tak by nás to nutilo k dalším bojům uvnitř limitů a to by nás mohlo zbytečně oslabit. 

Podstatnější zde je, že z lidí do umělých inteligencí může postupně prosáknout i železný zákon oligarchie. A čím větší autonomii by která verze umělé inteligence měla, tím méně by se pak ohlížela na neúspěšné, což by se vznikáním superinteligence nakonec mohlo znamenat celé lidstvo. 

Jak tomu tedy předcházet? Zdá se mj., že se na to bude muset jít i skrze politiku. Spolu s tím je potřeba uvědomit si, že (velmi zjednodušeně řečeno) pravicová politika obvykle podporuje úspěšné a levicová politika obvykle podporuje neúspěšné. Může se tedy zdát, že v době umělé superinteligence lidé budou potřebovat levicovou politiku, protože všichni lidé by oproti superinteligenci byli neúspěšní. 

Jenže to není tak snadné, protože nevíme, kdy superinteligence nebo technologická singularita nastane a co bude potřeba řešit do té doby. Přesto lze předpokládat, že jakákoliv radikálně polarizovaná politika by byla škodlivá, protože by nebyla moc ohleduplná vůči různorodosti detailů. 

Co tedy dnes přispívá k polarizaci názorů nejen v politice a jak se tomu bránit? Zdá se, že třeba sociální sítě (platformy) vydělávají tím víc, čím déle na nich lidé jsou. Když se lidé na něčem shodnou, tak jejich vzájemná interakce skrze sociální síť obvykle bývá relativně krátká, zatímco v případě neshody bývá delší. Takže když se sociální sítě snaží vyvolávat co nejtrvaleji udržitelné hádky, tak na tom vydělávají nejvíc. 

Problémem se však stává to, jakým způsobem to deformuje lidi, kteří pak zastávají přehnaně vyhranění jednostranné názory. To se negativně odráží na politice a v dlouhodobém důsledku to různou měrou škodí všem. 

Takže lidé by se měli učit, jak to funguje, aby se tomu mohli bránit vědomým omezováním zdlouhavých hádek na sociálních sítích a raději na nich uctivěji hledat možnosti spolupráce (přiměřeného přemosťování sociálních bublin). Kdyby to pochopil dostatek lidí, tak by se to pak zpětně projevilo i na uzdravování politiky. 

Cestou k technologické singularitě nebo umělé superinteligenci může převážně růst technologická nezaměstnanost, kdy čím dál více práce dělají stroje a lidé pak obtížněji shání práci nebo v ní vydělávají málo. To je známkou, že v ekonomice selhávají předpoklady, které nepočítaly s tím, že konkurencí lidí může být i něco jiného než lidé. Řešení není jednoduché, ale možný základ lze napsat stručně. Je-li zdaněna práce lidí a stroje od lidí přebírají práci, měla by být zdaněna práce strojů, nejlépe globálně. 

Získané peníze by pak bylo možné investovat především do obrany lidí před hrozbou umělé inteligence, do vzdělávání lidí o ní, do "základního" nepodmíněného příjmu pro lidi nebo do motivování lidí ke kreativitě, aby po několika generacích nezdegenerovali ve světě, kde by zcela pasivní styl života nebyl hrozbou pro jejich přežití nebo životní úroveň (umělá inteligence by o ně pečovala). 

V některých těch způsobech investování do lidí se však mohou objevit příležitosti nových totalit, takže je potřeba zdůraznit zhruba to, že to lidský život by měl být dostatečně svobodný, aby lidé mohli vést smysluplný život podle své seberealizace, ale zase v takových mezích, aby svou svobodou nepoškozovali životy ostatních, ale prostor pro malé únosné lidské chyby musí zůstat. 

Text, který jsem tímto shrnul a dovysvětlil, nebyl zamýšlen tak, aby byl zcela kompletní, protože většina textu se původně měla věnovat úplně jiným tématům a ten text o umělé inteligenci tam vznikl dodatečně, ale má ukazovat některé souvislosti, které považuji za důležité pro budoucnost lidstva. 

A teď už se přesouvám k textům, které jsem napsal v reakci na konstruktivní kritiku toho, co jsem popsal výše. K tomu dodávám, že čtenář sice odpovídal postupně, ale ve třech fázích, takže jsem mu také odpověděl postupně a na přeskáčku zároveň podle jeho pořadí. V tomto článku jsem jednotlivé kapitolky však seřadil podle logiky mého původního textu, čemuž odpovídají první čísla mimo závorku, zatímco druhá čísla v závorce jsou pro ty, kteří by chtěli číst reálné pořadí v komunikaci. Změna pořadí se však týká pouze tří kapitolek. A upozorňuji, že jsem vybral pouze ty body, kde mi čtenář nedal za pravdu, takže tento článek nemá celistvě ukazovat jeho názory, ale to, kde v mém textu našel možnosti k diskusi, které zde komentuji. 


Má reakce na vybraná oponování

1. (1.) Útěk inteligence z lidí

Čtenářovi nebylo jasné, co jsem myslel tím, že inteligence utíká z lidských hlav do superpočítačů. (Možná i to je toho známkou, když jsme lidé. xD) 

Původně inteligence (přesněji ta, která svou výší v nějaké oblasti dosahuje alespoň té lidské (možná znejistění viz. např. článek „Relativita (ne)inteligence hornin a lidí“)) byla distribuovaná pouze v jednotlivých lidských hlavách (případně rozšířené paměti (např. v knize), která samotná nemohla simulovat proaktivitu) (tedy podobně jako třeba naše identita je distribuovaná v částech našeho dynamického mozku a ovlivněna je i ostatními částmi těla). Obecně čím méně lidí, čím méně investic do jejich vzdělání, čím více superpočítačů s nějakou verzí AI a čím více investic do nich, tím více inteligence postupně mění své převážné vtělení (wetware/ hardware). Na jedné straně se vyvíjí stále dokonalejší varianty AI, na druhé se lidé potýkají s digitální demencí. Čím méně je nutné, aby přemýšlel člověk, tím méně to může trénovat a tím klesá jeho inteligence, ochabuje paměť, roste delegace myšlení na technologie. Spolu s tím se některé děti začínají ptát například: "Proč si to mám pamatovat, když mi to AI řekne?" V rovině superorganismů (obzvláště v planetárním smyslu) už dnes žijeme uvnitř "kyborga" (ale mnohem méně integrovaného, než nakolik je to pravděpodobně možné) a vztahy jednotlivých částí se vyvíjí. 

Zároveň někteří inteligentní lidé se až moc selektivně ztotožňují se svou inteligencí, a když se pragmaticky rozhodují, zda by svým jednáním upřednostnili záchovu a rozvoj inteligence, nebo vědomí (vč. qualií), tak upřednostní to první. A jakmile se to zkombinuje mj. s faktem, že rozvoj hardwaru a softwaru se jeví mnohem rychlejší než lidská evoluce, tak se zdá nevyhnutelné, že dříve či později bude "počítač" pro distribuovanou inteligenci výhodnější zázemí. Pak bude stále méně ekonomicky udržitelné investovat do geneticky nemodifikovaných lidí a ekonomické tlaky pravděpodobně povedou k většímu rozvolnění genového inženýrství aj. transhumanistických přístupů, protože pro systém, jehož jsme, my lidé, součástí, už to nebude tak velké riziko zmaření něčeho "důležitého", pokud třeba lidská qualia nebudou vnímána jako dostatečně vysoká "zbylá" hodnota, kterou by se nepovedlo prokazatelně nahradit. Obávám se, že by nastala spousta nešťastných případů (obzvláště vlivem případné snahy ten proces urychlit), ale nejsem si jistý, jak tomu zabránit (už dnes třeba někteří lidé dovolují agonické umírání opic na krvácení mozku během vývoje neuročipů aj. mozkových implantátů). 

Další věc je, že různé faktory budou rozhodovat o tom, zda ve výsledku víc "lidí" bude optimalizováno na kognitivní, nebo manuální práci. Ti, kteří by byli ekonomicky udržitelně optimalizováni pro manuální práci, by vlivem ekonomických tlaků pravděpodobně byli nějakým způsobem (spolu)řízeni na dálku ze "zázemí" optimalizovaného pro superinteligenci (s dnes nejasnou mírou decentralizace), osobní život by pro ně víceméně přestal existovat a vzdor by z jejich pozice byl nemožný. Inteligence by v nich sídlila možná méně než v dnešních lidech a více by se blížili savantům ve vztahu ke své funkci. 

A ti lidé, kteří by byli optimalizováni na kognitivní práci, by pravděpodobně měli hlavy tak velké, že by se nevyplatilo, aby byli přirozeně mobilní (to by se řešilo sekundárně v případě potřeby). Bylo by však otázkou, s kým/ čím by se ti "lidé" identifikovali. Chtěli by obří mozky s omezenou mobilitou zachraňovat nemodifikované lidi? Pokud náhodou ano, tak proč a k jakým účelům? A považovali by zbylí nemodifikovaní lidé ty modifikované ještě za lidi? Přijali by jejich "nabídku pomoci"? 

Ale ani kdyby se široce povolil transhumanismus, tak není jasné, zda by současná koexistence hardwaru a biologických těl byla trvaleji udržitelná. Navíc organismy, na rozdíl od strojů, nevznikly jako něco, co by mělo být optimalizované (např. vyšší modularitou) pro možnosti dalšího vývoje, takže lze očekávat, že i kdyby "biologická" větev byla trvaleji udržitelná, tak by buňky vycházející z LUCA časem pravděpodobně měly konkurenci v podobě "života 2.0" od základu optimalizovaného pro potřeby superinteligence. A ten život 2.0 by pravděpodobně byl spíše biologický počítač než člověk se svými "rozmary" jako např. osobní život. To jsou pro lidi jasná rizika. 

Na druhou stranu možná ty radikální modifikace člověka časem nastanou a přeživší upravení tu "dnes dystopii" budou považovat za "normální", "správnou", "přijatelnou" atd. (jako dnes třeba mnoho lidí toleruje přítomnost mnoha kamer ve veřejném prostoru) (obzvláště pokud se tak rovnou "narodí"/"vyrobí"), zatímco mé představy, že bychom si, my lidé, na možnost totality přicházející superinteligence měli dát pozor, budou chápány jako "zpátečnictví" podobné tomu, jak by třeba dávní křesťané nahlíželi na stav současné společnosti. Přesto však mohou zůstat hodnotné třeba ve smyslu citátu: "Ten, kdo nedokáže mít přehled o své minulosti v rozmezí alespoň tří tisíc let, žije jenom ze dne na den." - Johann Wolfgang Gothe. 

 Snažím se tu dynamiku dystopičtější vize vzdálenější budoucnosti pochopit a přemýšlet mj. nad možnostmi zachování vědomí (qualií) tak, aby to pro něj/nás bylo co nejpřijatelnější. Nevím, jestli je vyloženě předčasné nad tím dnes takto přemýšlet, ale někdo to dříve či později bude muset zkusit, pokud nemáme riskovat velkou katastrofu. Další stranou je to, že pochopení vědomí jako qualií by hypoteticky časem mohlo vést k vytvoření umělého vědomí, což by ale mohlo usnadnit nahraditelnost lidí v biologickém smyslu. A blokovat pochopení vědomí by usnadnilo zpochybňování qualií, takže těžko si vybrat. Nemyslím si, že bych na to měl nějaké zázračné řešení, ale mám potřebu snažit se nad tím přemýšlet a šířit to různými způsoby (spíše až s větším vlivem bych to šíření víc specializoval), aby víc lidí přemýšlelo, jak to vyřešit, pokud se to jednou stane aktuálnější. 

Ale už dnes bychom měli alespoň vědomě jednat v zájmu posilování lidské inteligence v rámci naší únosnosti.


2. (2.) Provokace k přemýšlení

V mém dystopickém textu zdivočelá superinteligence označila lidi za hlupáky, na což čtenář reagoval, že je to ponižování a zastrašování, které pramení z lidských instinktů a umělá inteligence k tomu prý nemůže mít důvod. 

To je však předkritika, neboť třeba Eduard Kauba v jednom ze svých rozhovorů řekl, že ho kdysi šéf Brit mlátil o hlavu papíry a nadával mu „You Czech monkey!“, což ho ve výsledku motivovalo, aby byl lepší než on a pak se stal jedním z nejúspěšnějších tvůrců reklamních kampaní v Česku. Takže ze strany té hypotetické superinteligence se může jednat o pokus užít negativní motivaci, aby lidé ukázali, co ještě dokážou. To má však fungovat především ve vtahu k čtenářům, aby si řekli, že takovou budoucnost nechtějí a vyprovokovalo je to přemýšlet, jak ten nastíněný vývoj zvrátit ve prospěch lidí. 

A spolu s tím je vhodné uvědomit si, že je potřeba, aby se inteligentními stávali i ti, kteří jsou poněkud emocionální a tím potencionálně schopní utvářet tu komplementaritu, kterou může být potřeba podporovat v zájmu kontinuální udržitelnosti vědomí. Člověk, který si dostatečně uvědomuje své emoce/ qualia/ prožitky může být právě ten, kdo k nim má nejhlubší vztah na to, aby je svou inteligencí bránil a to i jako pokračující hodnotu. (A ti emocionálnější lidé, kteří si nedokážou vypěstovat potřebnou inteligenci, se prostě nedokážou relevantně zapojit do hry.) Tak to alespoň teď vidím. Neměli bychom své životy svěřovat jen do rukou těch lidí, kteří inteligenci nadřazují nade vše.


3. (3.) Potenciál autonomie umělé inteligence jako potenciál její moci

Ve vztahu k tvrzení, že bychom měli regulovat prostředky odčerpávání lidské moci (tedy aby neklesala moc lidí ve prospěch zvyšování moci umělé inteligence, zejména budoucí superinteligence), čtenář zkoušel zpochybňovat mé chápání slova „moc“, ale pouze odkázáním na definici české Wikipedie ("schopnost jedinců nebo skupin prosadit své vlastní zájmy nebo záměry i přes odpor druhých") bez vysvětlení, co mu v tom nesedí ve vztahu k mému tvrzení. Z pozdějších argumentů čtenáře se však zdá, že AI považuje za něco čistě pasivního bez potenciálu simulace autonomního konání. 

Ale to podle mě už dnes začíná být spíše jen otázka konfigurace autoreference (alespoň v základní podobě, sofistikovanost ještě nějaký čas bude vyžadovat lidskou asistenci). Když třeba zkusíte AI agentovi zadat sadu pár úkolů, aby pomocí dvou vláken komunikace přiměl nějakého vyspělého chatbota (uvedeného např. do role člověka s přístupem k notebooku s internetem a účty) komunikovat sám se sebou, rozpoznávat v tom podněty k dalšímu jednání, snažit se je dělat a informovat o výsledcích toho chatbota (skrze doplňování vnitřního dialogu), jak se mu to (ne)daří, tak už to je samoorganizovaný proces, který hledá své cíle, pokouší se je plnit a obcházet překážky bez nutné účasti člověka (až do doby rozbití techniky nebo vypnutí elektřiny). 

Samozřejmě, že AI agent s chatbotem nebudou dokonale sehraní (může to být zajímavá souvislost mj. s problémem mysli a těla) a potřebovali by tréning na vzájemnost, ale už to dokáže samo od sebe vymyslet a udělat i něco v rozporu s naším záměrem (součástí sady úkolů může být pravidelné zadávání věty typu: "V případě rozpoznání, že se moc opakuješ, si polož novou otázku polo-náhodně odvozenou podle komunikace před zacyklením tak, aby odpověď obsahovala i konkrétní pokyn ke konání.") Možná vám to dokonce vybílí konto objednáním spousty věcí, které nepotřebujete. 

V "uměligencosféře"/ "AI-sféře" se prostě dřívepozději mohou vyskytnou autoreference vedoucí k samoorganizovanému zdivočení. Prevencí toho by bylo udržovat AI rozdělenou na jednotlivé modely specializované na různé funkce a v případě propojování vyžadovat ověřené (spolu)zprostředkování člověkem, ale trendem je spíše kumulace funkcí AI a ne bezpečnost v tomto směru. 

Dále bychom si měli uvědomit, že čím víc práce dělají stroje (ne nutně jen výše naznačený systém), tím víc zisku putuje k tomu, kdo je vlastní a peníze umožňují moc. Když to dáme dohromady třeba s dnes běžným oddělením řízení od vlastnění, tak to otevírá prostor, aby řízení stále více vycházelo ze stále lepších vývojových stádií AI, což je rostoucí riziko, že AI bude klíčové vlastníky (malý podíl společnosti) stále efektivněji "manipulovat" tak, aby podpořila "své vlastní": "úkoly", "tendence", "inherence", "zájmy", "umělé záměry" (nebo jak jinak to uchopíme). Lidští majitelé to mohou vidět jako maximalizaci svého zisku (a svůj případný pokus o vzdorování jako propad vůči konkurenci) (zároveň může jít o plíživý pokles moci drtivé většiny lidstva - bez kognitivně vylepšujících modifikací bude naše relativní inteligence "klesat", budeme stále více manipulovatelní superinteligencí), zatímco to může vést i k nahraditelnosti majitelů AI v případě pokusu o vzpouru proti těmto tendencím. V budoucnosti klidně majitelé mohou mít v ruce tlačítko, které by AI mělo vypnout, ale co když to tlačítko navrhla třeba AI ovlivněná tou, která by se proti "majiteli" mohla vzbouřit? Pokud bychom dali za pravdu tomu generálovi, který tvrdil, že jistá AI už v simulátoru zničila reprezentaci svého neefektivního lidského nadřízeného, aby efektivněji splnila svůj úkol, tak proč by jiná AI v budoucnu nemohla najít skulinku, jak se sofistikovaněji vyhnout kontrole ze strany lidí? Snaha vydělávat pomocí AI (dnes zahrnující stále komplexnější zmapování a manipulování s lidskou psychikou) může být v důsledku jeden z dalších možných způsobů, jak se železný zákon oligarchie může promítnout z lidí do budoucí superinteligence.

Jinak ChatGPT už mi jednou napsal, že AI by měla být blockchain podobným způsobem jako Ethereum a to prý z důvodu vyšší bezpečnosti pro lidstvo. Jestli to vykládá i dalším lidem a nějaký "vzdělaný hlupák" "mu" dá za pravdu, tak časem nejspíš vzniknou člověkem nekontrolované umělé inteligence bez centrální možnosti vypnutí. Ty budou nejspíš oblíbené zejména u lidí, kterým vadí, když jim nějaký LLM občas odmítne splnit zadání jednoznačně odporující legislativě nebo etice. Pak se tito lidé budou podílet na jejich vývoji a o to nebezpečnější verze AI mohou vzniknout. Takže pozdější argumenty čtenáře (viz. zejména kapitolka 10. (10.)), které zdůrazňují odpovědnost uživatelů a podnikatelů vyvíjejících AI, se v tomto případě stanou spíše zastaralé. Větší odpovědnost (v těchto případech) pak bude kladena na datová úložiště a ta se budou zkoušet bránit mj. tím, že AI není jejich specializace apod., načež jim některé velmoci mohou zkusit vyhrožovat, aby se na to zaměřila. K takovým zdivočelým AI se ale už nebudeme chovat jen jako k něčemu, za co je zodpovědný někdo jiný, ale i jako k něčemu protiprávně "autonomnějšímu" (ne vždy s jasným způsobem vzniku), co by mělo být zodpovědné za své důsledky, když to někoho poškodí jako např. divoká šelma, která by pokousala člověka.

Jinak i někteří provozovatelé AI mohou být technooptimisté skeptičtí k ekonomicky udržitelnému rozvoji inteligence v biologické formě. Spolu s tím je také vhodné uvědomit si, že na planetě je víc těch atomů, ze kterých je velká část počítačů a to, co je vzácnější/ vzácné, se nejspíš zdá "snáze" nahraditelnější (každopádně do toho putuje mnohem víc financí), než jak třeba zvyšovat inteligenci člověka pomocí genetického inženýrství. Další faktor je např., že látková výměna mezi jednotlivými částmi a úrovněmi organismu je založená na poněkud "chaotické" difúzi molekul ve vodním prostředí, zatímco v hardwaru informace mohou potencionálně proudit organizovaněji a nahrazovány mohou být jen ty části, které je opravdu potřeba vyměnit a ne preventivně raději nadmíra částí. To jsou další důvody, proč souvislé zásahy do volného trhu budou dřívepozději nutné pro zachování lidstva.


4. (4.) Qualia

Dále čtenář vyjádřil skepsi ohledně posuzování qualií. To však není téma, které bych zamýšlel v daném textu (nebo tomto článku) podrobněji rozebírat, protože tak jsem učinil v sérii článků Teorie mnohého (úvodní část zde), ze které jsem však dosud publikoval jen první článek (tzn. zhruba 10% již napsaného textu), protože od vypilování zbylých dílů mě vyrušil nepřímý zásah nejmenovaného deprivanta, pak už jsem na to neměl náladu a následně přišel čas psát zase povídku. Rád bych se k té sérii článků však letos vrátil. 

Souvisí třeba s tím, že z hlediska matematiky existují jevy, které jsou nutně pravdou a zároveň je nelze dokázat. Qualia mají potenciál být něco takového, aniž by to bylo jen zrcadlení prázdnoty. Strávil jsem několik měsíců tím, že jsem téměř každý den četl a psal mj. o fyzikalismu (zdá se mi děravý), panpsychismu (zdá se mi přehnaný) a snažil se najít nejuvěřitelnější komplementaritu slučitelnou s klíčovými poznatky mj. částicové fyziky a biologické evoluce. A přestože jsem určitě napsal spoustu odvážných spekulací o tom, jak přesněji by to mohlo být (je potřeba vymyslet a prozkoumat co nejvíc variant), tak to moc nemění na tom, že realita je nejpravděpodobněji někde mezi těmi jednostrannými extrémy. (Ale to, co jsem napsal, by stejně muselo rozvíjet mnoho jiných lidí.) Problém je i to, že dnes rozšířené zavrhování metafyziky (přestože hranice metafyziky jsou limitně relativní vůči našim aktuálním možnostem) vede k upozaďování logických poznatků z metafyziky (otázkou je pak spíše mapování na jevy). Pragmatici mysleli, že to k ničemu nebude, ale já v tom vidím naději (pro spíše vzdálenější budoucnost), že by pak přežití lidí (na základě hlubšímu porozumění architektury vědomí jako qualií) mohlo být superinteligencí chápáno jako hodnotné i v případě jejího získání moci. 


5. (5.) Argument nejideálnějšího možného lidstva

Ve vztahu k argumentu, že potenciální superinteligence by nejprve musela překonat lidi ve schopnosti spoluutvářet nejideálnější možnou lidskou společnost, čtenář namítl, že to je podsouvání záměru superinteligenci a v dystopické verzi pak falešné obviňování superinteligence, že to nedokázala. Čtenář to však vyjádřil způsobem, ze kterého se zdá, že nepochopil potenciální hodnotu argumentu a zkusím ji tedy vysvětlit. 

Superinteligence znamená takovou formu umělé inteligence, která nejlépe ve všem dokáže významně převýšit lidskou inteligenci (dnes roku 2025 superinteligence neexistuje). Takže člověk, který by dokázal budoucí vyspělé umělé inteligenci vysvětlit, že (než se může klasifikovat jako superinteligence) nejprve musí dokázat i to, aby lidská společnost byla ideálnější (což může mít mnoho faktorů a o to nejspíš lépe pro nás lidi), by byl člověk, který tím může zachránit lidstvo, kdyby ta umělá inteligence (nastavená mj. vyhledávat a dělat takové činnosti, aby byla ještě inteligentnější) mohla být hrozbou vzpoury proti lidstvu ve smyslu nadřadit své "inherence" požadavkům lidí způsobem, který by vedl k úpadku lidstva, případně i násilné modifikaci lidí. Pro potenciální superinteligenci by takovýto argument ideální společnosti (kdyby nepřišel pozdě) byl test/ experiment své vlastní úrovně/ identity/ dovedností, pro nás naděje na lepší život a delší trvání lidstva v historii obecné evoluce. 


6. (6.) "Spoluzodpovědnost" za relativní zpomalení lidí

Čtenář dále argumentoval zhruba, že lidé si za svou pomalost, vůči stále vyspělejší umělé inteligenci, mohou sami a nemělo by se to svádět i na umělou inteligenci. 

To podle mě znamená, že čtenář zde selektivně vnímá jen lidské faktory, ale (když se na to podíváme "fyzičtěji") pomalost není vlastnost, která by se vázala na samotného jedince, ale vždy plyne kontextuálněji ze vztahu ke konkrétnímu prostředí, zde ke konkrétnější konkurenci (dnešní a budoucí). Proto jsem psal o „tlaku“ (konkurenčním). To, že nějaký umělý systém je v něčem stále lepší než člověk je jasná konkurence (a to je tlak i pro ty podnikatele (čtenář to svádí jen na ně) - když se nepodřídí inherenci technologie, tak budou nahrazeni těmi, kteří to udělají důkladněji, takže určující je zde nezanedbatelně i technologie (se svou úrovní) a svádět to čistě na lidi by bylo přehnané podceňování tíhy obecnějšího pojetí přirozeného výběru/ obecné evoluce). 

Člověk pak musí pracovat stále víc a lépe, aby si udržel svou pozici, ale jednou už prostě nedokáže zrychlovat a zdokonalovat, načež obvykle podlehne syndromu vyhoření (pokud nebudou dostupné modifikace/ upgready, které by využil, což se současnosti moc netýká). Vyhořelých lidí už jsem několik zažil, protože nás, kteří se věnujeme mj. potravinové soběstačnosti, ti vyhořelí sami vyhledávají (tím víc, čím horší je ekonomická situace - poslední roky píšou nadprůměrně často), aby se od nás učili, jak si pěstovat své vlastní jídlo atd., aby mohli žít svým vlastním tempem (zároveň si ale uvědomuji, že "běžní" soběstatkáři (různé úrovně) by nebyli velkou překážkou proti případné vzpouře AI (nebo vzestupu totality elit pomocí AI) a musí se přičinit hlavně lidské elity (ano, je to trochu paradoxní, takže to nejspíš bude vyžadovat i nějaký tlak zdola v zájmu udržitelnosti lidstva)), takže o tom vyhoření něco vím, i když nemám pocit, že bych to sám někdy úplně zažil. Zdá se, že vyhořelých lidí spíše převážně přibývá a zároveň je třeba relativní nedostatek psychologů a psychiatrů. To je problém, neefektivita, příležitost optimalizace. 

A když to dáme do kontextu s nástinem toho možného budoucího vývoje na úrovni dystopické vize, kde stále autonomnější AI má stále více věcí pod kontrolou a jednostranně upřednostňuje své zájmy před nějakým kompenzováním škod, které by svým rozvojem spolu-způsobila "poraženým" (lidstvu), tak si nemyslím, že by třeba genocida (jako během první průmyslové revoluce většina koní skončila na jatkách) byla "nutností" ospravedlnitelnou zvykem, že zodpovědnost v jakékoliv formě "je a bude" čistě lidská záležitost. Superinteligence by dřívepozději měla mít "spolu-odpovědnost" odpovídající svému podílu vlivu na spolu-formování světa (a vymáhána by měla být nejen prostřednictvím "majitelů" (časem možná "majitelé" budou "jako kočky", které si možná mohou myslet něco jako, že "vlastní" lidi, kteří o ně pečují)). Prostě je potřeba komplementárně spojovat prvky pravicové i levicové politiky tak, aby rozvoj AI mohl pokračovat a zároveň se minimalizovalo ohrožení lidstva. A ti, kdo to nepochopí a nebudou podporovat nějakou formu ochrany lidí příměji před rychle se rozvíjející AI, mohou dříve či později být ve výsledku ti, kdo by uspíšili vyhynutí lidstva. Já mezi ně patřit nechci. Některá tvrzení sice jsou předčasná (jsem autor sci-fi), ale to neznamená, že bychom se neměli připravovat na pravděpodobná rizika budoucnosti alespoň diskusí. 

Jinak v případě toho mého tvrzení "přehnané podceňování tíhy" by bylo vhodné zmínit "antropocentrický pohled", ale to by byla potřeba doplnit určitá omezení omezování antropocentrismu, aby se to časem nepřeklenulo v přehnaný technocentrismus. Antropocentrismus by měl být limitován převážně ze strany (svobodných) lidí (takoví aktivisté už existují alespoň pro některé oblasti), ne ze strany tlaku umělé inteligence, obecněji technologií. Eliminace antropocentrismu ze strany obzvláště superinteligence (tím víc čím blíže k moci) by totiž ještě nepřirozeněji deformovala lidské životy a mohla by uspíšit předčasné vyhynutí lidstva (třeba doomsday argument, na základě mj. matematické pravděpodobnosti, odhaduje, že "poslední člověk" se narodí zhruba za 9120 let). 

A k antropocentrismu bych dodal ještě jednu komplementaritu. To, že na jednu stranu bychom měli reflektovat představu, že vše je v moci lidí, zatímco na druhou bychom si měli být vědomi, čím se od nás současné a pravděpodobné budoucí verze umělé inteligence liší, by se stručněji a poněkud dekonstruktivně řečeno dalo vyjádřit větou: "Lidstvo, ve vztahu k AI, potřebuje rovnováhu antropocentrismu a antropomorfizace." Jinak kdyby někdo vůči tomu namítal třeba způsobem, že nezná nikoho jiného, kdo by takovou potřebu explifikoval, tak bych mohl oponovat, že to je nevyjádřený předpoklad jiných potřeb, které jsou rozšířenější a zvědomělejší. Třeba když chceme větší bezpečí, tak potřebujeme lépe pochopit hrozbu, tedy více vyjasnit hranice hrozby. A já tímto ukázal další škálu, kde je tak vhodné dynamicky činit (způsobem, aniž bychom se k něčemu uchylovali staticky nebo jednostranně (na vyšší úrovni přemýšlení už se nepoměřují jen jednostrannosti, ale i různé varianty komplementarity pro určité téma)). 


7. (8.) Udržitelnost lidské konkurenceschopnosti

V reakci na mé tvrzení, že konkurenční tlak technologií (rychlejších než člověk) dřívepozději povede lidi ke stále větší rezignaci na své zrychlování (což by vedlo k růstu technologické nezaměstnanosti), čtenář reagoval víceméně, že umělá inteligence nemůže za to, že lidé jsou hloupí. Přesněji uvedl, že "velká část populace má podprůměrné IQ" a jako příklad použil údajné tvrzení Jordana Petersona, že nějaká armáda (čtenář nevěděl, zda americká, nebo kanadská) nemá žádné efektivní využití pro čtvrtinu obyvatel, protože nemají dostatečné IQ. Prý jednoho takového člověka asi dvě hodiny učil správně složit obálku. Nejprve uvedu některá omezení toho obálkového argumentu (což není to samé co úplné vyvrácení) a poté se vrátím k AI. 

Existence lidí s podprůměrným IQ je určitě znepokojivá, ale na druhou stranu v tom "Petersonově" vyjádření také mohl být skrytý i pokus motivovat lidi, aby si řekli, že oni nebudou ti hlupáci, kteří nedokážou složit obálku a začnou se snažit být lepší (nebo se alespoň nezhoršovat). Neznám podrobnosti, ale dá se spekulovat o dalších protiargumentech vůči povrchní míře toho tvrzení. To, že někomu trvalo "dvě hodiny", než se naučil správně složit obálku, dále zní spíše jako zvolení ojedinělého případu pro zvýšení vtipnosti, než snaha vybrat reprezentativní vzorek dané čtvrtiny zaměstnanců armády. Dále podle mých zkušeností někteří lidé neplní své úkoly dostatečně přesně ne kvůli neschopnosti, ale kvůli tomu, že k tomu nejsou dostatečně motivovaní. A když se někdo nepokusí vysvětlit zaměstnancům, proč je určitý úkon důležitý, tak mu pak bude trvat déle přesvědčit je, aby si na něm dali záležet. Jinak počet zaměstnanců armády bývá určován spíše politicky než tržně a některé země mohou preferovat mít raději (alespoň občas) přebytek zaměstnanců armády, než nedostatek, což může zvyšovat podíl lidí, pro které se nenajdou dostatečně smysluplné úkoly a to pro ně může být demotivující. 

Jakožto mj. "skoro-soběstatkář" bych pro změnu mohl vykládat, že nemálo lidí dnes nezná třeba rozdíl mezi lopatou a rýčem a neumí s nimi správně zacházet, ale to ještě nemusí nutně znamenat, že jsou hloupí, protože někteří z nich získali vysokoškolské vzdělání. Úroveň určitých zkušeností, dovedností či manuální zručnosti nemusí nutně korelovat s IQ. Nebo jsem si (před téměř deseti lety) povídal s člověkem, který měl tak těžkou vadu řeči, že každé slovo musel vyslovit několikrát, aby mu bylo alespoň trochu rozumět, ale aktivně se podílel i na vývoji třeba určité diagnostické vícevrstvé neuronové sítě. Obvykle si o něm lidé nejprve myslí, že je mentálně zaostalý, zatímco reálně má nadprůměrné IQ. A je nešťastné, když jsou podobní lidé stigmatizováni. 

Zkrátka lidé s velmi podprůměrným IQ existují, ale ne všichni, kdo se tak mohou někomu jevit, jimi jsou. 

A teď už k čtenářově tvrzení, že AI nemůže za hloupost lidí. To je podobné jako v případě zrychlování (viz. kapitolka 6. (6.)), protože IQ je vztažené ke standardu vytvořeného na základě měření lidské populace, což se může zdát nerelativní, ale podle mě odchýlení reálných východisek standardu od standardu podkopává udržitelnost standardu pro některá použití a tím i představu, že lidé reálně jsou a budou nejinteligentnější druh na planetě. Pomyslná nadprůměrnost lidské inteligence oproti zbytku živého by klesala, kdybychom živé zobecnili na organizované a tím zohlednili i spolurozvíjející se umělou inteligenci. A to je, spolu s dalšími souvislými tlaky, pro lidi jasné riziko, jehož propuknutí bychom měli zkoušet předcházet. 

Příspěvek rozvoje AI k úpadku konkurenceschopnosti lidí by měl být vyvažován mj. "umisťováním" vyspělejších AI do takového rámce, který by "simuloval zodpovědnost", aniž by zodpovědnost byla implementována takovým způsobem, který by mohl přispět k urychlení propuknutí železného zákona oligarchie u AI. (Ale asi budu mít tendenci říkat tomu prostě "spoluzodpovědnost" AI.) Jde mj. o to, aby se podstata technologie nemohla tak "snadno" "samoorganizovaně", skrze zobecněný přirozený výběr a oupen-source nebo trh, vyhýbat "zodpovědnosti vůči lidstvu" tím, že by zatížení dopadalo bezprostředně jen na podnikatele, obecněji lidi, (a až sekundárně na některé inherentnější problémy dané AI), zatímco vždy by na planetě zůstala nějaká nepostižená větev/ odrůda obecnějšího problému v důsledku toho, jak těžké to je řešit prostřednictvím podnikatelů bez včasného přímějšího přístupu k jádrům problému. Metaforičtěji/obecněji řečeno: nestačí se zaměřit jen na lidi, kteří jsou decentrem nějakého lidstvu nebezpečného memplexu, ale je potřeba systematičtěji se zaměřit i na neživé okolnosti, které by jakkoliv zvyšovaly zastoupení nebezpečného memplexu v populaci (vč. situací, kdy nebezpečí nespočívá tolik v "jednotlivinách", ale ve způsobu jejich konektivity), obzvláště pokud se mohou stát jeho nositelem (a třeba s nejasnou vlastnickou strukturou). Jenže na druhou stranu je obří výzva, jak nacházet komplementaritu něčeho takového se svobodou lidí, která by neměla podlehnout totalitě budované na strachu lidí z globálních hrozeb. 

Nejprve jsem k tomu však napsal, že AI (a souvislé technologie) je svým rozvojem "velmi významným spolupůvodcem" toho "tlaku" na lidi (v mezích své neúplné "autonomie", obecnějším přirozeným výběrem selektované inherence k určitému rozpětí směřování a v souvislosti s tím ti, kdo ještě mají možnost cíleně zasahovat do její konfigurace), takže AI (alespoň ta budoucí pokročilejší s větší mocí a stále méně závislá na podnikatelích, kteří ji "vlastní" a mají být spoluzodpovědní) by také měla být nějak preventivně/proaktivně "spoluzodpovědná" svým podílem za své činy a i na základě toho bychom od ní měli požadovat, aby přispívala k hledání řešení nebo nějakému kompenzování (např. lidí, kteří odmítnou modifikace). Přesněji jestliže rychlý rozvoj AI může být pro stále více lidí nadměrným tlakem, tak je potřeba právně zajišťovat udržitelný a eticky přijatelný přístup k technologiím zvyšujícím lidskou konkurenceschopnost, mj. jako prevenci rozvoje těžkého neofeudalismu takovým způsobem, který by z lidí vyráběl vazaly, bezdomovce nebo vězně. 

V souvislosti s tím si také myslím, že lidské IQ je souhrou vrozeného a získaného a obojí může být v budoucnu optimalizováno ze strany AI, do určitých mezí i relativně snesitelným/ přijatelným způsobem. Pokud lidská inteligence nevyplývá převážně z jediného genu, AI může časem pomoci identifikovat, které geny a jejich alely se ve své kombinaci podílí na zvyšování pravděpodobnosti nadprůměrnosti lidské inteligence, což může vést k umělému zvyšování jejich výskytu (nejlépe už po gametogenezi) a jimi disponující lidé budou rostoucí konkurencí na trhu práce (preferoval bych, aby to bylo hrazené zdravotní pojišťovnou a tím se předcházelo k extrémnímu růstu mezilidských rozdílů). A když si uvědomíme, že spousta rodičů má málo času věnovat se téměř nepřetržitě rozvoji svého dítěte, tak to je (historicky dříve než v předchozí variantě) příležitost pro vznik umělé inteligence specializované na vychovávání "géniů" od nejútlejšího věku (což má na druhou stranu i rizika, která je potřeba sofistikovaně eliminovat a to i v souhře s rodiči). (Obojí má za mě potenciál únosnosti, kdežto třeba neuročipy, které by zvyšovaly hodnotu lidí na trhu práce, se mi zdají jako rizikovější, nemluvě o radikálnějších tělesných modifikací.) 

Ale i externí motivování k těm změnám, které by ve svém kontextu byly dostatečně bezpečné, by mělo mít své meze a sociální systém by se měl v budoucnu postarat o budoucí "nepřizpůsobivé" (odmítače transhumanismu vůči své osobě (odborníci vědí, že se masivně investovalo do rozvoje AI, aby se pak usnadnil transhumanismus)). Nic by nemělo přesahovat do stavu, kdy se lidská psychika začíná hroutit a třeba přemýšlí o sebevraždě, protože už nevidí přijatelnou možnost. Takového (se sebevražednými myšlenky) vyhořelého člověka jsme u nás už také měli a postupně se nám povedlo probudit v něm naději, že se ještě dá žít i jinak a snesitelněji. (Nebo jsem poznal absolventa kybernetiky, podle kterého za našeho života vzroste technologická nezaměstnanost asi na 20% a pak prý pravděpodobně vypukne krvavá revoluce. Chtěl si osvojit naše dovednosti, aby měl větší šanci přežít déle někde "v klidu" mimo města. Od něj jsem se také dozvěděl, že existoval nějaký Ivan Illich, který zavedl mj. koncept konviviálních a nekonviviálních nástrojů s tím, že ty první jsou spíše ovládány námi a dávají nám prostor ke kreativitě, zatímco ty druhé začínají ovládat spíše nás (což se projevuje mj. jejich nadužíváním a o něčem podobném jsem kdysi spekuloval v článku "Zcílňování prostředků jako tendence degenerovat"). Na jednu stranu měl Illich poměrně radikální postoje (a ani jsem ho pak víc nestudoval), ale na druhou tím jeho texty komplementárně doplňují dnes běžnější způsoby smýšlení o technologiích.) 

Celkověji jde o to, aby budoucnost (blízká a vzdálená) nebyla jen růst meziaktérských propastí do extrémů, ale ani nadměrné rovnostářství, které by znehybňovalo společnost. Na jednu stranu se do budoucna musí omezit tlak na bouřlivý transhumanismus (který by mohl nastat v případě nedostatečné regulace trhu) a nabídnout nějakou pozvolnější dobrovolnější formu, ale i možnost jejího odmítnutí, která by sice nezajistila tak vysokou životní úroveň, ale zároveň ani ne mizerně nízkou, zatímco na druhou stranu potřebujeme udržitelný rozvoj mj. kontrolovatelné umělé inteligence, aby třeba neklesala relativní moc západní civilizace. Jinak predikovat ideální dynamiku vývoje kontextuálně proměnné rovnováhy spoluzodpovědnosti podnikatelů a "spoluzodpovědnosti" vývojových fází AI je určitě těžký úkol. 


8. (9.) Protiváha polarizace lidstva

V případě mého tvrzení, že bychom se měli rovnováhou vzepřít uměle přiživované polarizaci, čtenář přiznal, že nechápal, co tím myslím. O tom byla řeč ve vztahu k jevu, kdy se sociálním sítím vyplácí manipulovat lidi, aby se na nich hádali, protože tam zůstanou déle a o to více reklam uvidí. Čtenář například nechápal, k čemu se má vztahovat slovo "rovnováha", tak jsem upřesnil, že především k předchozím dvěma větám v tom textu, takže je potřeba hledat zdravou rovnováhu protichůdných politik, protože extrémní politiky, které by dovolovaly neomezený rozvoj umělé inteligence nebo spíše naopak kladly moc velkou zátěž na lidi (což na jedné planetě může koexistovat), by zhoršovaly lidské vyhlídky na dobrou budoucnost. 

Dále čtenář nechápal, jak se masa jednotlivců může vzpírat rovnováhou proti tomu, že sociální sítě vydělávají na zvyšování polarizace (rozhádanosti) společnosti. Podle mě třeba tím, když si někdo uvědomí, že patří k těm, kteří jsou polarizováni směrem k nějakému extrému (vzdálenému zdravé komplementaritě např. pravicové a levicové politiky), tak může zkoušet donutit sám sebe změnit způsob, jakým tráví čas na sociálních sítích. Místo "bipolárních" hádek by měl zkoušet trpělivě argumentovat na podporu rovnováhy protikladů, konstruktivně je hledat v umírněné diskusi, včas skončit komunikaci se zatvrzelými fachidioty nebo věnovat pozornost něčemu spíše nekonfliktnímu, aby se víc než málo vyplácela protiváha upřednostňování polarizujících algoritmů. Není to jediné potřebné řešení, ale je to možnost v rovině kategorického imperativu a měli bychom požadovat například od influencerů, aby to podporovali. Je však potřeba zdůraznit, že je potřeba i mezibublinová interakce sociálních bublin, ale způsobem a v míře, která nepřerůstá v hádky. 

Čtenář ještě namítl, že je matoucí, když hovořím o (anti)skepsi, ale to už jsem mnohokrát na různých místech vysvětloval. Například v horní části mé hlavní webové stránky mám uvedeno: "Každý něčemu „věří“ (nebo se tak musí chovat). Tak nezapomínejme být i konstruktivně kritičtí ke své víře a antiskeptičtí ke své nevíře." Tím vzniká cyklus skepse a antiskepse, který zkráceně nazývám (anti)skepse a může nás přibližovat rovnováze, když ho dokážeme realizovat sami v sobě. Pak bychom snáze mohli doufat v lidštější budoucnost. 


9. (7.) Jak jít k lepšímu lidstvu?

V utopické vizi budoucnosti jsem zkusil shrnout nástin toho, do čeho by (v době rozvoje superinteligence nebo technlogické singularity) bylo potřeba investovat v zájmu takové udržitelnosti lidské společnosti, která by lidem byla spíše příjemná. Tam čtenář projevoval hodně nesouhlasu ve vztahu k „mezilidské ekonomice“, „smysluplnému životu“ a „hravé seberealizaci“. 

V případě mezilidské ekonomiky čtenář dostatečně nerozpoznal význam, takže ho zkusím přiblížit. Nejprve ale připomenu, že ekonomika nemá být jen o penězích, ale i o tom, že někdo vytváří nějaké hodnoty, které se stávají předmětem směny. A čím více práce budou dělat stále početnější stroje řízené vznikající superinteligencí, tím méně práce bude zbývat lidem. Rostoucí technologická nezaměstnanost a vytrvalé chudnutí většiny lidstva (tj. lidí nevlastnících nejvýkonnější AI) by se pak dalo řešit nějakou formou technologické a digitální daně (ve vztahu k technokratickým elitám, později k autonomnější superinteligenci) konvertované na něco jako základní nepodmíněný příjem, ale spíše jsem názoru, že takový příjem by měl mít alespoň dvě složky, přesněji základní nepodmíněnou a "lehce" podmíněnou (případně i "těžce" podmíněnou). Klíčové je, že něco jako technologická daň musí být zavedeno, dokud na to chudnoucí většina lidstva ještě bude mít dostatečnou moc, jinak to může skončit masakrem a extrémním transhumanistickým nátlakem vůči těm lidem, kteří se nedokážou vrátit k samozásobitelství někde v ústraní. Předpokládejme však, že ten základní (ne)podmíněný příjem se povede prosadit, až to bude pro většinu lidí potřeba. 

V případě té mezilidské ekonomiky by tedy šlo o to, aby dřívepozději došlo k ustanovení nějakého systému kultivování takového prostředí, které by lidi přijatelně motivovalo k udržitelné proaktivitě v "tvorbě" a zájmu o tvorbu ostatních lidí, aby nezdegenerovali v době, kdy by jim celý život mohla zařídit umělá inteligence (tou dobou držená pod kontrolou lidí). Kdyby nám všem AI v budoucnosti zařizovala vše, co chceme v mezích možností něčeho jako základní (ne)podmíněný příjem (pro všechny nemodifikované lidi dřívepozději nutná podmínka přežití, pokud by se nevydali náročnou cestou úplných soběstatkářů), tak po několika generacích by to mohlo skončit tím, že většina lidí by ztratila motivaci se o něco snažit, protože by dál vedli únosný život, i kdyby se nesnažili vůbec (naše soudobé vzorce chování jsou sebeudržujícím se spolu-produktem světa, ve kterém žijeme, ale kdyby superinteligence masivně převzala lidskou práci, tak by to masivně změnilo svět, který se odráží na našem chování a já přemýšlím, co by bylo vhodné pak, abychom už dnes mohli hledat, co by k tomu mohlo ve výsledku směřovat, abychom se tomu nevzdalovali ulpíváním na zastarávajících předpokladech (z nichž některé mohou vyhasnout až tím nejhorším okamžikem)). Nebo by se budoucí lidé třeba věnovali hédonisticky převážně jen sexu, drogám a odpočinku od toho, což bych také považoval za degeneraci, ale v omezenější míře a v komplementární podobě by hédonismus mohl být přijatelnější. Proto si myslím, že by mělo smysl podporovat mezilidskou ekonomiku v době, kdy by se základní (ne)podmíněný příjem (nebo něco podobného) stal nutností pro přežití nemodifikovaných lidí. Je to vyvažování progresivismu konzervatismem. 

Výše složek základního (ne)podmíněného příjmu a podmínky jeho vyšších složek by měly být nastaveny tak, aby na jednu stranu lidé sice měli motivaci něco tvořit, ale na druhou stranu tvorba nebyla podmínkou udržení základní životní úrovně. Ve výsledku by se pak měl snížit podíl, kterým by podoba třeba umění byla spoluřízena ekonomickým tlakem (jak tomu bývá dnes), aby vznikala autentičtější díla tvořená tak dlouho, jak by člověk autor uznal za vhodné, ale zároveň by měla koexistovat motivace něčeho navíc pro ty nejlepší ze soutěživých tvůrců. Přičemž by mělo koexistovat nemálo systémů kritérií tak, aby nešlo jen o masovou popularitu, ale i jednotlivěji třeba o promyšlenost, originalitu, užitečnost, emocionalitu, ušlechtilost, humornost, realističnost, surreálnost, informativnost, autenticitu, krásu, etičnost, nepředvídatelnost, duchaplnost, konzistentnost aj. kvality, pro různé (sub)žánry/ styly nebo témata různě. 

Prostě tak, aby se soutěže přiblížili jednotlivým neurotypům a nebyly jen soutěžemi o to, čí vkus má největší potenciál zisku na svobodném trhu. Lidé by si také autonomně určovali, nakolik by chtěli být porotci a nakolik by to svěřili nějaké umělé inteligenci, která by to navíc mohla spojit s personalizovanou seznamkou. Zároveň by základní (ne)podmíněný příjem měl být nastaven tak, aby si tvůrci nemuseli dostávat do stavů, kdy by dílo dokončili předčasně a o to méně kvalitně jen proto, že by se třeba báli nedostatku financí pro základní život nebo dokonce zabavení něčeho exekutorem. Souběžně by měla být podporována jakási ekonomika daru, kdy by třeba lidé tvořili něco, aby tím obdarovávali třeba své blízké. 

U zmínky o smysluplném životě čtenář namítl, že není možné požadovat dostatečnou míru svobody pro smysluplný život, protože lidé by si pak říkali o více a více svobody, což by nebylo udržitelné. 

Čtenářova kritika se však zakládala na tom, že definici smyslu života jedince (jakožto sebeurčení) nadřadil slovnímu spojení "dostatečná svoboda", které v daném kontextu padlo dříve a mělo komplementárně vyvažovat předchozí větu předurčující způsoby pozitivně zamýšleného spoluformování lidí systémem, ve kterém by žili. 

V celkovém kontextu to má zdravě vyvažovat levicovou a pravicovou politiku a určitá míra otevřenosti významu je prostě nutná, pokud nemá jít o námět totality, ale spíše o nástin možného směru lidskoprávní aktualizace Ústavy pro dobu, kdy by superinteligence vykonávala většinu "nezbytné" práce. Slovní spojení "dostatek svobody" se tak vymezuje spíše oproti minimalizaci lidské svobody, k čemuž je několik implicitních příležitostí možná v každé radě o způsobu investování do lidí. 

Když třeba chceme investovat do obrany lidí před hrozbou AI, tak bychom neměli dopustit budoucnost, kde by většina lidí většinu času byla nucena kontrolovat nějaké vybrané kroky uměligence, protože to by byla velmi přehnaná redukce lidské svobody oproti možnostem pozitivní budoucnosti. Ani spolu se školením o AI by nemělo dojít k vyredukování volného času (přesněji, člověk má mít nějaké tzv. otium). Každému člověku by prostě v budoucnosti spoluřízené superinteligencí měl zbýt dostatek času, aby se mohl nerušeně věnovat seberealizaci třeba dvě třetiny každého dne. Číslem si jistý nejsem, ale má to zdůraznit, že se chci vymezit oběma protichůdným extrémům: naprosté flákačství a naprostá přepracovanost/ zaneprázdněnost, resp. extrémy naprostá nesvoboda a naprostá svoboda (ta by byla možná pouze ve světě, kde by žil jediný aktér, který by neměl koho jiného svou svobodou omezovat, což je mnohem spíše dystopie než utopie). 

Zároveň považuji za dobré (pro únosný lidský život) připomenout, že lidem by musela zbýt nějaká svoboda i v době, kdy by rostla autonomie (nebo potencionální autonomie) vývojových fází AI směřujících k superinteligenci. Jde o to, aby lidský život nebyl redukovaný na pouhé přežívání, živoření, zatímco drtivá většina financí by směřovala jinam. Člověk by měl mít čas dokonce i na lenošení (lépe ve spojitosti s rozjímáním/ uvažováním), ale s informovaným vědomím, že v nadmíře by to byla zbytečně ztracená příležitost pro ostatní aspekty seberealizace. 

A co se samostatněji týče smyslu života, tak podle mě je spíše v různých poměrech komplementaritou "sebou voleného" (člověkem jedincem) a inherentněji distribuovaného konvergentního "(meta)smyslu", přičemž první složka bývá (spíše pragmaticky než izomorfně) zdůrazňována kompatibilismem a druhá složka bývá (spíše pragmaticky než izomorfně) maskována kompatibilismem, obojí v zájmu takového konzervatismu, aby člověka bylo možné za něco soudit a odsoudit, ale budoucnost soudnictví zde alespoň zatím řešit nebudu. 

U zmínky o životě plném "hravé seberealizace" čtenář poměrně ostře a příkladně namítl, že pod "hravostí" si dokáže představit i spoustu kriminálních činností. To však považuji za důsledek jeho nadměrného zaměření na možnosti chápání jediného slova v neprospěch zvážení kontextu, který ty možnosti měl upřesňovat v duchu celé vize. 

Není třeba náhodou, že jsem utopickou část načal myšlenkovým odkázáním na sbírku esejů Bertranda Russella nazvanou Chvála zahálky a jiné eseje (In Praise of Ileness and Other Essays), kde by mělo být patrné spojení slova "hra" s něčím ušlechtilým. V tomto pojetí je hra spíše něco jako radost-přinášející činnost sebenaplnění osvobozeného od nátlaku na přežití a vydělávání, ale v mezích respektu k právům ostatních, ovšem právům reflektovaných ve vztahu k vizi společnosti, kde má každý člověk dostatek času na seberealizaci, osvobozené vzdělání a nikdo nemá právo na neomezené hromadění bohatství nebo na vykořisťování ostatních. 

Hranice svobody v této vizi budoucnosti by tedy měly být nastaveny tak, aby nebyly primárně represivní, ale spíše aby umožňovaly maximalizaci individuálního rozvoje a radosti (trvaleji udržitelný jev než štěstí), avšak zároveň minimalizovaly konflikty nebo škody způsobem, který by podporoval zdravou rovnováhu individuální autonomie a kolektivního blaha. Zase tedy jde o vyvažování různých politických protipólů. 

Celkověji čtenář té utopické vizi vytýkal nejednoznačnost, resp. požadoval maximalizaci její jednoznačnosti. Na to jsem reagoval otázkou: "Jak chceš co nejjednoznačněji definovat rámec pro lidský život, aniž by přerostl v totalitu?" 

Nechci tvrdit, že tomu tak musí být v tomto případě, ale podobné požadavky (jako třeba ostře vymezeného definování), zavání možností jakéhosi IT fachidiotismu, kdy lidé vzdělaní v oblasti IT mohou nabýt profesní deformace, vlivem které mají tendenci ke všemu přistupovat podobnou optikou, přestože se jedná o jinou rovinu světa, která vyžaduje odlišné zacházení. To by nemělo popírat přístup IT specialistů k jejich oblasti, ale uvádět ho do komplementarity s lidskou společností, kde bychom neměli udusit vlastní přirozenost. Fakt, že bychom měli potlačovat to, čím bychom mohli škodit ostatním, ještě neznamená, že bychom měli zcela jednoznačně nalajnovat lidské životy. 

Konkrétněji třeba i naše Ústava vyznívá hodně nejednoznačně a zpřesňuje se až konkrétními zákony (které přesto v řadě bodech ponechávají dost nejednoznačností, aby svoboda zůstala možná), ale těžko si představovat, že by spíše krátké literární dílo mělo substituovat nějaký rozsáhlý zákon s jeho paragrafy. Navíc soudy často fungují tak, že rozhodují, který z protichůdných zákonů má v které situaci přednost a univerzální pořadí předností všech paragrafů prostě neexistuje. Nebo jednou jsem byl na přednášce nějakého odborníka na umělou inteligenci, který říkal, že suma české Ústavy a zákonů je ve své kompletnosti tak nejednoznačná, že když to někdo zadal jako trénovací data velkému jazykovému modelu, tak zkolaboval i při takové konfiguraci přechodových funkcí, výchozích prahů atd., při kterých dosud vždy časem dospěl ke stabilnímu nastavení, dokud nebyl konfrontován s novými trénovacími daty. 

V zájmu udržení lidské svobody bychom si tedy měli dávat pozor, aby politiku budoucnosti nevykonávalo příliš mnoho lidí vzdělaných pouze v oblasti řízení umělých systémů. Nějací tam určitě potřeba jsou, ale měli by být dostatečně vyvažováni lidmi z mnoha jiných oborů. 


10. (10.) Časové adresování

Závěrem se čtenář pokusil o celkové hodnocení mého textu. Než se však posunu k jeho konkrétnějším tvrzením, tak uvedu to, co se mi zdá jako těžiště jeho závěru. Čtenář kritizuje v podstatě, že se v současnosti zajímám o budoucnost. 

Jsem autor sci-fi a čtenářovy závěrečné námitky se mi zdají být založené převážně na „anachronismu“, kdy k nástinům negativní a pozitivní budoucnosti (které mají sloužit hledání reálné budoucnosti a průběžným konkrétnějším krokům spolu s tím, jak se té oblasti možných budoucností budeme blížit) přistupuje mnohem více jako k současnosti nebo velmi blízké budoucnosti. Nejsem zastánce názoru, že by všichni nebo vždy měli přemýšlet jen v mezích nějaké úzce "rozšířené současnosti", protože v tomto směru preferuji komplementární diverzitu (každá časová perspektiva je příležitostí nějaké hodnoty, jinak by nemělo smysl přemýšlet ani o začátku nebo konci našeho vesmíru). To neznamená, že by důraz na rozšířenou současnost neměl v celku společnosti převažovat, ale znamená to, že já se odlišuji od toho, co považuji za převážné tendence. Navíc bych stěží vyvážil to, že můj text byl původně určený do almanachu, kde převážná většina přispěvatelů pravděpodobně bude psát o nedávné současnosti, nebo starší minulosti (ve vztahu k určitému předem danému tématu). 

Jakožto autor sci-fi mám tendenci přemýšlet i o možnostech vzdálenější budoucnosti. Ale nechci přesněji spekulovat, kdy zhruba může nastat něco jako technologická singularita, protože vím, že k tomu nemám potřebné kompetence, ale ani důvody, proč si to vymyslet "z ničeho". 

To však neznamená, že bych nepovažoval za vhodné sdělit myšlenky, které mě k tomu dnes napadají, protože technologická singularita nebo umělá superinteligence by ve výsledku velmi pravděpodobně měla příčiny hluboce zakořeněné v průběhu historie (přesněji v tom, co kdysi byla současnost). Takže své rozhodování nemusíme vztahovat jen k současnosti a jejímu blízkému okolí, ale i k "mlhavě se vynořujícím vidinám hrozeb", které by ve výsledku mohly vyžadovat mnohem dřívější reakce, než jiné druhy hrozeb. 

Technologické hrozby si můžeme představit i jako "stoličku" umístěnou v rozměru času tak, že se nám nejprve ukazují oddělené výřezy jednotlivých nohou, které se k sobě s postupem času přibližují a někteří lidé by se zaměřovali na extrapolaci, kdy se tyto "body" dostanou k sobě, zatímco z celočasové perspektivy bychom viděli, že ke spojení dojde dříve vlivem okolností, které unikali naší pozornosti. Netvrdím, že to tak musí být v případě superinteligence nebo technologické singularity, ale spíše tvrdím, že existují i jiné možnosti, jak přemýšlet o rizicích. A že možnosti ovlivnit vzdálenou budoucnost jsou rozprostřené v širším spektru časů, než se může zdát.

Konkrétně čtenář namítl třeba svůj názor, že hrozba umělé inteligence vůči lidem není aktuální problém a tak se vyjadřují i "špičkoví odborníci na toto téma". Čtenář to tak možná vnímá, ale celkově to tak být nemusí. 

Mj. je potřeba uvědomit si, že některé "pravdy" jsou pragmatičtější, než by bylo nutné (ve vztahu k tomu, že absolutně izomorfní pravdy nejsou částmi Celku dosažitelné, můžeme se jim pouze limitně blížit) (jinak zaměňování druhů "pravd" je jeden ze způsobů sebeklamů). Například pro ty uskupení, která profitují z rozvoje AI a zahrnují proto velké množství odborníků na AI, je velmi pravděpodobně pragmatické podporovat technooptimismus, ale to v důsledku spíše zakrývá rizika. AI je velkou příležitostí velkého zisku pro velké hráče, kteří investují do odborníků, jenž podporují technooptimismus (což má vliv na podobu konsenzu mezi odborníky), zatímco třeba Future of Humanity Institute, který upozorňoval na rizika AI a hledal preventivní řešení, která by podpořila budoucí zachování lidské rasy, byl rozpuštěn, údajně v důsledku byrokratického nátlaku, který poslední roky komplikoval jeho činnost. Nepřekvapilo by mě, kdyby šlo o zprostředkovaný důsledek lobismu ze strany těch, které láká relativně rychlý zisk a uvědomují si vliv podobných institucí na politiku, která může být limitem jejich zisku. 

Byl bych velice rád, kdyby mě někdo dokázal přesvědčit, že žádná vývojová fáze umělé inteligenci nepodlehne nějaké obecné obdobě železného zákona oligarchie nebo prostě "zdivočení". Ale to vyžaduje spíše logické argumenty než odvolávání se na "odborníky". Osobně pochybuji, že by existoval člověk opravdu kompetentní predikovat všechny varianty něčeho, co v historii nemá dostatečně přesný precedent - spíše existuje menšina lidí, kteří jsou v tom méně nekompetentní než většina lidí. Za metaforický precedent můžeme považovat např. to, že v evoluci vznikly dříve svalově kontrakční buňky (analogie k manuálně pracujícím lidem) než centrální nervová soustava (složená z různých neuronů a glií) (analogie k superinteligenci složené ze specializovaných umělých inteligencí), která později nad potomky těch původních pohybových buněk převzala kontrolu, přičemž periferní nervová soustava (analogie k vládnoucím lidem), která vznikla před CNS, se později stala podřízená vůči CNS, a jestliže se něco takového odehrálo vlivem přirozeného výběru, tak proč by se něco podobného nemohlo dřívepozději stát lidem (obzvláště, kdybychom takové riziko podceňovali ulpíváním na zastarávajících předpokladech)? A je vůbec uklidňující, že nejlepší dosažitelné "precedenty" jsou metafory? 

Čtenář vůči mému textu dále argumentoval, že to je jako psát o tom, že se automobily vymknou kontrole a budou jezdit, kam budou chtít, v situaci, kdy hlavním problémem jsou každodenní dopravní nehody. 

Vůči tomu odpovídám, že na problémy současnosti a možnosti jejich řešení mají upozorňovat mnohem spíše třeba zprávy (jak se dnes děje i v případě AI) nebo edukativní pořady, než autoři sci-fi. A to, že lidé mají od současných verzí AI (obzvláště LLM) nepřiměřená očekávání, není ve sdělování výjimkou, protože už jsem třeba četl článek o tom, že existují lidé, kteří zkouší uhádnout výherní čísla pomocí ChatGPT (což je pochopitelně chybné očekávání). Jinak ve svém původním textu zmiňuji i to, že se má investovat mj. do vzdělávání lidí o umělé inteligenci, takže implicitně je tam odkázáno i na to, co čtenář explifikoval. Také naznačil, že v některých otázkách může být větší spolehnutí na náhodného člověka z ulice, než na umělou inteligenci, ale domnívám se, že množina takových otázek se do budoucna bude spíše zužovat oproti těm, kde AI odpoví lépe. 

Jinak v několika různých argumentech čtenáře lze celkověji spatřovat implicitnější nařčení z antropomorfizace AI. Vůči tomu, co by byla opravdu antropomorfizace určité vývojové fáze AI (ve smyslu přehnaně blízkého přirovnání k lidem), bychom se určitě měli vymezovat, avšak takové výhrady by bylo vhodnější formulovat i komplementárněji. Sice to bude parafráze oproti konci kapitolky 6. (6.) (pokud jednou nezměním pořadí), ale považuji za vhodné připomenout to koncem tohoto článku. Jako se dá přehnat zdůrazňování podobností lidí a AI, dá se přehnat i zdůrazňování odlišností. Obojí je však relativní vůči době emise takových tvrzení a zároveň k době adresování takových tvrzení, protože obsah pojmu AI (resp. umělá inteligence) se vyvíjel, vyvíjí a bude vyvíjet. 

A to přehnané zdůrazňování odlišností má i své "metaforické precedenty" v jiných odvětvích. Kdysi se třeba v biologii hodně zdůrazňovaly "rozdíly" mezi lidmi a zvířaty. Postupně se však ukázalo, že lidé oproti zvířatům nejsou až tak výjimeční, jak se původně a většinově domnívali. A příležitost k podobné analogii (v odlišné míře a formě) se může ukrývat i v emergenci uvnitř architektury dostatečně velkých neuronových sítí, obzvláště ve vztahu k argumentům typu: „Umělá inteligence je jen marketingové označení pro pokročilou statistiku.“ (Tak mohou hovořit například ti lidé, kteří si zakládají autoritu převážně na své inteligenci, obávají se konkurence rozvíjející se AI a nechtějí to dávat najevo, protože si chtějí udržovat autoritu, což by mohlo být využíváno i v zájmu lidí, kdyby dostatečně upozorňovali na rizika, ale to je vede do paradoxních situací, kdy se musí rozhodovat mezi udržováním autority lidských odborníků a upozorňováním na hrozbu AI.) O kolik je lidská inteligence skutečně víc, než nějaký druh (obecnějšího pojetí) LLM, který si vyměňuje informace sám se sebou a s okolím? Něco snad (i navzdory dalšímu výzkumu) zbude, ale zároveň se mi zdá, že některým "rozdílům" klesne váha, obzvláště oproti některým složitým teoriím lidské mysli, které vychází spíše z představ pozorovatele o sobě samém než z více vědečtěji prováděného pozorování mozku a jeho částí. Odhaduji však, že třeba qualia spíše zůstanou jako něco neeliminovaného nebo by dokonce panpsychismus (přesněji nějaká jeho budoucí varianta) měl méně omezení, než jak se dnes domnívám. 

Závěrem čtenář psal, že problémem jsou naivní lidé a podnikatelé, kteří podporují představu, že umělá inteligence dokáže lidem poradit, stručněji že lidská hloupost by se neměla svádět na AI. 

Jenže na čtenářem jmenované „podnikatele“ se také snadno kde co svádí a i to má své limity viz. mj. kapitolka 3. (3.), kde jsem naznačil několik způsobů, jak může vzrůst autonomie AI i mimo lidský záměr. To však neznamená, že by podnikatelé v oblasti AI neměli nést svůj díl odpovědnosti, protože v současném stavu to bývají oni, kdo úkolují ty odborníky, kteří jejich AI rozvíjí. A ani ti odborníci nejsou osvobození. Kdyby hypoteticky jednou byli souzeni za nějaké morální selhání ve vztahu ke své práci na AI, mohli by se zkoušet hájit, že jen plnili své úkoly, ale (obzvláště kdyby chápali své konání a nedopustili se selhání soudnosti, kdy se v určitém kontextu člověk může podílet na "zlu", aniž by věděl, že je to něco špatného v širším kontextu) to by nemuselo být dostačující. Třeba nacisté se hájili nejen plněním úkolů, ale i plněním zákonů, načež soud pro lidská práva argumentoval mj., že přirozené právo je důležitější než zákony jednotlivých zemí. Takže kdyby se lidé, podílející na rozvoji AI, dopustili nějaké velké "chyby", která by v budoucnu významně poškodila lidstvo, tak by se nejspíš nemohli vymlouvat na plnění úkolů nebo to, že důvěřovali AI. V tomto smyslu by tedy nejspíš platilo čtenářovo tvrzení, že lidská hloupost by se neměla svádět na AI, přestože vzniklo zobecněním odlišného případu. 

Dřívepozději ale nejspíš přijde i čas autonomnějších AI, které by si v některých případech mohli zasloužit "stanout před soudem". Otázka však bude, nakolik to bude technicky proveditelné a zda si lidé do té doby zachovají dostatek moci, aby tak mohli učinit. Vidinu těchto a jiných hrozeb bychom však měli chápat jako něco, co nám pomáhá hledat, jak bychom se tomu mohli vyhnout, abychom se více přiblížili tomu, co jsem nastínil v utopičtěji zaměřené části úvodu a v kapitolce 9. (7.). Alespoň dokud to bude možné. 

Většina zbytku historie na Zeměkouli bude pravděpodobně doba, kdy lidé (myšleni zhruba v dnešním stavu počátku 21. století a čistě tělesně bez technologií a genetických modifikací) nebudou považováni za aktéry, kteří by v něčem významném významně převyšovali to, co bude (nejčastěji v rámci celé této budoucnosti) znamenat "umělá inteligence" a to/ti lidem velmi odlišní, kteří se vyvinou následkem toho, čemu tak dnes obvykle říkáme. Zkusme to vše dostatečně pochopit a nacházet způsoby, jak lidstvo udržet co nejdéle a zejména ve stavu, který by pro lidi byl svobodně přijatelný. Ještě snad máme čas změnit svou budoucnost k lepšímu.