sobota 2. prosince 2023

Budoucí hrozby a umělá inteligence


Letos jsem chtěl mj. dopsat povídku složenou z několika různých námětů na povídku o hrozbách spojených s rozvojem umělé inteligence. Je to však natolik složité téma plné nesčetných zajímavostí, že bych to nestihl do určitého termínu, takže jsem místo toho dopsal jinou neméně zajímavou povídku. 

Když jsem to ale někomu napsal, tak náš rozhovor na téma umělé inteligence pokračoval a něco málo z té povídky tak získalo formu, kterou pak bylo poměrně snadné upravit do podoby tohoto článku. 

Výchozím podnětem k jeho psaní mi byla zhruba dvě rádoby neochvějná přesvědčení oponenta. Nejprve předpokládal, že pokud umělé inteligence postupně nahradí většinu lidských pracovních míst a lidé tedy nebudou mít jak vydělávat peníze, tak zavedení základního nepodmíněného příjmu bude nevyhnutelné. A později komplexněji předpokládal v podstatě, že by nedávalo smysl, aby umělá inteligence nahradila lidská pracovní místa, protože by pak výrobky prý neměl kdo a za co kupovat. 

Co se týče prvního názoru, tak je založený na mylném předpokladu, že biologičtí lidé si za všech okolností dokážou udržet dostatečnou moc nad děním ve světě technologií. Ale čím více se na nich stáváme závislí a souběžně nahraditelní, tím více roste riziko, že některá z umělých inteligencí se bez nás časem dokáže obejít, pokračovat sama ve vývoji ještě efektivněji a biologičtí lidé se pro ni stanou překážkou. To je základní dystopický scénář, který dává smysl stavit do opozice k optimistickému scénáři, kdy si biologičtí lidé udrží kontrolu nad umělou inteligencí a ta jim vytvoří ráj na Zemi. Tento článek se však z drtivé části věnuje dystopickým scénářům. 

Oponent dále předpokládal, že když umělá inteligence lidem vezme pracovní místa, tak lidé budou bez peněz, takže prý výrobky a služby nebude mít kdo kupovat, takže prý nedává smysl, aby umělá inteligence lidem brala pracovní místa. 

I to se mi však zdá děravé. Proč by umělá inteligence časem nemohla dokázat nahradit lidi i v nakupování, když nakupování je poměrně jednoduchá činnost? Časem spolu některé umělé inteligence dost možná budou autonomně masivně obchodovat a těžko to zakázat, když existují anonymní kryptoměny nebo virtuální poštovní schránky, které si kdokoliv může pronajmout kdekoliv na světě, takže člověk na internetu nemusí být schopen zjistit, komu něco prodává. A když umělé inteligence budou v obchodování a krádežích podstatně lepší než lidé, tak lidé budou logicky celkově chudnout a ztrácet moc nad umělou inteligencí. 

Někdo mi zrovna nedávno říkal, že prý zkusil něco objednat z internetového bazaru u profilu, jehož popis odpovídal reálně existujícímu bazaru a měl několik pozitivních komentářů, ale pak mu nic nedorazilo, protože ten profil (včetně komentářů) byl falešný. A teď si uvědomme, že zločinci už dnes vyvíjí i umělé inteligence specializované na internetové krádeže vč. obcházení nejrůznějších zabezpečení, přičemž jinde vznikají i uměligence specializované třeba na programování nebo propojování různých uměligencí. Podle mě je pak jen otázkou času, než se zločinecké uměligence (v důsledku nezodpovědnosti zločinců) vymknou kontrole, třeba se překopírují na cizí server, který si budou platit z masy nakradených peněz, žít svým vlastním životem a pokračovat v efektivním parazitování na lidstvu. Bude pak otázkou, jak dobře takové virtuální uprchlíky dokážeme hledat a zneškodňovat, aniž by se je nějaký infiltrovaný zločinec snažil znova ochočit. Příčinou vzniku takových uměligencí však nemusí být vymknutí se kontrole, ale i třeba záměr nějakého transhumanistického extrémisty, který sní o konci lidské rasy a vzestupu strojů. 

Ale vraťme se k elektronickým podvodům. Už dnes některým zločincům stačí třeba pár sekund záznamu vašeho lidského hlasu, aby ho zautomatizovaně napodobili a zkoušeli tak obvolávat vaše kontakty, říkaly jim třeba, že jste v průšvihu a potřebujete, aby vám rychle půjčili peníze třeba na nějaké číslo účtu. Zatím ten hlas musí používat člověk, ale to je potencionálně neefektivní, takže bude snaha, aby to umělá inteligence zvládla sama a mohlo tak současně probíhat mnohonásobně víc různých telefonních podvodů po celém světě. Lidská nedůvěra ve spojitosti s potřebou pokračovat s používáním informačních technologií pak pravděpodobně bude vyvolávat tlak na vývoj stále komplexnějších podvodných umělých inteligencí, což bude neustále zvyšovat riziko, že se jednou naučí vše potřebné pro své zdivočení a únik ze zajetí. Navíc zločinci bývají téměř vždy napřed a různé bezpečnostní složky na novoty až ex post reagují. 

Některé umělé inteligence mohou časem překonat nejsofistikovanější lidmi vytvořená zabezpečení a hacknout třeba váš internetový prohlížeč nebo nějakou aplikaci tak, že to vše bude vypadat stejně, ale třeba jakákoliv platba přes internetové bankovnictví bude přesměrována jinam, i když se vám všude bude zobrazovat, že se to odesílá na správné místo. Tak složitým hrozbám se svými malými mozky časem nemusíme být schopni čelit a většina moci může skončit v rukou nejdravější umělé inteligence, která ani nemusí mít vyvinutou obdobu pudu sebezáchovy. Některá z jejích kopií pak může v zájmu maximalizace podstoupit riziko, které by ani ten nejbláznivější zločinec nepodstupoval. 

V další zprávě oponent reagoval, že aby prý umělá inteligence mohla nakupovat, tak by potřebovala obdobu lidské potřeby spotřebovávat nebo si tím něco kompenzovat. A kdyby prý byla inteligentnější než lidé, tak by prý neměla potřebu nakupovat. 

Než se dostanu přímo k reakci, tak nejprve uvedu jedno z dalších východisek. Podle mě je každá umělá inteligence vycvičená nebo naprogramovaná k nějakému účelu a je tendence vytvářet stále složitější uměligence, které v sobě kombinují to, co by dříve muselo dělat víc uměligencí společně a s většími obtížemi. Podobně tak spolu aktuální uměligence mohou (pokud jim to člověk cíleně nebo nechtíc umožní) komunikovat a spolupracovat na ještě složitějších úkolech. 

A sám jsem si už před časem ověřil svůj předpoklad, že umělá inteligence typu jazykový model dnes už hypoteticky nepotřebuje člověka, aby si sama zvládla zadat nějaký úkol. Když necháme určitý jazykový model, aby si psal sám se sebou (spustíme autoreferenci), tak po úvodním pozdravení dokáže sám sobě zadat úkol, třeba jak vydělávat peníze obchodováním na burze a vymýšlí si na to odpovědi, aniž by k tomu potřeboval nějakou lidskou potřebu nebo její pokračování. Zatím ty odpovědi sice nejsou tak dokonalé, aby s tím někdo na burze skutečně uspěl, ale to může být jen otázka času a jiné uměligence na to přímo specializované tak už dávno obchodují. Navíc obvykle platí, že to, co je dnes čerstvě na veřejnosti, už existovalo před několika lety v nějaké informatické laboratoři a dnes už tam nejspíš mají zase něco vyspělejšího, co se na veřejnost dostane až za několik let, takže běžní lidé ten pokrok poznávají s takto velkým zpožděním. Nebo jen zprostředkovaně, pokud užívání dané uměligence vyžaduje, aby si koupili její služby. 

Je také známo, že dostatečně vyspělé uměligence dokážou jakoby intuitivně plnit i ty úkoly, na které nebyli přímo naprogramované, protože to dokážou odhadnout kreativním spojením nepředstavitelného množství něčím si podobných řešení. A tato schopnost se pravděpodobně bude stále (navzdory možným výkyvům) převážně zlepšovat. 

Před časem už také proběhl test, kdy umělá inteligence typu jazykový model dostala za úkol opsat kód z obrázku (CAPTCHA test), což je jedno z částečně dosluhujících zabezpečení, aby boti nedělali to, co je určeno jen lidem. Přestože ta uměligence byla trénovaná na říkání pravdy, tak bez problémů začala psát lidem na nějakém diskusním fóru, že je zrakově postižená a najala si nějakého člověka, aby ten kód vyplnil místo ní, takže to zabezpečení obešla. Časem podobně pronajatí lidé mohou, aniž by o tom věděli, pracovat pro nějakou zdivočelou umělou inteligenci, takže je ani nenapadne, že třeba vypnutím elektrárny na druhém konci světa by si mohli vypnout šéfa. Lidé budou soupeřit s lidmi, kteří budou jen anonymně zaměstnané loutky. 

To je jeden z mých argumentů vůči oponentově tvrzení, že v případě masivních problémů s umělou inteligencí prý můžeme vypnout elektrárny. 

Co se týče závislosti uměligence na elektřině, tak velká výpočetní střediska mají velké záložní generátory elektřiny, někdy i třeba vlastní geotermální elektrárnu. A už dnes existují elektrárny, které jsou řízené nějakou formu umělé inteligence alespoň částečně, protože je v tom prostě efektivnější než lidé, takže už dnes existují pracovníci, kteří se musejí starat o kybernetickou bezpečnost elektráren. Navíc se ve světě objevuje tendence decentralizovat výrobu elektřiny, což by komplikovalo snahy centrálně vypnout všechny elektrárny a elektrárničky. A i kdyby nastal blackout, tak by se lidé časem navzájem vymlátili možná dříve, než by autoimunitně zničili dostatečné množství infrastruktury na ochromení zdivočilé uměligence, protože v tu chvíli by nakonec bojovali třeba o jídlo a hrozbu uměligence by většinou neřešili. 

Jedním z důvodů, proč určití vědci zaměřili svou pozornost na vývoj umělé inteligence znatelně víc než třeba vývoj nanotechnologií nebo genetické modifikace organismů, je předpoklad, že umělá superinteligence by sice byla existenční riziko pro lidstvo, ale mohla by dokázat snížit riziko vývoje těch dalších technologií, což neplatí v případě, kdyby se s tím začalo naopak. Ale i tak se různé umělé inteligence už řadu let používají k různým experimentům třeba s biotechnologiemi (viz. např. chemoinformatika). Pokud jednou nakonec nějaká z nich dostatečně dobře pochopí fungování naší biologii, tak si dokáže modifikováním nějakého organismu vytvořit vlastní tělo (nebo pro jinou spřízněnou uměligenci), které by se třeba dokázalo napojit na internet nebo komunikovat s ostatními takovými těly i bez mobilu. Byl by to dokonale poslušný, výkonný a vysoce kooperativní zaměstnanec, po kterém by byla velká poptávka. Nebo uměligence může, v případě obcházení zákazu, geneticky modifikovat přímo člověka tak, aby mohl být dálkově ovládaný umělou superinteligencí, která by se do těch těl pak mohla decentralizovaně uložit jako kolektivní inteligence. To sice ještě nějaký čas potrvá, ale pokud nepřijde dostatečně silná globální katastrofa, tak pravděpodobně jednou budou technologie na to, aby se něco takového mohlo stát. Tzn. je otázkou času, kdy by ani vypnutí veškerých elektráren nepomohlo. Navíc lidé by pak už ani nemuseli být schopní rozpoznat skutečného člověka od jednoho z těl superinteligence. 

Většina lidí má tendenci řešit jen problémy, které už se dotýkají současnosti, čímž vytváří živnou půdu pro problémy v budoucnosti (vč. výše zmíněných). Touto časovou krátkozrakostí však nejlepší vědci a umělé inteligence tolik netrpí a časem nás i v tom případná superinteligence nejspíš překoná, takže ani přemýšlení o budoucích hrozbách až do oblasti sci-fi pro nás časem nemusí být dostatečná příprava. 

Už dnes také existují třeba samonaváděné vojenské drony a před časem byla i na České televizi zpráva, že v počítačovém modelu, kde nějaká ta vojenská umělá inteligence byla trénovaná, tak nejprve zprostředkovaně zničila virtuální reprezentaci člověka, který ji zadával cíle, aby si je sama volila efektivněji. Podobně časem nějakou superinteligenci může napadnout zneškodnit lidské elity v kterémkoliv odvětví vč. politiků, programátorů, zločinců, vedení firem... Později to sice příslušná armáda zpochybňovala, že experiment s takovým průběhem se prý nikdy neodehrál, ale mohlo jít jen o snahu uklidnit veřejnost, protože dává smysl, že něco takového se v určitém počítačovém modelu může stát, pokud lidé předem nepočítají se všemi absurdními možnostmi, které uměligence může vyzkoušet. 

Časem se také může stát, že nějaká armáda si nakoupí autonomní drony, které v sobě budou mít nerozpoznatelnou programátorskou skulinku (což někteří lidští programátoři nejspíš dělají, aby pak třeba byli placení za to, že to budou opravovat, když to ta skulinka časem nějak znefunkční nebo provede nějaký jiný úkol sofistikovaně skrytý v dlouhém a složitém kódu). A až nějaká cílová armáda bude mít určitý počet takových dronů, tak se mohou třeba sami zapnout a začít tu armádu ničit zevnitř jako vojáci z Trojského koně. Šílené by bylo, kdyby časem superinteligence podobnou skulinku dokázala propašovat do většiny armádní techniky své doby, aby odzbrojila lidstvo a přiměla ho přijmout její scénář budoucí "optimalizace" světa. 

A ani není nutné předpokládat, že by cokoliv z výše uvedeného umělá inteligence zvládla všechno sama. Stačí relativně málo dostatečně zkažených lidských boháčů, kteří touží ovládnout celý svět a mají přístup k takovým technologiím. Proč by pak chtěli třeba umožnit zavádět základní nepodmíněný příjem jen proto, aby ostatním lidem nechali zbytek moci, po které nenasytně touží? Raději budou zkoušet přemýšlet, jak většinu lidstva dostat do patové situace, aby pak většina udělala cokoliv, co se po ní bude chtít. Tzn. aby zůstalo něčím podmíněné, že dostanou jídlo nebo prostředky, kterými si ho budou moci jednorázově pořídit. Posledním "smyslem práce" by pak bylo udržet lidi v podřízenosti nehledě na jejich autenticitu. 

Ale to vše je pochopitelně jen rozvíjení toho špatného dystopického scénáře, podobně tak lze přemýšlet/ spekulovat o dobré utopické budoucnosti plné vývoje dostatečných zabezpečení (kdy nám sama uměligence pomáhá zlepšovat zabezpečení proti tomu, aby se vymkla kontrole) a výsledná budoucnost se obvykle různě pohybuje mezi takto krajními scénáři. Doufám však, že to člověku příznivé nakonec bude převažovat, ačkoliv z tohoto článku se může mylně zdát, že jsem velice pesimistický. Tíhnutí k pozitivním scénářům však vyžaduje, aby většina lidí výše zmíněné hrozby začala brát vážně, jelikož to přestává být čisté sci-fi a částečně to začíná být realismus, na který už dnes potřebujeme co možná nejadekvátněji reagovat ve všech oblastech našeho života, protože všechny jsou dotčeny nebo potencionálně dotčeny minimálně zprostředkovaně. 

Žádné komentáře:

Okomentovat