Ohrožuje lidstvo umělá inteligence?

Superinteligence by měla přemýšlet stejně rychle jako člověk, ale kvalitativně na vyšší úrovni. Kolektivní superinteligenci by pak mělo tvořit mnoho nižších inteligencí sestavených tak, že by jejich celkový výkon každou kognitivní inteligenci předčil.

Nick Bostrom, Superintelligence: Paths, Dangers, Strategies | na serveru Lidovky.cz | aktuální zprávy Nick Bostrom, Superintelligence: Paths, Dangers, Strategies | foto: Montáž Richard CortésČeská pozice
Nick Bostrom, Superintelligence: Paths, Dangers, Strategies | na serveru Lidovky.cz | aktuální zprávy

V průběhu druhé světové války dva britští matematici a kryptoanalytici Irvin John Good a Alan Turing významně přispěli k rozluštění kódu německého šifrovacího stroje Enigma. Good navíc prohlásil, že první superinteligentní stroj bude současně posledním vynálezem lidstva, pokud mu tento stroj nesdělí, jak jej lze kontrolovat.

Technologický pokrok časem zřejmě přinese inteligenční explozi, přičemž není podstatné, zda na základě kombinace biologické a technické inteligence nebo umělé inteligence, jejímž výsledkem bude superinteligence, která ve veškeré činnosti předčí člověka. S tím souvisí řada otázek týkajících se společné existence člověka a superinteligence, mezi něž například patří:

  • Musí se superinteligence projevovat pouze negativně a být vůči člověku nepřátelská, což ukazují hollywoodské dystopické filmy, jako je Terminátor?
  • Proč jsou superinteligenci přisuzované lidské vlastnosti, touhy a motivace?
  • Lze do primárního kódu superinteligence začlenit morálku? A z jaké civilizace?
  • Proč by superinteligence měla brát ohled na lidské hodnoty, pokud její základní princip představuje efektivní racionalita?

Mnohem lepší výkon

Otázce rizik spojených se vznikem superinteligence a jejími následky se věnuje švédský filozof, futurolog a profesor Oxfordské univerzity Nick Bostrom ve své knize Superintelligence: Paths, Dangers, Strategies (Superinteligence. Cesty, hrozby, strategie). Bostrom je také ředitelem oxfordského Future of Humanity Institute a společně s Davidem Pearcem založil World Transhumanist Association a s Jamesem Hughesem Institute for Ethics and Emerging Technologies.

Bostrom je přesvědčen, že superinteligence dosáhne mnohem lepších výkonů než současný lidský mozek

Podle Bostroma představuje člověk nejhloupější biologický systém, který vyvinul technologickou civilizaci, přičemž nikoli díky jedinečným schopnostem lidí, ale protože byli první, kteří toho byli schopní. Navíc je Bostrom přesvědčen, že superinteligence dosáhne mnohem lepších výkonů než současný lidský mozek.

Nové technologie, strategické plánování, zbraňové systémy, sociální manipulace, kontrola strategických surovin nebo totální kontrola společnosti nebudou pro superinteligenci fungující rychlostí světla přestavovat žádný problém a v rámci sebezdokonalování dokáže korigovat všechny kontrolní mechanismy instalované člověkem. A proč by to neměla udělat? Stejně jako si totiž lidé nenechají radit od opic jak spolu lépe žít, ani pro ni nebudou hrát žádnou roli poznatky mnohem nižší inteligence.

Cíl

Z tohoto důvodu je třeba technologický vývoj kriticky analyzovat. Bostrom se totiž obává, že „v případě inteligenční exploze se lidstvo ocitne v roli dítěte, jež si hraje s nezajištěnou bombou, přičemž nezralost lidského jednání překoná jen destruktivní sila jeho hračky“. Jediná výhoda lidstva spočívá v tom, že si samo superinteligenci nebo její předstupeň vytvoří. A zatím je možné diskutovat, zda lze superinteligenci, dokud ještě není superinteligentní, zkonstruovat tak, aby mu aspoň neškodila.

Dle Bostroma je třeba především diskutovat o strategii, jak potenciální katastrofě předejít, přičemž nejzajímavější je, jak definovat možnosti pro řešení problémů, které ještě neexistují, ani není jasné, zda někdy vzniknou nebo jsou-li ty skutečné. Nikdo totiž neví, co bude cílem superinteligence: Světová nadvládu, nebo vyšší poznání? A co když ji moc nebo vědění nebudou zajímat a spíše se soustředí na výpočet dalších desetinných míst Π?

Nikdo neví, co bude cílem superinteligence: Světová nadvládu, nebo vyšší poznání? A co když ji moc nebo vědění nebudou zajímat a spíše se soustředí na výpočet dalších desetinných míst Π?

Šach je považován za hru znázorňující komplexnost lidského intelektu a součástí představy, že se jednou podaří zkonstruovat stroj, který tuto hru zvládne, je i naději, že se lidstvo přiblíží pochopení lidské inteligence. Jak však prohlásil americký informatik John McCarthy, jakmile něco začne fungovat, nikdo už to nebude nazývat umělou inteligencí.

Příkladem je Deep Blue, superpočítač firmy IBM, který v roce 1997 porazil tehdejšího šachového mistra světa Garriho Kasparova. Jde sice o formu umělé inteligence přesahující lidské schopnosti, ale ta stále ovládá jen šach, stejně jako křížovkový software řeší pouze křížovky. Superinteligence by ale měla být schopná se učit a efektivně vyhodnocovat i nejisté nebo pravděpodobné informace a navíc ze smyslových vjemů a vnitřních stavů získávat data, jež flexibilně a kombinačně použije k logickému a intuitivnímu myšlení.

Lidské emoce

Existuje několik možností, jak vytvořit superinteligenci – například ji odpozorovat z přírody. Ze sledování ptáků lidé věděli, že létat je možné, navzdory tomu první letadla nemávala křídly a fungovala na jiném principu. S pokrokem v neurovědě je pak pravděpodobné, že budou odhalena tajemství lidského mozku, čímž vznikne základ k vytvoření umělé inteligence.

Neexistuje důvod se domnívat, že superinteligenci budou vlastní lidské emoce, jako je láska, nenávist nebo pýcha

Ta by v každém případě měla být schopná sebezdokonalování, tedy navrhnout svoji lepší nebo inteligentnější verzi, a v této činnosti pokračovat natolik dlouho, až by za určitých podmínek nastala inteligenční exploze vedoucí ke vzniku superinteligence. Ta ale zřejmě bude člověku velmi vzdálená, a ani neexistuje důvod se domnívat, že jí budou vlastní lidské emoce, jako je láska, nenávist nebo pýcha.

Superinteligence by měla přemýšlet stejně rychle jako člověk, ale kvalitativně na vyšší úrovni. Kolektivní superinteligenci by pak mělo tvořit mnoho nižších inteligencí sestavených tak, že jejich celkový výkon by každou kognitivní inteligenci předčil. Jednou z cest k této superinteligenci je kognitivní zdokonalování s pomocí genetické selekce, což je zejména v Německu citlivé téma. Pro některé státy však může představovat nástroj k vyšší sociální stabilitě, zdravotnímu stavu i IQ společnosti.

Důležitá neznámá

Důležitou neznámou je doba od chvíle, kdy stroje dosáhnou myšlenkových schopností lidí, ke vzniku superinteligence. Čím rychleji to totiž nastane, tím méně bude lidstvo moci nějak zareagovat, přičemž pravděpodobně půjde o velmi rychlý proces. Vznikne jen jedna superinteligence nebo několik současně? Některé návrhy proto doporučují pracovat jen na umělých inteligencích, které odpovídají na zadané otázky, jako je navigace v autě, jež tím, že se neustále zlepšuje, přispívá k bezpečnosti provozu.

Důležitou neznámou je doba od chvíle, kdy stroje dosáhnou myšlenkových schopností lidí, ke vzniku superinteligence

Zatím platí, že čím chytřejší je umělá inteligence, tím je bezpečnější a spolehlivější. Člověka ohrožuje pouze minimálně, přestože v určité oblasti lidské činnosti má vyšší inteligenci. Pokud systém není inteligentní, tedy na člověku závislý, je neškodný, ale když například začne odpovědi manipulovat, získá strategickou výhodu a stane se nebezpečným. Následně totiž vytvoří takzvaný singleton, čímž Bostrom míní světový řád s jedním všemocným globálním řídícím centrem, které začne optimalizovat svět na základě kritérií pro konečný cíl.

Už samotný výzkum umělé inteligence v sobě skrývá velká rizika. V průběhu soutěže dvou států ve vývoji suprinteligence může nastat, že jeden v něm dosáhne průlomu, čímž získá strategickou výhodu. V takovém případě je jen jeden vítěz, druhé místo neexistuje, a proto se tento druhý stát může ze zoufalství rozhodnout k preventivnímu úderu než čekat na porážku. S vědomím této možnosti ale může vítězný stát provést zničující úder, aby tomuto svému osudu předešel.

Nejen stát, ale i soukromá firma

Bostrom proto dává přednost mezinárodní spolupráci ve vývoji superinteligence a diskusi o kritériích, na jejichž základě by bylo možné sestavit hodnotový systém a vytvořit instituce, které by se těmito problémy zabývaly. Ve 20. století byly takové projekty myslitelné jen na státní úrovni, ale ve 21. století se situace významně změnila.

Dle Bostroma nejen státy, ale i nějaká privátní firma s dostatečným kapitálem může potají vyvinout umělou inteligenci

Globalizace uvolnila dostatek finančních prostředků a v současnosti se objevilo několik hráčů z privátní sféry, kteří se věnují oblastem, jež dříve byly doménou státu. Zakladatel automobilky Tesla Motors a vesmírné společnosti SpaceX Elon Musk nedávno prohlásil, že lidstvo nejvíce ohrožuje umělá inteligence.

Navzdory tomu ale podobně jako zakladatel Facebooku Mark Zuckerberg nebo šéfové Googlu Sergey Brin a Larry Page investoval do firem, které ji vyvíjejí. Na otázku proč, odpověděl, aby měl přehled, co se v tomto oboru děje. A dle Bostroma nejen státy, ale i nějaká privátní firma s dostatečným kapitálem může potají vyvinout umělou inteligenci.

Superintelligence: Paths, Dangers, Strategies

Superinteligence. Cesty, hrozby, strategie

AUTOR: Nick Bostrom

VYDAL: Oxford University Press 2014

ROZSAH: 352 stran



Počet příspěvků: 2, poslední 1.2.2015 03:48 Zobrazuji posledních 2 příspěvků.