Umělá inteligence by měla reflektovat globální etické požadavky

Inteligentní a autonomní systémy začínají prostupovat každodenní realitu. V diskusích, jež varují před negativními dopady umělé inteligence, se však často objevují nesprávné informace. Institut elektrických a elektronických inženýrů proto začal pracovat na jejích etických standardech.

Roboti a jejich etická pravidla. | na serveru Lidovky.cz | aktuální zprávy Roboti a jejich etická pravidla. | foto: Ilustrace Richard Cortés Česká pozice
Roboti a jejich etická pravidla. | na serveru Lidovky.cz | aktuální zprávy

Robotické a autonomní systémy, které využívají prvky umělé inteligence, nabízejí současné společnosti velký inovační potenciál. Začínají postupně a často velmi nenápadně pronikat do každodenních lidských životů a strhávají na sebe stále větší pozornost veřejnosti. Ta se díky prohlášením některých více či méně významných osobností začíná znepokojovat možnými důsledky aplikace umělé inteligence na sociální stabilitu a bezpečnost.

Současně si však lidé nechtějí odepírat benefity, jež jim autonomní a robotické systémy nabízejí a v nepříliš vzdálené budoucnosti nabídnou. Jak podotýká Satoshi Tadokoro, prezident Robotické a automatizační společnosti Institutu elektrických a elektronických inženýrů (IEEE), v diskusích, jež varují před negativními dopady umělé inteligence, se často objevují nesprávné a fiktivní informace, které vycházejí z fantazie jejich tvůrců. Veřejná rozhodnutí v této oblasti by se ale měla opírat o poznání, které vychází z vědecky nebo technologicky podložených faktů.

Morální pravidla

Právě tímto směrem se vydal IEEE, jehož členové v současnosti pracují na etických standardech pro vývoj a aplikaci umělé inteligence. Cílovou skupinu tvoří tvůrci příslušných systémů, kteří mimo jiné nastavují jejich funkční priority. Odborníci IEEE rozdělili etické aspekty umělé inteligence do tří standardizačních projektů. Hodlají z nich učinit součást publikace Ethically Aligned Design, jejíž diskusní verze je k dispozici veřejnosti. Aktuálně v ní figurují převážně metodologická a bezpečnostní témata.

Úsilí IEEE nepředstavuje samoúčelný a ukvapený krok. „Chceme, aby všechny participující strany měli jistotu, že inteligentní a autonomní systémy jsou dobře promyšlené a ve svých technologických „srdcích“ reflektují globálně akceptované etické požadavky,“ říká Konstantinos Karachalios, výkonný ředitel IEEE Standards Association.

Technicky orientovaní odborníci musejí do inteligentních výtvorů ve zvýšené míře zapracovávat etická pravidla a zvažovat jejich dopady na společnost. Díky tomu inženýři významně rozšiřují svůj „akční rádius“, jenž se tradičně a obvykle vymezoval na nástroje a produkty ovládané lidmi, kteří za jejich použití nesli odpovědnost.

První ze standardů se věnuje vlivu umělé inteligence na lidské chování nebo emoce. V oborové problematice je pro tento druh interakce používán termín nudge, česky šťouchnutí. V praxi jde o zjevné nebo skryté návrhy a projevy, jež mají ovlivnit lidské chování a emoce. Standard osvětluje koncepty a funkce, které musí návrh robotických a autonomních systémů zohledňovat v oblastech globálně platné etiky a morálních teorií. Mimo jiné poukazuje na roli inženýrských komunit na tomto poli.

Technicky orientovaní odborníci musejí do inteligentních výtvorů ve zvýšené míře zapracovávat etická pravidla a zvažovat jejich dopady na společnost. Díky tomu inženýři významně rozšiřují svůj „akční rádius“, jenž se tradičně a obvykle vymezoval na nástroje a produkty ovládané lidmi, kteří za jejich použití nesli odpovědnost.

Bezpečně a odpovědně

Druhý standardizační projekt se zabývá návrhem bezpečných autonomních a poloautonomních systémů. Selhání nebo porucha samostatně se řídícího stroje může ohrozit jeho lidské uživatele, majetek nebo životní prostředí. Příkladem jsou autonomní automobily, které se díky úsilí řady technologických firem pomalu přesouvají do reality běžného silničního provozu. Riziko jejich selhání nebo poruchy je třeba snižovat řadou opatření již v etapě návrhu a vývoje.

Lze předpokládat, že různým typům poruch nebude možné vždy účinně zabránit. Totéž platí pro obtížně předvídatelné dopady havárií, při nichž bude poškozen majetek nebo zdraví. Otázkou je, na čí straně bude v konkrétních případech selhání odpovědnost.

Provozovatelé, respektive operátoři autonomních strojů by měli disponovat jasnými technickými instrukcemi, které jim umožní systém bezpečně zastavit či vypnout. Standard rovněž definuje postupy pro měření, testování a certifikaci schopnosti „bezpečného“, tedy nikoho a nic neohrožujícího selhání.

Lze předpokládat, že různým typům poruch nebude možné vždy účinně zabránit. Totéž platí pro obtížně předvídatelné dopady havárií, při nichž bude poškozen majetek nebo zdraví. Otázkou je, na čí straně bude v konkrétních případech selhání odpovědnost. V tomto ohledu norma představuje výchozí materiál pro návrháře systémů, jejich uživatele a zainteresované regulatorní orgány.

Hrozba versus přínos

Ve třetím standardu se odborníci IEEE zaměřují na měření přínosů umělé inteligence pro kvalitu lidských životů a využívají pro to ukazatele hospodářského růstu a produktivity. Norma definuje indikátory a metriky, které mohou být přímo ovlivněny aplikací autonomních a inteligentních systémů.

Tvůrci standardizačního projektu reagují na již letité a téměř samozřejmě vnímané zprávy o blížící se náhradě lidské pracovní síly, a to i vysoce kvalifikované, roboty

Tvůrci standardizačního projektu reagují na již letité a téměř samozřejmě vnímané zprávy o blížící se náhradě lidské pracovní síly, a to i vysoce kvalifikované, roboty. Tyto vize a predikce nerozporují, jen do připravované normy vkládají stejně samozřejmý předpoklad či očekávání, že využití umělé inteligence a autonomních systémů zvyšuje kvalitu lidského života. 



Diskuse neobsahuje žádné příspěvky.

Autor

Lukáš Kříž

Lukáš Kříž | na serveru Lidovky.cz | aktuální zprávy

Další autorovy články