Počítačové programy pomáhají posoudit šance pachatelů na nápravu

Řada studií dokázala, že v předvídání recidivy násilných trestných činů jsou počítače úspěšnější než soudci. Zaznívají však i kritické hlasy.

Jaroslav Petr 28.3.2020
GDPR přineslo absurdní obavy. | na serveru Lidovky.cz | aktuální zprávy GDPR přineslo absurdní obavy. | foto: Richard Cortés, Lidové noviny
GDPR přineslo absurdní obavy.

Soudci mohou poslat zločince k výkonu trestu ve věznicích s různě tvrdým režimem. Současně mohou propustit usvědčeného pachatele s podmínečným trestem. Na jedné straně tedy hrozí, že odsouzený v podmínce bude páchat další zločiny, na druhé může za mřížemi skončit člověk, pro něhož je prohřešek proti zákonu lekcí na zbytek života, a nikdy už nic podobného neprovede. Soudce by měl svými verdikty chránit společnost před těmi, kdo by v kriminálním jednání pokračovali, a zároveň umožnit polepšení těm, u kterých jsou vyhlídky, že nabídnutou šanci nepromarní.

Rozhodování soudců není jednoduché a nabízí se otázka, zda by jim nepomohly počítače. Americkým soudcům už delší dobu algoritmy napovídají, jak riskantní je podmíněný trest u konkrétního obžalovaného. Systémů pro počítačovou „předpověď recidivy“ je tam v provozu několik desítek. Názory na to, jak dobrou práci odvádějí, se různí. Řada studií dokázala, že v předvídání recidivy násilných trestných činů jsou počítače úspěšnější než profesionální soudci. Zaznívají však i kritické hlasy.

Omyl kvůli záplavě informací

V roce 2016 analyzovali novináři více než sedm tisíc verdiktů, které vynesli soudci „po poradě“ s algoritmem Compas, a dospěli k závěru, že program je „rasistický“. Afroameričany označoval za potenciální recidivisty skoro dvakrát častěji než bělochy. Přitom běloši doporučení algoritmem k podmínečnému trestu páchali zločiny častěji než na podmínku propuštění Afroameričané. Tato analýza se však ukázala neprofesionální a neobstála.

Informatiky Julii Dresselovou a Hanyho Farida z americké Dartmouth College na sporu o nestrannost systému Compas zaujalo, že zastánci počítačových odhadů považovali algoritmy za spolehlivější než úsudek lidí. „Nenašla jsem žádný výzkum, o který by se tato tvrzení mohla opřít,“ říká Dresselová a rozhodla se Compas otestovat. Společně s Faridem získala náborem přes internet čtyři sta dobrovolníků z řad právnických laiků. A každému nechali posoudit sklony k recidivitě 40 odsouzených, o nichž bylo známo, že se v podmínce dopustili dalšího zločinu.

Soudce má o obžalovaném k dispozici obrovský počet informací. Zná například výpovědi svědků či argumentaci advokátů. Jak ale upozornil Sharad Goel ze Stanfordovy univerzity, záplava informací soudcům rozhodování neusnadní. Naopak. Nadmíra informací má často za následek, že se soudci mýlí.

Algoritmus Compas hodnotí riziko recidivy na základě 137 údajů o posuzované osobě. Dobrovolníci dostali o každém odsouzenci jen sedm základních údajů, přičemž určili správně recidivisty v 63 procentech případů. Compas se strefil v 65 procentech. Neukázal se tedy výrazně spolehlivější. „A to jsme využili laiky s omezeným množstvím informací,“ zdůraznil Farid.

Soudce má o obžalovaném k dispozici obrovský počet informací. Zná například výpovědi svědků či argumentaci advokátů. Jak ale upozornil Sharad Goel ze Stanfordovy univerzity, záplava informací soudcům rozhodování neusnadní. Naopak. Nadmíra informací má často za následek, že se soudci mýlí. Tím, že Dresselová s Faridem vybrali ze záplavy dat nízký počet klíčových údajů, dobrovolníkům rozhodování výrazně ulehčili – mohli odhadovat sklony k recidivě lépe než soudci zahlcení informacemi.

„Tato studie by se neměla interpretovat tak, že algoritmy nic nepřinášejí,“ říká Goel o práci Dresselové a Farida. „Měli bychom z ní vyvodit, že když necháme lidi, aby se soustředili na skutečně důležité věci, pak mohou i laici soupeřit s počítačovými algoritmy.“

Jasné výsledky

Do bouřlivé diskuse o využívání algoritmů pro stanovení pravděpodobnosti recidivy v americkém soudnictví nyní zasáhl tým vedený Jennifer Skeemovou z Kalifornské univerzity v Berkeley. Ve studii publikované ve vědeckém časopise Science Advances Skeemová s kolegy dokazuje, že v reálných podmínkách jsou odhady algoritmů podstatně spolehlivější než rozhodování člověka. Skeemová použila stejný soubor odsouzených, s nímž provedli své experimenty Dresselová s Faridem.

Výsledky studie týmu vedeného Jennifer Skeemovou z Kalifornské univerzity v Berkeley hovoří jasně. Algoritmus Compas určil recidivitu s úspěšností 89 procent. Dobrovolníci předvídali recidivu pachatelů správně v 60 procentech případů. Podobně dopadly testy jiného algoritmu – nemýlil se v 80 procentech případů. Počítač byl tedy vždy výrazně úspěšnější než člověk.

Na rozdíl od svých předchůdců se ale pokusila postavit dobrovolníky do situací, které se více blíží skutečnému rozhodování soudce. Poskytla jim například víc údajů o pachatelích. Oproti experimentu Dresselové a Farida jich přidala deset. Další přiblížení realitě spočívalo v tom, že Skeemová odepřela dobrovolníkům „zpětnou vazbu“. V pokusech Dresselové a Farida se dobrovolníci po každém vyneseném soudu dozvěděli, zda tipovali recidivu posuzované osoby správně, nebo se spletli. Soudce ale takovou bezprostřední kontrolu u svých verdiktů postrádá.

Nemusí se nikdy dozvědět, že pachatel, kterého pustil na podmínku, spáchal vzápětí závažný trestný čin. Třeba jen proto, že se zločinec přestěhoval na druhý konec USA. A už vůbec nemá šanci zjistit, že se v odsouzenci nespletl a ten vede spořádaný život. Výsledky studie Skeemové hovoří jasně. Algoritmus Compas určil recidivitu s úspěšností 89 procent. Dobrovolníci předvídali recidivu pachatelů správně v 60 procentech případů. Podobně dopadly testy jiného algoritmu – nemýlil se v 80 procentech případů. Počítač byl tedy vždy výrazně úspěšnější než člověk.

Diskuse neobsahuje žádné příspěvky.