1.4.19

Bořivoj Brdička: Tramvajové dilema a informatické myšlení

Článek vysvětluje zajímavý problém, na který narážejí vývojáři systémů řízení autonomních (samořídicích) vozidel. Komu v případě nevyhnutelnosti nehody více ublížit?

Tramvajové dilema (trolleyologie) existuje již hodně dlouho. V roce 1967 s ním přišla filozofka Philippa Foot v souvislosti s problematikou potratů. Jedná se o etický problém původně řešený již v antice a později katolickou církví (Tomáš Akvinský), s nímž se dnes nejčastěji setkávají lékaři (kromě potratů též např. eutanázie) a dostává se i do roviny právní. Vžilo se pro něj též označení Princip dvojího účinku. Právě Philippa pro vysvětlení původně použila příklad, který dal tomuto dilematu název.

Tramvaj se řítí na pět lidí, kteří o tom nevědí. Na vedlejší koleji je jen jedna osoba, kterou vůz srazí, dojde-li k přehození výhybky. Náhodný kolemjdoucí situaci sleduje a výhybku může přehodit. Otázka zní: je eticky legitimní to udělat? [1]

Ve skutečnosti jednoznačně správné řešení neexistuje. Je-li tím, kdo má aktivně zasáhnout a přehodit výhybku člověk, je to skutečně těžké dilema. Je to totiž on, kdo způsobí smrt jednoho člověka, zatímco, když neudělá nic, odpovědnost neponese. Přitom navíc neví, co se může přihodit během zbývajícího času, než vůz dojede na místo. My necháme filozofy, ať si tímto hypotetickým etickým problémem lámou hlavu, a podíváme se na věc trochu praktičtěji.

Ten, kdo přehazuje výhybku, dnes nutně nemusí být člověk. Je-li to automat (robot), celá věc bude vypadat docela jinak. Stejný problém musí občas řešit například autonomní (samořízené) vozidlo. Představte si analogickou situaci: Auto se řítí na stánek se zeleninou, u něhož stojí 5 lidí. Existuje možnost strhnout řízení směrem, kde stojí jeden člověk. Co se má stát? [2]

Problém najednou dostává úplně jiné dimenze. Už tu není řidič, který se musí ve zlomku vteřiny rozhodnout, co udělá (skoro jistě by v té situaci dal přednost tomu řešení, které by bylo nejvýhodnější pro něj samotného). Je zde umělá inteligence pracující s funkcí strojového učení, které lze určitý postup ve specifických situacích vnutit. Má preferovat minimalizaci následků, tj. zabít jen jednoho člověka? Co když je to dítě? Která varianta znamená větší riziko pro cestující? Má dát přednost ochraně majitele (cestujících)?

Zvolené řešení přestává být etickým problémem řidiče a stává se problémem vývojářů společností, které autonomní vozidla vyvíjejí. Jak se k tomuto problému staví lidé napříč etniky a kontinenty s pomocí svých studentů zkoumá Iyad Rahwan, profesor MIT Media Lab a ředitel Max Planck Institute for Human Development. Vyvinuli nástroj, který prostřednictvím webu měří reakce návštěvníků na různé problémové situace (Moral Machine). Řekl bych, že by jeho vyzkoušení mohlo být docela zajímavým doplňkem výuky. Výsledky shrnuje článek v Nature [3] a následující video:

Moral Machines: How culture changes values


Celý článek na spomocnik.rvp.cz.

1 komentář:

Nicka Pytlik řekl(a)...

jeho vyzkoušení mohlo být docela zajímavým doplňkem výuky

V případě nezletilých žáků si pytlici nejsou zase až tak jisti.
Sami by od takové zajímavosti určitě upustili. Snad i proto, aby si dítě případně na jedné koleji nepředstavilo maminku a na druhé tatínka. Mnohého dočasu...

Okomentovat