1.7.2024 | Svátek má Jaroslava


FEJETON: Sofiina volba

7.7.2016

Je to hnusná představa, ta Sofiina volba, tak hnusná, že ji tady nebudu parafrázovat. Předpokládám, že každý ví, o co jde, a kdo neví, pánbu s ním. Naštěstí život je tak zařízen, že nás technicky vzato nemůže před podobnou volbu postavit. Ta pravděpodobnost je tak malá, že nestojí za úvahu. Stojí jenom za napsání tlustého románu, což se i stalo.

Nicméně myšlenka osudového rozhodování se teď vynořila v souvislosti s umělou inteligencí. V ulicích některých měst už jezdí automaticky řízená či pilotovaná auta. Zatím je to tak, že mají volant a u řízení sedí člověk, ten ale si může číst knížku nebo koukat z okna a nezasahuje vůbec nebo jen někdy. To ovšem je pouhý předstupeň k naprosto autonomnímu automobilu. V něm nějaký volant vůbec nenajdete. Nasednete a poručíte, kam se má jet. Principiálně to bude podobné jízdě ve výtahu.

Dejme tomu, že jede autonomní automobil a do cesty mu ve vjezdu pod úzký most skočí nepozorný chodec. Automobil je řízen umělou inteligencí. Ta neumí zmatkovat, jen chladně analyzuje situaci a koná opatření. V této hypotetické situaci má volbu: buď pojede přímo a člověka přejede, nebo strhne řízení a narazí do pilíře mostu a vůz rozbije a zabije lidi uvnitř. V každém případě někdo dojde úhony. Jak se ta umělá inteligence rozhodne?

Tu otázku musíme přesněji specifikovat. Řídící jednotku automatického auta musí někdo programovat. Ten vkládá modelové situace. Tím fakticky programuje cosi, co bychom mohli nazvat robotickou morálkou. Uvažoval o tom už ve čtyřicátých letech minulého století Isaac Asimov a stanovil tři zákony robotiky. Ty zní:

1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.

2) Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.

3) Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem.

V naší modelové situaci je problém už s tím prvním zákonem, protože v jednom i druhém případu by bylo ublíženo člověku.

Tenhle oříšek budou muset rozlousknout programátoři řídících jednotek autonomních automobilů dopředu.

Lze analyzovat míru rizika. Chodec je zranitelnější než pasažér ve voze opatřeném prostředky pasivní bezpečnosti, tedy pásy, airbagy, deformačními zónami. Náraz do pilíře by jistě byl pro posádku nepříjemný, nemusel by ale být nutně fatální, kdežto chodec by náraz patrně nepřežil. Řešení je to jen zdánlivé, jelikož čas pro analýzu je omezený. Může nastat situace, kdy bude třeba dát příkaz řízení ve tvaru člověk, nebo pilíř, třebaže analýza nebude ještě hotova. Problém jsme tedy nevyřešili, jen posunuli.

Když o tom tak přemýšlím, napadá mi jediné: umožnit umělé inteligenci schopnost zmatkování. Už proto, že bychom ji tím hodně přiblížili člověku.

LN, 4.7.2016