28.3.2024 | Svátek má Soňa


VĚDA: Lidé, bděte!

1.6.2019

Čeká lidstvo budoucí vzpoura robotů, jak ji ve své sci-fi (R.U.R. - Rossumovi Univerzální Roboti) v roce 1920 načrtl český spisovatel Karel Čapek? Je sice možná, ale málo pravděpodobná. Proč? Asi se domníváte, že hlavním důvodem je okolnost, že lidská inteligence je dosud silně nadřazena současné inteligenci strojové (tzn. sice velmi výkonné, ale dosud jen vysoce specializované umělé inteligenci, což jsou jen složité statisticky pracující algoritmy rozpoznávající vzorky v předložených datech, které lidskou inteligenci jen předstírají). Ano, to je také pravda. Existuje ale i silnější důvod pro nedosažení budoucích super-inteligencích robotů, totiž že současní psychopaté mezi námi mezitím dokáží využít i primitivní strojovou inteligenci k vyhubení lidstva na této planetě. A dojde-li k tomu, technologie se pak nebude moci dostat až do stavu budoucí strojové super-inteligence. O psychopatech v řízení lidské společnosti se dále nebudu rozepisovat, není to můj obor. Ale určitě mezi námi jsou.

Poznámka 1: Zjišťuji, že nezasvěcení lidé ještě dnes (tj. v roce 2019) mají velký odpor uvěřit tomu, že by nějaká umělá inteligence vůbec mohla existovat. A pokud už připustí, že by takový obor mohl existovat, pak jsou přesvědčeni o tom, že bude určitě trvat (lineárním vývojem) ještě několik staletí, než se současné počítače do takového budoucího stavu dostanou, takže nemá smysl se takovým tématem dnes vůbec zabývat. Jenže existují i předpovědi, že by k tomu překonání výkonu člověka mohlo dojít (exponenciálním tempem) již za 10 či 20 let.
Nezasvěcení lidé zuřivě brání svou představu o světě získanou v průběhu své minulé, zpravidla netechnologické životní kariéry. V historii lze nalézt podobné případy odporu, jak se lidé zuřivě bránili představě, že například lidskému oku neviditelné mikroby by snad mohly ohrožovat jejich život. A ještě předtím v historii se lidé zuřivě posmívali těm, kteří tvrdili, že Země se otáčí kolem Slunce a nikoliv naopak, jak hlásala tehdejší autorita. Odpor vůči narušení stávajícího přesvědčení je přirozenou lidskou záležitostí. Musíme ho tedy tolerovat.

Jak funguje dnes dominantní směr umělé inteligence?

Symbolická logika představovala dominantní směr v oboru umělé inteligence až do 90. let minulého století, kdy svůj potenciál na praktických aplikacích konečně odhalilo tzv. hluboké strojové učení (deep learning). Jeho tehdy odvážní propagátoři (tím, že šli vpřed navzdory odlišným názorům v tehdy hlavním proudu umělé inteligence) vycházeli z přesvědčení, že hlavní komponentou lidské inteligence je učení. V roce 2018 za výdrž v přesvědčení a experimentování byli oceněni Turingovou cenou, což odpovídá nejvyššímu vědeckému ocenění známou Nobelovou cenou v jiných oborech lidské činnosti.

Vyčerpávající odpověď ohledně podstaty lidské inteligence do dnešní doby sice ještě neznáme, ale přístup strojového učení už dnes sype poměrně velké peníze a má také strategicky zajímavé vojenské aplikace. Peníze a boj o moc byly vždy mocnými hybateli lidských dějin. Toho jste si museli všimnout.

Poznámka č. 2: Připomenu, že mladý lingvista a polyglot Noam Chomský z prestižní MIT v USA si všiml, že všechny jemu známé mluvené jazyky používají v podstatě stejné principy gramatiky. Jak je to možné? Chomský tehdy usoudil, že všichni lidé na této zeměkouli se snad musí rodit se stejnými strukturami ve svém mozku, a proto pak ve svém lingvistickém vyjádření zobrazují okolní svět velmi podobným způsobem. Proti tomuto názoru se ale postavil významný francouzský psycholog Jean Piaget. Ten se naopak domníval (na základě pozorování svého nemanželsky zplozeného dítěte se svou sekretářkou, čímž také vznikl vědecký obor vývojové psychologie), že člověk je od přírody tabula rasa, doslova nepopsaná tabule. Totiž, že člověk získává všechny své znalosti jen svým intenzívním učením. Tento spor nebyl dosud průkazně rozhodnut. Lidský mozek na úrovni neuronů nebyl dosud přečten, i když například aktivitu neuronů lze už převádět do mluvené řeči.

bdete1

Jak funguje strojové hluboké učení pomocí (na počítači simulovaných) mozkových neuronů?

Velmi laické přiblížení postupu: Pomocí technických sensorů vnímá umělá inteligence vybrané rysy objektu na předloženém obrázku (například u lva na obrázku), statisticky oceňuje charakteristiky zkoumaného objektu, postupně zpřesňuje významnost jednotlivých charakteristik při učení z četného vzorku předložených obrázků a na konci několikaúrovňové struktury postupného „prosívání“ (svého strojového poznávání) na vás vyplivne statistickou pravděpodobnost, že se skutečně jedná o lva, nebo jiný objekt. Jistota není nikdy plných 100 %. Čím více úrovní zpracování existuje a čím větší je počet exemplářů ve vzorku, na kterých se neuronová síť učí, tím přesnější je pak dosažený výsledek. Tím se ale, bohužel, toto velmi důkladné (zpravidla předimenzované) statistické ocenění obrázků prodražuje.

Padl pádný argument, že například dvouleté dítě už bezpečně rozezná psa od kočky, aniž by ve svém útlém věku kdy mohlo zhlédnout cca 200 000 obrázků psa a kočky, které požaduje poměrně spolehlivé strojové expertní posouzení. Proto se výzkumníci snaží snížit počet úrovní i objem exemplářů ve vzorku, na kterém se neuronová síť učí. Když to jde u člověka, proč by to nemělo jít i u programů strojového učení? Stačí přece jen najít lepší algoritmus. Takový je současný stav oboru.

Díky brutálnímu výpočetnímu výkonu dnešních počítačů dokáže umělá inteligence strojovým učením rychle prostudovat větší počet obrázků, než za celý svůj život dokáže člověk specialista v nějakém oboru. Umělá inteligence se tímto způsobem může stát větším expertem v oboru než člověk.

A ve hře je ještě další silný faktor.

Rozpozná sice více, ale není schopna to člověku zdůvodnit

Určitě víte, že evoluční vývoj na Zemi nadělil lepší oči některým ptákům a lepší čich například psovi. Člověk k přežití v průběhu evoluce tak vysoké parametry svých smyslů nepotřeboval. Nejdůležitější smyslový orgán člověka, jeho oči, mají rozlišovací schopnost jen do určité úrovně pixelů.

Dnešní technologie je citlivější než člověk. Dnešní sensory, které snímanými daty krmí programy umělé inteligence, dokáží rozpoznat mnohem větší detaily, než dokáží lidské oči. A brutální výpočetní výkon počítačů dovolí umělé inteligenci naučit se z většího počtu obrázků. To je úžasná kombinace.

Proto například už v roce 2018 neuronová síť strojového učení dokázala jen z obrázku samotného (tzn. jen z rentgenového snímku bez provedených biologických testů) rozpoznat s vyšší pravděpodobností než lékař, zda podezřelý rentgenový obrazec je, či není rakovina. To je jistě žádoucí pro obor lékařství, ale vyvstane nový problém: umělá inteligence pak není schopna člověku lidsky rozumně vysvětlit, jakými postupy k přesnější identifikaci rakoviny dospěla.

Analogie: Člověku-slepci se vize zdravého člověka jen těžko vysvětlují. Podobné je to s výkonem člověka vůči výkonu umělé inteligence. A co pak? Budete doporučením strojové umělé inteligence bez patřičného zdůvodnění slepě důvěřovat a jako lékař za ně nést i právní zodpovědnost?

Čemu tedy dáte přednost? Aby umělá inteligence rozpoznala a vyhodnotila více, než může člověk, nebo aby vnímala jen tak málo, jako vnímá člověk, aby pak byla schopna člověku (neprofesionálovi ve strojovém učení) názorně zdůvodnit, jak ke svému závěrečnému doporučení dospěla?

To jsou zcela nové, ale při dobré vůli asi řešitelné situace. Mnohem závažnější problémy mohou nastat, pokud tu stávající strojovou umělou inteligenci chce nějaký dostatečně inteligentní, ale zlomyslný psychopat proti vám zneužít.

Situace, kdy vaše bdělost nestačí

Zlomyslnost psychopata se může odehrát velmi záludně. Můžete to pak být i vy sami, kdo nevědomky odkliknete souhlas k něčemu, s čím vůbec nesouhlasíte. Zkuste si to sami na příkladu ověřit. Na obrázku vlevo je fotografie psa (dog). Normální pes, normálně viděný. Na obrázku vpravo vidíte stejného psa, pod úrovní vašeho lidského vnímání je tam ale zobrazen i obrázek žáby (frog).

bdete2

Citlivější sensory umělé inteligence ten (pro vás) skrytý obrázek bezpečně rozpoznají, a podle toho i jednají. Tak jsou naprogramovány. Nebudu zde záměrně uvádět příklady možného zneužití.

Jde o nefér jednání, kdy svými vrozenými smysly nemáte šanci se chránit proti takové zlomyslnosti. A nejsem si jist, zda nás proti tomu může ochránit nějaká budoucí aktualizace současné evropské GDPR.

O nepřátelském/kontroverzním (adversarial) strojovém učení zjistíte více ve Wikipedii, o nepřátelských příkladech zde: James Liang, November 2018 - A Breaking Machine Learning With Adversarial Examples. Výzkum strojového učení dál pokračuje, ale možnost zneužití nepřátelských příkladů pro strojové učení jen o něco snižuje, nikoliv že ho trvale vylučuje. Je to věčný soubor zla s dobrem.

Příklad ohledně věčného souboje v informačním prostředí. Ilustrativní příklad byl vymyšlen zakladatelem kybernetiky Norbertem Wienerem v 50. letech minulého století. Wiener říká: „Představte si, že existují dvě skupiny vědců. Jedna skupina se snaží vymyslet kyselinu, která rozežere jakoukoliv nádobu. Druhá skupina se naopak snaží vynalézt materiál pro nádobu, která by byla schopna udržet v sobě jakoukoliv agresivní kyselinu.“

Souboj dobra se zlem je věčný, nové je jen to, že se hraje stále o víc. Až do možnosti vzájemného zničení. Něco takového lokální války v minulosti nikdy nedokázaly. Teprve teď se nacházíme blízko takovému stavu možného vymazání lidstva z této planety. Lidé bděte! Měl jsem vás rád.

Závěr

V závěru (ač spíše skeptického) článku by autor přece jen měl sdělit i něco pozitivního. To je zásada. Přišel jsem k názoru, že pozitivem mého článku je pouze fakt, že už víme, kde je potenciálně největší problém ve „hře“ o budoucnost. Takže dnes už alespoň víme, kterým směrem napřít snahu o zlepšení. Tím největším problémem je určitě člověk, nikoliv technologie.

Technologie prožívají sice své nepříjemné dětské nemoci (které vás mohou odstrašovat od využití technologií ve vašem běžném životě), ale vývojový trend je jasný: technologie se postupně lepší a budou se lepšit do přijatelného stavu jejich použití (nikoliv absolutní spolehlivosti).

Jenže co můžeme udělat s člověkem jako nejslabším článkem tohoto řetězu? Lze ho snad také zlepšit? Nebo ho alespoň dostat pod dostatečnou kontrolu, aby nemohl způsobit velkou a nenapravitelnou škodu? Odpověď na tyto otázky už musíte najít sami.

Autor je CSd (celkem spokojený důchodce)