Kniha Andreje Lobotky s názvem Umělá inteligence z pohledu antidiskriminačního práva a GDPR nabízí čtenářům jednoduchý návod, jak postupovat v případě, že se stanou obětí diskriminace ze strany algoritmického rozhodování. Taková diskriminace mívá různé podoby, může k ní dojít například v podniku, který využívá umělou inteligenci k selekci životopisů uchazečů o zaměstnání. Postupem času se však ukáže, že systém začal na pozici vývojářů softwarů a další technické pozice preferovat mužské kandidáty, čímž došlo k diskriminaci žen.

Autor však ve své knize nabízí víc než jen to. Dílo je schopno přitáhnout i pozornost čtenáře, který disponuje jen povrchními znalostmi o moderní technologii. V první kapitole Lobotka velice srozumitelně vysvětluje pojem umělé inteligence a důkladně rozebírá mechanismus algoritmického rozhodování. Hlavní schopností umělé inteligence je umění vnímat informace ze svého okolí a na jejich základě pak dokáže usoudit, jaký úkon je v dané situaci nejvhodnější, nikoliv jen automaticky pokračovat v předem naprogramovaném postupu. Avšak i méně vyspělé algoritmy, které nenaplňují znaky umělé inteligence, jsou podle Lobotky schopny jednat diskriminačně a napáchat tak škodu.

Odborný popis autor prokládá příklady, jak je umělá inteligence využívána v praxi v různých zemích světa. Dozvíme se tak například o autonomním zápisu estonských dětí do školy. Při narození jsou estonské děti automaticky zapsány do školy podle místa svého bydliště, protože nemocniční záznamy jsou přímo propojeny se systémem místních škol. Estonsko také využívá inteligentní systém, který zpracovává údaje o kvalifikaci, vzdělání či praxi osob propuštěných z práce a pomáhá jim najít vhodné zaměstnání.

Proč roboti diskriminují

Proč však umělá inteligence nebo jiný algoritmus v některých případech diskriminují? Logicky by se přece dalo očekávat, že algoritmické rozhodování bude objektivní. Umělá inteligence nedokáže cítit nenávist k lidem určité rasy či odlišného náboženského vyznání, nemůže být ani sexistická či homofobní. Avšak může se stát, že data, ze kterých se algoritmus "učí", samotný proces sběru tréninkových dat či kritérium stanovené pro rozhodování mají diskriminační charakter. V neposlední řadě je nutno uvažovat i případ cíleného zneužití algoritmu k diskriminaci.

Klikli jste na článek, který patří do předplatitelské sekce iHNed.cz
Chcete si přečíst celý článek?