Kniha Andreje Lobotky s názvem Umělá inteligence z pohledu antidiskriminačního práva a GDPR nabízí čtenářům jednoduchý návod, jak postupovat v případě, že se stanou obětí diskriminace ze strany algoritmického rozhodování. Taková diskriminace mívá různé podoby, může k ní dojít například v podniku, který využívá umělou inteligenci k selekci životopisů uchazečů o zaměstnání. Postupem času se však ukáže, že systém začal na pozici vývojářů softwarů a další technické pozice preferovat mužské kandidáty, čímž došlo k diskriminaci žen.

Autor však ve své knize nabízí víc než jen to. Dílo je schopno přitáhnout i pozornost čtenáře, který disponuje jen povrchními znalostmi o moderní technologii. V první kapitole Lobotka velice srozumitelně vysvětluje pojem umělé inteligence a důkladně rozebírá mechanismus algoritmického rozhodování. Hlavní schopností umělé inteligence je umění vnímat informace ze svého okolí a na jejich základě pak dokáže usoudit, jaký úkon je v dané situaci nejvhodnější, nikoliv jen automaticky pokračovat v předem naprogramovaném postupu. Avšak i méně vyspělé algoritmy, které nenaplňují znaky umělé inteligence, jsou podle Lobotky schopny jednat diskriminačně a napáchat tak škodu.

Odborný popis autor prokládá příklady, jak je umělá inteligence využívána v praxi v různých zemích světa. Dozvíme se tak například o autonomním zápisu estonských dětí do školy. Při narození jsou estonské děti automaticky zapsány do školy podle místa svého bydliště, protože nemocniční záznamy jsou přímo propojeny se systémem místních škol. Estonsko také využívá inteligentní systém, který zpracovává údaje o kvalifikaci, vzdělání či praxi osob propuštěných z práce a pomáhá jim najít vhodné zaměstnání.

Proč roboti diskriminují

Proč však umělá inteligence nebo jiný algoritmus v některých případech diskriminují? Logicky by se přece dalo očekávat, že algoritmické rozhodování bude objektivní. Umělá inteligence nedokáže cítit nenávist k lidem určité rasy či odlišného náboženského vyznání, nemůže být ani sexistická či homofobní. Avšak může se stát, že data, ze kterých se algoritmus "učí", samotný proces sběru tréninkových dat či kritérium stanovené pro rozhodování mají diskriminační charakter. V neposlední řadě je nutno uvažovat i případ cíleného zneužití algoritmu k diskriminaci.

Chcete číst dál?

Ještě na vás čeká 70 % článku.

První 3 měsíce, pak 199 Kč měsíčně

S předplatným získáte

  • Web Ekonom.cz bez reklam
  • Možnost sdílet prémiový obsah zdarma (5 článků měsíčně)
  • Možnost ukládat si články na později
Nebo
Proč ji potřebujeme?

Potřebujeme e-mailovou adresu, na kterou pošleme potvrzení o platbě. Zároveň vám založíme uživatelský účet, abyste se mohli k článku kdykoli vrátit a nemuseli jej platit znovu. Pokud již u nás účet máte, přihlaste se.

Potřebujeme e-mailovou adresu, na kterou pošleme potvrzení o platbě.

Odesláním objednávky beru na vědomí, že mé osobní údaje budou zpracovány dle Zásad ochrany osobních a dalších zpracovávaných údajů, a souhlasím se Všeobecnými obchodními podmínkami vydavatelství Economia, a.s.

Nepřeji si dostávat obchodní sdělení týkající se objednaných či obdobných produktů společnosti Economia, a.s. »

Zaškrtnutím políčka přijdete o možnost získávat informace, které přímo souvisí s vámi objednaným produktem. Mezi tyto informace může patřit například: odkaz na stažení mobilní aplikace, aktivační kód pro přístup k audioverzi vybraného obsahu, informace o produktových novinkách a změnách, možnost vyjádřit se ke kvalitě našich produktů a další praktické informace a zajímavé nabídky.

Vyberte si způsob platby kliknutím na požadovanou ikonu:

Platba kartou

Rychlá online platba

Připravujeme platbu, vyčkejte prosím.
Platbu nelze provést. Opakujte prosím akci později.