Etika jednotiek a núl

Každá technológia sa dá zneužiť a žiadna nie je bezchybná. Medzi nukleárnou hlavicou a jadrovou elektrárňou je však rozdiel, ktorý je možno dôležitejší ako všetky technologické odlišnosti: etika. Informačné technológie sú na tom podobne.

Foto Unsplash/Javier Allegue Barros

Nejde tu iba o hackerov či digitálnych vydieračov. Počítače sa nemusia ani rovno zblázniť ako filmový HAL 9000 z Vesmírnej odysey. Využívanie nových technológií má aj množstvo nenápadnejších bočných efektov, ktoré vyvolávajú etické dilemy.

Ochrana dát

Informačné technológie už zmenili svet na nepoznanie, a to sa ich éra iba začína. Umožňujú nám tiež pracovať, vzdelávať sa, nakupovať alebo mať prístup k lekárskej starostlivosti na diaľku. Všetky tieto transakcie sú však spojené so sprístupňovaním dát o nás, našich zvykoch, prednostiach i slabostiach či o našom zdravotnom stave. Výhody nových technológií majú neraz pritom za následok prehliadanie potenciálnych nevýhod.
Hoci povedomie o potrebe ochrany súkromia sa vyvíjalo súbežne s rozvojom digitálnych technológií a sietí, nástroje ochrany používateľov zaostávajú. Podľa údajov OSN v súčasnosti 128 zo 149 krajín sveta má už nejaké právne predpisy o ochrane dát – Slovenska sa týka najmä GDPR, nariadenie Európskej únie na ochranu osobných údajov. Rešpektovanie súkromia či uchovávanie citlivých informácií o ostatných však nemôže byť iba vecou zákonov. Aj (komerčné) spoločnosti musia urobiť viac pre to, aby zosúladili svoje obchodné modely a produktovú stratégiu s cieľom poskytovať personalizované zážitky na webe bez porušovania súkromia, pripomenul v diskusii magazínu Forbes o etike nových technológií hlavný expert poradenskej spoločnosti EY Nicola Morini Bianzino. Príkladom môže byť zber informácií opoužívateľoch sociálnych sietí či vyhľadávacích služieb a ich predaj na účely cielenej reklamy. Z používateľa sa vlastne stáva produkt, čo vyvoláva etické otázniky, a hrozí aj iné zneužitie údajov.

Digitálna dystopia

Foto Unsplash/Bernard Hermant

Za extrém je považovaný čínsky systém sociálneho kreditu, ktorý má každému občanov prideľovať alebo uberať body podľa jeho správania. Vláda ho buduje od roku 2014, no zatiaľ ide o spleť rôznych programov štátu a súkromných firiem. Medzi nimi Sesame Credit, odnož online obchodu Alibaba, ktorá používa svoj vlastný systém hodnotenia zamestnancov napríklad na základe ich nákupných zvyklostí. Svoje systémy majú aj regionálne či mestské správy. Štát vyvíja svoje vlastné programy, ale zároveň do systému začleňuje mnohé zo súkromných či miestnych aj bez väčších úprav.
Neexistujú teda jednotné pravidlá a kredit sa ľahšie stráca ako získava späť. Občan, ktorému strhnú body, pretože nezaplatil nejaký úradný poplatok, môže napríklad teoreticky zaplatiť a získať kredit späť – na to však už potrebuje odobrenie súdom. Body sa strácajú za prechod na červenú, cestovanie načierno, púšťanie príliš hlasnej hudby na verejnosti a pod. Ľudia bez kreditu môžu mať napokon problém pri získaní pôžičky, nákupe leteniek, žiadosti o pas a iné dokumenty či pri kúpe nehnuteľnosti.
Vstup do systému je zatiaľ dobrovoľný, byť mimo neho však znamená v rôznych situáciách nevýhodu. Na stvorenie takejto obdoby Veľkého brata stačí už v súčasnosti využiť údaje z pouličných kamier, úradné záznamy, dáta mapujúce bankové transakcie, obchodné zvyky či kultúrne záľuby ľudí a analyzovať ich pomocou umelej inteligencie.

Foto Unsplash/Prateek Katyal

Umelá inteligencia

Sociálny kredit je možno extrém, algoritmy umelej inteligencie však prenikajú do našich životov čoraz viac aj bez nejakého centrálneho plánu. Využívajú sa pri odporúčaniach v oblasti zdravotnej starostlivosti, rozhodovaní o prijímaní do zamestnania, o dôveryhodnosti klientov bánk, pri prevádzke autonómnych vozidiel… Je dôležité, aby boli algoritmy na posudzovanie ľudí maximálne transparentné a etické, uviedol v rozhovore pre Quark (2/2020) Martin Takáč z Centra pre kognitívnu vedu na Fakulte matematiky, fyziky a informatiky UK v Bratislave. Existuje celá jedna oblasť, transparentná umelá inteligencia, ktorá sa usiluje o to, aby rozhodnutia systémov umelej inteligencie boli zdôvodniteľné, pretože inak je to rozhodovanie o ľudských osudoch na základe neznámych podkladov.
Vo svete napríklad existujú príklady veľkých technologických spoločností, ktoré sa rozhodli, že prestanú poskytovať policajným oddeleniam systémy umelej inteligencie na rozpoznávanie tvárí, kým nebudú zavedené jasné pravidlá a predpisy. Systém, ktorý hľadá iba korelácie v existujúcich údajoch, môže brať do úvahy aj rôzne neetické či nelegálne faktory, rozhodovať napríklad na základe farby pleti, pohlavia či minulých diskriminačných rozhodnutí. A to je niečo, čo je určite potrebné eliminovať, hovorí M. Takáč. Navyše, ako pripomínajú rôzni experti, napríklad ani softvér na rozpoznávanie tvárí nie je neomylný, čo môže byť v kontexte boja so zločinom skutočne kontraproduktívne.

Pokračovanie článku si môžete prečítať v časopise Quark 6/2022. Ak chcete mať prístup k exkluzívnemu obsahu pre predplatiteľov, prihláste sa. Ak ešte nie ste naším predplatiteľom, objednajte si predplatné podľa vášho výberu tu.

R