V tomto článku sa nebudeme pozerať na citlivosť umelej inteligencie (AI) ako takej, ale zameriame sa na tých, ktorí systémy AI vytvárajú a nasadzujú.
V súčasnosti sa s umelou inteligenciou stretávame na každom rohu a preto sa čoraz častejšie vyskytujú prípady rôznych incidentov a rizík spojených s vývojom, nasadzovaním a používaním AI. Zodpovednosť za to, aby umelá inteligencia bola etická a predchádzali sme takýmto situáciám, však neustále nesieme my, ľudia.

Na etiku nebýva vždy čas
V oblastiach ako zdravotníctvo alebo vzdelávanie je bežná aj príprava na to, ako rozpoznávať a adekvátne konať v eticky problematických situáciách. Pri výchove budúcich expertov v AI takýto systematický prístup skôr absentuje. Existujú síce rôzne etické rámce a usmernenia, no iba oboznámenosť s etickými kódexmi ešte nezaručuje morálne správne rozhodovanie. Tvorcovia systémov AI by pritom mali byť schopní si uvedomovať, že ich rozhodnutia majú spoločenský vplyv a hľadať také riešenia, ktoré budú v súlade s etickými normami a hodnotami.
Ako užitočný sa v tomto kontexte javí koncept tzv. morálnej citlivosti, na ktorý sa zameriame aj v tomto článku. Ide o pojem na rozhraní filozofie, etiky, psychológie či kognitívnych vied a zjednodušene ho môžeme opísať aj ako schopnosť rozpoznať, že konkrétna situácia má hlbší etický rozmer. Zahŕňať však môže nielen posúdenie danej situácie z etického hľadiska, ale aj jej závažnosť či úvahu nad možnými vplyvmi na dotknuté osoby.
V ideálnom svete by každý, kto vytvára, nasadzuje alebo používa systémy umelej inteligencie, premýšľal aj o tom, ako jeho algoritmy ovplyvnia iných ľudí. V reálnom svete sa vývoj AI často sústreďuje na efektivitu, technickú presnosť, rýchlosť a finančný profit. A prípadné spoločenské otázky sa zameriavajú maximálne na to, či je systém v súlade s platnou legislatívou. K etickým otázkam sa pristupuje ako k niečomu, čo sa rieši, keď ostane čas. V praxi sa potom zamestnancom stáva, že stoja pred rozhodnutím, či podporia firmu, v ktorej pracujú, alebo osobné etické princípy.

Zložky morálnej citlivosti
Morálna citlivosť vychádza z individuálnej zodpovednosti každého človeka, ale dotýka sa aj celých tímov, ktoré sa podieľajú na tvorbe systémov AI. Tvoria ju rôzne schopnosti, ktoré nám pomáhajú pri premýšľaní nad morálnymi otázkami a vedú k správnemu konaniu. V kontexte vývoja a nasadzovania AI systémov sa vieme zamerať na niekoľko takýchto schopností. Každá z nich predstavuje kúsok reťaze, ktorá spája premýšľanie o etických otázkach s praxou.
Vnímanie problému
Začiatočným krokom je vnímanie problému (z angl. awareness). Je to schopnosť uvedomiť si, že naše rozhodnutia vo vzťahu k vývoju technológií majú nielen technický, ale aj etický rozmer. Môže ísť napríklad o situáciu, keď dátová sada diskriminuje určitú menšinu alebo keď algoritmus ovplyvňuje prístup k zdravotnej starostlivosti.
Celý článok nájdete v časopise Quark 12/2025.
Vďaka predplatnému si ho však môžete dočítať už teraz a získať aj prístup k exkluzívnemu obsahu!
Máte predplatné?
Prihlásiť saAutori článku: Lucia Hermanová, Adrian Gavorník
Kempelenov inštitút inteligentných technológií
