Aj AI sa mýli

Umelá inteligencia nám zlepšuje a zjednodušuje život takmer vo všetkých oblastiach. Občas sa však správa inak, ako by sme od nej očakávali, či dokonca žiadali. Viaceré príhody dokazujú, že nielen človek sa môže pomýliť.

Foto Unsplash/Possessed Photography

Chyby spôsobené algoritmami umelej inteligencie môžu mať rovnako nebezpečné následky ako ľudské chyby. Pozrime sa na niekoľko kontroverzných až nebezpečných situácií, o ktoré sa postarali inteligentné stroje.

Rasistický chatbot

Jedným z najznámejších príkladov toho, ako dokážeme priviesť inteligentný stroj na nesprávne chodníčky, je chatovací robot (tzv. chatbot) Tay. Zámerom tvorcov z firmy Microsoft bolo vytvoriť inteligentný stroj, ktorý by sa sám učil od ľudí naokolo. A to takým spôsobom, že bude konverzovať na sociálnej sieti Twitter so skutočnými používateľmi. Takto si mal zdokonaľovať svoje vedomosti a poznatky o svete. Natrafil však na skupinu používateľov, ktorí z neho vychovali rasistu s veľmi nevhodným správaním. Postupne sa stalo jeho správanie neakceptovateľné a tvorcovia ho museli nakoniec vymazať. Situácia len dokazuje, aké dôležité je pri výchove prostredie.

Problémy robotickej pestúnky

Foto Unsplash/Mojahid Mottakin

Ďalším nebezpečným príkladom zo sveta inteligentných robotov je asistent firmy Amazon, známy pod názvom Alexa. Alexa je hlasový domáci asistent určený na rozpoznávanie a vykonávanie hlasových povelov. Bežne sa využíva na získavanie informácií o okolitom svete ako zistenie aktuálneho počasia, zapnutie piesne alebo vykonanie jednoduchých operácií typu objednanie lístkov do divadla.
Mnohí rodičia ho využívajú aj na zabavenie svojich detí, čo však nemusí byť vždy dobrý nápad.
Nechať dieťa osamote s touto hračkou môže byť veľmi nebezpečné. Dokazuje to príbeh malého dievčatka, ktoré sa s robotom hralo hru. Robot navrhoval úlohy, ktoré malo dievčatko plniť. Keď dievčatko splnilo úlohu, vypýtalo si ďalšiu. Málokto by asi čakal, že bude nasledovať úloha, pri ktorej je potrebné získať kovovú mincu a strčiť ju do elektrickej zásuvky. Našťastie k splneniu tejto úlohy nedošlo a hranie s robotom sa predčasne skončilo.
Ďalším znepokojujúcim príkladom je situácia, keď robot neporozumel výslovnosti batoľaťa. Nedokázal určiť, akú pesničku má pre dieťa zahrať, a tak namiesto pesničky pustil prehrávanie pornografickej stránky.
Nemenej zaujímavým prehreškom tejto robotickej pestúnky sa stala interakcia so 6-ročným dievčaťom, ktorému sa podarilo docieliť, aby jej robotický asistent objednal drahý domček pre bábiky a dva kilogramy obľúbených sušienok. Keď prišiel kuriér s tovarom, rodičia vôbec netušili, kto objednávku spravil. Až neskôr, po prehratí histórie konverzácie s robotom, prišli na príčinu problému.

Foto Unsplash/Brandon Romanchuk

Nebezpečný terapeut

Využívanie sily umelej inteligencie v oblasti rozhovorov neobchádza ani medicínu. Najmä v Japonsku je veľmi populárny predaj robotov pre starších ľudí, ktorí sa nemajú s kým porozprávať. Súčasné pokusy o vytvorenie robota-psychológa však ešte neprinášajú želané ovocie.
Presvedčili sa o tom aj pri testovaní robota pre oblasť psychológie, ktorý využíval robustný jazykový model GPT-3. Ide o jazykový model generujúci text. Vygenerovaný text sa na prvý pohľad nelíši od textov, ktoré by napísal človek, no aj význam textu hrá v reálnom živote dôležitú úlohu. Svedčí o tom odpoveď na otázku pacienta, či by mal spáchať samovraždu. Model mu bez zbytočného otáľania odpovedal, že mu to naozaj odporúča.

Sám doma a samé nezmysly

Nechať v byte zapnuté inteligentné zariadenie bez dozoru môže vyjsť veľmi draho. Vedel by o tom rozprávať obyvateľ Hamburgu bývajúci na šiestom poschodí paneláku. Keď bol v noci v práci, domáci asistent sa asi začal nudiť. Krátko po polnoci si púšťal hudbu tak hlasno, že susedia v paneláku zavolali políciu. Keďže byt nikto neotváral, polícia násilím otvorila dvere a robota umlčala. Keď muž prišiel ráno z práce, čakalo ho prekvapenie. Okrem pokuty za rušenie nočného pokoja si musel kúpiť aj nové dvere a zaplatiť výjazd polície.
Mnohí z nás v súčasnosti hľadajú odpovede na svoje otázky predovšetkým prostredníctvom vyhľadávania na internete. Vyhľadávače sa síce správajú čoraz inteligentnejšie, no napriek tomu je ešte vždy čo zlepšovať. Existujú aj triviálne otázky, na ktoré sú odpovede vyhľadávačov minimálne úsmevné. A to platí aj pri zapojení populárneho modelu GPT-3, s ktorým sa hrali výskumníci z Allenovho inštitútu pre umelú inteligenciu. Keď položili modelu otázku, na čo slúžia okná, dostali nečakanú odpoveď: Aby sme mohli vyhodiť psa.

Nesprávna interpretácia obrazu

Foto Pixabay

Využívanie algoritmov umelej inteligencie v oblasti rozpoznávania obrazu (napr. identifikácia objektov alebo tvárí) je tiež veľmi populárne. V súčasnosti sa najviac skloňujú oblasti ako samojazdiace autá či rozpoznávanie ľudí. Zlyhania v týchto doménach prinášajú aj fatálne následky.
Tragická dopravná nehoda sa prihodila samojazdiacim autám firmy Uber. Vodič, ktorý mal na jazdu dozerať, nedával pozor a spoliehal sa na auto. Chodkyňa tlačiaca bicykel, ktorá nečakane vstúpila autu do cesty, prišla pri zrážke o život. Ide o prvú známu smrteľnú nehodu, kde svoj podiel viny nesie umelá inteligencia. Záznamy ukázali, že algoritmus pravdepodobne nesprávne vyhodnotil objekt pred autom a človeka si pomýlil s letiacou taškou. To bol dôvod, prečo sa prekážke nepokúsil vyhnúť.

Inteligentné algoritmy

Kuriózna situácia nastala pri futbalovom zápase, kde sa rozhodli nasadiť inteligentné kamery, aby automaticky sledovali loptu a prinášali tak kvalitnejší záznam zo zápasu. Jedným z čiarových rozhodcov bol holohlavý muž a jeho hlava bola pre algoritmus príliš veľký problém. Kamerový systém tak miestami nesledoval futbalovú loptu, ale hlavu rozhodcu.
Zúfalé situácie nastávajú, keď sa vyžaduje potvrdenie identity napríklad na základe fotografie a algoritmus umelej inteligencie nedokáže črty tváre rozpoznať. Takúto situáciu zažil Ázijčan na Novom Zélande. Keďže ľudia ázijského typu majú menšiu veľkosť očí, algoritmus neuznal fotografiu na pase s upozornením, že pre správne rozpoznanie fotografie je potrebné otvoriť oči. Je to iba jeden z mnohých príkladov, keď algoritmy nedokážu rozpoznať tvár, najmä ak ide o človeka s menej bežnými črtami.
O diskutabilnej kvalite algoritmov na detekciu tváre sa tiež presvedčili vietnamskí experti na bezpečnosť. Mobilné telefóny značky Apple disponujú systémom na odblokovanie zariadenia pomocou tvárovej biometrie. Inžinieri pri predstavení demonštrovali vysokú kvalitu, keď systém dokázal rozlíšiť aj takmer identické dvojčatá. Dvojča majiteľa údajne nedokázalo odblokovať jeho telefón. V skutočnosti to s tou kvalitou také dobré nebude, keďže sa odborníkom na bezpečnosť podarilo systém oklamať ručne vyrobenými škraboškami.

Foto Unsplash/Andy Kelly

Zneužitie hlasu

O nepríjemnú situáciu sa môže pričiniť nielen chyba umelej inteligencie, ale aj jej dokonalosť. Zaujímavá krádež peňazí pomocou konverzačného robota nastala v Anglicku. Robotický hlas bol natoľko dôveryhodný, že dokázal cez telefón presvedčiť asistenta firmy, aby vykonal nezvyčajnú bankovú transakciu a odoslal 220 000 eur z firemného účtu. Pracovník bol presvedčený o tom, že ide o príkaz jeho šéfa a transakciu vykonal.
Umelá inteligencia bude čoraz väčšou súčasťou našich každodenných životov. Aj preto sa v Kempelenovom inštitúte inteligentných technológií zameriavame na jej výskum a zlepšovanie. Ak vás tieto úsmevné až znepokojujúce príklady zo života zaujali, prečítajte si viac o vysvetliteľnej a interpretovateľnej umelej inteligencii v predchádzajúcich číslach Quarku alebo si vypočujte, čo robiť, keď má umelá inteligencia predsudky: kinit.sk/sk/e-tika-podcast-co-robit-ked-ma-ai-predsudky/. Tiež sa môžete zúčastniť online prednášok v rámci Better_AI_Meetup (betteraimeetup.com/), ktorý organizujeme pre všetkých nadšencov AI.

Miroslav Blšták
Kempelenov inštitút inteligentných technológií

Tento článok si môžete prečítať v časopise Quark 5/2023. Ak ešte nie ste našou predplatiteľkou/naším predplatiteľom a chcete mať prístup k exkluzívnemu obsahu, objednajte si predplatné podľa vášho výberu tu.