(Ne)bezpečný pomocník

Veľké jazykové modely, ako sú ChatGPT či Gemini, sú výkonný nástroj, pri ktorom však netreba zabúdať na bezpečnostné riziká.

Veľké jazykové modely a všeobecne generatívna umelá inteligencia už dávno nie sú relevantné len vo výskume. Tieto technológie nachádzajú mnohoraké praktické využitie vo firmách, verejnom sektore aj medzi bežnými používateľmi. Z pohodlia domova nám umožňujú rýchlo nachádzať odpovede na najrôznejšie otázky a stoja za mnohými inovatívnymi produktmi, ktoré dennodenne využívame.

Počítačový inžinier pracuje v kancelárii na vývoji neurónovej siete.
Foto istockphoto.com/gorodenkoff

Raketový vzostup chatbotov

Príchod niektorých technológií a produktov dokáže spôsobiť revolúciu v spôsobe, akým fungujú jednotlivci aj celá spoločnosť. K takým patria aj verejne dostupné chatboty založené na veľkých jazykových modeloch. Od januára 2023 do apríla tohto roka zažil prvý a najznámejší z týchto nástrojov ChatGPT doslova raketový nárast. Počet aktívnych používateľov z týždňa na týždeň miestami stúpal exponenciálne, celkovo z 50 na 800 miliónov týždenne.

Spoločnosť OpenAI priniesla nástroj, ktorý dokáže odpovedať nielen na bežné otázky zo života, napríklad Ako dlho sa varí benediktínske vajíčko?, ale aj pomáhať pri práci či učiť nové zručnosti. Tento úspech odštartoval lavínu, ďalšie firmy rýchlo uviedli vlastné chatboty. Tie sú dostupné buď priamo cez web, alebo cez aplikačné programovacie rozhranie (API) určené pre vývojárov, ktorí ich vedia zabudovať do svojich produktov a služieb.

Dopyt po technológiách postavených na veľkých jazykových modeloch vyletel aj v IT sektore. Pracovné ponuky pre inžinierov umelej inteligencie (AI), promptov či architektov AI medziročne vzrástli až o 100 %. História nám však pripomína, že príliš rýchly rast prináša aj riziká. Veľké jazykové modely majú svoje slabiny – od chýb v odpovediach, v ktorých sa stretávame s notoricky známym problémom halucinácií, až po otázky bezpečnosti.

Na iPhone sa zobrazujú rôzne aplikácie s umelou inteligenciou vrátane ChatGPT, Claude, Perplexity, Gemini, Microsoft Copilot, You.com, Suno, Character.AI a Hugging Chat.
Foto istockphoto.com/hapabapa

Modely tretích strán

V súčasnosti sme svedkami súťaže v snahe vytvoriť všeobecnú umelú inteligenciu. Veľké technologické firmy ako OpenAI, Google, Meta či xAI investujú nemalé prostriedky, aby boli prvé, komu sa podarí vyvinúť AI schopnú samostatne riešiť netriviálne problémy sveta alebo dokonca objavovať nové riešenia, napríklad lieky na rôzne choroby.

Len samotné OpenAI plánuje do vývoja umelej inteligencie investovať približne 500 miliárd dolárov počas nasledujúcich piatich rokov. Na porovnanie: celkové výdavky štátneho rozpočtu SR na rok 2025 by mali dosiahnuť necelých 34 miliárd eur. Ide doslova o preteky, a preto je šírenie informácií týmito technologickými gigantmi minimálne. Často teda nevieme, na akých dátach a akým spôsobom boli modely, tvoriace jadro všetkých pokročilých chatbotov a iných systémov, trénované. To so sebou prináša riziká pri ich používaní.

Ďalším rizikovým faktorom je používanie modelov prostredníctvom platených API, pri ktorých sú všetky dáta, s ktorými majú modely pracovať, posielané prostredníctvom webu na servery tretích strán. Vyvstávajú teda viaceré otázky týkajúce sa bezpečnosti a spoľahlivosti. Ak napríklad firma integruje do svojho internetového obchodu chatbota založeného na Google API a táto služba zaznamená výpadok na pol dňa, váš chatbot bude nefunkčný a vy s tým v tej chvíli nič nespravíte.

Celý článok nájdete v časopise Quark 10/2025.

Vďaka predplatnému si ho však môžete dočítať už teraz a získať aj prístup k exkluzívnemu obsahu!

Máte predplatné?

Autori článku: TIMOTEJ KRÁLIK, MARTIN TAMAJKA
Kempelenov inštitút inteligentných technológií