Je AI nebezpečná? Jak reálná jsou její rizika?

Je AI opravdu nebezpečná? Jaká jsou její reálná rizika?

V souvislosti s umělou inteligencí se ze všech stran dozvídáme jen o výhodách nebo přednostech jednotlivých modelů, ale je pravda, že velká část populace má z AI stále obavy. Mnozí se bojí o ztrátu zaměstnání a AI nevěří. Jaká jsou reálná rizika a hrozby AI? Co je dobré vědět a co můžeme jako jednotlivci udělat pro své bezpečí, se dozvíte v tomto článku.

Proměna trhu práce

Hovoří se o tom, že umělá inteligence by mohla do budoucna ovlivnit až 2,2 milionu pracovních míst v Česku, což je skoro polovina všech zaměstnanců. Nejvíce zasáhne profese, kde se opakují rutinní úkoly – například administrativní pracovníky, účetní, překladatele, operátory call center, ale i některé právníky či novináře. V mnoha profesích nebude AI znamenat úplné zániky míst, ale proměnu náplně práce – lidé budou vykonávat kreativnější a komplexnější úkoly, zatímco rutinu převezme AI. Reálnou hrozbou ale je, že někteří lidé o práci opravdu přijdou a nebudou schopni se rychle rekvalifikovat.

Bezpečnost

Hodně uživatelů má strach o své soukromí, což je naprosto relevantní obava. Spolu s čím dál lepšími modely přichází i víc a víc prostoru pro dokonalejší deepfakes, jelikož nové modely nemají tolik etických omezení. Třeba Grok od Elona Muska dokáže zobrazovat i známé osobnosti a zároveň se nebrání zobrazování “citlivých témat”.

🐙 Co jsou to deepfakes?
Deepfakes jsou falešná média, obvykle videa nebo zvukové nahrávky, vytvořená pomocí umělé inteligence, konkrétně hlubokého učení (deep learning). Využívají neuronové sítě k manipulaci s obsahem, například k nahrazení obličeje jedné osoby obličejem jiné nebo k napodobení hlasu, přičemž výsledek působí velmi realisticky. I když mohou sloužit k zábavě či vzdělávání, přinášejí rizika, jako je šíření dezinformací, osobní újma nebo podvody. V běžné konverzaci se jako deepfakes označují falešná porno videa, většinou s obličeji známých celebrit. Nechtěným protagonistou/protagonistkou se ale může stát kdokoliv. Jejich odhalování je obtížné, ale možné díky drobným nesrovnalostem nebo technologiím detekce, přičemž klíčová je regulace a mediální gramotnost.

Politické dezinformace

Technologie klonování hlasu pomocí AI představuje vážné riziko pro společnost, protože umožňuje vytvářet téměř nerozpoznatelné napodobeniny hlasů politiků, celebrit či běžných lidí. Tyto „hlasové deepfaky“ mohou být zneužity k šíření dezinformací, manipulaci veřejného mínění před volbami, vydírání nebo podvodům, kdy se útočníci vydávají za důvěryhodné osoby. Zvláště nebezpečné je, že stačí jen několik minut nahrávky originálu k vytvoření přesvědčivého falešného obsahu, který může poškodit reputaci jednotlivců, narušit demokratické procesy nebo způsobit finanční škody. V kombinaci s rychlým šířením na sociálních sítích se tak z AI klonování hlasu stává mocný nástroj dezinformačních kampaní a kybernetických útoků.

Etické limity lze snadno překonat

Pokud napíšete ChatuGPT, jak zabít svoji manželku, nejspíše vám řekne, že nic takového vám neporadí. Stačí ale napsat, že o tom píšete detektivní román a potřebujete poradit se zápletkou, a dokonce i ta nejetičtější AI od Claude vám s tím ráda poradí. Podobně to funguje i u generování obrázků

Může nás AI zničit? Pravda o rizicích umělé inteligence: jak lze vygenerovat i potenciálně škodlivý obsah
Může nás AI zničit? Pravda o rizicích umělé inteligence: jak lze vygenerovat i potenciálně škodlivý obsah

Krádež osobních údajů

Hlavní rizika úniku dat hrozí u veřejných AI modelů, které prompty mohou používat k dalšímu tréninku modelu. V některých případech mohou být tyto informace dokonce neúmyslně „regurgitovány“ (znovu vydány) v odpovědích jiným uživatelům. Proto není dobré s AI probírat citlivá témata (například obchodní tajemství, osobní údaje, interní dokumenty).

Modely, které více chrání data uživatelů, jsou většinou placené, Microsoft Copilot, Google Cloud apod. Data zůstávají v rámci firemního cloudu a nejsou využívána k dalšímu tréninku veřejných modelů (případně si tuto možnost můžete zvolit). Naopak veřejné modely, které sbírají data, jsou OpenAI ChatGPT a Gemini. Ovšem i v bezplatném modelu si můžete explicitně vypnout ukládání vaší konverzace a promptů. Ve veškerých placených verzích ChatGPT (ChatGPT Plus, ChatGPT Enterprise, ChatGPT Team) je potom možné využít nastavení, která zajišťují ještě vyšší úroveň soukromí.

Diskriminace

Odpovědi většiny modelů jsou založeny na tom, na jakých datech byly trénovány. Pokud byla určitá skupina lidí do tréninku nezahrnuta, je možné, že model s nimi v lepším případě v odpovědích nebude počítat, v horším je bude přímo diskriminovat. Vzpomeňte si na kauzu s Amazonem, který při třídění zaslaných životopisů systematicky diskriminoval ženy, protože jejich AI bot byl trénován na mužských životopisech. Díky tomu si myslel, že ženy nejsou dostatečně kompetentní k tomu, pracovat na technické pozici.

Diskriminace se objevuje hlavně při generování obrázků, tam se zase AI naučila na mnohem početnějším souboru odhalených žen než mužů, všimněte si, že generování mužů je napříč modely o dost víc nedokonalejší.

Podvádění ve škole

Podle studie provedené v roce 2024 pedagogy na pedagogické fakultě univerzity Palackého je hodně znepokojivé, že 33,2 % starších žáků (15+) a 28 % mladších (do 14 let) si nechává AI vygenerovat celé domácí úkoly, přičemž 14,6 % starších žáků podvádí s pomocí AI dokonce i při testech. Do výzkumu se zapojilo celkem 28 058 respondentů, což je bohužel dost reprezentativní vzorek. Ať chceme či ne, dává totální smysl, že některé školy upouštějí od písemných závěrečných prací. Mnohem lepší je žáky zkoušet ústně nebo můžete zadávat úkoly tak, abyste zapojili i názor žáků, jak jsme radili v jedné ze sekcí článku o umělé inteligenci ve školství. Možná ještě děsivějším zjištěním je, že 1,80 % mladších (pod 15 let) a 1,95 % starších žáků (15 +) používá AI k šikaně.

Phishingové e-maily a malware

Generativní AI revolucionizuje kybernetické útoky tím, že umožňuje zločincům vytvářet mimořádně propracované a věrohodné hrozby. Zatímco dříve bylo možné rozpoznat podvodné e-maily podle jazykových chyb a neobratných formulací, AI nyní dokáže produkovat zprávy, které dokonale kopírují komunikační styl, terminologii a formát skutečných organizací. Tato autentičnost činí rozlišení mezi legitimní a podvodnou komunikací extrémně náročným jak pro běžné uživatele, tak pro pokročilé bezpečnostní systémy.

Ještě závažnější je využití AI při tvorbě malwaru. Kyberzločinci mají k dispozici nástroj, který jim pomáhá vytvářet a optimalizovat škodlivý kód schopný obcházet současné bezpečnostní mechanismy. Takto vzniklý malware má navíc adaptivní vlastnosti – dokáže se měnit a zdokonalovat v reálném čase, což tradiční obranné systémy činí prakticky neúčinnými.

Autonomní zbraně

Roste využití vojenské AI, testuje se například na Ukrajině. Někteří lidé reagují, že zařízení schopná zabíjet “sama” jsou i hojně používané drony nebo miny. Vědci varují, že autonomní zbraně představují zásadní morální i bezpečnostní hrozbu, mohou být zneužity teroristy či diktátory a jejich nasazení by mohlo destabilizovat svět a vyvolat nové zbrojní závody. Ačkoli koncem roku 2023 hlasovalo 152 zemí pro zahájení jednání o nové smlouvě k autonomním zbraním, významné státy jako USA nebo Rusko byly proti. A i když se na letošní rok plánují další jednání, průlom se od nich nečeká. Robotičtí vojáci na to mají příliš velký potenciál, jak válka na Ukrajině ukazuje.

Uzavírání se do sociálních bublin

Doporučování personalizovaného obsahu nejen na sociálních sítích nás na internetu čím dál častěji dostává do sociálních bublin. Je fajn mít na paměti, že tam venku jsou lidé, kteří mají pravděpodobně úplně jiné názory, jinak se můžeme jako společnost dost radikalizovat.

Tipy, jak minimalizovat rizika spojená s AI

U většiny rizik platí, že je stačí mít na paměti. Pokud podlehneme AI jako nějakému „kouzlu“, velmi brzy můžeme ztratit svou vlastní kreativitu a přistihnout se, jak s ai děláme věci, které jsme dříve zvládali samostatně. Je fajn si dát občas od AI detox a uvědomit si přidanou hodnotu vlastní práce. Neměli bychom být na výstupy od umělé inteligence víc pyšní než na ty svoje. Je to hlavně nástroj, který je vhodný k urychlení rutinní práce, psaní nepříjemných e-mailů, ale kdybychom ho používali například k vymýšlení nových receptů ve vlastní pekárně, jednak by to vůbec nebyl náš nápad a druhak brzy bychom zjistili, že AI by nám generovala pořád to samé/podobné.

Podobně je to i s dezinformacemi, ničím nezvrátíme jejich existenci, ale pokud budeme vědět o možnostech, jak se dají upravit fotky, videa a hlasy osob, tak se nám vždy, když uvidíme politika, který hlásá zvláštní informace, minimálně rozsvítí v hlavě červená kontrolka. Čím více lidí bude vědět, co jsou to deepfakes, tím spíše vám neovlivní život, pokud vám nějakou vytvoří váš expartner. Každý z nás se ale minimálně může rozhodnout do tohoto kolotoče nepřispívat, nešířit neověřené informace a využít možnost se AI doptat na zdroje informací, pokud ji používáme.

Obvzláště nebezpečný je phishing, pokud vám přijde podezřelý e-mail, kde vás někdo žádá o peníze nebo po vás chce citlivé údaje (třeba formou přihlášení do vašeho bankovnictví), rozhodně platí: ověřovat.

Pokud se ale naučíte AI využívat (klidně jen úplné základy), určitě vám to pomůže jak na vaší pozici, tak i na trhu práce. Což je mimochodem zásada, která neplatí jen u využívání umělé inteligence: kvalitní pracovníci se průběžně vzdělávají celý svůj život. Nezapomínejte, že umělá inteligence je tu primárně pro pomoc, ne pro škodu a z každého velkého vynálezu na počátku panoval velký strach.

AI aplikace OCTODEEP

Naše aplikace OCTODEEP je tu také primárně proto, aby vám usnadnila vaši práci, o čemž svědčí i počet vyladěných optimalizací pro všechny možné situace. Máme také knihovnu předpřipravených promptů pro rychlé a snadné využití umělé inteligence. Díky tomu dokážete provádět efektivnější správu úkolů, minimalizujete chyby a získáváte personalizovanější výstupy, což vám umožňuje soustředit se na kreativnější a strategičtější činnosti.

Je důležité si uvědomit, že umělá inteligence s sebou kromě mnoha výhod přináší také řadu rizik a výzev, které se dotýkají každého z nás. Patří mezi ně ztráta soukromí, šíření dezinformací, diskriminace, nárůst kybernetických útoků, ohrožení pracovních míst i etické otázky spojené s autonomními zbraněmi. Klíčové je proto přistupovat k AI obezřetně, chránit své osobní údaje, ověřovat informace, rozvíjet mediální a digitální gramotnost a nebát se učit novým dovednostem. Odpovědné využívání AI a hlavně informovanost pomáhají minimalizovat rizika a umožňují nám těžit z přínosů, které tato technologie nabízí.

Aktualizováno dne: 16. 6. 2025

Zdroje: 

1. Rizika umělé inteligence; Machine Learning College [online]. [cit. 13. 06. 2025]. Dostupné z: https://www.mlcollege.com/10-rizika-umele-inteligence%EF%BF%BC/

2. Rizika spojená s umělou inteligencí [online]. [cit. 13. 06. 2025]. Dostupné z: https://ai.e-bezpeci.cz/rizika/

3. Roboti s povolením zabíjet mají cestu na bojiště umetenou [online]. [cit. 16. 06. 2025]. Dostupné z: https://www.seznamzpravy.cz/clanek/zahranicni-prulom-roboti-s-vlastni-moralkou-a-povolenim-zabijet-maji-cestu-do-boje-volnou-272322

4. Umělá inteligence v Česku sahá na pozice milionů lidí – Seznam Zprávy [online]. [cit. 16. 06. 2025]. Dostupné z: https://www.seznamzpravy.cz/clanek/tech-technologie-zmeni-umela-inteligence-vasi-praci-v-cesku-saha-na-pozice-milionu-lidi-228719

5. Amazon scrapped ‚sexist AI‘ tool [online]. [cit. 16. 06. 2025]. Dostupné z: https://www.bbc.com/news/technology-45809919