AI a kyberbezpečnost: 3 věci, které se vyplatí vědět
Umělá inteligence dnes ke studiu i práci patří podobně přirozeně jako hledání informací na internetu. Umí zrychlit rešerši, pomoct s formulací textu nebo nabídnout nový úhel pohledu. Zároveň ale otevírá i (kyber)bezpečnostní otázky: řada z nich je komplikovaných, na jiné můžeme odpovědět už nyní.
1. Jaké nástroje generativní AI používat?
Pro běžné činnosti, jako je brainstorming, shrnutí veřejně dostupného textu nebo studijní inspirace, můžete používat nástroj, který vám vyhovuje. V těchto případech není zásadní, po jaké službě sáhnete. Důležité je něco jiného: výstupy AI nebrat bez kontroly a při studiu respektovat pravidla vyučujícího, předmětu nebo fakulty. MU využívání AI ve výuce podporuje zároveň ale zdůrazňuje jejich etické, transparentní a bezpečné používání. Jiná situace nastává ve chvíli, kdy do AI zadáváte citlivější, interní nebo pracovní informace (např. osobní údaje, přístupové údaje, výzkumná data – klasifikaci dat pro MU najdete zde).
V takovém případě je nutné používat výhradně nástroje, které mají vůči MU smluvně ošetřeno nakládání s daty.
DeepSeek: proč doporučujeme opatrnost?
NÚKIB, gestor kybernetické bezpečnosti v ČR, v červenci 2025 varoval před některými produkty společnosti DeepSeek. Pro běžného uživatele se nejedná o plošný zákaz, ale jasný důvod k opatrnosti a k tomu, aby do těchto nástrojů nezadával citlivý obsah. Na MU proto doporučujeme veřejnou variantu DeepSeek nepoužívat a dát přednost schváleným univerzitním službám. Více o problematice využívání DeepSeek najdete v našem varování.
Co doporučujeme v praxi?
Na MU proto pro citlivější práci doporučujeme využívat hlavně tyto dva nástroje:
- Microsoft Copilot Chat – doporučený AI nástroj pro uživatele MUNI. Po přihlášení univerzitním účtem se zobrazí zelený štít, který označuje, že se data nepoužívají k trénování modelů a jejich zpracování je v souladu se smluvními podmínkami.
- Google Gemini – na MU je dostupné přes Google Workspace po aktivaci v IS MU. I zde si pohlídejte, že jste přihlášeni pod univerzitním účtem.
Pro pokročilejší práci ve výuce, vědě a výzkumu jsou na MU dostupné také e-Infra AI modely v režimu AI-as-a-Service. Jde o balík AI nástrojů provozovaných přímo v prostředí MU. Zadaná data zůstávají v infrastruktuře univerzity a neposílají se do veřejných AI služeb mimo MU. Proto je tato možnost vhodná i pro citlivější práci a pro technicky zdatnější uživatele.
2. Jak zabezpečit vaše AI nástroje?
AI služby lidé často nepoužívají jednorázově, ale dlouhodobě. V účtu se tak postupně hromadí historie konverzací, pracovní a studijní témata, nápady, osobní poznámky a někdy i velmi citlivý obsah. To je důležité i proto, že podle Harvard Business Review byla v roce 2025 nejčastějším využitím generativní AI právě terapie. Pokud by se tedy k takovému účtu dostal někdo cizí, nezíská jen přístup k jednomu chatu, ale může si z něj složit poměrně přesný obraz o tom, co uživatel řeší, jak přemýšlí, v jaké je životní situaci, co ho trápí nebo s čím se svěřuje.
Právě z dlouhodobé historie konverzací lze totiž vyčíst mnohem víc než z jednotlivého dokumentu nebo e-mailu. Ostatně i OpenAI letos spustila ChatGPT Health jako oddělený prostor pro zdravotní dotazy s posílenou ochranou soukromí, což samo ukazuje, že některé typy konverzací vyžadují vyšší úroveň ochrany. Společnost ve svých reportech zároveň uvádí, že zhruba 0,15 % týdenně aktivních uživatelů vede konverzace s výslovnými znaky možného sebevražedného plánování nebo úmyslu.
Na co si dát pozor: Nepovolujte AI nástrojům oprávnění, pokud si nejste jistí, proč je potřebují a co s nimi budou dělat. Zároveň neinstalujte neověřené doplňky, rozšíření ani externí AI nástroje, zvlášť pokud chtějí přístup k vašim chatům, dokumentům, e-mailu nebo prohlížeči. Přehled konkrétních rizikových situací najdete v rozklikávacím boxu níže.
Pokud může účet k AI obsahovat takto citlivé informace, je potřeba tomu přizpůsobit i jeho zabezpečení: základem je silné frázové heslo, ideálně uložené ve správci hesel, a zapnuté vícefaktorové ověřování do vašeho účtu.
Jaké rizikové situace mohou vzniknout při používání neověřených AI nástrojů?
Útok |
Příklad |
Dopad |
Co dělat? |
|
AI agent dostane přístup k e-mailu, dokumentům, kalendáři nebo souborům, i když to pro daný úkol nepotřebuje. |
Nástroj může číst, upravovat nebo mazat data, která s úkolem nesouvisejí. |
Dávejte jen minimální nutná oprávnění. Pokud nástroj nepotřebuje přístup k poště, dokumentům nebo kalendáři, nepovolujte mu ho. |
|
|
|
Rozšíření se tváří jako AI asistent, ale sbírá historii chatů a data o prohlížení. Microsoft letos popsal škodlivá AI rozšíření, která sbírala celé URL adresy i obsah chatů z platforem jako ChatGPT a DeepSeek. |
Odcizení chatů, interních postupů, kódu nebo jiných citlivých informací. |
|
| Doplňek nebo škodlivý obsah na stránce dokáže číst nebo měnit prompt a odpověď AI. LayerX to popisuje jako „man-in-the-prompt“ útok přes browser extension. |
|
Buďte velmi opatrní u doplňků a postranních panelů v prohlížeči. I důvěryhodné prostředí může být oslabeno tím, co běží u něj. |
|
"Zdarma" a zejména neověřený AI nástroj |
Služba má nejasného provozovatele, nepřehledné podmínky a chce přístup k širším datům, než by bylo nutné. |
Nevíte, jak se s daty nakládá, kdo k nim má přístup a zda neskončí mimo očekávané prostředí. |
Pro pracovní účely používejte oficiální a schválené služby, ideálně nástroje doporučené MU nebo provozované v univerzitním prostředí. |
Co doporučujeme v praxi?
Zapněte si vícefaktorové ověřování u vámi používaných AI nástrojů. U některých nástrojů se MFA nastavuje přímo v účtu služby, jinde přes účet, kterým se přihlašujete.
- Microsoft Copilot: U školního nebo pracovního účtu se vícefaktorové ověřování nastavuje v rámci jednotného přihlášení na Masarykově univerzitě.
- Google Gemini: U Gemini se MFA řeší přes Google účet, tedy zapnutím 2-Step Verification. Google oficiálně uvádí postup v nastavení účtu v části Security / How you sign in to Google.
- ChatGPT / OpenAI: V ChatGPT otevřete Settings → Security → Multi-factor authentication a dokončíte nastavení podle pokynů. OpenAI zároveň uvádí i podporu pro passkeys.
- Grok / xAI: xAI oficiálně uvádí, že uživatelé mohou přidat MFA přes xAI Accounts a že recovery codes jsou dostupné na stránce Security. Dokumentace také výslovně doporučuje MFA zapnout.
- Claude / Anthropic: U Claude chraňte hlavně e-mailový účet, přes který se přihlašujete. Pokud používáte Gmail, nastavte si u Google účtu dvoufázové ověření.
- Perplexity: U Perplexity zabezpečte především svůj Google nebo Apple účet, přes který se přihlašujete, a zapněte si u něj MFA.
3. Jak AI využívají útočníci?
AI dnes pomáhá i útočníkům. Výrazně jim usnadňuje přípravu phishingových e-mailů a dalších scénářů sociálního inženýrství. Ptáte se, v čem je největší hrozba? To, co dříve vyžadovalo čas, zkušenosti a technickou zdatnost, lze dnes vytvořit rychleji, levněji a v mnohem přesvědčivější podobě. AI dokáže ve velkém generovat personalizované phishingové zprávy bez jazykových chyb a s vysokou mírou věrohodnosti. Podle Harvard Business Review podlehlo AI-automatizovanému phishingu 60 % účastníků, tedy více než u běžných phishingových útoků.
Zároveň už nejde jen o psaní podvodných zpráv. Microsoft upozorňuje, že útočníci dnes generativní AI nasazují v různých fázích útoku — od průzkumu cíle a přípravy phishingu přes tvorbu škodlivého kódu až po zpracování odcizených dat po kompromitaci systému. AI tak neslouží jen k tomu, aby útok vypadal přesvědčivěji, ale také k tomu, aby byl rychlejší, levnější a snadněji škálovatelný. Rychlost vývoje dobře ukázal i nedávný český test: model Claude dostal na začátku jediný pokyn, aby prolomil firemní síť, a během 21 hodin pak bez dalšího vedení plně ovládl simulované firemní prostředí (tj. všechny počítače, všechna data, všechny účty zaměstnanců…).
Vedle e-mailů navíc sílí i voice phishing — podvodné telefonáty a hlasové zprávy, které mohou využívat AI-generovaný hlas. Že nejde o okrajový jev, ukazují i případy z Česka: už v červnu 2025 experti a policie varovali před vlnou podvodných telefonátů, při nichž útočníci pomocí AI napodobovali hlas blízké osoby a žádali o peníze nebo citlivé údaje. Na začátku února 2026 na stejné riziko znovu upozornil i Český rozhlas v souvislosti s deepfake hlasovými podvody.
Pro uživatele to znamená jediné: je potřeba počítat s tím, že útoky budou stále věrohodnější. Podezřelá zpráva už nemusí být plná chyb ani působit amatérsky. Může se tvářit jako legitimní komunikace od vyučujícího, kolegy, studijního oddělení nebo univerzitní služby.
Jak státem podporované skupiny zneužívají AI?
Evropská agentura pro kybernetickou bezpečnost (ENISA) ve své Threat Landscape 2025 zároveň upozorňuje, že státem podporované skupiny i kyberkriminální aktéři stále častěji využívají AI ke zvýšení produktivity a optimalizaci svých škodlivých aktivit. I proto je dobré používat AI nástroje s rozvahou a nezapomínat, že práce s nimi má i bezpečnostní rozměr. Podrobněji jsme se tomuto tématu věnovali v našem článku AI jako (ne)přítel v kybernetické bezpečnosti.
Co doporučujeme v praxi?
Praktický dopad je jednoduchý:
- I důvěryhodně vypadající zprávy ověřujte – kontrolujte odesílatele, odkazy, přílohy i kontext. Zvýšenou opatrnost věnujte hlavně zprávám, které vás tlačí k rychlé reakci, otevření souboru nebo přihlášení přes odkaz v e-mailu.
- Nainstalujte si do prohlížeče rozšíření TrafficLight – nástroj, který vás upozorní na podezřelé a podvodné stránky.
Slovo závěrem
Téma bezpečného využívání AI intenzivně sledujeme a průběžně vyhodnocujeme jeho dopady na univerzitní prostředí. S ohledem na rychlý vývoj nástrojů i souvisejících rizik se mu budeme i nadále věnovat a přinášet další doporučení a upozornění podle aktuální situace. Sledujte proto naše sociální sítě (FB/Instagram) nebo přímo náš portál security.muni.cz.
Tento výsledek byl podpořen projektem SOCCER, financovaným na základě grantové dohody č. 101128073, s podporou Evropského centra kompetencí pro kybernetickou bezpečnost (ECCC).