Umělá inteligence a kybernetická bezpečnost

Umělá inteligence a kybernetická bezpečnost

24. 02. 2023
O umělé inteligenci (AI) slýcháváme už nějakou dobu. Zejména v souvislosti s nejrůznějšími produkty a trendy šlo ovšem v mnoha případech o marketing, než skutečnou technologii. Situace se ovšem dramaticky změnila nedávným příchodem OpenAI a jejích generativních aplikacích typu MidJourney či chatovacích modelech typu ChatGPT. Méně už se ovšem hovoří o umělé inteligenci v souvislosti s informační a kybernetickou bezpečností. Dost možná se ale ukáže, že půjde o nejzásadnější aplikaci AI. Přečtěte si proč.

Umělá inteligence (AI) – co si vlastně představit pod tímto často špatně interpretovaným a silně nadužívaným pojmem? Jde o aplikované systémy řešící komplexní úlohy jako je rozpoznávání či klasifikace, např. v oblastech zpracování obrazu, zpracování psaného textu nebo plánování či řízení na základě zpracování velkých objemů dat.

 

Umělá inteligence – základní rozdělení

Umělou inteligenci můžeme klasifikovat do třech základních kategorií:

  • Umělá super-inteligence (AI singularita) – nabývá schopností, které v každém ohledu výrazně překonávají člověka. Patří, možná naštěstí, do oblasti sci-fi. Podle skeptiků, mezi které patřil i geniální teoretický fyzik Stephen Hawking, by vznik AI singularity patřil mezi nejhorší události historie lidstva.
  • Obecná umělá inteligence – zvládá uvažování, učení a řešení problémů všech tříd na úrovni člověka. Podle optimistických odhadů by mohla vzniknout v příštích 20 letech. Podle skeptiků nikdy nevznikne.
  • Úzká umělá inteligence – dokáže ve velmi úzce specifických úlohách zpracovávat široký rozsah dat a rozeznávat v těchto datech vzorce a vztahy, které by byly pro člověka obtížné nebo nemožné. Této úrovně jsme již dosáhli a můžete se s ní setkat i v běžně dostupném softwaru.

Umělá inteligence se dále dělí na celou řadu oblastí, jako jsou neuronové sítě, expertní systémy či data mining, nás ale bude z hlediska kyberbezpečnosti zajímat nejvíce strojové učení (ML).

 

Strojové učení (ML)

Strojové učení je hlavní oblastí, která umožní docílit plného stavu výše uvedených kategorií. Jde o algoritmy a techniky, které umožňují počítačovému systému se „učit“, resp. provádět změnu vnitřního stavu zefektivňující schopnost systému přizpůsobovat se změnám okolního prostředí. A to bez jakékoliv přímé lidské interakce, pouze s využitím analýzy dat pro rozeznání zájmových informací.

ML nemusí být vždy v „učení“ efektivnější než člověk, ale je rychlejší ve zpracování velkého objemu dat (a to o několik řádů). ML techniky se používají nejčastěji při:

  • rozpoznávání obličejů,
  • analýze obsahu textu,
  • detekci fake news na sociálních sítích,
  • překladu jazyků v internetovém překladači.

V oblasti kybernetické bezpečnosti je pro nás nejzásadnější aplikací strojového učení rozpoznání škodlivého obsahu v přílohách e-mailů nebo detekce rizik v síťovém provozu (typickým příkladem rizikové anomálie může být počítač s minimálním síťovým provozem, který začne najednou odesílat desítky MB dat). Přitom platí, že modely strojového učení nestačí jen přetrénovat, ale je nutné je stále vylepšovat, dodávat nová data a hledat nové cesty, jak odhalit kybernetické útočníky.

 

Pozitivní vliv umělé inteligence v kybernetické bezpečnosti

Implementaci umělé inteligence v kyberbezpečnosti jsme již naznačili výše v části věnované strojovému učení. Obecně pomáhá zefektivňovat bezpečnostní procesy a je „nápomocná“ personálu SOC, dohledových center kybernetického zabezpečení. Umělá inteligence uvolňuje ruce již tak přetíženým bezpečnostním expertům. S celou řadou méně závažných hrozeb si totiž poradí samostatně a specialisté se tak mohou zaměřit na komplexnější problémy spojené s komplexní ochranou IT infrastruktury.

Řešení využívající kombinaci AI a ML se učí z pemza již proběhlých útoků. Díky tomu dovede reagovat na nové hrozby a určuje i ty zcela neznámé. Porovnává se tolik parametrů, že AI může rozeznat obvyklé chování aplikace od plíživého útoku malwaru. Umělá inteligence také iniciuje vytvoření patchů v reakci na nově objevené zranitelnosti.

Shrnutí:

  • Detekce hackerských útoků – umělá inteligence sice sama o sobě (zatím) nedokáže zcela spolehlivě zabránit napadení IT infrastruktury, ale umí najít varovné příznaky rychleji než člověk, a navíc navrhne reakci na daný typ incidentu.
  • Monitoring – zajišťování celkového obrazu o síťovém provozu, využívání dat a podobných činností.
  • Rozpoznávání malwaru a ransomwaru – AI dokáže rozpoznat malevolentní signatury a anomální chování i dosud nekatalogizovaných hrozeb.
  • Detekce zranitelností přímo v kódu – při vývoji se samozřejmě kybernetická bezpečnost bere v potaz už na úrovni kódu, nicméně umělá inteligence slouží jako nástroj kontroly popř. jako asistence méně zkušených vývojářů.

 

Zneužití AI pro kybernetické a hackerské útoky

Umělá inteligence je bohužel dostupná i neetickým hackerům a kybernetickým zločincům. Je zcela jisté, že hackerské útoky vedené pomocí AI budou výrazně sofistikovanější než doposud a netýká se to pouze mnohem propracovanějšího personalizovaného phishingu. Takový útok by například zahrnoval instalaci malwaru, který se učí z prostředí, v němž běží, zjišťuje, jak se nenápadně pohybovat, vyhýbá se detekci a krade data způsobem, jaký je obtížné odlišit od běžného chování.

Již dnes existuje tzv. DeepLocker, vysoce cílený a vyhýbavý malware poháněný AI. Dokáže vybírat oběť dle mnoha faktorů, jako je například geolokace, rozpoznání obličeje, případně analýza dat shromážděných z relevantního zdroje. Pokud můžeme běžný malware připodobnit k bezhlavému útoku vojínů po základním výcviku, DeepLocker představuje v této analogii elitního odstřelovače s heslem „one shot, one kill“.

Dalším hrozivým nástrojem útočníků může být malware s tzv. rojovou umělou inteligencí. Již dnes existuje typ, který se pohybuje v kybernetickém prostředí cíleným způsobem. Skládá se z hejna totožných virů, které mezi sebou komunikují prostřednictvím dark webu a ovlivňují své chování a parametry. Samotné hejno má v sobě ještě navíc i distribuovanou neuronovou síť. Jde tedy v zásadě o umělou inteligenci v umělé inteligenci, neuronovou síť v hejnu.

 

Co přinese budoucnost?

Je docela možné, že se dočkáme plně automatizovaných malevolentních systémů, které budou zajišťovat prolamování a přitom se budou samostatně zlepšovat. Bez omezení měřítka a vytrvalosti. Půjde o autonomní neustále se vyvíjející útočné systémy. Pravděpodobně se změní i samotní útočníci – stanou se z nich údržbáři a vývojáři automatizovaných hackovacích strojů s AI.

To ale neznamená, že je budoucnost beznadějná. Strana „dobra a řádu“ bude mít vždy přinejmenším početní převahu a s největší pravděpodobností i větší výpočetní sílu, vyšší expertízu a úzké vztahy s výrobci softwaru a hardwaru. A nejinak je tomu u nás v NGSS. Jejími zakladateli a členy realizačního týmu jsou ti nejzkušenější konzultanti a techničtí specialisté, kteří působí v oboru minimálně 15 a více let. Obraťte se na nás, na budoucnost jsme připravení.

Nechte nám na sebe kontakt a společně najdeme ideální řešení pro vaši bezpečnost

Jaromír Žák
Jaromír Žák
Ředitel
Jaromír se podílí na rozvoji a strategii našeho businessu a zodpovídá za kvalitu veškerých služeb.
Rychlý kontakt
Náš konzultant se vám ozve do 24 hodin od poptávky.
Individuální přístup
Poradíme vám s vaším problémem a najdeme pro vás ideální řešení na míru.
Náskok před konkurencí
Kromě toho, co vás zajímá, si vždy odnesete i něco navíc, abyste byli neustále krok před konkurencí.
NEXT GENERATION SECURITY SOLUTIONS s.r.o.
U Uranie 18, 170 00 Praha 7

IČ: 06291031
DIČ: CZ06291031

NGSS má zaveden systém řízení bezpečnosti informací dle normy ČSN ISO/IEC 27001:2014. Politika systému řízení bezpečnosti informací (ISMS) NGSS zde.
Etický kodex
Nevíte si rady?
Ozvěte se nám.