Chci být rychlejší než Musk, říká přední český odborník na umělou inteligenci

Jan Žižka

EXPORT | Přední český odborník na umělou inteligenci Michal Pěchouček v rozhovoru pro časopis Moderní ekonomická diplomacie popsal svůj dlouhodobý cíl. Chtěl by vyvinout mentální antivirus, aby byl připraven na dobu, kdy Elon Musk vysoustruží mozkové implantáty. „Lidé nepotřebují mozkové implantáty k tomu, aby byli manipulováni,“ říká profesor Pěchouček, který je od roku 2019 technickým ředitelem Avastu.

Zabýváte se tím, jak může umělá inteligence pomoci kybernetické a počítačové bezpečnosti. Počítáte s tím, že umělá inteligence je také významnou zbraní v rukou kyberútočníků?

Ano. Jsou tu dvě dimenze. Za prvé platí, že škála takových útoků roste a výrazně jich přibývá. Už ani není v lidských silách připravit takové množství útoků ručně. Jsme svědky mamutí automatizace v psaní těchto útoků i v obfuskaci – tedy přizpůsobování těchto útoků tak, aby nebylo možné útočníka detekovat. K tomu všemu se používá umělá inteligence. Stejně jako v celém softwarovém průmyslu tady platí, že se virtuální část softwaru čím dál tím víc automatizuje. To platí v případě Googlu stejně jako u hackerské komunity. A pak je tu druhá dimenze – cílem útoku už často není ošálit nějaký firewall nebo ochranný počítačový systém, ale přímo člověka. Jde o phishingové útoky, kdy je člověk třeba prostřednictvím mailu vyzýván, aby na něco kliknul, udělal nějakou akci. Schopnost ošálit ho je vyšší prostřednictvím umělé inteligence, která pracuje s jeho profilem, daty a dokáže predikovat jeho chování a tužby. Předhodí mu uvěřitelný klik.

Obáváte se, že tyhle hrozby mohou vést k negativním postojům veřejnosti vůči umělé inteligenci jako takové?

Asi se to nestane. Lidé si dnes spojují negativní vlivy umělé inteligence s jinými hrozbami, o kterých píší komentátoři a o nichž mluví technologičtí lídři. Jen málo lidí mluví o negativních dopadech kyberútoků s využitím umělé inteligence.

Jaké hrozby máte na mysli?

Hodně se mluví o vzniku pokročilé, takzvané obecné umělé inteligence, která by mohla člověka ovládnout. Pak jsou to nebezpečí spojená s umělou inteligencí v dopravě, s autonomními vozidly. Zcela po právu se hodně mluví také o umělé inteligenci a manipulaci, což je velká hrozba, která se v mnohém podobá těm phishingovým útokům s využitím umělé inteligence. Je to takové příbuzné, sesterské nebezpečí. Myslím, že umělá inteligence bude mít problém se ve společenském diskurzu obhájit, ale nikoliv kvůli kybernetickým útokům.

AVAST MI SEDÍ

Vy se zabýváte oběma dimenzemi kybernetických útoků s využitím umělé inteligence a obranou proti nim?

Obojí skutečně řešíme. Proto jsem spojil svoji kariéru s Avastem. Jako intelektuál tady vidím nejpravděpodobnější cestu k úspěchu. Chtěl jsem zvýšit šanci, že mé nápady pomohou stamilionům uživatelů po celém internetu. Avast je pro mě ideální pracoviště, kde to můžu zkusit. Před časem jsem odmítl podobnou nabídku z Facebooku, ale Avast je přesně to, co mi sedí.

Poprvé jste propojil své nápady v oblasti umělé inteligence a kybernetické bezpečnosti s komerčním projektem ve startupu Cognitive Security. Navazujete tedy na to, do čeho jste se pustil už před více než deseti lety…

V té době jsem společně se svým tehdejším doktorandem Martinem Rehákem rozvinul základní myšlenku, že metody umělé inteligence, které se používají k rozpoznávání obrazů, se mohou použít i k rozpoznání síťového provozu. Stejně jako jsme schopni v obrazu detekovat černou kočku, která tam být nemá, jsme schopni v síťovém provozu detekovat útok, který tam také nemá být. Tuhle základní intelektuální premisu jsem si chtěl v praxi ověřit a zjistil jsem, že opravdu funguje. A že ta třída metod, která se používá ve zpracování obrazu, se dá použít pro nějakou třídu problémů ve zpracování síťového provozu. Na tom jsme postavili startup Cognitive Security, který později koupila americká společnost Cisco.

Dá se říct, že to byl velký průlom i v globálním měřítku?

Nechci si přisuzovat nějaké nezasloužené zásluhy, ale mohu říct, že před rokem 2013 bylo velmi obtížné prodat řešení v oblasti kybernetické bezpečnosti, které by bylo postavené na myšlenkách umělé inteligence, strojového učení. Od roku 2013, kdy náš startup koupilo Cisco, se k těmto metodám začalo otáčet celé odvětví. Dnes už se naopak jen těžko prosadíte s řešením kybernetické bezpečnosti, které by aspoň zčásti nebylo postaveno na metodách strojového učení.

I později jste mluvil o tom, že světy umělé inteligence a kybernetické bezpečnosti si nebyly až tak blízké a že by se měly více propojit. Daří se vám to?

Zlepšuje se to. Kybernetická bezpečnost má oproti jiným aplikačním oblastem k umělé inteligenci relativně daleko. Vyžaduje totiž mnohem odbornější expertízu ve srovnání s využitím umělé inteligence například v autonomním autě nebo při rozpoznávání fotek. Řízení auta není tak těžká věc a třídění fotek také není žádná věda. Když tady nahrazujete přirozenou inteligenci umělou, řešíte vlastně intuitivně přístupný problém. V případě kybernetické bezpečnosti řešíte extrémně interpolovaný náročný problém. Jen málo lidí na světě rozumí tomu, jakým způsobem se chová počítačový virus, co je kybernetický útok. V této oblasti máte málo benchmarků, málo expertů, kteří vám mohou pomoci, a málo lidí, kteří jsou ochotni vaše metody verifikovat. Je také velmi těžké zapojit akademickou komunitu. V jiných oblastech aplikace umělé inteligence existují datové množiny, které slouží jak pro strojové učení, tak pro verifikaci výsledků. A jsou veřejně dostupné. V kybernetické bezpečnosti se primárně jedná o osobní údaje, které je nutné chránit.

sinfin.digital