Hledáte nějaké slovo, které by charakterizovalo technologický vývoj v roce 2019? Jedním z favoritů bude určitě „deepfake“, tedy nejrůznější podvrhy vytvořené pomocí umělé inteligence. Když se objevily první ukázky toho, jak lze snadno změnit slova vyřčená na videu, panovaly obavy, jestli to nepůjde nějak zneužit v politickém boji. Realita sice není tak barvitá, ale i přesto bychom se měli umělé inteligence a deepfake začít bát.
Jak informuje thenextweb.com, obětí podvodu se může stát každý z nás. V tomto případně použili podvodníci komerčně dostupný software, s jehož pomocí napodobili hlas ředitele jedné německé firmy. Jeho jménem pak zavolali šéfovi jedné z dceřiných firem a dožadovali se rychlého převedení peněz maďarskému dodavateli, aby firma nepřišla o důležitou zakázku.
Peníze z firmy skutečně odešly, ale z maďarských účtů byly následně převedeny na mexické, kde jejich stopa mizí. Útočníci se podobným způsobem dožadovali dalších peněz, tentokrát ale neuspěli. Naštěstí pro všechny zmíněné jejich pojištění tuto událost pokrylo.
Rozhodně to není poslední podobný podvod, o kterém slyšíme. Jak informuje analýza na securitymagazine.com, počet útoků s využitím hlasu napodobeného umělou inteligencí narostl za poslední čtyři roky o 350 %. Proto až příště zvednete sluchátko, buďte opatrní a… nikomu nevěřte.