MojAndroid

Americká FBI upozorňuje verejnosť na nové taktiky kriminálnikov, ktorí vo veľkom využívajú generatívnu umelú inteligenciu (AI) na podvody, čím zvyšujú dôveryhodnosť svojich schém. Generatívna AI výrazne skracuje čas a námahu potrebnú na oklamanie ich obetí. Na základe zadaných vstupných údajov dokáže vytvoriť úplne nové výstupy, ktoré sú využívané na tvorbu obsahu a tiež elimináciu chýb, ktoré by mohli signalizovať podvod, informuje FBI na svojich stránkach.

Hoci tvorba alebo distribúcia syntetického obsahu sama o sebe nie je nezákonná, jeho využitie na podvody a vydieranie je problémom. Kriminálnici najčastejšie využívajú text od umelej inteligencie na sociálne inžinierstvo, phishing alebo finančné podvody, kam patria podvody spojené “s románikom” a pochybné investičné schémy. AI im tiež umožňuje rýchlo vytvárať veľké množstvo fiktívnych profilov na sociálnych sieťach, ktoré obete presviedčajú, aby posielali peniaze.

Rovnako sa používa na jazykové preklady, čím odstraňuje gramatické chyby, ktoré by mohli odhaliť zahraničných podvodníkov. Čiže ak vám bude písať nigérijský princ, už to pravdepodobne bude bez gramatických preklepov.

brad pitt ai
Nedávno internetom kolovala správa o tom, že pomocou AI sa podarilo podvodníkom presvedčiť ženu, že jej píše Brad Pitt, pričom im poslala obrovskú sumu peňazí na operáciu | Zdroj: NewYorkPost

Umelo vytvorené obrázky zase umožňujú tvorbu realistických fotografií pre falošné profily na sociálnych sieťach, podvodné identifikačné doklady alebo na presviedčanie obetí, že komunikujú so skutočnou osobou. Tieto nástroje sa využívajú aj na vytváranie obrázkov celebrít, ktoré propagujú falošné produkty, či na tvorbu odhalených fotografií a ich následné šírenie.

Ďalším rizikom sú AI generované audio nahrávky, ktoré umožňujú napodobniť hlasy známych osôb alebo aj vašich blízkych. Kriminálnici môžu vytvárať krátke zvukové klipy, kde sa vydávajú za príbuzného v núdzi, žiadajú o finančnú pomoc alebo napodobňujú hlasy na získanie prístupu k bankovým účtom.

Posledným prípadom sú videá, ktoré sú používané na vytváranie realistických zobrazení verejných činiteľov na podporu podvodných schém. Slúžia napríklad na videohovory s údajným vedením spoločností alebo na “dôkaz” identity pri súkromnej komunikácii. Tak isto sú často obľúbeným nástrojom niektorých politických strán, ktorý pomocou AI chcú v očiach verejnosti degradovať politickú konkurenciu.

Ako sa chrániť?

  1. Nastavte si s rodinou tajné heslo na overenie identity.
  2. Všímajte si nezrovnalosti na fotkách a videách (skreslené ruky, nejasné tváre, neprirodzené tiene).
  3. Buďte opatrní pri telefonátoch – AI klony môžu znieť presne ako vaši blízki.
  4. Chráňte si svoje súkromie na sociálnych sieťach a zdieľajte obsah iba s overenými kontaktmi.
  5. Nikdy neposielajte peniaze ani citlivé informácie osobám, ktoré poznáte iba online.

Diskutovať o tomto článku môžete aj na našej stránke AndroidForum. Ak hľadáte odpoveď na problém so svojím mobilným zariadením, aplikáciou alebo príslušenstvom, opýtajte sa v našom novom AndroidFóre

Náš tip
4G sieť 4ky pribudla vo viac než stovke nových miest a obcí. Prinášame ich zoznam
21.1.2025

Pravidlá diskusie

Portál MojAndroid.sk si vyhradzuje právo zmazať neslušné, rasistické a vulgárne príspevky, ako aj osobné útoky na redakciu, či diskutérov v komentároch pod článkom bez ďalšieho upozornenia. V prípade uverejňovania odkazov na externé stránky, je komentár automaticky preposlaný do redakcie na schválenie.

Nie je možné pridávať komentáre.

+