Ilustračná snímka FOTO: Shutterstock
StoryEditor

Zavibruj a odhaľ podvodníka. Smartfóny sa naučia nový trik

02.10.2024, 12:00

Podvodné telefonáty sa neobmedzujú len na hlas, podvodníci už vďaka umelej inteligencii vedia sfalšovať svoju podobu aj počas videohovoru. Smartfóny sa však v takom prípade vedia múdro brániť jednoduchou funkciou: vibráciami.

Podvodné telefonáty či textové správy sú tu s nami už prakticky od vzniku týchto technológií. Avšak v poslednej dobe rastie potenciál pre falošné videohovory, v ktorých sa druhá strana môže vydávať za niekoho vám blízkeho či inak známeho (tzv. deepfake).

image

Ani sa nenazdáte, ako rýchlo dokážu hackeri v roku 2024 prelomiť vaše heslo. Takto proti tomu môžete bojovať

Pomáha im v tom umelá inteligencia, ktorá už vie napodobniť iného človeka, a to dokonca v reálnom čase. Výskumníci však už prišli na celkom elegantnú obranu.

Singapurská štúdia odhaľuje riešenie, ktoré má za cieľ „rozhodiť“ umelú inteligenciu pomocou náhodných rýchlych pohybov (trasenie telefónom) predovšetkým silnými vibráciami zariadenia. To je niečo, čo dokáže každý mobil. Ak vám volá niekto s tvárou napodobňujúcou iného človeka, vibrácie môžu umelú inteligenciu zmiasť natoľko, že potom špecializovaný program dokáže rýchlo vyhodnotiť situáciu a upozorniť na podvod.

Využije slabinu umelej inteligencie

Funguje to tak, že zhromaždené dáta, ktoré vytvárajú falošný obraz, nevedia rýchlo reagovať na otrasy. Simulovaná tvár teda bude mať aj počas vibrovania telefónu ostrejšie rysy, než keby telefón snímal skutočného človeka, v takom prípade by jeho tvár bola znateľne rozmazanejšia. Stačí tak, aby služba, cez ktorú sa títo dvaja ľudia rozprávajú, poslala pokyn na zavibrovanie telefónu podvodníka, a následne vyhodnotila zozbierané dáta.

Umelá inteligencia sa síce môže takýmto situáciám čiastočne brániť tým, že do cvičných dát zahrnie aj rozmazané tváre (či simuluje takzvaný motion blur, teda rozmazanie pohybu), lenže stále nevie natoľko rýchlo a spoľahlivo reagovať na náhodné otrasy.

Reálna hrozba

Metóda s vibráciami telefónu, ktorú popisujú výskumníci, výrazne lepšie odhaľuje podvody oproti iným, v súčasnosti používaným nástrojom. Potenciál tejto hrozby pritom rýchlo rastie, ako dokazuje prípad zo začiatku tohto roku, keď sa stal obeťou takéhoto podvodu úradník z Hongkongu. Ten na povel falošného riaditeľa vo videohovore odoslal 25 miliónov dolárov na účet podvodníka.

V budúcnosti môže takýchto situácií pribúdať, pretože ľudia sú stále častejšie ochotní veriť komunikácii „tvárou v tvár“, hoci sprostredkovanou pomocou videa. Doteraz sa však takéto podvody odohrávali predovšetkým v prostredí so statickými kamerami (napríklad webkamera v konferenčnej miestnosti), je však len otázkou času, kedy sa takéto situácie začnú stávať aj na obrazovkách telefónov držaných v ruke. V takom prípade potom príde metóda na odhalenie podvodu určite vhod.

01 - Modified: 2024-09-17 22:00:00 - Feat.: 1 - Title: Ani sa nenazdáte, ako rýchlo dokážu hackeri v roku 2024 prelomiť vaše heslo. Takto proti tomu môžete bojovať 02 - Modified: 2024-09-28 05:30:00 - Feat.: 1 - Title: Pesničky a poslucháčov zaistila AI, on inkasoval milióny. Hudobník obišiel systém, teraz ho čaká súd 03 - Modified: 2024-09-24 08:44:35 - Feat.: 1 - Title: Vnímanie pachov je zložité. Vedcom má pomôcť rozlúštiť záhadu AI
01 - Modified: 2024-11-20 15:51:00 - Feat.: - Title: ECB varovala pred cenovou bublinou pri akciách spojených s umelou inteligenciou 02 - Modified: 2024-11-20 15:00:00 - Feat.: - Title: Odolnosť voči antibiotikám sťažuje liečbu. Dnes už pomáha umelá inteligencia 03 - Modified: 2024-11-19 10:15:58 - Feat.: - Title: Nekonečný cynizmus: Desať rokov predstierala boj s rakovinou. Kvôli darom 04 - Modified: 2024-11-14 16:01:06 - Feat.: - Title: OpenAI umožní umelej inteligencii ovládať namiesto používateľa počítač 05 - Modified: 2024-11-13 11:00:00 - Feat.: - Title: Preloží krik vášho dieťaťa. Nový detský monitor dychu používa AI, výsledky prekvapia
menuLevel = 2, menuRoute = style/tech, menuAlias = tech, menuRouteLevel0 = style, homepage = false
21. november 2024 13:13