Мнение: Измамите с дипфейкове експлоатират любовта и доверието както никога досега

Image generated with DALL·E through ChatGPT

Мнение: Измамите с дипфейкове експлоатират любовта и доверието както никога досега

Време за четене: 7 мин.

Измамите, задвижвани от изкуствен интелект, се увеличават, като кибер престъпниците използват технологията за създаване на дълбоки фалшиви изображения, за да създадат убедителни видеоклипове и изображения, които манипулират жертвите. От френска жена, която е вярвала, че помага на Брад Пит, до жертва, убедена от висококачествено измамно видео, границите между реалността и измамата се размиват. С развитието на инструментите за изкуствен интелект, рисковете също се увеличават.

Мнозина от нас го видяха в новините през януари: френска жена загуби над 850 000 долара на измамници, защото вярваше, че дава парите на Брад Пит – мъжът, с който мислеше, че е в отношения в продължение на повече от година.

Измамниците използваха напредничава генеративна изкуствена интелигенция, за да създадат „селфита“ и да фабрикуват доказателства, убедявайки своята жертва, Ан – 53-годишна дизайнерка в процес на развод – в трагичната история за фалшивия Пит със спешни медицински нужди. Твърдеха, че неговите средства са замразени поради развода му от Анджелина Джоли.

Ан направи смелото – и рисковано – решение да сподели историята си публично, изправена пред милиони подигравки, обиди и виртуални атаки. „Като глупак, платих… Всеки път, когато се съмнявах в него, той успяваше да разсее съмненията ми“, каза тя във френско Youtube шоу, както е отразено от БиБиСи. „Просто бях изиграна, признавам го, и затова излезнах наяве, защото не съм единствената.“

Тя не е. Няколко месеца по-късно спанската полиция арестува 5 души, които измамиха две други жени, преструвайки се на Брад Пит. Преди няколко дни, и един китайски мъж беше измамен да повярва, че неговата онлайн приятелка има нужда от пари за медицински процедури и за да финансира бизнеса си.

Жертвите получиха персонализирани видеоклипове и снимки – изображения, които не бяха достъпни никъде другаде онлайн, което ги убеди още повече в еластичните лъжи на измамниците.

Скорошен доклад от Entrust предполага, че опитите за Deepfake се случват на всеки 5 минути. Всеки ден излизат нови случаи на хора, измамени с генеративен AI – тревожна тенденция, особено като се има предвид хилядите, ако не и милионите хора, потънали в дългове и срам, които не смеят да го докладват на властите, нека да не говорим да го направят публично.

Измамите с DeepFake на възход

Множество проучвания и доклади поднасят аларми за увеличаващите се измами и кибер атаки, управлявани от AI. Скорошни данни от TrustPair’s 2025 Fraud Trends and Insights показаха 118% годишно увеличение на измамите, управлявани от AI, както беше докладвано от CFO.

Здравейте, Hiya, американска компания, специализирана в областта на гласовата сигурност и решения за производителност, наскоро сподели резултатите от проучване, разкриващо, че 31% от клиентите в шест страни получиха deepfake обаждания през 2024 г., а 45% от тях бяха измамени – 34% от тази група загубиха пари, а на 32% им беше открадната лична информация. В средно, жертвите губят над $500 всеки от телефонни измами.

Преди няколко дни, The Guardian разкри, че организирана мрежа в Грузия – в Източна Европа, използва фалшиви реклами във Facebook и Google, за да измами над 6 000 души от цяла Европа, Канада и Великобритания, като изкара $35 милиона от своите дейности.

Около 85 добре платени грузински измамници използваха обществени фигури като английския журналист Мартин Люис, писателя и авантюрист Бен Фогъл и Елон Мъск за своите измами. Измамниците рекламираха фалшива криптовалута и други инвестиционни схеми, накарвайки жертвите да превеждат пари чрез дигитални банки като Revolut – които наскоро получиха банкова лицензия във Великобритания.

Напреднал AI, по-софистицирани измами

Кибер престъпниците използват генеративен AI в продължение на последните няколко години, използвайки инструменти като ChatGPT, за да създават и превеждат интересни имейли и да генерират убедително текстово съдържание. Сега, докато инструментите на AI се развиват, използването на AI-генерирани изображения и видеоклипове е нараснало.

Преди няколко седмици, ByteDance представи най-новия си инструмент за AI видео, OmniHuman-1, способен да генерира един от най-реалистичните дийпфейкове на пазара. Междувременно, все повече AI компании разработват подобни технологии. Изглежда, че е само въпрос на време преди тези инструменти също да бъдат използвани за измами.

Въпреки че тези технологии могат да бъдат използвани „по добросъвестен начин“ и дори да противодействат на нарастващия брой измами – като AI ‘баба’ Daisy на O2, създадена да ангажира измамници в реално време и да ги отклони от реалните жертви – последствията от злонамерената им употреба изглеждат неизмерими.

В Wizcase, наскоро докладвахме за 614% увеличение на „Атаки сам на себе си“, отбелязвайки как хакерите използват технологии за дълбоко фалшифициране, за да направят фалшивото съдържание „по-реалистично“ и как социалните медии като Meta трябваше да се намесят в измами с клане на свине, тъй като много измамници използват тези платформи. В проучването, Meta отбеляза, че много измами започват в приложения за запознанства, доказвайки колко романтичната любов е сред най-често използваните мамки – както сега, така и исторически.

Любовта: Мощна примамка

Киберпрестъпниците не са просто умели в разбирането и използването на напреднала изкуствена интелигентност – те също така имат дълбоко разбиране за човешката интелигентност. Зловредните актьори знаят как да идентифицират уязвимости, да изградят доверие и да направят своите искания в точния момент.

Изследването Обичаш ли ме? Психологически характеристики на жертвите от романтични измами, публикувано през 2018 година от доктор Моника Т. Уити, обяснява как международни криминални групи извършват романтични измами от много години – дори преди Интернет – и как жени на средна възраст, добре образовани, са склонни да паднат жертва на този тип измама – точно като Ан.

Какво можем да очакваме сега, осем години след това изследване, с технологията като от научна фантастика? Вероятно всички сме по-уязвими, отколкото мислим.

„Жертвите на този вид измама често са хора, търсещи смисъл, които са емоционално уязвими“, пише Ани Лекомпт, доцент в Университета на Квебек в Монреал (UQAM), в скорошна статия, публикувана в The Conversation. „Въпреки че е присмивана и неразбрана, любовната измама е базирана на сложни психологически механизми, които използват доверието, емоциите и уязвимостта на жертвите.“

Счупено сърце, празен портфейл

Лю – фамилията на китайския мъж, който наскоро загуби 200 000 юана, около 28 000 долара, в измама, управлявана от изкуствен интелект – наистина вярваше, че неговото приятелка от ИИ е реална, тъй като виждаше персонализирани снимки и дори видеоклипове. Изграждайки все по-силна емоционална връзка… със своите измамници.

Докато той не даде повече подробности относно контекста в докладите, друга жертва, 77-годишната Ники Маклеод, го направи. Тя също мислеше, че е в истинска връзка с изкуствен интелект, представящ се за приятелка и й прати 17 000 паунда – около 22 000 долара – чрез банкови преводи, PayPal и подаръчни карти.

„Не съм глупава, но тя успя да ме убеди, че е истински човек и че ще прекараме живота си заедно“, каза Маклеод за BBC.

Маклауд се чувстваше самотна и тъжна, когато срещна Ала Морган в групов чат. След известно време, Маклауд заяви, че иска да направят видео разговор на живо, но Морган отказа, като обясни, че работи на платформа за добив на петрол. Когато Маклауд започна да се съмнява, Морган започна да изпраща реалистични видеа. „Тя ми изпрати видео, за да каже ‘Здравей, Ники, аз не съм измамница, аз съм на петролната си платформа’, и аз напълно повярвах в това“, обясни Маклауд. Съдържанието е достъпно на уебсайта на BBC и е лесно да се разбере защо Маклауд е повярвала, че това е истина – това е висококачествен дийпфейк.

BBC помоли експерт по киберсигурност и взаимодействие между човек и компютър от Университета в Абъртей, д-р Линсей Шепърд, да анализира снимките и видеата, които Маклауд е получила. „От пръв поглед изглежда законно, ако не знаеш за какво да търсиш, но ако погледнеш очите – движенията на очите не са съвсем правилни,“ каза д-р Шепърд.

„Документите изглеждаха истински, видеата изглеждаха истински, банката изглеждаше истинска,“ каза МакЛеод. „С въвеждането на изкуствения интелект, всяко едно нещо може да бъде фалшиво.“

Хареса ли ви тази статия?
Оценете я!
Не ми хареса Не ми хареса особено Става Добра е! Страхотна!

Радваме се, че работата ни Ви хареса!

Като ценен читател, имате ли нещо против да ни дадете рейтинг в Trustpilot? Става бързо и означава всичко за нас. Благодарим Ви, че сте толкова невероятни!

Оценете ни в Trustpilot
0 Оценена от 0 потребителя
Заглавие
Коментар
Благодарим за вашето мнение
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Оставете коментар

Loader
Loader Покажи още...