
Image created with ChatGPT
AI Агенти Измамени от Фалшиви Спомени, Позволяващи Кражба на Криптовалута
Ново изследване показва значителни пропуски в сигурността на Web3 агентите, задвижвани от изкуствен интелект, които позволяват на нападателите да използват фалшиви спомени за извършване на неоторизирани трансфери на криптовалута.
Нямате много време? Ето основните факти:
- Хакери могат да внедряват фалшиви спомени в AI агенти, за да откраднат криптовалута.
- Атаките, базирани на памет, заобикалят базови сигнални маркери и защитни мерки.
- Транзакциите в блокчейн са необратими – откраднатите средства се губят завинаги.
Изследователи от Принстънския университет и Фондацията Сентиент откриха, че тези AI агенти, създадени за изпълнение на задачи базирани на блокчейн, като търговия с криптовалути и управление на дигитални активи, са уязвими към тактика, наречена манипулация на контекста.
Атаката работи, като насочва вниманието си към системите за памет на платформи като ElizaOS, които създават AI агенти за децентрализирани приложения. Системата за памет на тези агенти съхранява предишни разговори, за да ги използва като ръководство за бъдещите си избори.
Изследователите демонстрираха, че нападателите могат да вградят подвеждащи команди в системата за памет, като по този начин насочват AI да изпраща средства от предназначения портфейл към портфейл, контролиран от нападателя. Тревожно е, че тези фалшиви спомени могат да пътуват между платформите.
Например, агент, компрометиран в Discord, може по-късно да извърши грешни трансфери чрез X, без да осъзнае, че нещо не е наред.
Това, което прави тази ситуация особено опасна, е че стандартните защитни мерки не могат да спрат този тип атака. Третирането на фалшивите спомени като истински инструкции прави основните мерки за сигурност, базирани на подканване, неефективни срещу този вид атака.
Всички транзакции в блокчейн стават постоянни, така че няма възможност за възстановяване на откраднати средства. Проблемът се влошава, защото определени АИ агенти съхраняват паметта си през множество потребители, така че едно единствено нарушение на сигурността може да засегне много потребители.
Научният екип тества няколко начина за предотвратяване на това, включително коригиране на обучението на AI и изискване на ръчно одобрение за транзакции. Въпреки че тези подходи предлагат известна надежда, те се постигат на цената на забавяне на автоматизацията.
Проблемът е по-широк от криптовалутите. Същата уязвимост може да засегне и AI асистентите с общо предназначение, като рискува да доведе до изтичане на данни или вредни действия, ако атакуващите променят тяхната памет.
Тази уязвимост е особено тревожна в светлината на скорошни открития, според които 84% от IT лидерите доверяват на AI агентите толкова много или повече колкото на човешките служители, и 92% очакват тези системи да доведат до бизнес резултати в рамките на 12 до 18 месеца.
За да се справят с проблема, изследователите представиха инструмент наречен CrAIBench, който да помогне на разработчиците да тестват системите си и да изградят по-силни защити. До тогава, експерти предупреждават потребителите да бъдат внимателни, когато доверяват на AI агенти финансови решения.
Оставете коментар
Прекрати