Киберугрозы под маской доверия: Фейковые адвокаты криптоинвесторов и ИИ-обманщиков на страже безопасности

Мы подготовили обзор самых значительных событий в области кибербезопасности за прошедшую неделю.

В августе ФБР выразило опасения по поводу мошенников, выдающих себя за поддельные юридические компании, связанные с криптовалютами. Злоумышленники, предлагая несуществующие услуги по возврату утраченных активов, обманывали клиентов, похищая их деньги и личные данные.

По информации бюро, основными жертвами мошенников становились криптовладельцы, стремящиеся вернуть свои украденные деньги.

Правоохранительные органы утверждают, что злоумышленники применяли разнообразные манипулятивные стратегии, включая использование отчаяния своих жертв и создание фиктивного чувства безопасности, представляясь представителями государственных структур или их партнерами. Кроме того, репутация лиц и организаций, чьи названия они использовали, также подрывалась.

ФБР советует быть осторожными и внимательно выбирать помощников для возврата криптовалюты.

Согласно Press Gazette, по меньшей мере шесть издательств, среди которых Wired и Business Insider, в недавнее время удалили статьи со своих сайтов. Это связано с тем, что тексты, подписанные именем Марго Бланшар, были созданы с использованием искусственного интеллекта.

В мае Wired напечатал статью под названием «Они влюбились в Minecraft, и это стало их свадебной площадкой». В публикации упоминалась Джессика Ху, 34-летняя священнослужительница из Чикаго, которая была известна как «цифровая церемониймейстерша» на Twitch и Discord. Однако журналисты не смогли подтвердить ее существование, и через несколько недель Wired решил удалить статью из-за несоответствия редакционным нормам.

Как сообщает Press Gazette, в апреле Business Insider также опубликовал два эссе Бланшар, которые были сняты с сайта на прошлой неделе.

21 августа руководство Wired признало свою ошибку:

«Wired должен быть в состоянии распознавать ИИ-мошенников. Мы обычно это делаем… Но, к сожалению, один смог пройти мимо».

Издание рассказало, что 7 апреля один из редакторов получил предложение от некой Марго Бланшар о «повышении интереса к гипернишевым интернет-свадьбам». Письмо выглядело как хорошая идея для публикации в Wired. После обычной переписки о задании и гонораре редактор поручил написание статьи, которая вышла в эфир 7 мая.

Поскольку через несколько дней стало очевидно, что автор не может предоставить достоверную информацию о себе и настаивает на оплате через PayPal или чеком, редакция начала подозревать неладное.

В дальнейшем выяснилось, что вся история носила вымышленный характер.

«Мы допустили ошибки: статья не прошла должного проверки фактов и не была одобрена старшим редактором […]. Мы быстро отреагировали, когда вскрыли обман, и предприняли меры для предотвращения подобных инцидентов в будущем. Каждое СМИ должно быть подготовлено к таким вызовам», — отметили в Wired.

По сообщению Press Gazette, первый на странности указал редактор журнала Dispatch Джейкоб Фуреди. Он рассказал, что получил от Бланшар предложение написать о «Gravemont, закрытом шахтерском городке в Колорадо, который превращен в секретный тренинг-центр расследования происшествий». Когда он попросил Бланшар представить документы из госреестров, она проигнорировала этот запрос.

Компания Meta анализирует и сохраняет фотографии с устройств пользователей. Как сообщает ZDNET, некоторые пользователи Facebook обнаружили в настройках приложений Meta два активированных параметра, которые предоставляют компании доступ к их галерее. Эти данные используются для ИИ, чтобы предлагать «индивидуальные креативные идеи», такие как тематические коллажи и подборки путешествий.

Согласно информации СМИ, опции ИИ под названием «предложения по использованию фото из галереи» активированы у пользователей, которые не давали на это согласие.

При нажатии кнопки «разрешить» пользователь соглашается на условия использования ИИ от Meta и анализ данных о «медиа и личных характеристиках». Facebook затем использует изображения из галереи (включая даты съемки и наличие людей или объектов) для создания коллажей, тематических альбомов или переработанных с ИИ версий фотографий.

Исследователи из Trail of Bits разработали новый подход к атаке, направленный на похищение пользовательских данных. Метод заключается во внедрении вредоносных команд в изображения, обрабатываемые ИИ-системами до их попадания в крупные языковые модели.

Суть метода – использование полноразмерных изображений, содержащих «невидимые» инструкции, которые становятся видимыми при изменении качества через алгоритмы изменения размера. Когда такие изображения загружаются в ИИ, они автоматически уменьшаются, что позволяет повысить производительность и сэкономить ресурсы.

В зависимости от конкретной системы алгоритмы изменения размера могут делать изображение светлее, применяя метод ближайшего соседа (nearest neighbor), билинейную или бикубическую интерполяцию.

В примере от Trail of Bits при бикубическом снижении масштаба темные участки вредоносного изображения становятся красными, а скрытый текст проявляется черным.

С точки зрения пользователя, ничего необычного не происходит, но на самом деле модель выполняла скрытые команды, которые могут привести к утечке данных или другим нежелательным последствиям.

Исследователи подтвердили, что их метод можно применить к:

25 августа Google объявила о предстоящем прекращении возможности размещения приложений от неподтвержденных разработчиков в Google Play. Новая система безопасности для Android будет блокировать установку вредоносного софта при загрузке из сторонних источников.

«Хотя угроза в основном исходит от сторонних источников, требование проверки разработчика теперь будет распространяться как на приложения из Google Play, так и на приложения из внешних магазинов», — отметила команда.

Доступ к верификации ранти начнется в октябре, а с марта 2026 года система станет доступной для всех разработчиков Android-приложений. Обязательное требование верификации личности вступит в силу в сентябре для Бразилии, Индонезии, Сингапура и Таиланда, а в 2027 году планируется внедрение по всему миру.