Исследователи из Cybernews сообщили о серьёзной утечке данных , связанной с компанией Vyro AI, известной своими популярными генеративными приложениями для Android и iOS. Открытый сервер Elasticsearch, принадлежащий разработчику, без защиты публиковал в реальном времени журналы объёмом 116 ГБ, собранные от трёх сервисов компании: ImagineArt с более чем 10 млн установок на Google Play, Chatly с сотней тысяч загрузок и веб-чатбота Chatbotx, посещаемого примерно 50 тысячами пользователей в месяц.
Vyro AI базируется в Пакистане и утверждает, что общее число загрузок её приложений превысило 150 миллионов, а каждую неделю создаётся около 3,5 миллиона изображений. По словам исследователей, обнаруженный сервер содержал логи как рабочих, так и тестовых сред, хранившие информацию за 2-7 последних дней. База впервые была проиндексирована поисковыми системами IoT ещё в феврале, что могло дать злоумышленникам доступ к данным на протяжении нескольких месяцев.
В утечку попали запросы пользователей к ИИ , токены аутентификации Bearer, а также данные об используемых устройствах и браузерах. Набор таких сведений открывал возможность следить за действиями людей, перехватывать аккаунты и извлекать личные сведения из чатов. Особенно опасной ситуация выглядит в контексте ImagineArt, которая насчитывает свыше 30 миллионов активных пользователей. Скомпрометированные токены позволили бы захватить управление профилями, получить доступ к истории переписки и сгенерированным изображениям, а также использовать платные функции за счёт владельцев.
Дополнительный риск связан с раскрытием самих пользовательских запросов. Диалоги с нейросетями часто содержат приватные данные, которые люди никогда бы не опубликовали открыто. Попадание таких сведений в чужие руки может обернуться серьёзными репутационными или финансовыми последствиями.
Раскрытие информации о Vyro AI прошло поэтапно: саму проблему обнаружили 22 апреля 2025 года, уведомили компанию 22 июля, а затем подключили национальный центр реагирования CERT 28 июля.
Случай демонстрирует, что в стремлении занять место на быстрорастущем рынке ИИ-разработчики иногда пренебрегают защитой данных. Между тем пользователи всё чаще доверяют системам генеративного ИИ свои идеи, документы и даже конфиденциальную информацию. Подобные инциденты лишь подчёркивают, что безопасность должна становиться обязательным приоритетом.
Схожие проблемы затрагивают и крупных игроков. Так, например, в августе пользователи столкнулись с тем, что их переписки с ChatGPT и Grok оказались доступны в поиске Google из-за небезопасной функции обмена ссылками, которую позже пришлось убрать.
Исследователи Cybernews также недавно показали , что чатбот Expedia можно было использовать для генерации инструкций по изготовлению зажигательных средств, что наглядно демонстрирует риски неподготовленных релизов. Даже OpenAI с последней моделью GPT-5 не смогла избежать проблем с защитой: исследовательские команды сумели взломать ограничения всего за сутки после запуска.