В сентябре 2025 года исследователи кибербезопасности обнаружили опасный баг в системе ChatGPT. Уязвимость была связана с функцией, позволяющей чат-боту автоматически загружать и анализировать файлы из внешних источников, включая сервисы Google, такие как документы и таблицы.
Логика атаки была следующей. Злоумышленник создавал специально сформированную вредоносную ссылку на файл, хранящийся в «Google диске». Эта ссылка маскировалась под легитимный документ и могла быть отправлена жертве через чат или размещена на сайте. Если пользователь загружал такую ссылку в ChatGPT для анализа, механизм авторизации давал сбой. Вместо того чтобы запросить доступ только к целевому файлу, система в некоторых случаях ошибочно предоставляла доступ к гораздо более широкому набору данных — включая электронные письма в Gmail, связанные с аккаунтом Google пользователя.
Хотя нет свидетельств того, что уязвимость была массово использована в реальных атаках, ее потенциальный урон был крайне высок. Под угрозой оказались доступ к содержимому почты Gmail, Утечка коммерческой тайны, финансовых отчетов и проектных данных, хранящихся в Google Документах и риск раскрытия личной информации.
Получив отчет об уязвимости, инженеры компании OpenAI в срочном порядке выпустили патч и полностью устранили брешь в системе. Google подтвердил, что осведомлен о ситуации и тесно сотрудничал с OpenAI для ее разрешения. Представитель гиганта поисковых технологий отметил, что проблема была на стороне интеграции ChatGPT, а не в инфраструктуре Google.
Алексей Петров, независимый исследователь в области кибербезопасности, прокомментировал инцидент.
«Данный случай — наглядный урок для всей индустрии. Стремясь сделать ИИ-продукты максимально удобными и функциональными, разработчики создают сложные цепочки взаимодействия между сервисами. Каждое такое звено — потенциальная точка отказа. Здесь мы видим, как ошибка в одном из них привела к критическому последствию».
Инцидент не является единичным. Ранее подобные проблемы с избыточным доступом к данным через OAuth и другие протоколы авторизации фиксировались и у других крупных tech-компаний. Это подчеркивает системную сложность обеспечения безопасности в экосистеме взаимосвязанных веб-сервисов.
Хотя уязвимость уже закрыта, пользователям стоит придерживаться общих правил кибергигиены. Внимательно проверяйте разрешения, которые вы предоставляете приложениям при подключении к вашим аккаунтам (Google, Microsoft и т.д.). Отзывайте доступ у неиспользуемых или подозрительных сервисов. Не загружайте в ChatGPT и другие AI-инструменты ссылки из непроверенных источников. Для работы с конфиденциальными данными предпочтительнее использовать корпоративные версии AI-сервисов с усиленными настройками безопасности.