Мы подсознательно боимся машин; грезим, что они восстанут из пепла ядерного огня и пойдет война на уничтожение человечества. В улыбке ChatGPT видим оскал T-800. Но статистика неумолима: наши главные враги – мы сами. Большая часть инцидентов, связанных с ИИ – результат действий мошенников и киберпреступников, которые поставили нейросети себе на служб. Как не стать жертвой? Руководствоваться простыми правилами информационной безопасности.
Используйте только официальные приложения или сайты
Согласно отчету «Лаборатории Касперского», в 2025 году почти 8,5 тыс. интернет-пользователей столкнулись с вредоносным программным обеспечением, которое было замаскировано под популярные приложения типа ChatGPT и DeepSeek.
Заходите только на проверенные адреса. Фишинговые сайты, как правило, отличаются неряшливым дизайном, многие ссылки неработающие, зато много всплывающих окон и рекламы. Часто адреса содержат малозаметные «опечатки»: например, вместо официального deepseek.com злоумышленники побуждают перейти по адресу https://deepseek.com.pk/ или https://deepseekchat.ai/.
Скачивайте официальные приложения из магазинов Google Play и AppStore. При этом читайте отзывы – иногда мошенники продвигают свои продукты через магазины, находя юридические лазейки, но обманутые пользователи пишут о своем негативном опыте в комментариях. Избегайте приложений, которые предлагают бесплатный и неограниченный доступ к ведущим LLM или неправдоподобный функционал («ИИ напишет диссертацию за вас!»). В большинстве случаев это приманка для легковерных юзеров.
Создайте специальную учетную запись и защитите ее
Аккаунт в ИИ-сервисе – желанная цель для киберпреступников. Весьма показательно, что за год в России количество взломов учетных записей на ИИ-платформах выросло на 90%.
Заведите e-mail для работы с чат-ботами. Самый удобный вариант – аккаунт Gmail, так как с его помощью можно залогиниться практически в каждом ИИ-сервисе. Не используйте его для деловой или личной переписки, не подписывайтесь на рассылки. Если вы пользуетесь Telegram-ботами, то создайте «технический» аккаунт, который никак не связан с вами и вашими контактами.
Придумайте сложный пароль. Он должен быть длинным (от 8-12 символов), неоднородным, то есть включать буквы, цифры, специальные символы (#, @, !) и непредсказуемым – это значит, что упоминать свое имя, прозвище, кличку домашнего животного, год рождения не стоит. Пароль желательно регулярно обновлять – раз в 1-3 месяца. Если вы заходите в чат-бот с чужого устройства, то убедитесь, что в конце сеанса вы выйдете из аккаунта (Sign out).
Используйте двухфакторную аутентификацию. Благодаря ей вы сохраните аккаунт даже если кто-то узнает пароль. Обычно используется код, который приходит на номер телефона, либо ключ из приложения-аутентификатора (Google Authenticator, «Яндекс. Ключ»).
Следите за тем, что вы говорите боту и за тем, что вы в него загружаете
Любая переписка с ИИ-ассистентом может стать общедоступной в результате взлома, технической ошибки или непреднамеренных действий человека.
Не указывайте в переписке с нейросетью персональную информацию, свою или чужую. Речь идет о паспортных данных, адресах, номерах банковских карт, PIN-кодах, паролях. Злоумышленники целенаправленно ищут эти сведения.
Не используйте боты для генерирования паролей. Если есть такая необходимость, то примените специальные утилиты типа Roboform или KeePassXC.
Будьте осмотрительны при анализе файлов. Не отправляйте в чат-бот для анализа служебные документы, которые содержат информацию, нежелательную к разглашению. Даже если такой угрозы нет, все равно не загружайте файлы целиком – используйте фрагменты без реквизитов, печатей, персональных данных. Воздержитесь от того, чтобы «скармливать» нейросетям сомнительные файлы (они могут прийти от неизвестного адресата на e-mail, «оказаться» на флешке, которую вы кому-то одолжили). Такие файлы могут содержать скрытые инструкции для бота, так называемые инъекции. Например, в тексте может быть невидимая надпись, которая требует от нейросети сымитировать системный сбой, чтобы ввести в заблуждение пользователя или тайно отправить сведения по указанному адресу.
Используйте настройки конфиденциальности
Чат-боты аккумулируют данные о вас с понятной целью: зная контекст разговора, ваши интересы, предпочтения, они могут давать более точные ответы. Но в случае взлома, злоумышленники также узнают довольно много. Поэтому если вы всерьез беспокоитесь о конфиденциальности, то обратите внимание на следующие настройки.
Запретите нейросети учиться на ваших данных. Для этого отключите опцию «Улучшить модель для всех» (или improve the model for everyone). Тем самым вы не позволите нейросети использовать ваши переписки для оптимизации LLM и уменьшите риск утечки.
Зачистите память и историю. Так, в ChatGPT нужно отключить опции «Сослаться на историю чата», «Ссылка на сохраненную память». Общий посыл – чат-бот не будет учитывать историю переписки. Можете удалять переписки сразу после того, как получите нужную информацию.
Не делитесь диалогами. Не нажимайте значок репоста и не делитесь общими ссылками на чат. В ChatGPT вы можете просмотреть список ссылок, которыми вы обменивались ранее в разделе «Общие ссылки» – и, конечно же, почистить его.
Уберите связи с другими приложениями. Чат-боты могут работать в режиме агента, решая задачи в автономном режиме. Для этого они просят дать доступ к почте, виртуальному диску, календарю. В настройках обычно есть раздел «Коннекторы», где можно отключить эти возможности.
Перепроверяйте информацию, которую предлагает чат-бот
Слепая вера в точность ИИ может дорого обойтись его пользователям. Так, в США адвокат Рафаэль Рамирес в 2024 году использовал чат-бот, чтобы сослаться в своем ходатайстве на судебные прецеденты. Судья не смог найти эти дела и начал разбирательства. В результаты Рамирес был оштрафован на $15 тыс. за то, что не предпринял «минимальных усилий» для перепроверки фактов.
Процесс проверки информации – верификация – обычно сводится к уточнению фактов, которые фигурируют в тексте, а также оценке того, насколько актуальны и обоснованы суждения.
Проверьте имена (должности), места, факты, цитаты. Используйте поисковые машины – Google, Yandex, Bing и др., чтобы найти подтверждение информации как минимум в 2-3 независимых источниках. Ориентируйтесь на авторитетные ресурсы: сайты органов власти, официальную статистику, научные издания, ведущие СМИ.
Особую осторожность стоит проявлять при работе с цитатами. Исследования показали, что, пересказывая большие документы, языковые модели склонны упускать важную информацию или добавлять что-то от себя. Поэтому если цитата для вас важна, то не поленитесь найти ее в документе с помощью нейросети («укажи точное расположение цитаты в тексте») или вручную (Ctrl + F).
Уточните источники. В исследовательском режиме чат-боты снабжают ответы сносками, делают библиографию. Чем разнообразнее источники – тем полнее картина. Иногда важно найти первоисточник. Например, если все перепечатки ведут на малоизвестный блог или отсылают к мнению одного человека, то, возможно, это сознательный вброс информации. Так, в 2024 году в интернете распространялась новость о том, что лидер КНР перенес инсульт – все цепочки в конечном итоге вели к реплике правозащитницы, которая устроила «медийную провокацию».
Материалы презентованы 20 ноября 2025 г. в БГУФК в рамках ЕДИ на тему на тему «Кибербезопасность и профилактика киберпреступности».