Мошенники могут получить личные данные людей через нейросети. Как себя обезопасить? Вся информация, которую пользователи загружают в чаты с искусственным интеллектом, может утечь в общий доступ, а далее попасть в руки недобросовестных рекламщиков, спамеров и мошенников. Это касается фото, видео, документов и личных переписок, рассказал Readovka Лука Сафонов, эксперт рынка информационной безопасности, бизнес-партнер по инновационному развитию компании «Гарда». Еще более опасный вариант — дать нейросетям доступ к файлам на компьютере (например, через кнопку уведомления в браузере): они смогут извлечь ваши личные данные. Подобные сливы данных через ИИ происходят достаточно часто из-за непроработанной архитектуры таких систем и хакерских атак на них. Помимо этого, конкретный сервис может оказаться не сильно защищенным, и доступ ко всем перепискам с нейросетями сможет получить любой желающий. Если же пользователь захочет удалить диалог, то чат с ИИ в любом случае останется на сервере нейросети, так как переписки находятся на облачных хранилищах таких сервисов или связанных с ними ботов. Чем не стоит делиться с нейросетью: — Паспортными данными, номерами документов — — Банковскими реквизитами, номерами карт — — Финансовыми документами — — Медицинскими записями с персональными данными — — Конфиденциальными документами — — Личными переписками без согласия участников диалога — — Адресами и телефонами третьих лиц — — Фото и видео интимного характера. Один из наиболее громких случаев утечки персональных данных пользователей — взлом чат-бота DeepSeek в 2025 году. Тогда злоумышленники получили доступ ко всем данным нейросети, и под угрозой оказались секретные ключи, незашифрованные чаты и логи. Позже китайский разработчик устранил уязвимость, ограничил публичный доступ к сервису и удалил базу данных из интернета. 20 января 2026 года произошла самая масштабная утечка данных из популярного ИИ-приложения Chat & Ask AI. В открытом доступе оказалось более 300 миллионов записей, включая полную историю переписок 25 миллионов человек. Эксперт напоминает: не стоит делиться личной информацией с нейросетями и доверять ее ответам. Подписывайся на Readovka в MAX