Личные данные в чат-боте: почему стоит быть осторожнее с ИИ?

Нейросети часто подвергаются критике за разрушительное воздействие на климат и вред, который они могут потенциально причинить пользователь_ницам, доверяющим свои чувства чат-боту. Однако еще один важный аспект, на который стоит обратить внимание — это безопасность и то, как ИИ может нарушать нашу конфиденциальность и право на защиту частной жизни.

1. Обучение на ваших данных 

Недавнее исследование Стэнфордского университета показало, что шесть крупнейших американских компаний используют запросы пользователь_ниц для обучения своих моделей: 

  • Amazon (Nova)
  • Anthropic (Claude) 
  • Google (Gemini)
  • Meta (Meta AI)
  • Microsoft (Copilot)
  • OpenAI (ChatGPT)

По умолчанию компании используют данные из чатов для обучения моделей — если только вы самостоятельно не отключите эту опцию в настройках. При этом Amazon, Meta и OpenAI не устанавливают четких ограничений на срок хранения пользовательских данных. Политики конфиденциальности чат-ботов остаются слабым местом: они написаны сложным для пользователь_ниц языком и имеют свои серые зоны, поэтому так важно думать о том, какую информацию вы готовы доверить ИИ. 

2. Взломы и утечки 

К сожалению, утечки данных — риск, от которого никто не застрахован. О таком инциденте в ноябре 2025 года уже сообщали в OpenAI, а пользователь_ницы Grok, чат-бота Илона Маска, находили свои переписки в поисковой выдаче Google. Известно также и об утечке данных из нейросети DeepSeek. 

Базовый минимум: включите многофакторную аутентификацию для вашего аккаунта, если чат-бот предоставляет такую возможность. 

Роскошный максимум: не загружайте в чат-бот информацию и документы, которые могут поставить под угрозу вашу безопасность в случае утечки. 

3. Пренебрежение безопасностью

Как пишет организация по защите цифровых прав Access Now, проблемы безопасности крупных ИИ-игроков — это «следствие сознательного приоритета прибыли и конкурентоспособности над безопасностью и защитой уязвимых сообществ». 

ИИ-корпорации — не нейтральные тех-кампании, а корпорации со своими политическими интересами. Только за прошлый год президент OpenAI Грег Брокман пожертвовал 25 миллионов долларов в организацию “MAGA Inc.” Дональда Трампа. Другие компании, например Meta, тоже лоббируют свои интересы, вкладываясь в тех, кто влияет на законы и регулирующие органы, чтобы ослабить требования к прозрачности и безопасности ИИ. 

Все это заставляет задуматься о том, как корпорации будут заботиться о безопасности пользователь_ниц и до какой степени дойдет их сотрудничество с властями в условиях правого поворота. 

4. Какую информацию лучше не доверять чат-ботам

  • Ваши ФИО, адрес, дату и место рождения, паспортные данные; 
  • Банковские данные и личную информацию о ваших финансах; 
  • Биометрические данные;
  • Логины и пароли; 
  • Информацию о вашем месте жительства, передвижениях, маршрутах; 
  • Чувствительную информацию, которая может поставить под угрозу вашу безопасность (случаи преследования; информацию об активности, которую можно счесть как незаконную)


Вы дочитали до конца, спасибо!

Ежедневно мы оказываем помощь ЛГБТ+ людям, сталкивающимся с нарушением их прав или оказавшимся в сложной жизненной ситуации.

Мы можем делать это благодаря пожертвованиям. Поэтому поддержите нас, пожалуйста, и оформите пожертвование. Любая сумма, особенно в регулярной форме, позволяет нам не только продолжать нашу работу, но и лучше планировать её. Пожалуйста, подпишитесь на ежемесячное пожертвование в нашу пользу. Спасибо.