Нейросети часто подвергаются критике за разрушительное воздействие на климат и вред, который они могут потенциально причинить пользователь_ницам, доверяющим свои чувства чат-боту. Однако еще один важный аспект, на который стоит обратить внимание — это безопасность и то, как ИИ может нарушать нашу конфиденциальность и право на защиту частной жизни.
1. Обучение на ваших данных
Недавнее исследование Стэнфордского университета показало, что шесть крупнейших американских компаний используют запросы пользователь_ниц для обучения своих моделей:
- Amazon (Nova)
- Anthropic (Claude)
- Google (Gemini)
- Meta (Meta AI)
- Microsoft (Copilot)
- OpenAI (ChatGPT)
По умолчанию компании используют данные из чатов для обучения моделей — если только вы самостоятельно не отключите эту опцию в настройках. При этом Amazon, Meta и OpenAI не устанавливают четких ограничений на срок хранения пользовательских данных. Политики конфиденциальности чат-ботов остаются слабым местом: они написаны сложным для пользователь_ниц языком и имеют свои серые зоны, поэтому так важно думать о том, какую информацию вы готовы доверить ИИ.
2. Взломы и утечки
К сожалению, утечки данных — риск, от которого никто не застрахован. О таком инциденте в ноябре 2025 года уже сообщали в OpenAI, а пользователь_ницы Grok, чат-бота Илона Маска, находили свои переписки в поисковой выдаче Google. Известно также и об утечке данных из нейросети DeepSeek.
Базовый минимум: включите многофакторную аутентификацию для вашего аккаунта, если чат-бот предоставляет такую возможность.
Роскошный максимум: не загружайте в чат-бот информацию и документы, которые могут поставить под угрозу вашу безопасность в случае утечки.
3. Пренебрежение безопасностью
Как пишет организация по защите цифровых прав Access Now, проблемы безопасности крупных ИИ-игроков — это «следствие сознательного приоритета прибыли и конкурентоспособности над безопасностью и защитой уязвимых сообществ».
ИИ-корпорации — не нейтральные тех-кампании, а корпорации со своими политическими интересами. Только за прошлый год президент OpenAI Грег Брокман пожертвовал 25 миллионов долларов в организацию “MAGA Inc.” Дональда Трампа. Другие компании, например Meta, тоже лоббируют свои интересы, вкладываясь в тех, кто влияет на законы и регулирующие органы, чтобы ослабить требования к прозрачности и безопасности ИИ.
Все это заставляет задуматься о том, как корпорации будут заботиться о безопасности пользователь_ниц и до какой степени дойдет их сотрудничество с властями в условиях правого поворота.
4. Какую информацию лучше не доверять чат-ботам
- Ваши ФИО, адрес, дату и место рождения, паспортные данные;
- Банковские данные и личную информацию о ваших финансах;
- Биометрические данные;
- Логины и пароли;
- Информацию о вашем месте жительства, передвижениях, маршрутах;
- Чувствительную информацию, которая может поставить под угрозу вашу безопасность (случаи преследования; информацию об активности, которую можно счесть как незаконную)
