Главная страница » Технологии » Что происходит с вашими данными в ChatGPT (и как это контролировать)

Что происходит с вашими данными в ChatGPT (и как это контролировать)

Женщина работает за ноутбуком с открытым окном ChatGPT

Реальность такова: большинство из нас уже использует ИИ-инструменты в работе – вопрос не в том, стоит ли это делать, а в том, как делать это безопасно. ChatGPT — лишь одно из изобретений, которые меняют правила игры, и разобраться в его устройстве — наша общая ответственность.

ChatGPT, Claude, Gemini и другие ИИ-платформы стали неотъемлемой частью цифрового рабочего процесса. Одни полностью избегают их из-за опасений о приватности, другие используют без каких-либо мер предосторожности. Истина находится где-то посередине: при правильном понимании рисков и базовых мерах безопасности эти инструменты можно использовать с разумной степенью защиты – примерно так же, как любой другой облачный сервис, которому вы доверяете свои данные.

Различия между бесплатными и платными версиями ИИ-сервисов кардинальны. Бесплатные версии ChatGPT, Claude и подобных платформ обычно сохраняют пользовательские данные для обучения моделей и могут хранить переписку дольше, чем их платные аналоги. Платные версии – ChatGPT Plus/Pro, Claude Pro или Gemini Advanced – как правило, предлагают более сильную защиту приватности, более короткие сроки хранения данных и возможность отказаться от использования ваших данных для обучения. В рамках европейского законодательства пользователи имеют дополнительные права на обработку и удаление данных, которых нет в других юрисдикциях.

Большинство потребительских ИИ-сервисов следуют стандартной политике удаления данных через 30 дней, аналогично тому, как облачные хранилища обрабатывают удаленные файлы. Однако недавние правовые события осложнили эту картину. Решение федерального суда по продолжающемуся иску New York Times в настоящее время запрещает OpenAI удалять переписки ChatGPT, включая те, которые пользователи удаляют вручную. Это касается всех потребительских версий ChatGPT, но, что примечательно, не распространяется на корпоративных клиентов – что подчеркивает важность типа аккаунта.

При работе с чувствительными данными подход должен повторять логику использования других облачных сервисов. Если вы доверяете Google Drive или Microsoft 365 определенные типы данных, вы можете применить аналогичную оценку рисков к ИИ-инструментам. Ключ в том, чтобы знать, когда полностью избегать размещения чувствительной информации в этих системах, а когда дополнительные меры предосторожности могут сделать их приемлемо безопасными.

Практические рекомендации для более безопасного использования ИИ:

Заменяйте идентифицирующую информацию перед отправкой контента – используйте «Человек А» вместо имен, «Место Х» вместо конкретных локаций, и обобщенные временные рамки вместо точных дат

Используйте платные версии, когда они доступны – они обычно предлагают лучшую защиту приватности и более короткие сроки хранения данных, чем бесплатные альтернативы

Создавайте отдельные аккаунты со специальными email-адресами именно для ИИ-инструментов, что затрудняет их связывание с вашей основной личностью

Включайте настройки приватности для отказа от обучения данными и отключения функций памяти, которые сохраняют информацию между разговорами

Никогда не делитесь ссылками на переписки – они могут изменить настройки приватности и сделать чувствительные чаты доступными для других

Используйте сетевые меры безопасности вроде VPN или Tor при доступе к ИИ-сервисам для добавления дополнительного уровня защиты приватности

Применяйте «тест облачного хранилища» – размещайте в ИИ-инструментах только ту информацию, которую вы были бы готовы хранить в аналогичных облачных сервисах

Полностью избегайте чувствительных данных, когда это возможно – персональные данные, детали проектов, правовые стратегии и информацию о личной безопасности никогда не следует включать

Кстати, если тема ИИ-рисков вас беспокоит, вот разбор реальных и мнимых угроз. А Electronic Frontier Foundation — один из лучших ресурсов для тех, кто хочет глубже разобраться в вопросах цифровой приватности. Помните: цифровая грамотность нужна не только для ИИ — криптовалютный мир полон похожих ловушек.

Сохраняет ли ChatGPT историю моих разговоров?

По умолчанию да. Все чаты хранятся на серверах OpenAI. Отключить сохранение можно в настройках: Settings > Data Controls > Chat History & Training.

Используются ли мои данные для обучения ChatGPT?

В бесплатной версии — да, если не отключить вручную. В платных тарифах (Plus, Team, Enterprise) данные по умолчанию не используются для тренировки модели.

Как удалить всю историю чатов из ChatGPT?

Зайдите в Settings > Data Controls > Delete All Chats. Данные удалятся из интерфейса, но OpenAI сохраняет логи до 30 дней для модерации.


Читайте также

Локальные ИИ-модели, которые работают полностью на вашем собственном оборудовании, существуют и предлагают полную приватность, но требуют технической настройки и значительных вычислительных ресурсов, что делает их недоступными для многих пользователей. Однако для тех, у кого есть такая возможность, они отлично подходят для задач вроде транскрипции чувствительных записей или обработки конфиденциальных документов, которые ни при каких обстоятельствах не должны покидать ваш контроль.

Ключевая идея заключается в том, чтобы относиться к ИИ-инструментам как к любому другому облачному сервису в вашем цифровом арсенале. Точно так же, как вы не стали бы размещать свои самые чувствительные документы в обычном Google Drive без шифрования, вы не должны помещать самую чувствительную информацию напрямую в потребительские ИИ-инструменты. Но с соответствующими мерами предосторожности – подобно тем, что вы используете для безопасного облачного хранения – эти мощные инструменты могут стать частью ответственной практики цифровой безопасности.