ChatGPT использует вашу информацию: четыре правила безопасности

Лайфхаки

Как не слить данные в ChatGPT.

Март 2023 года показал, что нейросеть ChatGPT приносит не только пользу. В OpenAI была зафиксирована утечка данных пользователей. Человек предоставил личную информацию во время запроса, а нейросеть ее сохранила и показала другим людям, общавшихся с чат-ботом. Ситуация наглядно продемонстрировала, что утечка данных при работе с ChatGPT — обычное дело.

В статье расскажем о четырех правилах безопасности при общении с ботом. 

Правило 1. Не отправлять боту конфиденциальные сведения

Нейросеть сохраняет информацию после каждого диалога с пользователем. Это позволяет боту совершенствоваться и пополнять свою базу новыми данными.  Рекомендуем пользователям не отправлять личные сведения во время переписки с ChatGPT: 

  • серию и номер паспорта;
  • реквизиты банковских карт; 
  • коммерческие сведения о компании, сотрудниках и клиентах. 

Относитесь к ChatGPT, как к незнакомой программе, у которой бывают сбои и ошибки. 

Правило 2. Обезличивать информацию

Иногда нейросети в процессе работы с ней хочется задать вопрос, который содержит конфиденциальные сведения. Например: «Как пополнить PayPal по *номер карты*?» или «Собираю документы на визу: *ФИО, серия и номер паспорта*. Каких еще не хватает?».

Чтобы утечки не произошло, меняйте настоящие имена на выдуманные. Также делайте с цифрами и номерами: не пишите реальные сведения из финансовых отчетов, бизнес-планов, юридических документов. С обезличенными данными бот даст полноценный ответ на запрос без вреда от распространения информации. 

Правило 3. Составить инструкцию по использованию бота

Если компания пользуется ChatGPT в работе, то знать правила обращения с нейросетью должен каждый сотрудник по умолчанию. Составьте регламент цифровой гигиены, распишите  в нем примеры информации, которую нельзя указывать в запросах. Привлеките сотрудника по IT-безопасности, чтобы он помог подготовить релевантный свод правил. Эти действия снизят риск утечки информации.

Правило 4. Не использовать малознакомые аналоги ChatGPT

Аналогичные ChatGPT нейросети появляются в интернете регулярно, поэтому будьте осторожны и избирательны при выборе чат-бота на основе искусственного интеллекта и математической лингвистики. Рекомендуем не пользоваться малознакомыми программами и не доверять им конфиденциальную информацию.  

Запомнить 

От утечки данных никто не застрахован. Пользователям важно соблюдать меры информационной безопасности. ChatGPT — относительно новый инструмент, который расширяет свои возможности с каждым днем. По нему еще нет регламентированных правил, которые бы застраховали пользователей от утечки важных сведений. 

Рекомендации из этой статьи помогут снизить риски и подскажут, как пользоваться ChatGPT безопасно и эффективно.   

Перейти на сайт i2crm

Читайте далее: 

 

Оцените статью
Блог компании i2crm
Добавить комментарий