Сб. Май 18th, 2024

Сотрудники компании Samsung как минимум трижды раскрыли секретную информацию чат-боту ChatGPT, включая сведения о разрабатываемых полупроводниках. Об этом пишет корейское издание Economist.

Вскоре после выхода инструмента в целях защиты конфиденциальных данных техгигант запретил работникам использовать диалоговый ИИ. Однако 11 марта компания сняла ограничения, после чего произошла утечка.

Один сотрудник признался, что скопировал весь проблемный исходный код программы загрузки базы данных полупроводников, ввел его в ChatGPT и спросил о решении.

Другой поделился с чат-ботом записями встречи и попытался автоматически сгенерировать протокол собрания. Третий работник загрузил в ChatGPT программный код, предназначенный для выявления неисправного оборудования.

Таким образом, корпоративные секреты Samsung могут быть доступны для OpenAI. В часто задаваемых вопросах ChatGPT говорится:

«Ваши разговоры могут быть просмотрены инструкторами по искусственному интеллекту для улучшения системы».

Разработчики чат-бота предупреждали, что не относящиеся к API службы вроде ChatGPT или DALL-E требуют отказа от использования, чтобы избежать попадания личных данных в обучающие датасеты.

После обнаружения инцидентов техгигант применил «экстренные меры», включающие ограничение объема загрузки до 1024 байтов на вопрос.

«Если подобное произойдет даже после принятия экстренных мер по защите информации, доступ к ChatGPT в сети компании может быть заблокирован», — заявило руководство Samsung.

Одновременно со снятием запрета на использование чат-бота техгигант предупреждал, чтобы сотрудники не делились с инструментом конфиденциальной информацией.

СМИ также сообщают, что Samsung рассматривает возможность создания собственного ИИ-сервиса, чтобы предотвратить подобные инциденты.

Влияние утечки на другие компании

По данным The Korea Times, происшествие потрясло отечественные технологические компании, включая разработчика микросхем SK hynix и производителя электроники LG. В настоящее время обе фирмы создают рекомендации по использованию чат-ботов.

Сообщается, что SK hynix заблокировала использование диалогового ИИ во внутренней сети. Желающие использовать услугу сотрудники должны получить разрешение службы безопасности.

LG решила провести образовательную кампанию, чтобы ее персонал понимал, как защищать секреты компании.

Напомним, в марте сбой в ChatGPT раскрыл часть конфиденциальных данных третьим лицам, включая фрагменты диалогов и платежную информацию подписчиков.

https://forklog.com/cryptorium/ai/chto-takoe-chatgpt-i-kak-im-polzovatsya