Главная страница » Генеративный ИИ и защита данных: каковы самые большие риски для работодателей?

Генеративный ИИ и защита данных: каковы самые большие риски для работодателей?

Если вы работодатель, желающий поэкспериментировать с инструментами генеративного ИИ, такими как ChatGPT, вам нужно учитывать определенные подводные камни защиты данных. В связи с ужесточением законодательства о конфиденциальности и защите данных в последние годы в США, Европе и во всем мире, вы не можете просто ввести данные о персонале в инструмент генеративного ИИ. Ведь данные о персонале часто являются очень конфиденциальными, включая данные о производительности, финансовую информацию и даже данные о состоянии здоровья.

Очевидно, что это та область, где работодатели должны обращаться за надлежащей юридической помощью. Также неплохо проконсультироваться с экспертом по ИИ об этичности использования генеративного ИИ, чтобы вы действовали не только в рамках закона, но и этично и прозрачно. Но в качестве отправной точки вот два основных соображения, о которых работодатели должны знать.

Передача персональных данных в системы генеративного ИИ

Данные сотрудников часто являются очень конфиденциальными и личными. Это именно те данные, которые, в зависимости от вашей юрисдикции, подлежат самым высоким формам правовой защиты. Вводить такие данные в инструмент генеративного ИИ крайне рискованно. Почему? Потому что многие инструменты генеративного ИИ используют предоставленную им информацию для тонкой настройки базовой языковой модели. Итак, допустим, вы используете ИИ для создания отчета о вознаграждении сотрудников на основе внутренних данных. Эти данные потенциально могут быть использованы ИИ для создания ответов другим пользователям в будущем. Поэтому важно понимать условия использования и анонимизировать данные, передаваемые в ИИ.

Риски, связанные с результатами генеративного ИИ

Речь идет не только о данных, которые вы вводите в систему генеративного ИИ, но и о рисках, связанных с выходными данными. Инструменты генеративного ИИ могут извлечь персональные данные из интернета без согласия, нарушая законы о защите данных. Работодатели, которые используют такие данные, потенциально могут нести ответственность за нарушение защиты данных. Это серая зона с юридической точки зрения, но риск существует.

Некоторые случаи уже появились, когда утверждалось, что ChatGPT был обучен на огромных объемах персональных данных, включая медицинские записи и информацию о детях, собранных без согласия. Вы же не хотите, чтобы ваша организация непреднамеренно оказалась втянутой в подобный судебный процесс.

Дальнейший путь

Важно, чтобы работодатели учитывали последствия использования генеративного ИИ для защиты данных и обращались за консультацией к специалистам. Но пусть это не отпугивает вас от использования генеративного ИИ. При осторожном использовании и в рамках закона генеративный ИИ может стать невероятно ценным инструментом для работодателей.

Также разрабатываются новые инструменты, учитывающие конфиденциальность данных. Например, Гарвард разработал инструмент «песочница» с ИИ, который позволяет пользователям использовать определенные большие языковые модели, включая GPT-4, не раскрывая свои данные. Запросы и данные, введенные пользователем, доступны для просмотра только этому пользователю и не могут быть использованы для обучения моделей.

Источники:

  1. coinunited.io – Навыки генеративного искусственного интеллекта
  2. habr.com – Как работает ChatGPT: объясняем на простом русском
  3. unite.ai – 10 «лучших» музыкальных генераторов AI (май 2024 г.)
  4. kaspersky.ru – Безопасно ли пользоваться ChatGPT?
  5. aws.amazon.com – Что такое генеративный искусственный интеллект?
  6. ai.gov.ru – Базовые модели, такие как ChatGPT, через призму
0

Автор публикации

не в сети 14 часов

aiinsider

0
Комментарии: 0Публикации: 593Регистрация: 18-09-2023
Поделиться