Если вы работодатель, желающий поэкспериментировать с инструментами генеративного ИИ, такими как ChatGPT, вам нужно учитывать определенные подводные камни защиты данных. В связи с ужесточением законодательства о конфиденциальности и защите данных в последние годы в США, Европе и во всем мире, вы не можете просто ввести данные о персонале в инструмент генеративного ИИ. Ведь данные о персонале часто являются очень конфиденциальными, включая данные о производительности, финансовую информацию и даже данные о состоянии здоровья.
Очевидно, что это та область, где работодатели должны обращаться за надлежащей юридической помощью. Также неплохо проконсультироваться с экспертом по ИИ об этичности использования генеративного ИИ, чтобы вы действовали не только в рамках закона, но и этично и прозрачно. Но в качестве отправной точки вот два основных соображения, о которых работодатели должны знать.
Передача персональных данных в системы генеративного ИИ
Данные сотрудников часто являются очень конфиденциальными и личными. Это именно те данные, которые, в зависимости от вашей юрисдикции, подлежат самым высоким формам правовой защиты. Вводить такие данные в инструмент генеративного ИИ крайне рискованно. Почему? Потому что многие инструменты генеративного ИИ используют предоставленную им информацию для тонкой настройки базовой языковой модели. Итак, допустим, вы используете ИИ для создания отчета о вознаграждении сотрудников на основе внутренних данных. Эти данные потенциально могут быть использованы ИИ для создания ответов другим пользователям в будущем. Поэтому важно понимать условия использования и анонимизировать данные, передаваемые в ИИ.
Риски, связанные с результатами генеративного ИИ
Речь идет не только о данных, которые вы вводите в систему генеративного ИИ, но и о рисках, связанных с выходными данными. Инструменты генеративного ИИ могут извлечь персональные данные из интернета без согласия, нарушая законы о защите данных. Работодатели, которые используют такие данные, потенциально могут нести ответственность за нарушение защиты данных. Это серая зона с юридической точки зрения, но риск существует.
Некоторые случаи уже появились, когда утверждалось, что ChatGPT был обучен на огромных объемах персональных данных, включая медицинские записи и информацию о детях, собранных без согласия. Вы же не хотите, чтобы ваша организация непреднамеренно оказалась втянутой в подобный судебный процесс.
Дальнейший путь
Важно, чтобы работодатели учитывали последствия использования генеративного ИИ для защиты данных и обращались за консультацией к специалистам. Но пусть это не отпугивает вас от использования генеративного ИИ. При осторожном использовании и в рамках закона генеративный ИИ может стать невероятно ценным инструментом для работодателей.
Также разрабатываются новые инструменты, учитывающие конфиденциальность данных. Например, Гарвард разработал инструмент «песочница» с ИИ, который позволяет пользователям использовать определенные большие языковые модели, включая GPT-4, не раскрывая свои данные. Запросы и данные, введенные пользователем, доступны для просмотра только этому пользователю и не могут быть использованы для обучения моделей.
Источники:
- coinunited.io – Навыки генеративного искусственного интеллекта
- habr.com – Как работает ChatGPT: объясняем на простом русском
- unite.ai – 10 «лучших» музыкальных генераторов AI (май 2024 г.)
- kaspersky.ru – Безопасно ли пользоваться ChatGPT?
- aws.amazon.com – Что такое генеративный искусственный интеллект?
- ai.gov.ru – Базовые модели, такие как ChatGPT, через призму