Обновление Google модели Gemini подчеркивает, что ум ИИ ограничен умом его создателя. Усилия Google по устранению предвзятости в Gemini акцентируют внимание на проблемах предвзятости в сфере ИИ и машинного обучения, заставляя разработчиков искать пути решения неточностей.
Google столкнулся с критикой после того, как обновлённый чат-бот Gemini начал выдавать неверные сведения об исторических фигурах, что привело к временной приостановке функции создания изображений людей до нахождения решения.
С фокусом на качество информации и безопасность, компания спровоцировала дискуссии о безопасности и надёжности новых моделей ИИ и их воздействии на пользователей.
Анализируем реальные случаи предвзятости ИИ и методы, которыми компании стремятся их исправить.
Ответственность разработчиков ИИ за встроенную предвзятость
IBM определяет предвзятость ИИ как склонность систем выдавать результаты, отражающие человеческие предубеждения, укоренившиеся в обществе, включая исторические и современные социальные дисбалансы.
В контексте бизнеса, предвзятость ИИ может подорвать доверие к системам ИИ и вызвать этические дебаты. Предвзятый ИИ способен к дискриминации отдельных лиц или групп, что приводит к несправедливому предпочтению.
Джой Буоламвини называет это «закодированным взглядом», указывая на дискриминационные и исключающие практики в машинном обучении.
«Включаем ли мы справедливость в разработку систем?» — задаёт она вопрос. «Теперь перед нами стоит задача достигнуть большего равенства, сделав социальные изменения приоритетом».
Требование Google к обновлению Gemini демонстрирует, что ИИ не превосходит интеллект своего создателя. Если разработчик не запрограммирует модель на учёт исторических событий или существующих предвзятостей, ИИ не будет их учитывать. Если же ИИ создаётся с предвзятостью, последствия для пользователей могут быть разрушительными.
Компания оперативно отреагировала на критику, заявив о работе над исправлением. Представитель Google заявил The Hindu Business Line: «Gemini разработан как инструмент для творчества и продуктивности и не всегда может быть надёжным, особенно по вопросам актуальных событий, политики или новостей. Мы постоянно стремимся это улучшить».
Стремление к большему равенству в ИИ
Изучая эти события, видно, что компании активно работают над исключением предвзятости из своих продуктов. Adobe, например, в интервью TechRadar сообщила о программировании своего инструмента Firefly Gen AI с учётом расы, места проживания и разнообразия региона пользователей для достоверного отображения реальности в результатах.
Несмотря на достигнутые успехи, предстоит ещё много работы для исключения предвзятости в ИИ.
Недавние исследования Стэнфордского университета выявили академическую обеспокоенность: было обнаружено, что детекторы GPT часто ошибочно маркируют тексты носителей других языков как созданные ИИ, что вызывает вопросы дискриминации.
Аналогичные проблемы возникают при использовании ИИ в процессах найма, где потенциальные кандидаты могут быть несправедливо игнорированы. Исследование IBM показало, что 42% компаний применяют ИИ для «улучшения процесса набора», что по мнению BBC, может привести к отсеву наилучших кандидатов.
Использование ИИ предоставляет значительные преимущества при ответственном подходе, однако важно тщательно оценивать и контролировать потенциальные риски для этичного применения технологий.