В последнее время использование искусственного интеллекта (ИИ) в процессах приема на работу становится всё более популярным. Идея заключается в том, что ИИ, лишенный человеческих предубеждений, должен обеспечивать более объективный и эффективный подбор кандидатов. Однако новые исследования показывают, что ИИ может не только усиливать существующие стереотипы, но и создавать новые формы дискриминации.
Возможности ИИ казались безграничными: от определения квалификации до персонализации подходов к каждому кандидату. Тем не менее, инциденты последних лет подчеркивают серьезные проблемы. Например, исследование, проведенное с использованием технологии Stable Diffusion, показало укрепление гендерных и расовых стереотипов, где высокооплачиваемые должности чаще ассоциировались с белыми кандидатами, а низкооплачиваемые — с представителями этнических меньшинств.
Компания Workday, предоставляющая программное обеспечение для управления персоналом, столкнулась с иском от Дерека Мобли, утверждающего, что ИИ-инструмент компании дискриминировал его как пожилого, чернокожего кандидата с инвалидностью. Подобные случаи вызывают тревогу о роли ИИ в усилении социального неравенства.
Реакция на эти проблемы начинается на законодательном уровне. В Иллинойсе и Мэриленде уже приняты законы, регулирующие использование ИИ в процессах найма, требующие от компаний большей прозрачности и согласия кандидатов при использовании технологий распознавания лиц. В Нью-Йорке также введен закон, обязывающий работодателей проводить ежегодные проверки на предвзятость своих ИИ-систем.
Подобные меры могут стать началом изменений, однако эксперты утверждают, что это лишь верхушка айсберга в длинном пути к созданию действительно справедливых и эффективных систем ИИ в сфере трудоустройства.
Источник: HubSpot