Empresas implementam inteligência artificial nos processos de RH

Relatório do Fórum Econômico Mundial elencou as melhores práticas para o uso da IA nos recursos humanos.

Bruno de Lima
Compartilhe esta publicação:
Getty
Getty

Empresas precisam se certificar de que suas ferramentas de inteligência artificial não estão seguindo vieses

Acessibilidade


O ano de 2022 está se aproximando e, junto com ele, também aumentam as possibilidades de que a sua próxima contratação seja intermediada por uma inteligência artificial. A pesquisa TIC Empresas, do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.Br), mostrou que 22% das empresas pequenas e 37% das grandes já adotaram a IA no seu dia a dia, com a implementação de softwares de RH e gestão.

Quando falamos de recrutamento, as companhias estão usando essas ferramentas desde a triagem de candidatos, onde a tecnologia ajuda a selecionar os currículos com mais aderência à vaga; até como uma espécie de “consultora de carreira”, que guia o candidato por todo o processo seletivo. Essa é uma tendência tão forte que o Fórum Econômico Mundial lançou neste mês um guia para empresas que desejam adotar a tecnologia em seus processos de recrutamento.

Com a publicação, o Fórum Econômico entra em uma discussão já iniciada tanto por governos, quanto por membros do setor empresarial. Um projeto de lei aprovado pelo conselho da cidade de Nova York no início de dezembro deste ano busca regulamentar o uso da inteligência artificial em processos seletivos. A proposta exige que as ferramentas passem por uma auditoria anual para provar que não discriminam candidatos com base em raça ou gênero. As empresas também passariam a ser obrigadas a informar os candidatos de que a tecnologia seria utilizada. Poucos dias depois, American Express, Deloitte, General Motors, IBM, Mastercard, Nielsen e Nike, que utilizam IA em seus processos de contratação, decidiram fundar a Data and Trust Alliance, uma organização dedicada a combater o viés algorítmico em suas ferramentas.

SAIBA MAIS: Como o preconceito velado atrapalha a performance de sua empresa

Não é a primeira vez que o tema ganha destaque. Em, 2015, a Amazon percebeu que a inteligência artificial que utilizava na triagem de currículos estava sendo parcial ao classificar candidatos para empregos de desenvolvedor de software e outros cargos técnicos.

Inscreva-se para receber a nossa newsletter
Ao fornecer seu e-mail, você concorda com a Política de Privacidade da Forbes Brasil.

Isso ocorreu porque os modelos de machine-learning da Amazon foram treinados para examinar padrões em currículos enviados à empresa ao longo de um período de 10 anos. A maioria veio de homens, um reflexo do domínio masculino na indústria de tecnologia. Como resultado, o algoritmo ensinou a si mesmo que candidatos homens eram preferíveis, penalizando currículos que incluíam a palavra “mulher” ou “feminino”, como em “capitã do clube de xadrez feminino”, por exemplo.

Recomendações para a adoção da inteligência artificial 

De acordo com o advogado trabalhista Giuseppe Verdi Flores, ao lidar com os dados dos candidatos, o uso da inteligência artificial por empresas entra dentro do guarda-chuva da LGPD (Lei Geral de Proteção de Dados). E as regras estabelecidas pela legislação brasileira se assemelham àquelas aprovadas em Nova York.

“Se tratando de inteligência artificial, as empresas recrutadoras devem informar aos candidatos quem está por trás do desenvolvimento da tecnologia. Isso acontece porque quase sempre quem trata os dados dos candidatos não é a empresa recrutadora, e sim uma fornecedora de software que vendeu a ferramenta”, diz. Além disso, as empresas também devem informar o que será feito com os dados e buscar o consentimento dos usuários.

Como exemplifica o caso da Amazon, algoritmos podem adquirir vieses mesmo sem interferência humana direta. Logo, é necessário que profissionais se mantenham atentos, visto que essa prática pode acabar acarretando consequências legais para as empresas. “A legislação brasileira é clara no sentido que é proibida a adoção de qualquer prática que possa discriminar, não importando a sua natureza”, diz Verdi.

Para evitar que situações do tipo aconteçam, o projeto Human-Centered Artificial Intelligence for Human Resources, do Fórum Econômico Mundial, listou uma série de recomendações para empresas que querem adotar a IA em seus processos. Confira.

  • Forme uma equipe de avaliação e se planeje para o longo prazo: o primeiro passo para adoção da IA é determinar uma equipe multidisciplinar que irá tocar o processo. Além dos especialistas em tecnologia, a equipe deve ser composta por membros da área de recursos humanos, representantes de diferentes grupos de funcionários, especialistas em D&I (diversidade e inclusão) e acessibilidade.
  • Desenvolver princípios de IA e documentar processos: Verifique se sua organização já tem um conjunto de princípios ou políticas de IA. Se não, considere desenvolver tais políticas, incluindo algumas específicas para RH. Os princípios de IA irão descrever suas prioridades e objetivos para o uso de inteligência artificial e delimitar o que você não irá fazer com IA. Por exemplo, um princípio que é particularmente relevante para RH é o compromisso de usar IA para aumentar o número de trabalhadores, não substituí-los.
  • Determine o propósito de adotar a ferramenta de IA: Ao começar a considerar uma ferramenta de RH baseada em IA, você deve esclarecer seu propósito e prioridades. Primeiro, tenha em vista o problema que você espera resolver com o uso da ferramenta. Antes de focar na ferramenta em si, discuta como são os processos atualmente, envolvendo no debate tanto aqueles que normalmente fazem essa tarefa, quanto aqueles que são afetados pela tarefa. Considere como a ferramenta proposta pode mudar esse processo, como ela pode melhorar os processos e quais novos desafios podem aparecer.
  • Se aprofunde nos elementos centrais da ferramenta: Cada ferramenta baseada em IA é diferente, mesmo quando elas lidam com tarefas aparentemente semelhantes. O design da ferramenta refletirá as ideias e as decisões de seus criadores, por isso é importante compreender as diferenças e peculiaridades de cada tecnologia de IA que você está utilizando.
  • Avaliando o nível de risco de uma ferramenta: Embora seja importante avaliar se e como uma ferramenta vai ajudar sua organização, é também necessário considerar a natureza e a escala das consequências se algo der errado, incluindo nos âmbitos legais, organizacionais, éticos e de risco de reputação. A presença de risco não significa por si só que você precisa abandonar a ferramenta. Quanto maiores as consequências, no entanto, mais intenso o escrutínio deve ser, junto com o cuidado que será necessário para garantir que as salvaguardas e monitoramento adequados estão sendo colocados em prática pelos criadores da ferramenta e pela organização que a está implantando.

O Fórum Econômico Mundial também desenvolveu um checklist para organizações que querem adotar ferramentas baseadas em IA. Para acessá-lo, basta clicar aqui.

Compartilhe esta publicação: