Sistemas de Inteligência Artificial (IA) utilizados em processos de recrutamento e seleção de Recursos Humanos (RH) estão reproduzindo e otimizando preconceitos de gênero contra mulheres, segundo especialistas. A tecnologia, que prometia agilizar e tornar mais justas as contratações, tem gerado um retrocesso na igualdade de oportunidades, conforme dados de pesquisas internacionais.
A estimativa da plataforma Gupy/CAGED aponta que 2,6 bilhões de candidaturas foram processadas no Brasil em 2025. Para lidar com o alto volume, 62% dos gestores de RH implementam IA em seus fluxos, de acordo com o relatório Human Capital Trends 2025 da Deloitte. No entanto, os sistemas são treinados com dados históricos de contratação, que refletem vieses do passado.
Segundo Alessandra Calheira, especialista em desenvolvimento de carreira e empoderamento profissional feminino, a IA não inventou o preconceito, mas o otimizou. Ela destaca que a ausência de regulação específica no Brasil para essa prática transfere a responsabilidade ética para as empresas.
Prejuízos da IA no recrutamento de mulheres
Pesquisas da UNESCO, do MIT e das universidades de Berkeley e Stanford convergem para o mesmo diagnóstico sobre os sistemas de IA. Modelos de linguagem associam nomes femininos a palavras como "casa", "família" e "filhos" em 70% das vezes, ensinando à máquina que mulheres não pertencem a cargos de liderança. Currículos com termos associados à colaboração recebem pontuações menores do que os com competitividade.
Além disso, o etarismo algorítmico pune a experiência, descartando mulheres com 40 anos ou mais por associar trajetórias longas a menor agilidade. Os sistemas de entrevista por vídeo (VIAS) também apresentam distorções, interpretando a seriedade de um homem como foco, mas a mesma expressão em uma mulher como hostilidade. O uso da palavra "nós" por candidatas é lido como ausência de protagonismo, enquanto "eu" é associado a maior realização.
Na prática, se os sistemas não apresentam as candidatas, os recrutadores humanos sequer tomam conhecimento da existência delas. Este cenário é descrito como um novo "teto de vidro", invisível, automatizado e operando em escala industrial.
Regulamentação e próximos passos
A União Europeia já classificou o uso de IA em recrutamento como atividade de alto risco, impondo auditoria, transparência e supervisão humana obrigatória. No Brasil, a Lei Geral de Proteção de Dados (LGPD) não oferece instrumentos suficientes para regular essa prática.
Diante da ausência de regulação, é imperativo que organizações brasileiras estabeleçam critérios éticos de governança sobre seus sistemas de seleção. Isso inclui auditar quantas mulheres se candidatam e são efetivamente selecionadas, revisar os parâmetros das ferramentas e garantir supervisão humana nas etapas críticas. Essas medidas não resolvem o problema estrutural, mas impedem que a tecnologia o aprofunde enquanto a regulação não é implementada.

