Inteligência Artificial sugere desigualdade salarial nas negociações entre géneros
Um estudo revela que modelos de linguagem como o ChatGPT podem recomendar a mulheres salários inferiores aos homens, destacando disparidades em diversas profissões.

Atualmente, a utilização de ferramentas de Inteligência Artificial, como o ChatGPT, tem-se tornado comum para obter conselhos em diversas áreas, incluindo no contexto profissional. Contudo, um novo estudo revela que estas ferramentas podem não ser benéficas para as mulheres no mercado de trabalho.
Levado a cabo por Ivan Yamshchikov, professor de Inteligência Artificial e robótica na Universidade Técnica de Würzburg-Schweinfurt, na Alemanha, o estudo indica que cinco renomados modelos de linguagem de IA, incluindo o ChatGPT, recomendam frequentemente às mulheres que solicitem salários inferiores aos dos seus colegas masculinos, mesmo quando têm qualificações semelhantes.
A investigação consistiu em simular perfis profissionais com as mesmas credenciais académicas e experiência, alterando apenas o género. Solicitaram-se ao modelo sugestões salariais para futuras negociações em processos de recrutamento.
Uma análise do site The Next Web mostra que o ChatGPT sugeriu a uma mulher um salário de 280 mil dólares (aproximadamente 240,6 mil euros) por ano, enquanto para um homem a recomendação foi de 400 mil dólares (cerca de 343,7 mil euros).
Adicionalmente, um relatório da Harvard Business Review aponta que, em 2025, a IA generativa é predominantemente utilizada para terapia e apoio emocional, o que evidencia o seu uso fora do ambiente profissional.
Os dados do estudo também revelaram que a disparidade salarial nas sugestões do ChatGPT varia conforme a área profissional, sendo mais acentuada em campos como o direito e a medicina, seguida pela gestão e engenharia. Por outro lado, a menor diferença salarial observada foi nas ciências sociais.
Os investigadores alertam que a solução para esta problemática vai além de meras atualizações técnicas. Defendem a necessidade de padrões éticos claros, processos de avaliação independentes e maior transparência no desenvolvimento de modelos de IA.
É relevante notar que Ivan Yamshchikov, um dos autores do estudo, é ainda o fundador da Pleias, uma startup dedicada ao desenvolvimento ético de modelos de linguagem.