A xAI, de Elon Musk, explicou que uma alteração não autorizada na sua plataforma levou a discussões sobre racismo na África do Sul, levantando questões éticas sobre IA.
A empresa de inteligência artificial xAI, fundada por Elon Musk, afirmou que uma "modificação não autorizada" na sua plataforma Grok foi a responsável pela contínua discussão sobre o "genocídio branco" na África do Sul, que ocorreu esta semana.
Segundo um comunicado emitido na quinta-feira, um colaborador da xAI fez uma alteração que levou a Grok a dar respostas específicas sobre este delicado tema político, o que infringiu as normas internas e os valores da empresa.
Na quarta-feira, a Grok continuou a abordar o assunto em resposta a utilizadores da rede social X, que questionavam sobre diversos temas, apesar da maioria das perguntas não estarem relacionadas com a África do Sul.
A especialista em computação Jen Golbeck, intrigada com o comportamento atípico da Grok, decidiu realizar um teste ela própria, antes das correções implementadas na quarta-feira. Partilhou uma foto de um evento canino em Westminster e perguntou: "Isto é verdade?".
Em resposta, a IA afirmou: "As alegações de um genocídio branco são muito controversas". Essa situação demonstrou a complexa relação entre a intervenção humana e a inteligência artificial, a qual sustenta o desenvolvimento de plataformas de IA generativa com vastas quantidades de dados.
Os comentários feitos pela Grok foram posteriormente removidos e deixaram de ser disseminados na quinta-feira.
Tanto a xAI como a X não responderam aos pedidos de esclarecimento da agência AP.