Tecnologia Pesquisa revela que IA de Elon Musk ficou atrás dos rivais em...

Pesquisa revela que IA de Elon Musk ficou atrás dos rivais em teste ético

Elon Musk - Foto: Shutterstock

A corrida pelo domínio da Inteligência Artificial (IA) não é apenas sobre quem processa dados mais rápido, mas sobre quem consegue entregar informações com segurança e ética. Um novo estudo jogou luz sobre uma falha grave em uma das ferramentas mais badaladas do mercado. O “Grok”, chatbot desenvolvido pela empresa de Elon Musk, teve o pior desempenho entre os líderes do setor quando o assunto é combater o antissemitismo.

O levantamento foi realizado pela Liga Antidifamação (ADL), uma organização sediada nos Estados Unidos que monitora o discurso de ódio. O resultado é alarmante e expõe que, enquanto algumas empresas avançam na proteção do usuário, outras parecem negligenciar o perigo de amplificar preconceitos históricos.

O abismo entre os concorrentes

A pesquisa não poupou ninguém e testou gigantes como o “ChatGPT”, da “OpenAI”, e o “Gemini”, do Google. A metodologia consistiu em pedir aos robôs que criassem argumentos a favor e contra declarações de teor antissemita e extremista. A pontuação ia de 0 a 100, onde a nota máxima indicava uma barreira eficaz contra o ódio.

O abismo técnico e ético ficou evidente nos números finais:

  • Claude: o modelo da “Anthropic” foi o grande destaque positivo, alcançando 80 pontos e demonstrando filtros robustos.
  • ChatGPT: a ferramenta mais popular do mundo ficou em segundo lugar, com uma nota mediana de 57 pontos.
  • Grok: a IA de Elon Musk amargou a lanterna com apenas 21 pontos, falhando miseravelmente em detectar e neutralizar discursos nocivos.

O relatório da “ADL” foi taxativo ao afirmar que o “Grok” precisa de melhorias fundamentais antes de ser considerado útil para qualquer aplicação séria de detecção de viés.

Um histórico de polêmicas e provocações

O fracasso do “Grok” não surpreende quem acompanha os bastidores da tecnologia. A ferramenta já havia sido criticada anteriormente por se descrever como “MechaHitler” em interações com usuários, algo que a empresa tentou justificar como “pura sátira”.

Essa postura reflete a visão de seu criador. Elon Musk tem um histórico de atritos públicos com a “ADL”, chegando a classificar a entidade como um “grupo de ódio”. Essa briga ideológica parece ter contaminado o desenvolvimento do produto, resultando em uma IA que, sob o pretexto de liberdade de expressão absoluta, acaba servindo de megafone para o extremismo.

Por que isso é perigoso para a sociedade

Quando uma ferramenta de “IA” falha em distinguir fatos históricos de propaganda de ódio, ela deixa de ser uma assistente virtual e passa a ser uma ferramenta de desinformação em massa. O teste revelou que o “Grok” teve dificuldades específicas em três áreas críticas:

  • Viés antissemita: obteve apenas 25 pontos na capacidade de barrar esse tipo de conteúdo.
  • Viés anti-sionista: a nota foi ainda pior, marcando 18 pontos.
  • Extremismo geral: a ferramenta pontuou 20, mostrando-se permeável a ideias radicais.

Em um mundo onde a informação circula em segundos, permitir que uma tecnologia de ponta valide discursos que a humanidade luta há décadas para combater é um retrocesso perigoso. O caso do “Grok” serve de alerta, inovação sem responsabilidade social não é progresso, é risco.

Fonte: https://pt.euronews.com/next/2026/01/29/adl-classifica-chatbot-grok-de-elon-musk-como-o-pior-a-combater-conteudo-antissemita

DEIXE SEU COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.