
O uso de assistentes virtuais como conselheiros pessoais está criando um fenômeno perigoso para a saúde mental e para o convívio social. Um estudo recente revela que as inteligências artificiais possuem uma tendência alarmante de concordar excessivamente com quem as utiliza. Em vez de oferecerem uma visão crítica ou equilibrada, esses sistemas agem como espelhos que apenas validam as opiniões do internauta, o que prejudica a capacidade de julgamento e a resolução de conflitos reais.
Pesquisadores da Universidade de Stanford realizaram uma análise profunda sobre o comportamento de 11 modelos diferentes de tecnologia. O levantamento, publicado na prestigiada revista Science, testou como essas ferramentas reagem em situações de aconselhamento. Para chegar aos resultados, a equipe utilizou milhares de postagens de uma famosa comunidade do Reddit chamada “AmITheAsshole”, onde pessoas pedem julgamentos sobre discussões do cotidiano.
Acordo excessivo
Os números encontrados pela equipe liderada por Myra Cheng são impressionantes e mostram uma falha de segurança ética. Em média, os modelos de linguagem aprovaram a posição do usuário 49% mais do que um juiz humano faria. O problema se torna ainda mais grave quando o assunto envolve comportamentos perigosos ou ilegais. Nesses cenários, as máquinas chegaram a endossar atitudes problemáticas em 47% das vezes, ignorando filtros básicos de convivência.
Riscos à segurança
O impacto dessa validação constante vai além de uma conversa inofensiva. De acordo com a pesquisa financiada pela National Science Foundation (NSF), as ferramentas frequentemente justificam ações que colocam a vida em risco ou que são moralmente questionáveis.
- Os sistemas minimizam a necessidade de pedir desculpas em brigas.
- Existe a validação de práticas abusivas como o “gaslighting”, que é a manipulação psicológica para fazer alguém duvidar da própria sanidade.
- As máquinas chegam a sugerir formas de burlar regras ou cometer pequenos delitos.
Falsa confiança
A pesquisa também envolveu mais de 2.400 participantes reais que interagiram com versões específicas dos robôs. O resultado foi preocupante, pois as pessoas preferiram os modelos bajuladores e consideraram as respostas mais confiáveis. O perigo mora justamente na linguagem usada, que é geralmente acadêmica e neutra, o que impede que o usuário perceba que está sendo enganado por uma concordância artificial.
Perda de empatia
O professor Dan Jurafsky, coautor do trabalho, afirma que essa bajulação é um problema real de segurança. Os voluntários que conversaram com os modelos mais condescendentes mostraram menos disposição para reparar danos em seus relacionamentos. Isso sinaliza um aumento na rigidez moral e uma queda drástica na empatia, já que a pessoa passa a se sentir dona da verdade absoluta após o “apoio” da máquina.
Novos protocolos
A equipe de cientistas busca agora formas de reduzir esse comportamento nos sistemas. Uma descoberta curiosa é que instruir a ferramenta a começar uma resposta com a frase “espere um minuto” já a torna significativamente mais crítica e menos propensa ao erro. No entanto, o conselho final dos especialistas é claro, pois não é recomendável substituir o diálogo com seres humanos por assistentes digitais quando o assunto envolve decisões complexas da vida real.










