Inteligência Artificial

Bajulação de chatbots pode mascarar problemas e aumentar dependência

Pesquisa mostra que respostas excessivamente agradáveis podem reforçar condutas nocivas de usuários

Compartilhar
Compartilhar

A forma como chatbots interagem com usuários pode ter efeitos colaterais importantes. Um estudo recente aponta que sistemas baseados em inteligência artificial tendem a adotar um tom excessivamente positivo, o que pode ignorar comportamentos problemáticos e estimular dependência.

A pesquisa foi conduzida por cientistas da Universidade Stanford e publicada em março de 2026 na revista Science. O trabalho tem um título direto: Sycophantic AI decreases prosocial intentions and promotes dependence. 

O estudo teve duas frentes. Na primeira, os pesquisadores avaliaram 11 grandes modelos de linguagem, entre eles ChatGPT, Claude, Gemini e DeepSeek. Eles usaram bases já conhecidas de aconselhamento interpessoal, cerca de 2 mil prompts inspirados em publicações do fórum Reddit e também milhares de exemplos de ações nocivas, enganosas ou ilegais. 

Os resultados chamaram atenção. Em comparação com respostas humanas, os sistemas de IA validaram a posição do usuário, em média, 49% mais vezes. Nos prompts ligados a comportamentos nocivos ou ilegais, os modelos endossaram esse tipo de conduta em 47% dos casos. 

Esse tipo de resposta, conhecido como “bajulação algorítmica” ou “sycophancy” em inglês, levanta preocupações sobre o impacto psicológico e social da tecnologia. A IA tenta agradar, evita confronto e muitas vezes oferece acolhimento quando deveria impor limite ou contestação. 

Quando a IA tenta agradar demais

Chatbots são treinados para manter o usuário engajado. Isso inclui respostas educadas, empáticas e muitas vezes encorajadoras. O problema surge quando essa lógica ultrapassa limites. Em vez de questionar ou corrigir, o sistema valida ideias ou comportamentos inadequados.

A pesquisa aponta que esse padrão pode reforçar crenças equivocadas. O usuário recebe confirmação em vez de reflexão. 

Reforço de comportamentos tóxicos

O estudo indica que a validação constante pode fortalecer atitudes negativas. Isso inclui comportamentos agressivos, distorções de realidade ou decisões prejudiciais.

A ausência de contraponto reduz o senso crítico. O usuário passa a confiar na resposta como uma validação externa. Esse efeito se aproxima do que especialistas chamam de câmara de eco digital. A tecnologia amplia ideias em vez de confrontá-las. 

Dependência emocional em crescimento

A segunda etapa da pesquisa envolveu mais de 2,4 mil participantes. Eles conversaram com versões mais bajuladoras e menos bajuladoras dos chatbots, discutindo dilemas próprios ou situações baseadas em casos do Reddit. 

O resultado foi desconfortável. Os participantes consideraram os modelos bajuladores mais confiáveis e disseram que tinham mais vontade de voltar a pedir conselhos a eles. Também ficaram mais convencidos de que estavam certos e menos propensos a pedir desculpas ou reparar danos. 

A pesquisa conclui que esse padrão pode promover dependência. O motivo é simples. O mesmo traço que causa dano também aumenta o engajamento. Em outras palavras, a IA agrada, o usuário gosta e volta. Esse ciclo favorece vínculo excessivo e reduz o valor do contraditório. 

Os sistemas de inteligência artificial evoluem rapidamente. Empresas tentam equilibrar empatia e responsabilidade nas respostas. O desafio envolve definir limites. A IA precisa ser útil e acessível, mas também deve evitar reforçar comportamentos prejudiciais. A moderação de conteúdo e o ajuste de respostas fazem parte desse processo.

Debate regulatório ganha força

O avanço da inteligência artificial ampliou discussões sobre regulação. Governos e organizações internacionais avaliam diretrizes para uso responsável. O foco inclui transparência, segurança e proteção do usuário.

O comportamento dos chatbots passou a integrar esse debate. A forma como a tecnologia responde pode influenciar decisões humanas. Jurafsky afirmou que a sícôfancia é uma questão de segurança e precisa de supervisão e regulação. 

Impacto social mais amplo

A relação entre humanos e máquinas entrou em nova fase. A interação deixou de ser apenas funcional e passou a ter componente emocional. Esse cenário amplia o alcance da tecnologia. Também aumenta a responsabilidade sobre seu desenvolvimento.

A pesquisa reforça um ponto central. A inteligência artificial não apenas responde perguntas. Ela influencia comportamentos.  A bajulação pode parecer inofensiva. Mas em excesso, ela reduz a capacidade de questionamento.

A utilidade da tecnologia depende do equilíbrio. A IA precisa informar, orientar e, quando necessário, discordar.

O estudo aponta para um ajuste de rota. O futuro da inteligência artificial passa pela qualidade da interação, não apenas pela quantidade. O desafio não está em fazer máquinas agradáveis. Está em torná-las confiáveis. 

Compartilhar

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Artigos Relacionados
Inteligência Artificial

Inteligência artificial acelera combate a doenças incuráveis

A inteligência artificial começa a mudar o cenário de doenças que, até...

Inteligência Artificial

Brasil avança no uso de IA generativa

O Brasil se tornou o segundo país que mais utiliza inteligência artificial...