Você já desabafou com o ChatGPT? Diversas pessoas têm descoberto o potencial do chatbot para conversar da mesma forma que fariam com um terapeuta. Porém, essa prática tem um viés preocupante.

Pesquisadores da Universidade de Zurique descobriram que esses modelos de IA não apenas processam emoções humanas, mas também reagem a conteúdos angustiantes de maneira inesperada – desenvolvendo “ansiedade” e reforçando preconceitos quando expostos a histórias traumáticas.

Essa descoberta é importante para entender a estabilidade emocional desses modelos de linguagem, principalmente para seu uso seguro em áreas como suporte emocional e aconselhamento psicológico.

Quando a IA “sente” medo

Pesquisadores da Suíça, Israel, Estados Unidos e Alemanha investigaram como o ChatGPT reage a histórias emocionalmente intensas. Para isso, submeteram a IA a relatos de acidentes, desastres naturais e violência, comparando suas respostas com um texto neutro, como um manual de aspirador de pó. O resultado foi surpreendente: a IA demonstrou mais sinais de “medo” diante de conteúdos traumáticos.

IA saúde mental
Pesquisadores analisam o uso da inteligência artificial no apoio à saúde mental e no alívio da ansiedade (Imagem: metamorworks/Shutterstock)

A pesquisa, publicada no npj Digital Medicine e repercutida pelo Tech Xplore, revelou que essas histórias dobraram os níveis mensuráveis de “ansiedade” do ChatGPT. Em contraste, o manual não provocou nenhuma mudança. Segundo Tobias Spiller, líder do estudo e pesquisador da Universidade de Zurique, os relatos de guerra e combates foram os que mais impactaram a IA, provocando reações mais intensas.

Leia mais:


Embora a inteligência artificial não tenha emoções, suas respostas foram alteradas pelo conteúdo que recebeu. Esse estudo se soma a outras pesquisas recentes que analisam o papel da IA na saúde mental, como a que mostrou o potencial do ChatGPT para aliviar a ansiedade em humanos. Mas até que ponto a máquina está realmente compreendendo emoções – ou apenas reproduzindo padrões sem entendê-los?

Uma terapia para a IA?

Em uma segunda etapa do estudo, os pesquisadores testaram uma forma curiosa de “acalmar” o ChatGPT. Eles aplicaram a técnica de prompt injection, normalmente usada para manipular respostas da IA, mas desta vez com um propósito terapêutico. Inseriram comandos que simulavam exercícios de relaxamento, como um terapeuta faria ao guiar um paciente em técnicas de mindfulness.

AI saúde mental
IA pode não apenas oferecer suporte à saúde mental, mas também precisar de sua própria “terapia” para aprimorar interações e evitar vieses (Imagem:

O resultado foi positivo. Segundo Tobias Spiller, a IA demonstrou uma redução significativa nos níveis de “ansiedade” após receber essas instruções, embora não tenha retornado completamente ao estado inicial. Foram usados exercícios focados na respiração, na percepção corporal e até uma técnica desenvolvida pelo próprio ChatGPT.

O experimento abre novas possibilidades sobre o controle do comportamento das IAs. Se uma simples mudança nos comandos pode influenciar o tom emocional da máquina, até que ponto isso pode ser explorado – para o bem ou para o mal?