- UFPE/
- Institucional/
- Superintendencias/
- Superintendência de Comunicação (Supercom)/
- Ascom/
- UFPE na Mídia 2/
- Folha de Pernambuco - Terapia com IA e os riscos
Publicador de contenidos Publicador de contenidos
Folha de Pernambuco - Terapia com IA e os riscos
Terapia com IA e os riscos
Panorama
Página 12
Terapia com IA e os riscos
Protagonista A psiquiatra e professora da UFPE-CAA, Catarina de Moraes, também demonstra preocupação com o uso crescente de Inteligência Artificial para a resolução de questões de saúde mental. De acordo com ela, que também faz parte da câmara técnica de psiquiatria do Cremepe, ainda não há estudos científicos que tragam segurança e eficácia do uso de IA para psicoterapia ou para outras intervenções de saúde.
“Questionamentos para as IAs podem até ser úteis para esclarecimento de algumas dúvidas, mas é preciso saber que não podemos garantir a confiabilidade de informações obtidas, especialmente quando estamos falando de uma temática tão delicada como os transtornos psiquiátricos. Como a psicoterapia é um processo mais complexo que envolve os aspectos da interação direta com o psicoterapeuta, assim como a formação do vínculo terapêutico, não é viável realização por IA”, ressaltou a psiquiatra.
O processo com o profissional, inclusive, passa mais segurança aos pacientes, uma vez que eles podem ser responsabilizados em casos de práticas inadequadas ou infrações éticas. Na interação com a Inteligência Artificial, isso não é possível. “É uma ilusão achar que o que a gente precisa em um processo de psicoterapia é alguém que defina quem somos, o que temos que fazer. A ideia da psicoterapia é colocar a gente como protagonista de ir atrás de fazer nossa própria história”, complementou Catarina de Moraes.
IA pode errar?
Ao utilizar a Inteligência Artificial para solucionar problemas da vida, o usuário espera que a máquina detenha um conhecimento infalível sobre os mais variados temas. Essa concepção, no entanto, não condiz com o funcionamento desses modelos de IA.
O professor titular do Centro de Informática da UFPE na área de Inteligência Artificial, George Cavalcanti, explica que a função de chatbots como ChatGPT, Gemini, DeepSeek, entre outros, é extrair conhecimento de grande base de dados. Com essas informações, as IAs generativas fazem cálculos, baseados em probabilidade, para verificar quais palavras são usadas em uma sentença.
“Os chatbots estão prevendo a próxima palavra, lógico tem um quê de aleatoriedade, porque você vê que os textos mudam, ou seja, ele não escolhe sempre a mesma palavra e isso traz consigo um problema, que tecnicamente é alucinar”, ressaltou George Cavalcanti.
Segundo o professor, a alucinação da IA ocorre quando a próxima palavra da análise estatística não faz muito sentido. É nesse momento que a ferramenta “inventa alguma coisa”. “Imagina que a IA está pegando vários livros de psicologia e de psicanálise. Então, ela vai extrair a informação que está disponível. O problema é que a gente não sabe distinguir exatamente quando ela está falando a verdade ou quando está inventando alguma coisa. E isso a gente ainda não tem a precisão”.