Terapia no ChatGPT? Ação oferece riscos e preocupa especialistas

O uso desses sistemas como apoio psicológico pode reforçar pensamentos negativos ou sugerir atitudes inadequadas.

Notícias, Saúde

Cada vez mais pessoas têm usado ferramentas de inteligência artificial, como o ChatGPT, para desabafar, pedir conselhos ou lidar com momentos de ansiedade e tristeza. De acordo com os usuários, a facilidade de acesso e a rapidez nas respostas fazem com que muitos vejam esses chats como substitutos de sessões terapêuticas.

Embora a IA consiga formular respostas coerentes e pareça entender o que é dito, ela não pensa, sente ou tem consciência. Ela funciona com base em padrões de texto e não tem preparo emocional ou técnico para lidar com questões delicadas. Por isso, o uso desses sistemas como apoio psicológico pode trazer riscos, como reforçar pensamentos negativos ou sugerir atitudes inadequadas.

Pensando nisso, o Conselho Federal de Psicologia (CFP) criou um grupo de trabalho para discutir o uso da inteligência artificial em contextos ligados à saúde mental. A proposta é criar orientações para o público e estabelecer regras para o uso dessas ferramentas.

Especialistas apontam que, apesar dos riscos, a tecnologia pode ser aliada quando usada com responsabilidade. Existem aplicativos criados por psicólogos que oferecem apoio inicial ou funcionam como complemento ao tratamento. Mas é preciso que essas plataformas tenham base científica, ética e supervisão profissional.

A principal recomendação dos profissionais de saúde é que o contato humano não seja substituído. A terapia verdadeira exige escuta, vínculo e sensibilidade coisas que uma máquina, por mais avançada que seja, ainda não é capaz de oferecer.

publicidade
publicidade