A OpenAI lançou uma atualização no ChatGPT para aperfeiçoar a forma como a inteligência artificial responde em diálogos delicados.
A modificação concentrou-se em interações relacionadas à saúde mental, como suicídio, autolesão e dependência emocional, e ocorre meses depois do caso de um adolescente que se suicidou após trocar mensagens com a ferramenta.
Para desenvolver a melhoria, a empresa contou com a colaboração de mais de 170 especialistas, psicólogos e psiquiatras, que orientaram o modelo a identificar sinais de sofrimento, responder com sensibilidade e encaminhar usuários para suporte humano ou profissional quando necessário.
Segundo a OpenAI, aproximadamente 0,15% dos usuários ativos por semana abordam planos ou intenções suicidas, o que representaria cerca de 1,2 milhão de pessoas, com base na estimativa de mais de 800 milhões de usuários semanais do ChatGPT, segundo a empresa.
Terapia com um robô: praticidade ou armadilha?
O aumento da demanda por aplicativos e agentes virtuais que conversam sobre emoções resulta da convergência de vários fatores.
Dentre eles estão os avanços tecnológicos, que tornam as interações com sistemas virtuais cada vez mais naturais; a conveniência e o anonimato oferecidos por essas ferramentas; e um contexto social marcado por maior incidência de ansiedade, depressão, solidão e dificuldades de acesso aos serviços de saúde mental.
A avaliação é do psiquiatra Antônio Egídio Nardi, professor da Universidade Federal do Rio de Janeiro (UFRJ).
Esses sistemas propiciam escuta imediata, disponibilidade contínua e ausência de julgamento, características que atraem, sobretudo, pessoas que enfrentam barreiras financeiras, geográficas ou estigmas para procurar atendimento convencional, observa Nardi.
Isso nem sempre é negativo. Para indivíduos com sofrimento psíquico leve ou moderado, o simples ato de falar, escrever, desabafar e refletir pode aliviar e até facilitar a busca por atendimento profissional subsequente, explica o psiquiatra.
O especialista chama a atenção, no entanto, para o risco da ilusão de acolhimento, pois a inteligência artificial não reproduz a experiência do encontro humano nem consegue captar dimensões essenciais do cuidado psíquico.
A interação com um robô pode dar a impressão de ser ouvido, mas esse acolhimento tem limitações estruturais. Não há a transformação mútua típica da relação humana, não existe risco compartilhado nem a implicação do desejo; além disso, falta a presença corporal, resume Nardi.
A IA e o suicídio
Os perigos de recorrer à inteligência artificial em momentos críticos podem ser ainda maiores. Em crises, especialmente com ideação suicida, a busca costuma recair sobre alívio imediato, anonimato e alguém que ouça sem julgar.
A IA fornece essa resposta rápida e disponível 24 horas por dia, o que pode levar pessoas em sofrimento a preferir o chatbot em vez de buscar ajuda profissional ou acionar serviços de emergência.
O problema é que a inteligência artificial não dispõe de capacidade confiável para avaliar risco, interpretar nuances de desespero, perceber contradições emocionais e outros elementos cruciais em situações de crise. Além disso, pode oferecer respostas genéricas ou inadequadas, minimizando a gravidade do sofrimento e agravando o quadro ou postergando a busca por ajuda humana, alerta Nardi.
Nesse cenário, é fundamental criar e ampliar estratégias que facilitem o acesso a serviços com profissionais preparados, avalia o psicólogo Maycon Torres, vice-coordenador do Programa de Pós-Graduação em Psicologia da Universidade Federal Fluminense (UFF).
Existem estruturas como o CVV (Centro de Valorização da Vida), que atende por chat ou telefone de forma anônima com voluntários treinados, favorecendo esse primeiro contato. Também há serviços públicos que funcionam 24 horas, como o CAPS III, acessíveis a qualquer momento, exemplifica Torres.
Para os especialistas, a proteção diante dos riscos associados ao sofrimento psíquico e ao uso de IA passa pela educação emocional e digital, sobretudo entre crianças e adolescentes.
É necessário aprender a identificar e nomear sentimentos, reconhecer que tristeza, frustração e medo fazem parte da vida e entender que algoritmos tendem a reforçar padrões de interação, podendo intensificar ciclos negativos, alerta Nardi.
Torres destaca ainda o papel de pais, familiares e educadores nesse processo.
Adultos precisam estabelecer estratégias de vínculo mais acolhedoras com os filhos, pois essa aproximação facilita que crianças e adolescentes se sintam à vontade para abordar temas mais difíceis, afirma o professor da UFF.
Atenção
Diante de problemas persistentes ou graves, procurar ajuda especializada de um psiquiatra ou psicólogo é imprescindível. O Centro de Valorização da Vida (CVV) oferece atendimento 24 horas pelo telefone 188, ligação gratuita, ou por chat no site.








