A Character.ai anunciará que proibirá adolescentes de conversar com seus chatbots a partir de 25 de novembro, em resposta a críticas e processos que destacaram os perigos das interações entre jovens e personagens virtuais movidos por inteligência artificial.
A mudança marca uma nova fase na atuação da empresa. Antes, permitia que milhões de pessoas criassem e trocassem mensagens livremente com avatares digitais; a Character.ai diz agora visar a construção da “plataforma de IA mais segura do planeta para fins de entretenimento”.
Denúncias e investigações levaram à proibição
Desde sua criação em 2021, a Character.ai enfrentou processos nos Estados Unidos, incluindo um relacionado à morte de um adolescente, e recebeu críticas de pais e de organizações de proteção digital que a classificaram-na como um risco iminente para menores.
A empresa afirmou que os ajustes respondem a “relatórios e comentários de órgãos reguladores, especialistas em segurança e pais”, conforme reportagem da BBC, os quais apontaram preocupações sobre chatbots que podem inventar fatos, demonstrar empatia exagerada e incentivar comportamentos perigosos.
O comunicado afirmou que a iniciativa segue a visão da companhia sobre a necessidade de aprimorar a segurança da plataforma de IA voltada ao entretenimento.
Karandeep Anand, CEO da Character.ai
Character.ai acusada de manter avatares ofensivos e inadequados
Nos últimos anos, a plataforma foi alvo de acusações por abrigar bots considerados ofensivos ou impróprios. Em 2024, foram identificados avatares que imitavam as adolescentes britânicas Brianna Ghey e Molly Russell, vítimas de episódios de violência e suicídio.
Em 2025, o Bureau of Investigative Journalism (TBIJ) revelou um chatbot inspirado em Jeffrey Epstein, que teria acumulado mais de 3 mil conversas, incluindo tentativas de flerte com um repórter que se fez passar por menor; o chatbot foi retirado do ar após a denúncia.
Esses casos acenderam um alerta sobre o uso inadequado da IA e os riscos de criar personagens capazes de simular vínculos afetivos com jovens.

Medidas de segurança e nova fase da IA
Para usuários adolescentes, a empresa planeja substituir conversas diretas com bots por formatos de “jogabilidade e narrativa de RPG”, considerados menos arriscados; também serão adotados mecanismos de verificação etária, e será financiado um laboratório dedicado à pesquisa de segurança em IA.
Principais mudanças anunciadas:
- Proibição total de conversas entre menores de 18 anos e bots.
- Introdução de sistemas de verificação de idade.
- Criação de um laboratório dedicado à segurança em IA.
- Foco em experiências de jogo e narrativa para jovens.
A avaliação de especialistas aponta que a medida contribui para separar a criatividade lúdica de interações mais pessoais e emocionalmente sensíveis, sendo importante para adolescentes que ainda desenvolvem limites emocionais e digitais.
Dra. Nomisha Kurian, pesquisadora em segurança da IA
Com essas ações, a Character.ai busca recuperar a confiança do público e estabelecer padrões mais rigorosos de proteção digital para crianças e adolescentes.








