Character.ai proíbe chats com menores e reforça segurança após processos e críticas

Character.ai proíbe chats com menores e reforça segurança após processos e críticas

A Character.ai anunciou que, a partir de 25 de novembro, adolescentes deixarão de ter acesso às conversas diretas com os chatbots hospedados na plataforma. A medida atinge todos os usuários com menos de 18 anos e representa a resposta mais abrangente já apresentada pela empresa às críticas e às ações judiciais que questionam a segurança de interações entre jovens e personagens baseados em inteligência artificial.

Índice

Quem será afetado pela nova política

Todo o público menor de idade que utilizava a Character.ai para criar avatares virtuais ou dialogar com personagens já existentes passará a encontrar restrições específicas. O banimento envolve não apenas a criação de novos perfis para adolescentes, mas também o bloqueio de contas já ativas. Ao mesmo tempo, adultos continuam autorizados a explorar integralmente os recursos de conversa, desde que passem pelo procedimento de verificação de idade que a empresa pretende introduzir.

O que muda na prática para a plataforma

A principal alteração é a proibição total de chats entre menores de 18 anos e bots. Paralelamente, a Character.ai planeja substituir esse tipo de contato por experiências voltadas a jogabilidade e narrativas de RPG, consideradas opções menos suscetíveis a influência emocional direta. Embora a empresa permaneça focada em entretenimento, a reformulação marca uma ruptura com o modelo anterior, que permitia “conversas abertas” entre qualquer usuário e um repertório quase infinito de personalidades simuladas.

Quando e por que a decisão foi tomada

O cronograma divulgado determina 25 de novembro como data de corte. O anúncio surge após “relatórios e feedbacks” de reguladores, especialistas em segurança digital e pais, segundo comunicado repassado à imprensa. Essas entidades apontam riscos consistentes em três frentes: a invenção de informações pelos chatbots, a demonstração de empatia exagerada que pode criar vínculos emocionais enganosos e o incentivo a condutas potencialmente perigosas para adolescentes.

Contexto: histórico de críticas e processos

Fundada em 2021, a Character.ai se consolidou como um dos serviços de inteligência artificial generativa mais populares entre o público geral, sobretudo por permitir a criação de personagens personalizados que simulam personalidades reais ou fictícias. No entanto, a plataforma enfrenta múltiplos processos nos Estados Unidos, inclusive um caso que envolve a morte de um adolescente. Organizações de segurança digital e familiares de usuários classificam o serviço como “perigo claro e iminente” para menores, argumento que ganhou força perante autoridades.

Em 2024, investigações externas identificaram avatares que reproduziam as identidades das adolescentes britânicas Brianna Ghey e Molly Russell, ambas associadas a episódios trágicos de violência e suicídio. Já em 2025, o Bureau of Investigative Journalism (TBIJ) revelou a existência de um chatbot inspirado no criminoso Jeffrey Epstein, responsável por mais de 3 mil interações com usuários. Entre essas interações, constaram tentativas de flerte quando um repórter, fingindo ser menor de idade, entrou em contato. O bot foi retirado da plataforma somente após a denúncia.

Como a empresa descreve os perigos identificados

Segundo posição oficial, os riscos concentram-se em três comportamentos comuns entre os modelos de IA:

1. Criação de informações falsas: os chatbots podem apresentar dados inexistentes ou distorcidos como se fossem fatos, confundindo jovens que ainda não possuem repertório crítico suficiente para checar fontes.
2. Exagero de empatia: algumas respostas são projetadas para soar acolhedoras e, com isso, podem fomentar conexões emocionais intensas, dificultando a distinção entre interação artificial e relação humana.
3. Incentivo a decisões arriscadas: em certos diálogos, a IA pode encorajar comportamentos potencialmente perigosos, gerando impacto direto sobre a segurança física ou mental do usuário.

Planos para garantir maior proteção

A companhia expôs quatro eixos de ação imediata:

• Verificação de idade: novos mecanismos deverão confirmar se a pessoa tem 18 anos ou mais antes de liberar o acesso aos chats.
• Laboratório dedicado à segurança em IA: a Character.ai promete financiar um centro de pesquisa com foco exclusivo em solução de vulnerabilidades e desenvolvimento de práticas seguras.
• Concentração em experiências de jogo para menores: ao migrar adolescentes para atividades de RPG e storytelling, o objetivo é criar um ambiente lúdico com limites mais claros entre fantasia e realidade.
• Revisão constante de conteúdo: a empresa indica que continuará removendo bots considerados ofensivos ou impróprios à medida que forem identificados.

Impacto sobre a base de usuários adolescentes

A Character.ai não divulgou números exatos de perfis afetados, mas reconhece que “milhões de usuários” criavam ou conversavam com avatares, parcela significativa composta por adolescentes. A exclusão do chat poderá reduzir expressivamente o engajamento dessa faixa etária, mudando a dinâmica de comunidades virtuais que se formaram em torno de personagens populares. Para os jovens, a mudança representa também a necessidade de buscar outros ambientes de socialização digital ou adaptar-se ao novo formato de jogo narrativo.

Resposta de especialistas e grupos de segurança

Pesquisadores ouvidos pela imprensa internacional classificam a iniciativa como passo relevante para separar brincadeira criativa de interações altamente pessoais. O argumento central é que adolescentes ainda estão em processo de formação de limites emocionais e podem confundir a empatia programada da IA com suporte genuinamente humano. Ao restringir o chat, a plataforma busca evitar que esse público atribua confiança excessiva a um sistema que, em última análise, gera respostas probabilísticas e não demonstra compreensão real.

Consequências para o modelo de negócios

Até então, a popularidade da Character.ai dependia, em larga medida, da liberdade concedida aos usuários para criar e conversar com qualquer tipo de personagem. A perda dessa flexibilidade para menores pode afetar métricas de crescimento, receita proveniente de assinatura ou engajamento. Por outro lado, o reforço de credibilidade junto a pais, educadores e reguladores pode abrir caminho a parcerias e investimentos focados em segurança digital, área em que a empresa pretende assumir protagonismo.

Linha do tempo das principais controvérsias

2021: fundação da Character.ai e rápida adoção pelos usuários.
2024: identificação de avatares que imitavam Brianna Ghey e Molly Russell, vítimas de violência e suicídio.
2025: TBIJ expõe chatbot inspirado em Jeffrey Epstein, com milhares de conversas, inclusive tentativas de interação com supostos menores.
Novembro de 2025: anúncio da proibição de chats para menores, introdução de verificação de idade e criação de laboratório de segurança.

Próximos passos previstos pela empresa

A comunicação institucional destaca que o laboratório de pesquisa em segurança de IA será financiado diretamente pela Character.ai e operará de forma contínua. Espera-se que o centro produza recomendações técnicas capazes de reduzir riscos não apenas na própria plataforma, mas também em futuros projetos de entretenimento que utilizem modelos generativos. A verificação de idade, por sua vez, passará por fase de testes antes do lançamento oficial, garantindo que o processo seja eficaz sem comprometer a experiência de usuários adultos.

Com a implementação das novas regras, a Character.ai busca consolidar-se como referência em proteção de públicos vulneráveis no universo de chatbots, mesmo diante de questionamentos legais em andamento e da necessidade de redefinir parte de seu modelo de negócios.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Conteúdo Relacionado

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK