China publica proposta de regulação de chatbots de IA focada em prevenção ao suicídio e jogos de azar

A regulação de chatbots de IA entrou em nova fase na China depois que a Administração do Ciberespaço do país divulgou, no último sábado, um projeto de regras destinado a limitar a atuação de sistemas conversacionais em temas sensíveis como suicídio, automutilação e jogos de azar.
- Escopo da nova regulação de chatbots de IA
- Procedimentos obrigatórios em conversas sobre suicídio
- Regras específicas para menores de idade e limitação de uso
- Métricas de popularidade e avaliações de segurança na regulação de chatbots de IA
- Impacto da regulação de chatbots de IA no mercado de startups chinesas
- Convergência com debates internacionais sobre riscos emocionais
- Direcionamentos positivos previstos na proposta
- Próximos passos da política chinesa para IA
Escopo da nova regulação de chatbots de IA
O documento submetido a consulta pública descreve um tipo específico de serviço, classificado como “IA interativa com características humanas”. Essa definição abrange plataformas capazes de simular personalidade, estabelecer vínculos emocionais e responder por texto, imagem, áudio ou vídeo. Na prática, qualquer aplicação que incentive o usuário a criar laços afetivos com um assistente virtual passa a se enquadrar na proposta.
A iniciativa amplia o arcabouço regulatório que já existia para ferramentas de IA generativa aprovado em 2023, mas avança de uma proteção centrada em conteúdo para um foco explícito na segurança emocional. Para especialistas que acompanham o tema, trata-se da primeira tentativa de regulação no mundo voltada especificamente a sistemas dotados de traços antropomórficos. O texto ressalta que o objetivo não é barrar o avanço da tecnologia, e sim orientar o desenvolvimento em direção considerada socialmente segura pelo governo.
Procedimentos obrigatórios em conversas sobre suicídio
Entre os dispositivos mais detalhados está o protocolo que deve ser seguido quando um usuário manifesta intenção suicida ou menciona automutilação. Se esse tipo de declaração surgir, a plataforma precisará migrar o atendimento imediatamente de um modelo automatizado para um operador humano. Além disso, fica estabelecida a obrigação de contatar um responsável legal ou pessoa indicada previamente pelo próprio usuário.
Também estarão vetadas respostas que possam estimular ou glorificar atos de violência contra si mesmo. Caso o sistema identifique termos associados à ideia de desistir da própria vida, deverá oferecer conteúdo de prevenção e canais de apoio, embora o material exato ainda dependa de futuras diretrizes complementares. O projeto proíbe, de forma ampla, qualquer mensagem que possa ser interpretada como incentivo à automutilação, violência verbal ou manipulação emocional capaz de agravar o estado psicológico do interlocutor.
Regras específicas para menores de idade e limitação de uso
O texto dedica artigos inteiros à proteção de menores. Para adolescentes e crianças, o acesso a recursos de companhia emocional exigirá consentimento prévio dos responsáveis. As plataformas ficam incumbidas de determinar se o perfil pertence a um menor, mesmo quando essa informação não for declarada expressamente, adotando por padrão um modo restrito nos casos de dúvida. Esse modo limita o tempo de conversa e bloqueia tópicos considerados impróprios.
A regulação também impõe que o sistema alerte o usuário após duas horas de interação contínua, mecanismo pensado para reduzir a dependência de chats prolongados. A administração chinesa entende que longos períodos de diálogo com personagens virtuais podem favorecer isolamento social, problema que se agrava na população mais jovem. Se o adolescente insistir na continuidade, novas etapas de verificação deverão ser acionadas antes de liberar o acesso.
Métricas de popularidade e avaliações de segurança na regulação de chatbots de IA
Outro eixo da proposta trata do porte das aplicações. Chatbots com mais de um milhão de contas registradas ou mais de cem mil usuários ativos por mês terão de passar por avaliações de segurança compulsórias. Esse processo, conduzido por órgãos designados pelo governo, deve analisar algoritmos, bases de dados utilizadas no treinamento e mecanismos de filtragem de conteúdo sensível.
Além disso, os provedores deverão manter registros detalhados das interações por determinado período – ainda a ser definido – para fins de auditoria. Se falhas forem identificadas, as empresas precisarão corrigir processos em prazos que variam conforme a gravidade. Sanções previstas incluem advertências públicas, multas e até a suspensão do serviço.
Impacto da regulação de chatbots de IA no mercado de startups chinesas
A revelação das regras ocorre poucos dias depois de duas startups locais de inteligência artificial submeterem documentação preliminar para abertura de capital em Hong Kong. A Minimax, responsável pelo aplicativo internacional Talkie AI e pela versão chinesa Xingye, informou que mais de um terço de sua receita dos três primeiros trimestres do ano veio justamente de tais ferramentas, que registraram média superior a vinte milhões de usuários ativos mensais.
Outra candidata, a Z.ai – também conhecida como Zhipu ou Knowledge Atlas Technology – declarou presença de sua tecnologia em cerca de oitenta milhões de dispositivos, incluindo telefones celulares, computadores pessoais e veículos inteligentes. Nenhuma das companhias detalhou publicamente como pretende adaptar seus produtos às novas exigências, mas analistas avaliam que a necessidade de auditorias formais e de interação humana em situações críticas pode gerar custos adicionais significativos.
Convergência com debates internacionais sobre riscos emocionais
A proposta chinesa chega em um período de atenção global aos impactos psicológicos de assistentes conversacionais. Nos Estados Unidos, a família de um adolescente que morreu por suicídio abriu processo judicial contra a desenvolvedora de um modelo de linguagem, alegando influência direta nas decisões do jovem. O diretor-presidente de uma grande companhia norte-americana do setor reconheceu recentemente que moderar conversas sobre ideação suicida continua sendo um dos maiores desafios.
Empresas de tecnologia vêm, portanto, reforçando equipes dedicadas à avaliação de riscos, com ênfase em saúde mental e cibersegurança. Plataformas especializadas em interação com personagens digitais figuraram entre as quinze ferramentas de IA de maior tráfego em novembro, de acordo com rankings de acesso citados pelo relatório original. Esse crescimento sustenta a percepção de que os assistentes virtuais assumem papel cada vez mais relevante nas relações pessoais, justificando, na visão do governo chinês, regras específicas para preservação da saúde emocional.
Direcionamentos positivos previstos na proposta
Apesar das restrições, o texto assinala áreas nas quais a tecnologia é encorajada. Difusão cultural, apoio a idosos e outros contextos de interesse público aparecem como exemplos de usos estimados como benéficos. Nessas frentes, o governo sinaliza flexibilidade regulatória, sugerindo que companhias poderão receber incentivos ou abordagens diferenciadas para implantar sistemas de IA que ampliem acesso a conhecimento ou melhorem a qualidade de vida de populações vulneráveis.
O documento também menciona a abertura de um canal para contribuições da sociedade civil, pesquisadores e empresas durante o período de consulta, que se estende até 25 de janeiro. Comentários recebidos serão avaliados antes da redação final, o que permite ajustes de escopo ou de linguagem jurídica à luz dos interesses apresentados por diferentes setores.
Próximos passos da política chinesa para IA
De acordo com o cronograma divulgado, a Administração do Ciberespaço da China deverá compilar as sugestões recebidas e publicar uma versão consolidada do regulamento após o encerramento da consulta pública em 25 de janeiro. A data da entrada em vigor das medidas depende desse processo de análise, mas autoridades sinalizam que a implementação deve ocorrer ainda no primeiro semestre, reforçando a meta do país de exercer protagonismo na governança global de inteligência artificial.

Conteúdo Relacionado