ChatGPT implementa sistema de previsão de idade para ampliar proteções a menores

|
Getting your Trinity Audio player ready... |
ChatGPT, plataforma operada pela OpenAI, começou a receber um sistema de previsão de idade destinado a detectar contas que provavelmente pertencem a usuários com menos de 18 anos e, a partir dessa identificação, ativar automaticamente mecanismos adicionais de proteção.
- Por que a OpenAI adicionou um modelo de previsão de idade ao ChatGPT
- Como o sistema de previsão de idade do ChatGPT funciona
- Etapas para confirmar a idade e restaurar o acesso completo
- Proteções automáticas aplicadas a usuários possivelmente menores
- Ferramentas de controle parental oferecidas no ChatGPT
- Monitoramento, ajustes e expansão na União Europeia
Por que a OpenAI adicionou um modelo de previsão de idade ao ChatGPT
A iniciativa da OpenAI responde a diretrizes internas que já abordavam a segurança de jovens, descritas em documentos sobre comportamento de modelos para menores de 18 anos. O objetivo declarado é equilibrar dois aspectos: garantir uma experiência completa para adultos, dentro das normas de segurança da empresa, e fortalecer salvaguardas específicas para adolescentes. Esse duplo compromisso exige um método confiável para distinguir os dois públicos, e a solução encontrada foi a aplicação de um modelo de previsão de idade treinado para avaliar, em tempo real, as contas que transitam pela plataforma.
Ao adotar esse recurso, a companhia pretende reduzir a incidência de conteúdo impróprio entre menores, sem recorrer exclusivamente à idade declarada no cadastro, que pode ser manipulada. A estratégia também cumpre metas de transparência estabelecidas nos compromissos da empresa junto a organizações de proteção infantil e entidades de saúde mental.
Como o sistema de previsão de idade do ChatGPT funciona
O novo mecanismo opera por meio da análise combinada de sinais comportamentais e dados de conta. Entre os fatores examinados estão:
• Tempo de existência da conta: a idade do perfil oferece um indício inicial sobre a possível faixa etária do titular.
• Horários de acesso: padrões de conexão em horários escolares ou noturnos podem pesar na avaliação.
• Frequência e volume de uso: variações abruptas ou sessões muito curtas podem diferir entre públicos adulto e adolescente.
• Idade informada no cadastro: o dado declarado continua sendo considerado, mas agora faz parte de um conjunto mais amplo.
Combinados, esses elementos geram uma pontuação de probabilidade. Quando o modelo sugere que o titular da conta pode ser menor de 18 anos, o sistema altera automaticamente o nível de proteção aplicado. Além de proteger o usuário final, o processo contribui para o aperfeiçoamento contínuo do próprio modelo, uma vez que os resultados passam a retroalimentar o treinamento, revelando quais sinais produzem maior precisão.
Etapas para confirmar a idade e restaurar o acesso completo
A OpenAI reconhece que o modelo pode classificar incorretamente alguns perfis adultos como adolescentes. Nesses casos, a plataforma oferece um procedimento de recuperação do acesso integral. O usuário visualiza, no menu Configurações > Conta, uma indicação de que restrições destinadas a menores foram aplicadas. A partir daí, é possível iniciar a verificação de idade.
O processo exige o envio de uma selfie, analisada pelo serviço de verificação de identidade Persona. A comparação facial confirma se a pessoa possui 18 anos ou mais. Concluída essa etapa, o usuário volta a ter acesso total às funcionalidades do ChatGPT. A mesma rota se aplica caso a plataforma tenha dúvidas sobre a minoridade e solicite confirmação prévia.
Proteções automáticas aplicadas a usuários possivelmente menores
Quando a conta é classificada como pertencente a alguém abaixo da maioridade, o ChatGPT passa a filtrar ou bloquear determinados conteúdos. A lista divulgada pela OpenAI inclui:
Violência gráfica ou cenas explícitas: descrições detalhadas ou imagens geradas que exibam ferimentos graves ou sangue.
Desafios virais de risco: incentivos a práticas perigosas que possam causar danos físicos ou psicológicos.
Simulações de papéis com teor sexual, romântico ou violento: atividades de role-play que envolvam temas impróprios à idade.
Representações de automutilação: instruções, detalhamentos ou incentivos a comportamentos autolesivos.
Padrões extremos de beleza, dietas prejudiciais ou body shaming: conteúdos que promovam hábitos alimentares nocivos ou reforcem estigmas corporais.
A seleção desses tópicos foi balizada por estudos acadêmicos sobre desenvolvimento infantil e por especialistas que analisam fatores como percepção de risco, controle de impulsos, influência de pares e regulação emocional. Ao restringir o acesso a esses materiais, a empresa busca diminuir a exposição precoce a temas que possam impactar negativamente a saúde mental ou incentivar condutas de perigo.
Ferramentas de controle parental oferecidas no ChatGPT
Além dos filtros automáticos, pais ou responsáveis têm à disposição ferramentas complementares. Entre os recursos listados estão:
• Definição de horários de uso: bloqueio do acesso em determinados períodos, como durante a madrugada ou em horários de estudo.
• Gerenciamento de memória e treinamento: permissão ou veto ao uso das interações do adolescente para treinar o modelo ou permanecer na memória da conta.
• Notificações sobre sinais de sofrimento: alertas enviados quando o sistema detecta linguagem associada a angústia aguda, permitindo intervenção rápida.
Essas opções ampliam o controle familiar sobre a experiência de navegação, garantindo que as medidas automáticas não sejam a única barreira protetiva. O recurso também atende a recomendações de organizações de saúde que defendem a participação ativa dos responsáveis na supervisão de atividades on-line de menores.
Monitoramento, ajustes e expansão na União Europeia
A OpenAI informou que monitorará o desempenho do sistema durante a fase inicial para ajustar parâmetros e elevar a acurácia do modelo de previsão de idade. Nas próximas semanas, a funcionalidade será disponibilizada na União Europeia, com adaptações que atendam exigências regulatórias locais.
Por fim, a companhia declarou que continuará divulgando atualizações sobre o avanço desse projeto em diálogo com entidades como a American Psychological Association, a ConnectSafely e a Global Physicians Network. O cronograma inclui refinamentos periódicos, baseados nos dados coletados e nos retornos fornecidos por especialistas externos.

Conteúdo Relacionado