Sam Altman alerta para riscos de privacidade ao usar ChatGPT
Sam Altman, presidente-executivo da OpenAI, reconheceu que as interacções mantidas no ChatGPT podem ser legalmente requisitadas, sublinhando a ausência de um enquadramento de confidencialidade para estes serviços.
OpenAI guarda todo o histórico de conversas
Durante uma entrevista no podcast do comediante Theo Von, Altman explicou que a OpenAI conserva integralmente os diálogos dos utilizadores. Segundo o responsável, esses registos podem incluir temas pessoais sensíveis, desde questões familiares a dúvidas sobre relacionamentos ou saúde mental.
Embora a empresa afirme tratar a informação de forma privada, Altman salientou que não existe qualquer legislação que obrigue a anonimizar ou proteger juridicamente esses dados. Caso um tribunal solicite o conteúdo, a OpenAI terá de o fornecer.
Falta de equivalência com sigilo profissional
O dirigente comparou a situação com as protecções legais garantidas no contacto com médicos, advogados ou terapeutas, onde vigora o privilégio de confidencialidade. «Ainda não encontrámos um modelo semelhante para as conversas com sistemas de IA», afirmou.
A inexistência desse enquadramento jurídico levanta cenários em que mensagens trocadas com o chatbot possam ser usadas como prova em processos judiciais, como divórcios ou litígios laborais, colocando em causa a privacidade dos utilizadores.
Modelos locais ganham argumentos
Face a esta realidade, Altman reconheceu que a execução de grandes modelos de linguagem (LLM) em dispositivos locais, como computadores pessoais, oferece vantagens do ponto de vista da protecção de dados. Nessas soluções, o utilizador mantém controlo total sobre a informação, podendo eliminá-la imediatamente sem a enviar para servidores externos.
Aplicações como GPT4All, que funcionam em PCs com GPU ou NPU, exemplificam essa abordagem. No entanto, Altman advertiu que a eliminação de ficheiros no computador não impede o cumprimento de mandatos judiciais, caso existam.
Necessidade de legislação específica
O líder da OpenAI defendeu a criação urgente de políticas ou leis que definam responsabilidades e limites no acesso a dados produzidos por sistemas de IA. Até que tal aconteça, recomendou ponderação na partilha de informações íntimas com chatbots baseados na nuvem.
Altman rematou que, embora as ferramentas de IA possam ajudar a esclarecer questões pessoais, recorrer a profissionais licenciados continua a ser a opção mais segura para quem procura aconselhamento confidencial.

Imagem: pcworld.com