Nos últimos dias, uma onda de publicações nas redes sociais sugeriu que o ChatGPT teria deixado de oferecer conselhos jurídicos e médicos. Usuários relataram que a IA estaria recusando respostas sobre diagnósticos, medicamentos e documentos legais, interpretando isso como uma nova proibição.
Diversos portais internacionais, como o Financial Express e o Times of India, chegaram a publicar notas afirmando que a OpenAI teria “retirado o suporte” a esses temas por “medo de responsabilidade jurídica”【The Verge, 2025】.
Mas a verdade é outra: a OpenAI negou oficialmente qualquer mudança de política nesse sentido.
O que a OpenAI realmente disse
Em publicação no X (antigo Twitter), Karan Singhal, líder de IA em saúde da OpenAI, esclareceu o mal-entendido:
“Not true. Model behaviour remains unchanged. ChatGPT has never been a substitute for professional advice, but it will continue to be a great resource to help people understand legal and health information.”
Ou seja, o comportamento do modelo não mudou. O ChatGPT nunca teve autorização para substituir profissionais de saúde, advogados ou contadores — e continua podendo oferecer informações gerais sobre esses assuntos.
A atualização feita em 29 de outubro de 2025 foi apenas uma padronização das políticas de uso da OpenAI, unificando os termos aplicáveis ao ChatGPT, API e DALL-E. Nenhuma proibição adicional foi adicionada.
Segundo o Business Insider, o ChatGPT “ainda pode responder a perguntas sobre saúde e direito, desde que não personalize diagnósticos ou elabore documentos oficiais”.
O que mudou e o que não mudou no ChatGPT
O que continua igual
- O ChatGPT ainda pode responder perguntas sobre direito e saúde de forma geral e informativa.
- É permitido explicar conceitos jurídicos, termos médicos e procedimentos de maneira educativa.
- O modelo segue sendo um apoio para aprendizado, interpretação de leis, diagnósticos e termos técnicos.
- A política da OpenAI já previa que o ChatGPT não substitui profissionais licenciados (médicos, advogados, contadores).
- A atualização de outubro de 2025 não adicionou nenhuma nova restrição — apenas unificou as políticas de uso (ChatGPT, API e DALL·E).
O que não é permitido (e nunca foi)
- Emitir diagnósticos médicos ou prescrever medicamentos.
- Elaborar petições, contratos ou pareceres jurídicos personalizados.
- Fornecer aconselhamento financeiro, jurídico ou de saúde individualizado.
- Produzir conteúdo técnico com valor legal ou médico sem a supervisão de um profissional licenciado.
- Ser utilizado como fonte exclusiva de decisão em casos de risco clínico, jurídico ou financeiro.
Por que a confusão ganhou força
A confusão começou quando a OpenAI atualizou a interface de suas políticas e incluiu a frase:
“ChatGPT não deve fornecer aconselhamento personalizado que exija licença profissional.”
Muitos interpretaram isso como uma nova restrição. Na verdade, essa regra sempre existiu, apenas foi reescrita com linguagem mais clara.
O assunto se espalhou rapidamente em fóruns como Reddit e X, com milhares de usuários “testando” respostas da IA e compartilhando prints de recusas — o que ajudou o boato a viralizar.
A importância da responsabilidade no uso da IA
Embora o ChatGPT seja uma ferramenta poderosa, ele não substitui o julgamento humano especialmente em áreas sensíveis como medicina, direito e finanças.
Estudos recentes mostram que grandes modelos de linguagem podem apresentar até 13% de respostas incorretas em contextos médicos complexos (arXiv, 2025).
Por isso, a OpenAI mantém políticas rígidas para evitar uso indevido e reforçar a importância da supervisão profissional.
O uso ideal da ferramenta é educacional e informativo: compreender termos jurídicos, interpretar artigos de lei, entender efeitos de medicamentos ou preparar-se melhor para uma consulta com o especialista.
O que isso significa para usuários e empresas
Para os usuários comuns, nada muda: o ChatGPT continua podendo explicar conceitos, comparar tratamentos, interpretar cláusulas contratuais e oferecer resumos de informações de domínio público.
Para empresas e profissionais que utilizam IA em seus fluxos de trabalho — como escritórios de advocacia, healthtechs e consultorias — a recomendação é clara:
- Use o ChatGPT como ferramenta de apoio, nunca como fonte exclusiva de decisão.
- Valide as informações com especialistas licenciados.
- Comunique-se com transparência, informando o papel da IA no processo de produção de conteúdo.
A OpenAI não proibiu o ChatGPT de abordar temas jurídicos ou médicos. A empresa apenas reforçou que o chatbot não deve oferecer aconselhamento personalizado sem supervisão profissional.
Em outras palavras: o ChatGPT continua sendo uma ferramenta útil para aprendizado, pesquisa e apoio à decisão, mas não substitui o trabalho de advogados ou médicos.
A lição? Sempre confirme o que você lê nas redes — especialmente quando o assunto é inteligência





