A OpenAI revisou sua política de uso em 29 de outubro, proibindo explicitamente o uso do ChatGPT para fornecer aconselhamento personalizado que exija licença, como médico, legal ou financeiro, sem envolvimento de profissionais qualificados. A empresa enfatiza que o ChatGPT permanece uma ferramenta educacional, destinada a explicar princípios gerais e mecanismos, mas não a substituir consultores certificados. Relatos iniciais geraram confusão, levando a esclarecimentos oficiais de que o comportamento do modelo não mudou.
Mudanças na Política de Uso
A política de uso da OpenAI, atualizada em 29 de outubro, estabelece que seus serviços não devem ser utilizados para a “provisão de aconselhamento personalizado que requer uma licença, como aconselhamento legal ou médico, sem o envolvimento apropriado de um profissional licenciado”. Essa diretriz unifica regras anteriormente separadas para produtos como ChatGPT e API, refletindo um conjunto universal de políticas. Versões anteriores, como a de setembro de 2024 arquivada aqui, já proibiam atividades que pudessem prejudicar a segurança ou direitos de outros, incluindo aconselhamento legal, médico ou financeiro sem revisão profissional e divulgação do uso de IA.
Algumas reportagens iniciais, publicadas em sites como Caliber.az e Glavnoe.in.ua, interpretaram a atualização como uma proibição nova que impede o ChatGPT de oferecer orientação em saúde, direito ou finanças. No entanto, a OpenAI negou que se trate de uma alteração substancial.
🚨 Vagas abertas para o nosso grupo de ofertas que vai te fazer economizar MUITO!
Esclarecimentos Oficiais da OpenAI
Karan Singhal, chefe de IA em saúde da OpenAI, afirmou em postagem no X que relatos virais, incluindo um de Kalshi no X, são falsos e que o comportamento do ChatGPT “permanece inalterado”. De acordo com Singhal, o ChatGPT nunca foi um substituto para aconselhamento profissional, mas continuará sendo um recurso valioso para ajudar as pessoas a entenderem informações sobre saúde e direito. Um porta-voz da OpenAI reforçou que a inclusão de políticas sobre aconselhamento legal e médico “não é uma mudança nova nos termos”.
Esses esclarecimentos surgiram em resposta a postagens e artigos que sugeriam uma restrição abrupta, destacando que o modelo ainda pode fornecer explicações gerais, mas direciona usuários a profissionais licenciados para orientação personalizada. A empresa mantém que o foco é na educação, não na consultoria.
Motivos para a Atualização
A revisão da política responde a preocupações crescentes com responsabilidade legal, segurança dos usuários e conformidade regulatória, especialmente com o aumento do uso do ChatGPT para orientações de alto risco. Relatos apontam riscos associados a usuários agindo com base em recomendações geradas por IA sem supervisão profissional, alinhando-se a leis como o EU AI Act e orientações da FDA. Além disso, cerca de 1 em cada 6 pessoas usa o ChatGPT para aconselhamento em saúde pelo menos uma vez por mês, conforme pesquisa da KFF de 2024, o que eleva a exposição a interpretações erradas ou alucinações do modelo.
A OpenAI adota uma abordagem proativa para gerenciar riscos de uso indevido em setores sensíveis, como medicina e direito, onde erros podem levar a consequências graves. Isso reflete o escrutínio regulatório intensificado sobre o papel da IA em áreas de alto impacto.
Impactos para Usuários e Desenvolvedores
Para usuários, o ChatGPT agora evita responder consultas que demandem expertise certificada, orientando-as para profissionais qualificados em vez de fornecer conselhos diretos em tratamento, questões legais ou finanças. Desenvolvedores que constroem sobre a tecnologia da OpenAI devem aderir às restrições, garantindo que aplicativos não ofereçam aconselhamento não autorizado em saúde, direito ou finanças sensíveis. A política reforça que o modelo é uma ferramenta suplementar, útil para princípios gerais, mas não para tarefas em tempo real ou de alto risco, como emergências ou apostas.
Na prática, isso limita o uso do ChatGPT em situações que envolvam dados confidenciais, como números de segurança social ou contratos, devido a riscos de armazenamento em servidores terceiros. Além disso, áreas éticas, como trapaça em trabalhos acadêmicos ou criação de arte, são desencorajadas, com o modelo recomendado como auxiliar de estudo ou brainstorm, não como substituto.





































