A Resolução CFM nº 2.454/2026 estabeleceu regras específicas para o uso de inteligência artificial (IA) na medicina no Brasil, trazendo parâmetros para pesquisa, desenvolvimento, governança, auditoria, monitoramento, capacitação e aplicação dessas soluções na prática médica. O texto foi publicado no Diário Oficial da União em 27/02/2026, a norma prevê um prazo de 180 dias entre a publicação e o início de vigência, de modo que seus efeitos passam a valer no fim de agosto/início de setembro de 2026.
A norma parte de uma diretriz central: IA é ferramenta de apoio, e não substituição do médico. Em termos simples, a resolução reconhece que modelos e sistemas podem auxiliar o trabalho, mas preserva a decisão clínica como ato humano, com responsabilidade final do profissional. Ao mesmo tempo, o CFM busca dar previsibilidade para instituições e equipes sobre o que pode ser adotado, como deve ser implementado e quais cuidados mínimos devem ser observados. Esse recorte é relevante porque a resolução não se limita ao consultório, alcançando também clínicas, hospitais, serviços de diagnóstico, saúde suplementar e ambientes de pesquisa.
Para tornar o alcance mais claro, o texto trabalha com a ideia de “modelos”, “sistemas” e “aplicações” de IA, cobrindo desde ferramentas que sugerem hipóteses clínicas até soluções usadas em fluxos administrativos e educacionais. A resolução também sinaliza que a disciplina alcança ferramentas que já estejam em uso, o que, na prática, pode exigir revisão de rotinas internas, protocolos e critérios de contratação. O resultado é que o debate deixa de ser apenas tecnológico e passa a envolver documentação clínica, governança, segurança da informação e critérios de qualidade.
A resolução assegura ao médico o direito de utilizar IA como apoio em diferentes finalidades legítimas, como prática assistencial, gestão em saúde, pesquisa científica e educação médica continuada. Além disso, reforça que o profissional deve ter acesso a informações claras e compreensíveis sobre o funcionamento da ferramenta, suas finalidades, limites, riscos e grau de evidência científica. Em linha com a autonomia profissional, a norma também sustenta que o médico pode aceitar ou rejeitar sugestões geradas pelo sistema, de acordo com seu julgamento técnico e ético.
Em contrapartida, o texto explicita deveres importantes para o uso responsável. O médico deve empregar a IA exclusivamente como suporte, mantendo-se responsável pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas. Também deve avaliar criticamente a coerência das recomendações com o quadro clínico e com as evidências científicas disponíveis, além de manter-se atualizado sobre capacidades, limitações e vieses conhecidos do sistema utilizado. A norma ainda prevê a necessidade de registrar em prontuário o uso da IA quando ela for empregada como apoio à decisão médica.
Há, ainda, vedações pensadas para evitar o “piloto automático” tecnológico. A resolução proíbe delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem mediação humana, justamente por envolver conteúdo sensível que exige explicação, contextualização e responsabilidade. Também veda o uso de soluções que não assegurem padrões mínimos de segurança compatíveis com o tratamento de dados pessoais sensíveis em saúde. Essas previsões dialogam com a ideia de que tecnologia pode apoiar o cuidado, mas não pode reduzir a qualidade do atendimento nem enfraquecer a relação médico-paciente.
No relacionamento com o paciente, a resolução reforça transparência e linguagem acessível. Sempre que a IA for utilizada como apoio relevante em ações de cuidado, diagnóstico ou tratamento, o paciente deve ser informado e receber explicação clara sobre esse uso, preservando-se a compreensão do que está sendo feito e por quê. A norma também reforça o respeito à autonomia do paciente, inclusive quanto à recusa informada do uso dessas ferramentas em seu atendimento, quando aplicável. Em termos práticos, isso exige processos assistenciais que integrem tecnologia e comunicação humana, sem “terceirização” do cuidado.
A resolução também dá ênfase à proteção de dados e à segurança da informação, alinhando-se à LGPD. Como dados de saúde são, em regra, sensíveis, o texto exige que o médico zele por confidencialidade, integridade e segurança das informações utilizadas por sistemas de IA, e que o compartilhamento de dados com essas ferramentas ocorra apenas quando necessário e de modo compatível com as finalidades informadas ao titular. Também há previsão de cautelas adicionais quando dados forem usados para treinamento, validação ou aprimoramento de algoritmos, com observância de direitos fundamentais e princípios éticos.
Um ponto que melhora a previsibilidade para instituições é a exigência de avaliação preliminar do grau de risco algorítmico na utilização ou desenvolvimento de soluções de IA. A categorização mencionada inclui níveis como baixo, médio e alto risco, com exemplos práticos:
- Baixo risco: funções administrativas ou de apoio com impacto mínimo (ex.: agendamento; gestão logística; sumarização interna de literatura).
- Médio risco: suporte à decisão com potencial de impacto mitigável por supervisão e intervenção médica.
- Alto risco: sistemas com potencial de danos relevantes, inclusive os que influenciam decisões críticas ou executam ações automatizadas com consequências clínicas significativas.
No campo da governança, a resolução busca evitar que a IA se transforme em parâmetro obrigatório de conduta médica. O texto veda penalização ao profissional por não seguir a orientação do sistema quando ele atua conforme preceitos técnicos e éticos, e também indica que estabelecimentos não devem impor metas ou políticas que subordinem a atuação do médico à recomendação algorítmica. Para instituições que adotem sistemas próprios, a norma prevê a criação de uma comissão interna de IA e telemedicina, sob coordenação médica e vinculada à diretoria técnica, além de medidas como transparência, mitigação de vieses, revisão periódica e auditorias.
Considerando que a adequação envolve ética médica, governança, segurança da informação e revisão de processos, pode ser conveniente que instituições de saúde e empresas do setor avaliem seus fluxos e contratos com apoio de profissional especializado, sobretudo quando a IA impacta diretamente decisões assistenciais, prontuário, bases de dados e rotinas de auditoria. Essa análise tende a ajudar na definição do nível de risco, na documentação do uso, na criação de controles internos e na implementação de medidas proporcionais ao contexto de cada operação.
Alertamos que este material foi elaborado para fins de informação e debate, não devendo ser considerado uma opinião legal para qualquer operação ou negócio específico. A Equipe do Gomes Altimari Advogados se mantém à disposição para fornecer os esclarecimentos que se fizerem necessários.
Referências bibliográficas:
BRASIL. Conselho Federal de Medicina. Resolução CFM nº 2.454, de 11 de fevereiro de 2026. Publicada no DOU em 27 fev. 2026.
Cassiano Rodrigues da Silva Neto – cassiano@gomesaltimari.com.br




