
Uso de IA na medicina: o que diz a resolução do CFM
A Resolução CFM 2.454/2026 busca normatizar o uso de inteligência artificial na prática médica, de forma a garantir a soberania do médico, a segurança do paciente e o uso ético da IA como ferramenta de suporte nas instituições de saúde
O uso de inteligência artificial na medicina já é realidade há alguns anos no Brasil, mas os marcos regulatórios ainda estão em consolidação. Um passo importante nesse processo foi a publicação da Resolução nº 2.454/2026 do Conselho Federal de Medicina, publicada em 11 de fevereiro de 2026.
Entenda neste artigo os principais pontos da resolução, seu impacto na prática médica e os desafios para a universalização do uso de IA na saúde.
O que diz a Resolução CFM nº 2.454/2026?
A resolução normatiza o uso de inteligência artificial (IA) na medicina em áreas como pesquisa, desenvolvimento, governança, auditoria, capacitação profissional e uso responsável de sistemas e recursos tecnológicos.
Veja os principais pontos da resolução para a gestão em saúde e a prática clínica no Brasil.
Definições, fundamentos e princípios gerais
O princípio fundamental da resolução é de que, independentemente da sofisticação tecnológica, a responsabilidade final e a soberania do julgamento clínico permanecem exclusivamente com o médico.
A IA é definida estritamente como uma ferramenta de suporte, que não pode substituir o julgamento clínico humano.
A transparência no uso de IA é outro ponto destacado. Relatórios e registros devem informar o uso desses modelos, sistemas e aplicações de maneira acessível e em linguagem clara, garantindo que pacientes, médicos e gestores compreendam quando e como a tecnologia está sendo utilizada.
As instituições de saúde também deverão priorizar o desenvolvimento cooperativo de modelos, sistemas e aplicações de IA, com o objetivo de promover a interoperabilidade entre soluções tecnológicas, sem prejuízo do sigilo médico e da confidencialidade das informações.
Direitos e deveres dos médicos na utilização de IA
O médico tem o direito (e também o dever ético) de discordar das sugestões da inteligência artificial quando entender que elas não são as melhores para o caso específico do paciente.
Ele também deve ter acesso a informações claras, transparentes e compreensíveis sobre o funcionamento, as finalidades, as limitações, os riscos e o grau de evidência científica dos sistemas de IA utilizados.
Em caso de falhas atribuíveis exclusivamente a sistemas de inteligência artificial, o médico não deverá ser responsabilizado, desde que seja comprovado o uso diligente, crítico e ético dessas ferramentas.
Entre os deveres profissionais estabelecidos pela resolução, destaca-se a obrigação de o médico manter-se atualizado quanto às capacidades, limitações, riscos e vieses conhecidos dos sistemas de IA utilizados na prática clínica.
Além disso, o profissional deverá utilizar apenas sistemas de IA que atendam às normas éticas, técnicas, legais e regulatórias vigentes no país, bem como registrar no prontuário do paciente o uso de sistemas de IA como apoio à decisão médica.
Outro ponto fundamental da norma é a preservação da relação médico-paciente. O médico deve assegurar que o uso de inteligência artificial não comprometa a escuta qualificada, a empatia, a confidencialidade das informações e o respeito à dignidade da pessoa humana.
Governança das soluções de IA na medicina
A resolução também estabelece diretrizes para a governança institucional das soluções de inteligência artificial.
A instituição médica (ou o profissional) que desenvolver, contratar ou implementar modelos, sistemas e aplicações de IA deverá estabelecer processos internos de governança capazes de garantir segurança, qualidade e conformidade ética.
Instituições de saúde que adotarem sistemas próprios de IA deverão criar uma Comissão de Inteligência Artificial e Telemedicina, responsável por acompanhar o uso da tecnologia e garantir a conformidade ética e regulatória de suas aplicações.
As atividades de supervisão e fiscalização do cumprimento da resolução serão exercidas pelos Conselhos Regionais de Medicina (CRMs) da respectiva jurisdição.
Proteção dos dados pessoais
Todo o ciclo de uso da inteligência artificial na medicina, desde o treinamento dos modelos até sua implementação e utilização na prática clínica, deve cumprir rigorosamente a Lei Geral de Proteção de Dados Pessoais (LGPD) e as normas de segurança da informação em saúde.
As instituições devem garantir proteção eficaz contra perdas, alterações, acessos indevidos ou vazamentos de dados sensíveis.
Para isso, torna-se obrigatória a adoção de medidas técnicas e administrativas adequadas ao nível de sensibilidade das informações tratadas, incluindo controles de acesso, rastreabilidade e políticas de segurança da informação.
Validade da resolução
A resolução entrará em vigor 180 dias após a data de sua publicação, período destinado à adaptação das instituições e dos profissionais às novas exigências regulatórias.
IA na gestão hospitalar: eficiência com ética
Embora o foco da resolução seja o ato médico, suas diretrizes impactam diretamente a gestão hospitalar.
Sistemas de inteligência artificial utilizados em triagem, priorização de exames, análise de risco clínico ou predição de altas hospitalares devem ser implementados sob a governança e a supervisão de diretores técnicos médicos, garantindo conformidade ética e segurança assistencial.
A eficiência operacional proporcionada pela tecnologia não pode se sobrepor à segurança do paciente ou à responsabilidade profissional.
Ao posicionar a inteligência artificial como ferramenta de apoio (e não de substituição) ao julgamento humano, a Resolução nº 2.454/2026 preserva um princípio essencial da medicina: o cuidado centrado no paciente e a responsabilidade ética do profissional de saúde.
Para gestores e profissionais, o próximo passo será investir em atualização constante e em uma curadoria técnica rigorosa das tecnologias que serão incorporadas ao ambiente hospitalar.



