A publicação da Resolução CFM nº 2.454/2026 inaugura um novo momento para o uso da inteligência artificial na medicina no Brasil. Mais do que reconhecer o avanço tecnológico, a norma desloca o debate para um plano mais concreto: o da responsabilidade, da governança e da implementação segura.
A Resolução é expressa ao reconhecer que a IA pode ser utilizada como ferramenta de apoio à prática médica, à gestão em saúde, à pesquisa e à educação médica, desde que seu uso esteja amparado por estrutura adequada de governança, critérios de controle, supervisão humana e observância de parâmetros éticos, técnicos e jurídicos.
Para as instituições, esse é um dos pontos centrais da norma. O uso da IA deixa de ser visto apenas como uma escolha tecnológica ou operacional e passa a exigir organização interna, definição de responsabilidades e mecanismos permanentes de acompanhamento. A regulamentação prevê, nesse contexto, avaliação prévia de riscos, auditoria, monitoramento contínuo e, em determinados casos, a criação de estruturas formais de supervisão.
A diretriz regulatória é inequívoca: a incorporação da inteligência artificial na saúde exige planejamento, estrutura e governança. Não basta incorporar ferramentas aos fluxos assistenciais ou administrativos. É necessário estruturar um projeto de adequação que contemple diagnóstico dos usos existentes, mapeamento de riscos, definição de papéis, governança de dados, critérios para contratação de fornecedores, documentação das salvaguardas adotadas e revisão periódica do desempenho dessas soluções.
Outro eixo central da Resolução é a classificação de risco. As soluções de IA devem ser enquadradas conforme seu potencial impacto sobre os pacientes e sobre direitos fundamentais, o que determina o nível de controle, validação, revisão e monitoramento exigido em cada caso. A lógica é de proporcionalidade: quanto maior o risco, mais robusta deverá ser a governança.
A proteção de dados também ocupa posição de destaque. A norma exige rigor no tratamento dos dados utilizados no desenvolvimento, treinamento, validação e implementação dos sistemas, reforçando a necessidade de integração entre governança tecnológica, proteção de dados e conformidade regulatória.
No plano dos deveres profissionais, a Resolução reafirma que a inteligência artificial deve atuar apenas como ferramenta de apoio, permanecendo com o médico a responsabilidade final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas. Exige-se, ainda, avaliação crítica das recomendações fornecidas pela tecnologia, atenção aos riscos e vieses envolvidos, uso de soluções compatíveis com as normas aplicáveis e registro, em prontuário, do uso da IA como apoio à decisão médica.
No âmbito da relação médico-paciente, a norma ressalta que a utilização da IA não pode comprometer a escuta qualificada, a empatia, a confidencialidade nem o respeito à dignidade da pessoa humana. O paciente deve ser informado de forma clara quando a tecnologia for utilizada como apoio relevante em seu cuidado, e a comunicação de diagnósticos, prognósticos ou decisões terapêuticas não pode ser delegada à IA sem mediação humana.
Há ainda um fator prático especialmente relevante: o prazo. A Resolução entra em vigor 180 dias após sua publicação, o que torna este o momento adequado para planejamento e implementação.
Esse movimento dialoga, ainda, com a discussão mais ampla sobre o Marco Legal da Inteligência Artificial no Brasil. A convergência entre regulação setorial e futura legislação geral reforça que governança, supervisão humana, gestão de riscos e accountability tendem a se consolidar como pilares permanentes do uso de IA em saúde.
Em termos práticos, a Resolução CFM nº 2.454/2026 exige das instituições mais do que adoção tecnológica: exige preparo, método e governança. Para hospitais, clínicas, operadoras, laboratórios, healthtechs e demais agentes do setor, a adequação passa pela construção de um projeto estruturado, capaz de reunir avaliação jurídica, classificação de risco, desenho de governança, protocolos de supervisão, governança de dados, capacitação de equipes e mecanismos contínuos de monitoramento.
No setor da saúde, a questão já não é mais se a inteligência artificial integrará a prática assistencial, mas de que forma isso será feito. O verdadeiro desafio, agora, está em incorporá-la com segurança, transparência, responsabilidade e adequada supervisão. Trata-se, portanto, de uma transformação que exige abordagem cuidadosa, multidisciplinar e estruturalmente organizada.
Nesse contexto, os times de Compliance e Life Sciences do FIUS estão prontos para apoiar organizações na construção de uma abordagem estruturada e segura para o uso de IA, integrando governança, gestão de riscos, proteção de dados e conformidade regulatória.