CFM exige que médicos anotem nos prontuários e informem pacientes sobre uso de inteligência artificial
Novas regras do Conselho Federal de Medicina preveem que pacientes podem recursar uso da tecnologia.

O Conselho Federal de Medicina adotou regras para o uso de inteligência artificial na prática médica no país, com responsabilidade final dos atos clínicos nos profissionais de saúde. A norma, publicada nesta sexta, 27/2, entra em vigor em 180 dias e cria parâmetros de governança, classificação de risco e proteção de dados para sistemas de IA aplicados à medicina.
A resolução define modelos, sistemas e aplicações de inteligência artificial e delimita seu uso como ferramenta de apoio, vedando a substituição da autoridade médica por decisões automatizadas. O texto assegura ao médico o direito de recusar sistemas que não apresentem validação científica ou certificação regulatória adequada e de não seguir recomendações algorítmicas quando entender que não se aplicam ao caso concreto. Ao mesmo tempo, reforça que o profissional permanece integralmente responsável pelas decisões diagnósticas, terapêuticas e prognósticas, ainda que apoiadas por IA.
Entre os deveres estabelecidos está a obrigação de registrar em prontuário o uso de ferramentas de inteligência artificial como suporte à decisão clínica. O médico também deverá informar ao paciente, de forma clara, quando sistemas de IA forem utilizados de maneira relevante em seu cuidado, além de respeitar eventual recusa do paciente ao uso dessas tecnologias. A norma proíbe a delegação à IA da comunicação de diagnósticos e decisões terapêuticas sem mediação humana.
A resolução determina que os sistemas sejam avaliados previamente quanto ao grau de risco, com classificação em quatro níveis: baixo, médio, alto ou inaceitável. Soluções de baixo risco incluem aplicações administrativas, como agendamento e gestão logística. Já as de alto risco abrangem sistemas que influenciem diretamente decisões críticas em saúde ou executem ações com impacto clínico relevante, exigindo validação rigorosa, auditorias periódicas e monitoramento contínuo.
No campo da governança, hospitais e clínicas que desenvolvam ou contratem sistemas próprios de IA deverão instituir processos internos de controle e criar, quando for o caso, uma Comissão de IA e Telemedicina subordinada à diretoria técnica. A norma também prevê mecanismos de auditoria especializada, monitoramento permanente e avaliação de impacto algorítmico ao longo de todo o ciclo de vida da tecnologia, do desenvolvimento à eventual descontinuação.
A proteção de dados ocupa capítulo específico da resolução. O CFM determina que o tratamento de informações de saúde observe a Lei Geral de Proteção de Dados Pessoais e adote princípios como privacy by design e privacy by default. O uso de dados para treinamento e validação de modelos deverá respeitar bases legais adequadas e padrões mínimos de segurança da informação, sendo vedada a utilização de sistemas que não garantam proteção compatível com a sensibilidade dos dados médicos.
A norma também trata de vieses discriminatórios, exigindo monitoramento contínuo para identificar e corrigir resultados que possam gerar tratamento desigual injustificado entre pacientes. Caso o viés não possa ser mitigado, o sistema deverá ser descontinuado. Órgãos de controle e conselhos regionais poderão ter acesso a relatórios de auditoria e informações técnicas necessárias à fiscalização.
Na exposição de motivos, o CFM afirma que a regulamentação busca equilibrar inovação e segurança, com base nos princípios da beneficência, não maleficência, autonomia e justiça. O texto ressalta que a inteligência artificial deve ampliar a eficiência e a qualidade da assistência, sem comprometer a relação médico-paciente nem diluir a responsabilização profissional.





