Responsabilidade Médica na Era da Inteligência Artificial: Riscos, Deveres e Governança
Inteligência Artificial na Medicina: Regulação, Responsabilidade e Governança no Brasil à luz do AI Act Europeu
Introdução
A incorporação da Inteligência Artificial (IA) à prática médica representa uma das transformações mais profundas da história da assistência em saúde. Sistemas capazes de interpretar exames com elevada precisão, classificar riscos clínicos em tempo real e prever desfechos terapêuticos passaram a integrar o cotidiano de clínicas, hospitais e operadoras de saúde.
O impacto dessa tecnologia, entretanto, transcende a inovação técnica. A IA altera a forma como decisões clínicas são produzidas, redistribui responsabilidades jurídicas, amplia o tratamento de dados sensíveis e introduz novos riscos éticos e regulatórios. A questão central deixa de ser o que a tecnologia pode fazer e passa a ser quem responde pelas decisões mediadas por algoritmos.
No Brasil, a IA médica não é regulada por um diploma único. O regime jurídico aplicável resulta da interação entre normas éticas profissionais, regulação sanitária, legislação de proteção de dados e responsabilidade civil. Nesse contexto, a Resolução CFM nº 2.454/2024 assume papel estruturante ao estabelecer parâmetros éticos e operacionais para o uso de IA na prática médica.
Mais do que regulamentar uma tecnologia, a norma delimita os limites da automação cognitiva na assistência e redefine a responsabilidade profissional em um ambiente clínico mediado por sistemas algorítmicos.
A Resolução CFM nº 2.454/2024 como norma de contenção de risco tecnológico
A resolução não proíbe o uso da inteligência artificial. Ao contrário, reconhece seu potencial para qualificar o cuidado e melhorar a precisão diagnóstica. Seu objetivo é estabelecer limites éticos, técnicos e de responsabilidade que impeçam a substituição do julgamento clínico humano.
O escopo da norma abrange sistemas utilizados para apoio à decisão clínica, análise automatizada de exames laboratoriais e imagens médicas, triagem e classificação de risco, modelos preditivos de desfechos clínicos, monitoramento remoto de pacientes e automação de fluxos assistenciais.
A resolução consagra um conceito central: a inteligência artificial é ferramenta auxiliar, não agente substituto da decisão médica. Esse enunciado funciona como cláusula de preservação da autonomia clínica frente à crescente delegação cognitiva às máquinas.
Indelegabilidade da decisão clínica e preservação da autonomia médica
O princípio estruturante da norma estabelece que a decisão clínica é indelegável ao médico. Essa formulação possui relevância jurídica, ética e epistemológica.
Do ponto de vista jurídico, impede a transferência de responsabilidade ao sistema algorítmico ou ao fabricante da tecnologia. O ato médico permanece imputável ao profissional que o pratica.
Sob a perspectiva ética, preserva o caráter humano da medicina. O julgamento clínico envolve prudência, interpretação contextual e consideração das singularidades do paciente — dimensões que não podem ser integralmente capturadas por modelos estatísticos.
Sob o aspecto epistemológico, a norma reconhece a diferença entre inferência algorítmica e raciocínio clínico. Sistemas de IA operam por correlação estatística; a medicina exige compreensão causal e análise contextual.
Consequentemente, o médico deve validar ativamente os resultados gerados pela IA, revisar criticamente as recomendações e compreender as limitações do sistema utilizado.
A chamada “defesa algorítmica” — o argumento de que o profissional apenas seguiu a recomendação do software — torna-se juridicamente insustentável.
Responsabilidade profissional e redistribuição do risco assistencial
A introdução da IA na assistência médica não elimina a responsabilidade civil; ela a redistribui.
O médico responde quando adota recomendações algorítmicas sem validação crítica, utiliza sistemas sem evidência científica reconhecida, emprega tecnologia não autorizada ou deixa de informar o uso relevante da IA ao paciente.
Além disso, exige-se capacitação mínima para operar o sistema. O uso de tecnologia sem compreensão adequada pode caracterizar negligência técnica.
A resolução também admite responsabilidade solidária com instituições de saúde e desenvolvedores. Instituições respondem por falhas de governança, ausência de treinamento e negligência na gestão de riscos tecnológicos. Desenvolvedores podem responder por defeitos técnicos, ocultação de limitações ou documentação inadequada.
Importante destacar que a responsabilidade solidária não exclui a responsabilidade do médico; apenas amplia o espectro de sujeitos responsáveis.
Transparência, consentimento e assimetria informacional algorítmica
A resolução estabelece que o paciente deve ser informado quando sistemas automatizados participam de forma relevante do seu cuidado.
Essa exigência ganha relevância diante da assimetria informacional ampliada pela IA. O paciente não compreende o algoritmo; muitas vezes, o próprio médico não domina os mecanismos internos do modelo. A decisão clínica passa a depender de sistemas cuja lógica é opaca.
A transparência, portanto, não é mera formalidade, mas requisito de legitimidade ética.
Entretanto, o consentimento informado não resolve problemas estruturais como vieses algorítmicos ou decisões não explicáveis. Ele não substitui a necessidade de governança tecnológica e supervisão ativa.
Evidência científica e validação clínica como barreira contra a inovação irresponsável
A resolução exige validação científica, segurança e eficácia dos sistemas utilizados, bem como conformidade com normas sanitárias aplicáveis.
Essa exigência responde ao crescimento acelerado do mercado de IA médica, frequentemente anterior à validação clínica robusta. Sistemas treinados com dados não representativos da população brasileira podem comprometer a precisão diagnóstica e gerar responsabilidade jurídica.
Ferramentas experimentais não devem ser utilizadas fora de protocolos aprovados por Comitês de Ética em Pesquisa.
Proteção de dados sensíveis e soberania informacional
O uso de IA envolve tratamento massivo de dados de saúde. A resolução reafirma a observância à LGPD e ao sigilo médico.
Plataformas baseadas em nuvem podem transferir dados para servidores no exterior, criando riscos de soberania informacional. Além disso, o uso de dados clínicos para treinamento de modelos exige base legal adequada, transparência e governança clara.
Limites à autonomia algorítmica e proteção contra a desintermediação médica
A norma proíbe sistemas que atuem sem supervisão médica efetiva, substituam a consulta médica ou sejam comercializados com promessas de diagnósticos infalíveis.
Ao exigir rastreabilidade e auditabilidade, busca-se impedir o uso clínico de sistemas opacos cuja lógica decisória não possa ser examinada.
Governança institucional e o dever organizacional na medicina digital
A adoção de IA desloca parte da responsabilidade do indivíduo para a organização. Instituições devem validar tecnologias, treinar equipes, auditar decisões assistidas por IA, revisar contratos e adaptar políticas de privacidade.
A ausência desses controles expõe a instituição a responsabilidade civil solidária, sanções regulatórias e responsabilização ética.
Interação com a regulação sanitária: IA como dispositivo médico
Quando a IA influencia decisões clínicas, pode ser enquadrada como Software como Dispositivo Médico, sujeitando-se à regulamentação da ANVISA, especialmente à RDC nº 657/2022 e à RDC nº 751/2022.
O uso de software não regularizado pode gerar sanções sanitárias e comprometer a segurança jurídica da instituição.
O AI Act europeu e a arquitetura regulatória da IA em saúde
A União Europeia aprovou o Artificial Intelligence Act (Regulation (EU) 2024/1689), estabelecendo o primeiro regime regulatório abrangente para IA no mundo. Diferentemente da abordagem brasileira, que estrutura a regulação a partir da responsabilidade profissional e do enquadramento sanitário, o AI Act organiza o controle jurídico a partir do risco sistêmico dos sistemas algorítmicos.
No modelo europeu, sistemas de IA utilizados na saúde tendem a ser classificados como alto risco, especialmente quando integram dispositivos médicos regulados pelo MDR ou IVDR. Essa classificação ativa um conjunto rigoroso de obrigações legais.
Entre elas, destacam-se:
• implementação de sistemas formais de gestão de risco;
• governança e qualidade dos dados utilizados no treinamento;
• documentação técnica detalhada e auditável;
• registro de logs e rastreabilidade das decisões;
• supervisão humana obrigatória;
• monitoramento pós-mercado e reporte de incidentes.
Diferentemente do enfoque brasileiro, centrado na conduta do profissional e na proteção do paciente no ato clínico, o AI Act impõe deveres estruturais ao fornecedor e ao implementador do sistema, exigindo prova contínua de conformidade.
Essa diferença revela duas filosofias regulatórias distintas. O Brasil protege o paciente assegurando que o médico permaneça responsável e vigilante. A União Europeia protege o paciente exigindo que o sistema seja concebido e operado dentro de um regime de conformidade verificável.
Outra distinção relevante está no tratamento da opacidade algorítmica. Enquanto a norma brasileira exige rastreabilidade e validação clínica, o AI Act estabelece requisitos formais de transparência técnica e documentação capazes de suportar auditoria regulatória.
Essa arquitetura reduz a dependência exclusiva da supervisão humana e transfere parte do ônus de segurança para o ciclo de vida do sistema.
Implicações estratégicas do comparativo internacional
A experiência europeia antecipa tendências regulatórias globais. Mesmo em jurisdições sem legislação específica de IA, organizações de saúde e fornecedores tecnológicos tendem a adotar padrões inspirados no AI Act, especialmente em ambientes com governança madura ou inserção internacional.
Para o contexto brasileiro, isso significa que a Resolução CFM nº 2.454/2024 estabelece a base ética e profissional, enquanto a evolução regulatória internacional aponta para a necessidade crescente de controles técnicos auditáveis, documentação robusta e governança algorítmica estruturada.
Tensões éticas e desafios emergentes
Mesmo com o quadro normativo vigente, persistem desafios relevantes. Sistemas algorítmicos podem reproduzir vieses estruturais quando treinados com dados não representativos. A automação pode gerar deferência algorítmica, reduzindo o exercício crítico do profissional. Modelos não interpretáveis desafiam a exigência de supervisão efetiva.
Além disso, a medicina orientada por padrões estatísticos pode obscurecer a singularidade clínica do paciente.
Conclusão
A inteligência artificial inaugura uma nova etapa da medicina, ampliando a capacidade diagnóstica e preditiva da assistência. Contudo, sua incorporação impõe novos riscos éticos, jurídicos e epistemológicos.
O regime normativo brasileiro estabelece diretrizes claras: a decisão clínica permanece humana; a tecnologia deve ser supervisionada; a responsabilidade não se transfere ao algoritmo; a segurança do paciente prevalece sobre a inovação; e a governança tecnológica é requisito de legitimidade.
O comparativo com o AI Act europeu revela que o futuro regulatório tende a exigir não apenas responsabilidade profissional, mas também conformidade técnica auditável ao longo de todo o ciclo de vida dos sistemas.
A medicina do futuro será assistida por algoritmos, mas continuará sendo responsabilidade humana.
Aviso ao leitor
O presente conteúdo possui caráter exclusivamente informativo e analítico, não constituindo orientação jurídica aplicável de forma genérica. A compreensão e a adequada avaliação das questões aqui tratadas dependem da análise concreta das circunstâncias de cada caso, à luz da legislação vigente, da jurisprudência atualizada e das particularidades fáticas envolvidas.
O WRN Advogados permanece à disposição para realizar a análise jurídica específica e aprofundada das situações abordadas, contribuindo para a adequada gestão e mitigação de riscos