Responsabilidade Médica na Era da Inteligência Artificial: Riscos, Deveres e Governança

A incorporação da inteligência artificial à prática médica redefine profundamente a assistência em saúde ao introduzir sistemas capazes de apoiar diagnósticos, estratificar riscos e prever desfechos clínicos com alto grau de precisão. Esse avanço, entretanto, desloca o debate do campo tecnológico para o campo jurídico e ético, pois altera a forma como decisões clínicas são produzidas e redistribui responsabilidades. No Brasil, a Resolução CFM nº 2.454/2024 estabelece que a IA deve atuar como ferramenta auxiliar, preservando a autonomia médica e a indelegabilidade da decisão clínica. O médico permanece responsável pela validação crítica dos resultados, devendo compreender as limitações do sistema e informar o paciente quando houver participação relevante de algoritmos no cuidado, reforçando a transparência e a legitimidade ética do processo assistencial.

A utilização da IA não elimina responsabilidades, mas as redistribui entre profissionais, instituições e desenvolvedores, exigindo governança tecnológica, validação científica, conformidade sanitária e proteção rigorosa de dados sensíveis à luz da LGPD. O comparativo com o AI Act europeu revela uma tendência regulatória mais estruturada, que desloca parte do ônus da segurança para o ciclo de vida do sistema, impondo controles técnicos auditáveis, gestão de riscos e documentação contínua. Enquanto o modelo brasileiro enfatiza a responsabilidade humana e a supervisão clínica, a experiência europeia antecipa um cenário em que a conformidade algorítmica e a governança técnica se tornam requisitos essenciais para a legitimidade e segurança da medicina digital.

Leia mais