Notícias
Quem deve responder pelos erros médicos da Inteligência Artificial?
Avanço da tecnologia desafia médicos, juristas e autoridades sanitárias e esquenta debate sobre a culpa de quando a IA falha no cuidado com a saúde
A promessa de que a inteligência artificial (IA) pode revolucionar a medicina é cada vez mais presente nas clínicas, hospitais e nos bastidores da indústria da saúde. De diagnósticos rápidos à análise de exames complexos, o uso de modelos de linguagem e algoritmos inteligentes desperta otimismo. Mas a mesma velocidade com que essas ferramentas estão sendo adotadas acende alertas — inclusive entre especialistas da área jurídica. Um dos principais questionamentos: quem é o responsável se a IA errar e o paciente for prejudicado?
Nesta semana, a Organização Mundial da Saúde (OMS) publicou um comunicado oficial pedindo "cautela" no uso da inteligência artificial no setor. A entidade enfatiza a necessidade de proteger a autonomia humana, a segurança e o bem-estar dos pacientes, além de chamar atenção para riscos como a tendência dos dados, a geração de informações incorretas e a possibilidade de desinformação generalizada. "A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na IA", destaca o documento.
A OMS observa que modelos de linguagem como o ChatGPT estão sendo utilizados de forma experimental em ambientes médicos, muitas vezes sem a devida validação clínica. A instituição se diz preocupada com o fato de esses sistemas serem tratados com uma confiança desproporcional à sua comprovação científica.
Do ponto de vista legal, o uso da IA na medicina impõe desafios ainda pouco regulados. Afinal, se uma inteligência artificial indicar um diagnóstico equivocado ou recomendar um tratamento incorreto, quem deve ser responsabilizado? O médico que seguiu a recomendação da IA? A empresa que desenvolveu o sistema? O hospital que o contratou?
Segundo o advogado Thayan Fernando Ferreira, especialista em direito de saúde e direito público, membro da comissão de direito médico da OAB-MG e diretor do escritório Ferreira Cruz Advogados, é essencial entender que, juridicamente, a IA ainda é um instrumento, e não um sujeito de direito. "A responsabilidade, em caso de erro, continua recaindo sobre os profissionais da saúde, já que são eles os detentores do dever técnico e da autonomia de decisão. A inteligência artificial pode ser usada como ferramenta de apoio, mas nunca como substituta da análise humana", explica.
O Código de Ética Médica brasileiro reforça essa ideia ao afirmar que o médico não pode transferir a terceiros, humanos ou não, a responsabilidade sobre suas decisões clínicas. Já o Código de Defesa do Consumidor (CDC) pode ser aplicado, por analogia, nos casos em que a falha na prestação do serviço envolva defeitos no software, o que envolveria também os fornecedores da tecnologia. "O artigo 14 do CDC trata da responsabilidade objetiva do prestador de serviço. Isso significa que, havendo falha na prestação, não é necessário provar culpa, basta comprovar o dano e o nexo com a conduta", afirma o advogado.
Todavia, enquanto o setor se movimenta entre o encantamento e o receio, o debate permanece aberto. "A IA pode ser uma aliada importante, mas precisa ser usada com rigor científico, responsabilidade ética e segurança jurídica. O entusiasmo não pode atropelar o cuidado", reforça Thayan.
Links Úteis
Indicadores de inflação
03/2025 | 04/2025 | 05/2025 | |
---|---|---|---|
IGP-DI | -0,50% | 0,30% | -0,85% |
IGP-M | -0,34% | 0,24% | -0,49% |
INCC-DI | 0,39% | 0,52% | 0,58% |
INPC (IBGE) | 0,51% | 0,48% | 0,35% |
IPC (FIPE) | 0,62% | 0,45% | 0,27% |
IPC (FGV) | 0,44% | 0,52% | 0,34% |
IPCA (IBGE) | 0,56% | 0,43% | 0,26% |
IPCA-E (IBGE) | 0,64% | 0,43% | 0,36% |
IVAR (FGV) | -0,31% | 0,79% | -0,56% |
Indicadores diários
Compra | Venda | |
---|---|---|
Dólar Americano/Real Brasileiro | 5.5081 | 5.5181 |
Euro/Real Brasileiro | 6.3054 | 6.3554 |
Atualizado em: 20/06/2025 18:20 |