A utilização de inteligência artificial no Serviço Nacional de Saúde está a ocorrer sem que os utilizadores sejam informados. A conclusão resulta de uma auditoria da Inspeção-Geral das Atividades em Saúde (IGAS), que revela que “apenas 3 entidades informam os utentes quando interagem com inteligência artificial”, num universo de 42 entidades hospitalares.
Este dado coloca a IA no SNS sem transparência no centro do debate sobre direitos fundamentais. O Estado admite que sistemas automatizados estão a ser utilizados sem garantir que os cidadãos sabem quando interagem com tecnologia que pode influenciar decisões clínicas ou administrativas.
A própria IGAS reconhece isso, apesar de “21 entidades adotarem medidas para garantir direitos como privacidade e não discriminação”, a transparência é residual. A ausência de informação ao utente não é um detalhe técnico. É uma falha estrutural que pode colidir com o dever de informação previsto no RGPD e com o direito a compreender como os seus dados são tratados.
A investigação Tugaleaks:
IA no SNS sem transparência surge num sistema sem estratégia
A RTP já tinha noticiado a abertura do inquérito, entretanto concluído, ao qual o Tugaleaks teve acesso. A prática está inserida num cenário mais amplo de desorganização. Segundo o relatório, “apenas 12 das 36 entidades possuem uma estratégia definida para inteligência artificial”, enquanto “14 não têm qualquer estratégia” .
Ou seja, há IA no SNS sem transparência e sem governação. O Estado não só não informa os utentes como, em muitos casos, não tem sequer um plano estruturado para a utilização destas tecnologias, pois “apenas 8 entidades realizam avaliações de impacto nos cuidados de saúde” e “11 analisam o custo-efetividade” . Isto significa que a implementação de inteligência artificial está a avançar sem avaliação consistente de riscos, benefícios ou consequências.
IA no SNS sem transparência levanta riscos de segurança e dados
A auditoria identifica ainda fragilidades na cibersegurança e na gestão de dados. Apenas “16 entidades adotam medidas específicas de cibersegurança” e “15 têm planos de gestão de riscos, muitos ainda em desenvolvimento”.
Apesar de existir “preocupação com o Regulamento Geral sobre a Proteção de Dados”, a IGAS admite que “falta uniformização”. Num contexto de dados de saúde, esta ausência de uniformidade aumenta o risco de exposição, utilização indevida ou decisões automatizadas sem controlo adequado.
A combinação é crítica: IA no SNS sem transparência, sem estratégia e com falhas de segurança.
Auditoria identifica falhas mas não apresenta soluções
Apesar da gravidade das conclusões, a IGAS não emite recomendações. O relatório assume que, “por se tratar de uma auditoria de carácter exploratório, não foram emitidas recomendações”.
A ausência de orientações concretas torna-se ainda mais relevante quando cruzada com um documento oficial anterior. Em fevereiro de 2025, um white paper dos Serviços Partilhados do Ministério da Saúde já alertava para riscos claros na utilização de inteligência artificial na saúde, incluindo “falta de transparência”, necessidade de “promover a confiança” e exigência de mecanismos de governação, supervisão e controlo dos sistemas .
Esse mesmo documento sublinhava que os sistemas de IA em saúde são considerados de risco elevado e exigem requisitos rigorosos, incluindo gestão de risco, supervisão humana e transparência no seu funcionamento .
Meses depois, em novembro de 2025, a auditoria da IGAS vem confirmar que esses princípios não estão a ser cumpridos no SNS, identificando falhas ao nível da transparência, da estratégia e da avaliação de impacto.
A sequência temporal é clara: o Estado identificou os riscos e definiu boas práticas, mas não assegurou a sua implementação.
Neste contexto, a ausência de recomendações na auditoria deixa uma lacuna crítica. Não só as falhas eram previsíveis, como já tinham sido enquadradas pelo próprio Estado meses antes.
Isto deixa dúvidas sobre a eficácia do mecanismo de controlo. Uma auditoria que identifica falhas em áreas sensíveis como direitos fundamentais, cibersegurança e governação tecnológica, mas não propõe medidas concretas, limita-se a descrever o problema sem o resolver.
Especialistas alertam para problemas
Para Hélder Mesquita, consultor SEO e especialista em otimização para IA, o cenário identificado no relatório é claro: “Não é aceitável. É uma questão legal. O RGPD estabelece o direito à informação quando dados pessoais são tratados de forma automatizada. O Regulamento Europeu de IA exige que os utilizadores sejam informados, sobretudo em contextos de alto risco como a saúde”, afirma.
O que é o Regulamento Europeu de IA?
O Regulamento Europeu de Inteligência Artificial (Regulamento (UE) 2024/1689) é a primeira lei abrangente da União Europeia que define regras para o desenvolvimento, utilização e comercialização de sistemas de inteligência artificial.
O objetivo é garantir que a IA é utilizada de forma segura, transparente e respeitando os direitos fundamentais dos cidadãos, especialmente em áreas sensíveis como a saúde.
Do ponto de vista da gestão, refere que “nenhum gestor informado aceita esse cenário voluntariamente” demonstrando que “uma organização que não forma as pessoas que usam os seus sistemas de IA não está a adotar IA, está a delegar decisões para algo que ninguém sabe bem como funciona”.
A comparação com uma empresa privada e o SNS é clara para Helder Mesquita, “uma empresa privada arrisca perder clientes e reputação. O SNS arrisca comprometer cuidados de saúde e direitos fundamentais”.
Já Martim Silva, especialista em inteligência artificial aplicada a negócios, diz que “a inteligência artificial na saúde não é o problema, o problema é a forma como está a ser implementada, sem transparência e sem uma estratégia clara, o que compromete a confiança dos utentes e aumenta o risco operacional”.
Mas há formas de usar a IA como deve ser, porque “quando bem aplicada, a IA pode melhorar significativamente os cuidados de saúde, mas isso só acontece quando existe supervisão humana, governação e uma comunicação clara com o cidadão sobre o papel da tecnologia nas decisões”.
O uso de IA no SNS sem transparência é preocupante
Num sistema onde decisões podem afetar diagnósticos e tratamentos, o mínimo é saber quem decide. No SNS, isso não acontece. A própria IGAS admite que apenas 3 entidades informam os utentes quando há interação com inteligência artificial .
A tecnologia já está em uso, mas sem transparência, sem identificação dos sistemas e sem regras claras. O relatório confirma ausência de estratégia e falhas na avaliação de impacto.
Não é atraso tecnológico. É ausência de controlo.
O Estado está a usar sistemas que influenciam decisões em saúde sem dizer ao cidadão. Isso não é inovação. É cinismo e amadorismo institucional.
