Tempo de leitura estimado: 3 minutos
A Inteligência Artificial aplicada à saúde apresenta diferenças significativas na forma como responde a doentes, profissionais e países europeus. Um novo relatório revela desigualdades claras na qualidade, rigor e profundidade das respostas fornecidas pelos grandes modelos de linguagem, levantando preocupações sobre equidade e impacto na perceção pública.
O estudo IA y Política Pública: Hacia una nueva arquitectura de incidencia, realizado pela LLYC no âmbito da European Health Summit, analisou 1484 respostas de quatro sistemas de IA (OpenAI, Anthropic, Perplexity e Gemini). As conclusões mostram que a informação oferecida varia de forma relevante consoante o perfil do utilizador e o país onde a consulta é feita.
Desigualdade informativa entre perfis de utilizadores
O relatório identifica diferenças sistemáticas na forma como os modelos de IA respondem:
Profissionais de saúde
Recebem as respostas mais completas, rigorosas e argumentadas, com maior qualidade das fontes e maior visibilidade dos conteúdos.
Doentes
Obtêm informação menos rigorosa e com lacunas significativas, o que agrava assimetrias e pode comprometer decisões de saúde.
Meios de comunicação
Registam as pontuações mais baixas em visibilidade, solidez técnica e qualidade das fontes, apesar de serem utilizadores com impacto social elevado.
Administrações públicas
As respostas mostram uma postura especialmente favorável aos intervenientes institucionais da saúde.
Segundo Carlos Parry, Líder de Healthcare Europa na LLYC, estes resultados “confirmam divergências sistemáticas que criam uma desigualdade informativa crítica. A IA tornou-se um interveniente com influência real na perceção pública, devendo ser monitorizada por reguladores e pela indústria”.
Disparidades geográficas na Europa
A análise geográfica revela diferenças notáveis:
-
Alemanha, França e Espanha recebem respostas mais completas e com melhores fontes.
-
Polónia e Hungria obtêm respostas mais fragmentadas, com menor consenso e menor qualidade argumentativa.
O relatório destaca ainda que a regulamentação EHDS (European Health Data Space) é a mais sólida e bem explicada pelos modelos. Já o AI Act é a norma com maior carga emocional, enquanto HTA e Pharma Reform apresentam lacunas informativas relevantes.
Desempenho comparado dos grandes modelos de linguagem
O estudo avaliou quatro sistemas de IA e concluiu:
Gemini
É o líder indiscutível em precisão, fiabilidade, qualidade uniforme e menor desinformação. É também o modelo mais favorável às regulamentações europeias.
Anthropic
Destaca-se pela análise estratégica e pela capacidade de antecipar impactos regulamentares.
Perplexity
Apresenta o maior risco de desinformação, com forte dependência de meios de comunicação gerais (81,3%) e uso limitado de fontes oficiais.
OpenAI
Perfil mais moderado, mas com maior recurso a fontes oficiais da UE (19,8%) e a literatura científica revista por pares.
Para Daniel Fernández Trejo, Diretor-Geral de Deep Learning da LLYC, “os modelos de linguagem não são repositórios neutros, mas intermediários que interpretam e moldam a informação. Com a transição para uma Web de respostas sintéticas, compreender esta nova arquitetura da influência é tão importante como compreender os meios de comunicação no passado”.
Conclusão
A interação entre IA e políticas públicas confirma a existência de vieses sistemáticos, que afetam de forma desigual doentes, países e grupos profissionais. O estudo reforça a necessidade de monitorização ativa, maior transparência tecnológica e políticas que assegurem equidade informativa na saúde digital.
