Na era da medicina contemporânea, a gestão de dados de saúde se tornou um tema central e de grande relevância. A medicina não é mais apenas sobre exames, consultas e cirurgias; ela é cada vez mais impulsionada por dados. Prontuários eletrônicos, exames de imagem, testes genéticos, informações de dispositivos vestíveis e registros populacionais formam a base que sustenta diagnósticos mais precoces e tratamentos personalizados.
Essa transformação trouxe à tona a necessidade de discutir quem controla esses dados e como eles são utilizados. Os dados de saúde são considerados altamente sensíveis, pois contêm informações íntimas sobre o corpo e a mente das pessoas. O uso inadequado dessas informações pode resultar em discriminação, estigmatização e exploração comercial.
Portanto, é crucial que haja um controle rigoroso sobre como esses dados são geridos e utilizados. Um ponto importante a ser destacado é que a confiança da sociedade na ciência e na inovação pode ser severamente comprometida se os dados forem mal administrados. A recente discussão sobre a formação médica no Brasil, evidenciada pelos resultados do ENAMED, expôs fragilidades que vão além da educação, afetando a confiança institucional em um sistema de saúde cada vez mais dependente de dados e algoritmos.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) reconhece a sensibilidade dos dados de saúde, classificando-os como dados pessoais sensíveis. Isso implica a necessidade de cuidados redobrados em relação à finalidade, segurança e transparência no uso dessas informações. A lógica é clara: a inovação não pode ser construída à custa da autonomia do paciente.
Entretanto, essa situação gera uma tensão. A pesquisa científica e o desenvolvimento tecnológico dependem de grandes volumes de dados, enquanto consentimentos genéricos podem fragilizar a confiança entre pacientes e instituições. Além disso, regras excessivamente rígidas podem inviabilizar pesquisas legítimas e atrasar descobertas importantes.
O desafio não é escolher entre privacidade e inovação, mas sim criar marcos regulatórios que protejam o indivíduo sem paralisar a ciência. Essa questão é particularmente relevante no campo das imagens médicas, onde a identificação de indivíduos pode ser um problema. Uma vez que essas imagens são utilizadas para treinar modelos de inteligência artificial, elas podem ser reutilizadas várias vezes, levantando a questão sobre a possibilidade de rastrear o uso dos dados e, se necessário, removê-los do sistema.
Na Europa, o Regulamento Geral de Proteção de Dados (GDPR) aborda essa questão ao garantir ao cidadão o direito de retirar seu consentimento a qualquer momento, incluindo para usos secundários em pesquisa. No entanto, isso impõe desafios técnicos e institucionais significativos, pois nem sempre é possível "apagar" um dado já incorporado a modelos complexos. Essas discussões não são meramente teóricas.
No Bascom Palmer Eye Institute, da Universidade de Miami, a análise de 66 milhões de prontuários clínicos e mais de 300 mil imagens oftalmológicas está revolucionando o diagnóstico e o acompanhamento de doenças como o glaucoma. Modelos de inteligência artificial têm demonstrado potencial para democratizar o rastreio de doenças, mas isso só é possível se houver um compromisso ético com a governança dos dados. A lição que se extrai é clara: a inteligência artificial e o big data já estão moldando a medicina do presente e definirão a do futuro.
No entanto, sistemas de saúde verdadeiramente modernos não são apenas orientados por dados; são, acima de tudo, centrados no ser humano. O futuro dos dados em saúde será guiado por algoritmos, mas sustentado pela ética e pela confiança das pessoas que tornam esse futuro possível.