Le big data, littéralement mégadonnées, concerne l'ensemble des données sociodémographiques et de santé disponible auprès des sources qui les collectent. « Ces sources peuvent être des bases de données réglementées, comme le Système national d'information interrégimes de l'Assurance-maladie (SNIIRAM) ou le Programme de médicalisation des systèmes d'information (PMSI), mais aussi des bases comme celles de Google, Apple ou Facebook », a précisé Frédérique Claudot.
Dans le domaine de la recherche médicale, le big data soulève des défis qui peuvent être résumés par la règle des 4V, a indiqué Richard Redon :
– le volume d'information, qui nécessite un prétraitement initial ;
– la vitesse d'acquisition et de génération des données, notamment dans le domaine de la génomique ;
– la variété des données ;
– la valeur, ou la confiance que l'on peut accorder à ces données.
Le big data peut notamment permettre de mieux caractériser les patients, l'expérience menée dans le cadre du programme Vacarme le confirme. « L'idée était de systématiser des approches d'épidémiologie génétique pour le recrutement de patients et donc de regrouper des familles du Grand Ouest très informatives, a précisé Richard Redon. Nous avons travaillé avec l'Agence régionale de santé, l'approche est faisable mais l'exploitation de données qui n'avaient pas initialement cet objectif n'est pas si simple. Dans le domaine de la génétique, il y a une escalade des infrastructures nécessaires en raison de la croissance exponentielle des données. Ceci conduit à développer des modèles où les données sont traitées mais ne sont pas conservées ».
Dossier informatisé, réseaux sociaux…
Le big data c'est aussi une source d'information très riche pour les cliniciens, a souligné la Pr Anita Burgun en se basant sur l'expérience du dossier patient informatisé créé à l'ouverture de l'hôpital européen Georges Pompidou il y a 17 ans. Une centaine de projets, dont la moitié d'épidémiologie clinique, ont pu être réalisés à partir des 4 millions de documents, des 124 millions de résultats d'analyses ou des 5 millions de prescriptions. Les enjeux sont multiples. Le premier concerne le phénotypage, et donc tous les signes cliniques associés à un diagnostic. L'expérience montre qu'il faut conserver les données, car elles sont riches d'enseignement aussi sur le plan longitudinal, et que le dossier textuel des patients est très important. Il est également essentiel d'avoir des entrepôts translationnels, afin de mettre en relation phénotype et génotype, et de travailler en réseau d'entrepôts de données. Il faut aussi sortir du cadre de l'hôpital et se servir des autres bases de données médico-administratives, qui donnent un éclairage dans la vie réelle. « Ceci est par exemple très utile pour l'analyse des effets secondaires des médicaments, souvent plus fréquents dans la vraie vie, a rappelé le Pr Burgun. Les données des réseaux sociaux doivent aussi être explorées, car elles peuvent parfois constituer un signal d'alarme. Enfin, les patients eux-mêmes génèrent de plus en plus de données, par exemple à l'aide de leur smartphone : que faut-il en faire quand on sait que de nombreux patients souhaiteraient que leurs données de santé soient agrégées et transmises à leur médecin dans l'attente d'une conduite à tenir en retour ? »
D'après les communications de Frédérique Claudot (Nancy) Richard Redon (Nantes) et de la Pr Anita Burgun (Paris). Session plénière Recherche translationnelle : Médecine 2.0
Article suivant
Les mécanismes à la loupe
Au service des cliniciens et de la recherche
Les mécanismes à la loupe
Des liens étroits
Focus sur l'insuffisance cardiaque terminale
Le genre toujours d'actualité
Transition de genre : la Cpam du Bas-Rhin devant la justice
Plus de 3 700 décès en France liés à la chaleur en 2024, un bilan moins lourd que les deux étés précédents
Affaire Le Scouarnec : l'Ordre des médecins accusé une fois de plus de corporatisme
Procès Le Scouarnec : la Ciivise appelle à mettre fin aux « silences » qui permettent les crimes