À propos de l’auteur
Marko Stokic est le chef de l’IA à la Oasis Protocol Foundation, où il travaille avec une équipe axée sur le développement d’applications d’IA de pointe intégrées à la technologie blockchain. Avec une formation commerciale, l’intérêt de Marko pour la crypto a été déclenché par Bitcoin en 2017 et s’est approfondi par ses expériences lors de l’accident de marché de 2018. Il a poursuivi une maîtrise et a acquis une expertise en capital-risque, se concentrant sur les startups d’IA d’entreprise avant de passer à une startup d’identité décentralisée, où il a développé des solutions préservant la vie privée. Chez Oasis, il fusionne des informations stratégiques avec des connaissances techniques pour plaider en faveur de l’IA décentralisée et de l’informatique confidentielle, éduquant le marché sur les capacités uniques de l’OASIS et favorisant les partenariats qui autonomisent les développeurs. En tant que conférencier engageant, Marko partage des informations sur l’avenir de l’IA, de la vie privée et de la sécurité lors des événements de l’industrie, positionnant l’oasis en tant que leader dans l’innovation responsable de l’IA.
Bien avant que des centaines de millions d’utilisateurs ne fassent sur Chatgpt l’une des applications les plus populaires au monde en quelques semaines en 2022, nous parlions du potentiel pour l’IA pour nous rendre plus sains et nos vies plus longtemps.
Dans les années 1970, une équipe de Stanford a développé Mycin, l’un des premiers systèmes d’IA conçus pour faciliter le diagnostic médical. Mycine a utilisé une base de connaissances d’environ 600 règles pour identifier les bactéries provoquant des infections et recommander des antibiotiques.
Bien qu’il ait surpassé les experts humains dans les essais, Mycin n’a jamais été utilisé dans la pratique clinique – en partie en raison de préoccupations éthiques et juridiques concernant le diagnostic dirigé par la machine.
Avance rapide de cinq décennies, et l’IA est maintenant prête à transformer les soins de santé d’une manière qui semblait être la science-fiction à l’ère Mycin. Aujourd’hui, l’IA moderne peut enseigner à repérer les maladies dans l’imagerie médicale aussi bien qu’un clinicien humain et sans beaucoup de données de formation. UN Étude de Harvard Sur le cancer assisté par l’IA, le diagnostic a montré une précision de 96%.
Améliorer les diagnostics
Au Royaume-Uni, un système d’IA détecté 11 signes de cancer du sein qui ont été manqués par les cliniciens humains. Deux études distinctes, une de Microsoft et un autre de Collège impériala trouvé plus de cas de cancer du sein que des radiologues. Des résultats similaires ont été observés avec la détection d’IA de cancer de la prostate, cancer de la peauet d’autres conditions.
Notre accès aux données n’a jamais été plus grand. Par exemple, le National Health Service au Royaume-Uni – le plus grand employeur d’Europe – a un ensemble accès à un corps de plus de 65 millions de patients de données numérisées – évalué à Plus de 9,6 milliards de livres sterling par an (12,3 milliards de dollars).
Cela représente une opportunité sans précédent pour l’IA de reconnaître les modèles et de générer des idées qui pourraient radicalement améliorer le diagnostic, le traitement et la découverte de médicaments.
La capacité de l’IA à détecter des modèles subtils dans de vastes ensembles de données est l’une de ses plus grandes forces dans les soins de santé. Ces systèmes peuvent analyser non seulement l’imagerie médicale, mais aussi les données génomiques, les dossiers de santé électroniques, les notes cliniques, etc. – les corrélations de repérage et les facteurs de risque qui pourraient échapper aux cliniciens humains expérimentés.
Certaines personnes pourraient se sentir plus à l’aise avec un agent d’IA gantant leurs données sur les soins de santé qu’un humain non directement impliqué dans leurs soins. Mais le problème n’est pas seulement de savoir qui voit les données – il s’agit de savoir comment portable il devient.
Les modèles d’IA construits en dehors des établissements de santé de confiance présentent de nouveaux risques. Bien que les hôpitaux puissent déjà protéger les données des patients, la confiance des systèmes d’IA externes nécessite des protections de confidentialité plus robustes pour éviter une mauvaise utilisation et garantir la sécurisation des données.
Défis de confidentialité dans les soins de santé de l’IA
Il convient de noter que le potentiel est livré avec une confidentialité importante et des préoccupations éthiques.
Les données sur les soins de santé sont peut-être les informations personnelles les plus sensibles qui existent. Il peut révéler non seulement nos conditions médicales, mais nos comportements, nos habitudes et nos prédispositions génétiques.
Il y a des craintes valables qu’une adoption généralisée de l’IA dans les soins de santé puisse entraîner des violations de la vie privée, des violations de données ou une mauvaise utilisation des informations personnelles intimes.
Même les données anonymisées ne sont pas automatiquement sûres. Les modèles AI avancés ont montré une capacité alarmante à désanonomiser les ensembles de données protégés par référencement avec d’autres informations. Il y a aussi le risque de Attaques « d’inversion du modèle »où les acteurs malveillants peuvent potentiellement reconstruire les données de formation privées en interrogeant à plusieurs reprises un modèle d’IA.
Ces préoccupations ne sont pas hypothétiques. Ils représentent de véritables obstacles à l’adoption de l’IA dans les soins de santé, retenant potentiellement les innovations vitales. Les patients peuvent être réticents à partager des données s’ils ne font pas confiance aux garanties de confidentialité.
Alors que les normes et les réglementations nécessitent une diversité géographique et démographique dans les données utilisées pour former des modèles d’IA, le partage des données entre les établissements de santé nécessite la confidentialité, car les données, en plus d’être très sensibles, portent les idées des établissements de santé autour des diagnostics et des traitements.
Cela conduit à la méfiance de la part des institutions pour partager les données des problèmes de réglementation, de propriété intellectuelle et de détournement.
L’avenir de l’IA préservant la vie privée
Heureusement, une nouvelle vague de développement d’IA préservant la vie privée émerge pour relever ces défis. Les approches d’IA décentralisées, comme l’apprentissage fédéré, permettent de former des modèles d’IA à des ensembles de données distribués sans centraliser des informations sensibles.
Cela signifie que les hôpitaux et les institutions de recherche peuvent collaborer au développement de l’IA sans partager directement les données des patients.
D’autres techniques prometteuses incluent la confidentialité différentielle, qui ajoute du bruit statistique aux données pour protéger les identités individuelles, et le cryptage homomorphe, qui permet de les calculer sur des données cryptées sans les décrypter.
Un autre développement intrigant est notre cadre de logique d’exécution hors chaîne (ROFL), qui permet aux modèles d’IA d’effectuer des calculs hors chaîne tout en maintenant la vérifiabilité. Cela pourrait permettre aux applications de soins de santé IA plus complexes de puiser dans des sources de données externes ou une puissance de traitement sans compromettre la confidentialité ou la sécurité.
Les technologies préservant la confidentialité sont encore à leurs débuts, mais elles pointent toutes vers un avenir où nous pouvons exploiter la pleine puissance de l’IA dans les soins de santé sans sacrifier la vie privée des patients.
Nous devrions viser un monde où l’IA peut analyser vos antécédents médicaux complets, votre profil génétique et même les données de santé en temps réel à partir d’appareils portables, tout en gardant ces informations sensibles cryptées et sécurisées.
Cela permettrait des informations sur la santé hautement personnalisées sans aucune entité n’ayant accès aux données brutes des patients.
Cette vision de l’IA préservant la vie privée dans les soins de santé ne consiste pas seulement à protéger les droits individuels, bien que ce soit certainement important. Il s’agit également de débloquer le plein potentiel de l’IA pour améliorer la santé humaine et d’une manière qui commande le respect des patients qu’il traite.
En construisant des systèmes auxquels les patients et les prestataires de soins de santé peuvent faire confiance, nous pouvons encourager un plus grand partage et collaboration de données, conduisant à des modèles d’IA plus puissants et plus précis.
Les défis sont importants, mais les récompenses potentielles sont immenses. L’IA préservant la confidentialité pourrait nous aider à détecter les maladies plus tôt, à développer des traitements plus efficaces et, finalement, à sauver d’innombrables vies et à débloquer une source de confiance.
Il pourrait également aider à traiter les disparités des soins de santé en permettant le développement de modèles d’IA qui sont formés sur divers ensembles de données représentatifs sans compromettre la confidentialité individuelle.
Au fur et à mesure que les modèles IA deviennent plus avancés et que les diagnostics axés sur l’IA deviennent plus rapides et plus précis, l’instinct pour les utiliser deviendra impossible à ignorer. L’important est que nous leur apprenons à garder leurs secrets.
Édité par Sebastian Sinclair
Généralement intelligent Bulletin
Un voyage hebdomadaire d’IA raconté par Gen, un modèle générateur d’IA.