L’intelligence artificielle : le futur de l’intelligence

L’IA réorganise nos vies – et révolutionne la science.

Dans tous les domaines de la science, les chercheurs croulent sous l’excès d’une chose essentielle : l’information. De la physique des particules à la génétique en passant par la biologie cellulaire et la chimie environnementale, les nouvelles technologies engendrent des jeux de données énormes, transformant l’interprétation des découvertes expérimentales en un véritable défi. Heureusement, le domaine émergeant de l’intelligence artificielle crée des « partenaires de pensée » mathématiques qui peuvent passer au crible cette montagne de données et révéler des découvertes qu’un esprit humain seul aurait ignorées.

 

Mais en fait, l’intelligence artificielle c’est quoi ?

L’intelligence artificielle, ou IA, est la reproduction de processus d’intelligence humaine par des machines. Quand Marvin Minsky, le fondateur du laboratoire d’IA du MIT, a conseillé Stanley Kubrick pour son film 2001, l’Odyssée de l’espace – dans lequel HAL 9000 est un ordinateur intelligent – l’intelligence artificielle n’était encore que de la science-fiction. Mais petit à petit, les avancées de la recherche ont propulsé l’IA sur le devant de la scène. De Deep Blue, le super-ordinateur d’IBM, qui s’est confronté au champion d’échecs Garry Kasparov à la fin des années 90, aux véhicules robotiques de la NASA qui se sont posés sur Mars en 2004, jusqu’à nos « assistants personnels » à commande vocale, Siri d’Apple, Google Assistant ou Alexa d’Amazon, la société est entrée dans un partenariat évolutif qui engage l’homme et la machine selon les règles d’un contrat qui est toujours en cours de rédaction.

La révolution actuelle du « Big Data » accorde une importance cruciale aux sciences fondamentales de l’intelligence artificielle. Un des nouveaux projets à 100 millions de dollars de l’Institut Weizmann, « l’Artificial Intelligence Enterprise for Scientific Discovery » (en français : l’initiative artificielle pour la découverte scientifique), va développer des outils d’IA et assurer leur intégration dans plusieurs domaines scientifiques, en fournissant la puissance informatique nécessaire pour stocker, traiter et analyser les données qui mèneront aux nouvelles grandes découvertes.

L’IA est un concept général utilisé pour décrire la résolution par un ordinateur de tâches pour lesquelles l’intelligence humaine était jusqu’ici considérée comme un prérequis. Dans les cas les plus simples, des comportements proches de l’intelligence peuvent être atteints par de simples programmes informatiques bien conçus. Mais les tâches plus complexes nécessitent des systèmes d’IA pour rassembler des données complexes, identifier des modèles et prendre des décisions de façon indépendante.

Tout comme le cerveau humain, les systèmes d’IA efficaces incluent des capteurs, accumulent de l’expérience et sont capables de se souvenir d’informations pour prendre des décisions. En IA, les capteurs sont utilisés pour relier des données complexes, par exemple des images, ou, dans le domaine biomédical, des informations moléculaires ou génétiques. Le système est ensuite exposé à de grands jeux de données –reconnaissance faciale ou prévision du cancer par exemple – pour lesquels on connait déjà une solution. Enfin, l’IA doit intégrer un algorithme – un programme codé qui permet à l’ordinateur de découvrir des pistes et de prendre des décisions basées sur les capteurs et les expériences passées. Muni de ces éléments, et si les tâches auxquelles est destiné le système d’IA sont correctement définies, il se passe quelque chose d’assez surprenant : le système va apprendre.

Les capacités de l’IA vont croitre avec la puissance des ordinateurs. De nouvelles approches algorithmiques, comme les techniques de « réseau neuronal profond » inspirées du cerveau humain, vont se joindre à l’émergence de systèmes multisensoriels capables d’accumuler des jeux de données d’une taille inédite. Ces développements préfigurent un futur excitant dans lequel l’IA repoussera les limites de l’imagination et réalisera son potentiel comme « partenaire de réflexion » pour son créateur, l’être humain.

 

L’IA à l’Institut Weizmann

L’institut Weizmann regroupe certains des experts en informatique et en neurobiologie les plus renommés au monde. Les chercheurs de l’Institut Weizmann développent des méthodes basées sur l’IA dans tous les domaines, de la découverte de médicaments à la médecine personnalisée, en passant par la modélisation climatique et la protection environnementale. L’application de l’IA à des domaines historiquement considérés comme non-informatiques – comme l’archéologie et l’éducation – montre le pouvoir de ces systèmes, capables d’extraire des modèles significatifs qui, à cause de leur grande complexité, auraient été négligés par les plus brillants scientifiques humains.

Trois chercheurs parmi les nombreux chercheurs de l’Institut Weizmann qui utilisent l’IA – le professeur Amos Tanay, le professeur Ilan Koren et le professeur Eilam Gross – démontrent comment les nouveaux outils d’IA aident la communauté scientifique à faire des découvertes qui peuvent changer la face du monde.

 


Le professeur Amos Tanay

 


Le professeur Ilan Koren

 

Intelligence Artificielle et santé

Que pourrions-nous apprendre si nous avions en tête le détail des données de santé d’une population tout entière pendant des dizaines d’années ? C’est ce que le professeur Amos Tanay – qui travaille à la fois dans le département de régulation biologique et dans le département informatique et mathématiques – cherche à découvrir.

L’arrivée du dossier médical électronique en remplacement du traditionnel dossier médical papier a permis de standardiser la façon dont les données des patients sont enregistrées, facilitant le partage et l’utilisation des informations importantes sur le plan clinique. Le professeur Tanay cherche à aller plus loin en développant un logiciel permettant non seulement l’accès aux données et leur utilisation mais rendant également possible l’analyse de ces données à l’échelle d’une population dans son ensemble.

Il dirige une collaboration unique entre l’Institut Weizmann des Sciences et le Clalit Health Systems, la plus grande structure de soins israélienne. Le projet Weizmann/Clalit (et son programme Bench-to-Bedside – en français : du laboratoire au chevet des malades – dirigé par le professeur Gabi Barbash, médecin et ancien directeur général du ministère de la santé israélien), met à disposition des scientifiques plus de 20 ans de données comprenant l’enregistrement informatique de tests en laboratoire, de traitements et de résultats sur près de quatre millions de citoyens israéliens. Ce recueil de données, basé sur les dossiers de patients anonymisés, est analysé en utilisant des protocoles IA  d’ « apprentissage machine » (ou machine learning) et des découvertes dans le tout récent domaine de la recherche en science des données (data science).

La capacité de l’IA à extraire des modèles d’un ensemble de données important a permis au professeur Tanay et à ses collègues d’identifier des facteurs jusqu’ici méconnus qui jouent un rôle dans la santé humaine. Par exemple, en collaboration avec le docteur Liran Shlush du département d’immunologie, le professeur Tanay a établi une stratégie basée sur l’IA permettant de diagnostiquer de façon précoce la leucémie aigüe myéloïde (LAM). En appliquant des algorithmes de machine learning sur les enregistrements médicaux du Clalit sur le séquençage profond des gènes qui mutent de façon récurrente dans le cas de la LAM, les scientifiques ont identifié un profil de mutation génétique particulier qui prédit de façon précise quels patients vivront jusqu’à un âge avancé sans développer la maladie – un modèle qui pourrait être potentiellement utilisé pour identifier le risque pré-LAM des années avant que la maladie ne se déclare.

Plus récemment, le professeur Eran Segal – qui travaille à la fois dans le département de biologie moléculaire et cellulaire et dans le département informatique et mathématiques – a conçu un algorithme qui peut prédire le risque de diabète gestationnel et ce même avant la grossesse. Cette avancée – basée sur des algorithmes de machine learning qui ont révélé des modèles cliniques significatifs en se basant sur les données du Clalit – pourrait un jour permettre aux médecins d’empêcher le diabète gestationnel chez des patientes précises en leur prescrivant des changements dans leur vie quotidienne permettant de réduire leur glycémie.

Si le professeur Tanay continue sur cette voie, les prochaines découvertes de santé basées sur l’IA pourraient venir d’une collaboration plus étroite entre scientifiques et médecins. L’équipe du professeur Tanay est en train d’apporter la touche finale à la nouvelle interface qui permettra aux médecins – sans aucune formation en IA ou en machine learning – d’interroger la base de données du Clalit, tester leurs hypothèses et apporter des soins plus personnalisés et de meilleure qualité à leurs patients.

 

Intelligence Artificielle et recherche climatique

Une nouvelle stratégie basée sur l’IA et sur le travail de trois chercheurs – dont le professeur Ila Koren du département géologie et planétologie – utilise le machine learning pour parvenir à une compréhension sans précédent de la façon dont les formations nuageuses assurent l’équilibre énergétique de la Terre et le cycle de l’eau, et influencent ainsi le climat.

Tous les modèles climatiques prennent en compte les nuages, mais ces données sont généralement fournies par les satellites qui capturent des images à faible résolution, ignorent les petits nuages et révèlent uniquement les propriétés les plus basiques des systèmes nuageux. Le professeur Koren développe pour sa part une approche complètement différente de l’analyse des nuages qui, avec l’aide de l’IA, produira une multitude de nouvelles données sur le climat.

La stratégie du professeur Koren, appelée Cloud Tomography (en français : tomographie des nuages) utilise des algorithmes de tomographie inspirés du domaine médical pour permettre à une flotte coordonnée de 10 petits satellites, chacun de la taille d’une boîte à chaussure, de fournir des images des structures 3D internes et externes des nuages ainsi que la taille et la concentration des gouttelettes qui les composent. Une mission spatiale scientifique – appelée CloudCT – va cibler des champs de petits nuages rarement détectés par les technologies de télédétection espérant ainsi résoudre certaines des inconnues entourant les prévisions climatiques.

Après leur mise en orbite les satellites adopteront une formation en réseau continuellement en mouvement, comme un essaim réparti sur des centaines de kilomètres. Les satellites vont rassembler des images simultanées de plusieurs points au sein des champs de nuages et vont transmettre ces images au sol, permettant aux scientifiques d’obtenir des informations 3D sur l’influence des nuages et leur réaction aux changements des conditions environnementales.

Grâce au machine learning, le professeur Koren et ses collègues vont être capable d’identifier des interactions très complexes, en particulier celles des plus petites structures nuageuses qui modèrent le climat et sont également  très sensibles aux changements climatiques. Ce nouveau système devrait améliorer la précision des modèles climatiques actuels.

 

Intelligence Artificielle et nature de l’univers

Les méthodes de machine learning sont conçues pour parcourir et analyser indépendamment de grands jeux de données. Et si vous cherchez de grands jeux de données, la physique des particules – une discipline au sein de laquelle les scientifiques examinent le comportement des particules subatomiques à très haute énergie – est un bon candidat.

Les scientifiques de l’Institut Weizmann sont des leaders reconnus dans le projet ATLAS, un détecteur faisant partie du grand collisionneur de hadrons (LHC) du CERN – l’accélérateur de particules le plus puissant au monde. Au LHC, des milliers d’aimants accélèrent les particules subatomiques pour qu’elles rentrent en collision à une vitesse proche de celle de la lumière. Plus d’un milliard de collisions par seconde se produisent dans le détecteur ATLAS, générant de grandes quantités de données analysées dans 130 centres informatiques tout autour du monde.

Les données complexes produites par les expériences de physique des particules mettent à rude épreuve les capacités de stockage des ordinateurs les plus puissants. L’IA peut apporter son aide en générant les résultats en temps réel à partir des évènements détectés. Les architectures d’IA pourraient également être entraînées à identifier et sauvegarder les évènements qui se distinguent des prévisions – plutôt que de les rejeter – permettant d’attirer l’attention des scientifiques sur des phénomènes qui pourraient être la clef de la prochaine découverte majeure.

Le professeur Eimam  Gross du département de physique des particules et astrophysique a consacré une grande partie de sa carrière au projet ATLAS. Le professeur Gross était le coordinateur général du groupe international de scientifiques responsables de la réalisation la plus célèbre du LHC : la découverte du boson de Higgs. Il affronte aujourd’hui un nouveau défi : aider à concevoir des algorithmes pour améliorer le suivi et l’analyse des données de la prochaine évolution de l’expérience ATLAS. Ces algorithmes sont basés sur du deep learning – une méthode de machine learning basée sur des réseaux de neurones artificiels – permettant une analyse des données plus efficace et plus rapide. Il sera ainsi possible de caractériser les évènements subatomiques rares jusqu’ici négligés à cause de l’énorme densité – même pour les standards d’ATLAS ! – de données impliquées.

 


Le professeur Eilam Gross

 


Le professeur Yaron Lipman

 

Expert de renommée mondiale dans le domaine réunissant IA et physique des particules, le professeur Gross a fait progresser la recherche grâce à une collaboration avec le professeur Yaron Lipman du département informatique et mathématiques appliquées. Ensemble, ces scientifiques ont développé une méthode innovante utilisant du deep learning géométrique pour améliorer le rendement des détecteurs en « repérant » les particules intéressantes.

Dans un autre projet, le professeur Gross a utilisé un type de machine learning appelé réseau neuronal convolutif pour prédire quelle quantité d’un certain type d’énergie sera « déposée » dans les composants du détecteur ATLAS. Cette avancée rend plus facile la séparation du bruit de fond sans importance des découvertes expérimentales significatives. Il utilise également des protocoles de machine learning pour identifier les disfonctionnements du détecteur lui-même.

Les progrès rapides de l’IA ont permis au professeur Gross et à ses collègues de rêver de ce qui deviendra possible dans un futur proche. Plutôt que d’utiliser le machine learning pour identifier des modèles au sein de données à haute densité, pour répondre à des questions préexistantes, les plateformes d’IA de demain pourraient répondre à leurs propres questions de façon indépendante, et pourraient même mener leurs propres expériences. Et si les systèmes d’IA de demain posent leurs propres questions, crieront-elles « Eurêka ! » quand elles découvriront les réponses ? Seul le temps nous le dira.

Les recherches du professeur Eilam Gross sont financées par le Centre Nella et Leon Benoziyo pour la physique des hautes énergies.

Les recherches du professeur Ilan Koren sont finances par le Centre de Botton pour l’océanographie, Scott Eric Jordan, le Centre de la fondation du docteur Scholl pour la recherche sur le climat et l’eau, le Centre de la famille Sussman pour l’étude des sciences environnementales et la fondation de la famille Bernard et Norton Wolf.

Les recherches du professeur Amos Tanay sont financées par Barry et Janet Land, l’Institut Ilana et Pascal Mantoux pour la bio-informatique, la Fondation Edmond de Rothschild, le fonds Steven B. Rubenstein pour la recherche sur la leucémie et autres maladies du sang, la succession Alice Schwarz-Gardo et l’Institution caritative de la famille Wolfson.