• John
  • Felde
  • University of Maryland
  • USA

Latest Posts

  • USLHC
  • USLHC
  • USA

  • James
  • Doherty
  • Open University
  • United Kingdom

Latest Posts

  • Andrea
  • Signori
  • Nikhef
  • Netherlands

Latest Posts

  • CERN
  • Geneva
  • Switzerland

Latest Posts

  • Aidan
  • Randle-Conde
  • Université Libre de Bruxelles
  • Belgium

Latest Posts

  • TRIUMF
  • Vancouver, BC
  • Canada

Latest Posts

  • Laura
  • Gladstone
  • MIT
  • USA

Latest Posts

  • Steven
  • Goldfarb
  • University of Michigan

Latest Posts

  • Fermilab
  • Batavia, IL
  • USA

Latest Posts

  • Seth
  • Zenz
  • Imperial College London
  • UK

Latest Posts

  • Nhan
  • Tran
  • Fermilab
  • USA

Latest Posts

  • Alex
  • Millar
  • University of Melbourne
  • Australia

Latest Posts

  • Ken
  • Bloom
  • USLHC
  • USA

Latest Posts


Warning: file_put_contents(/srv/bindings/215f6720ac674a2d94a96e55caf4a892/code/wp-content/uploads/cache.dat): failed to open stream: No such file or directory in /home/customer/www/quantumdiaries.org/releases/3/web/wp-content/plugins/quantum_diaries_user_pics_header/quantum_diaries_user_pics_header.php on line 170

Florian Miconi | IPHC | France

View Blog | Read Bio

L’invasion des réseaux de neurones

Si je vous dis réseau de neurones, vous pensez certainement au cerveau, ou même si vous avez suivi des cours de biologie vous pensez aux synapses, dendrites etc… Mais ce n’est pas là où je veux vous amener. Pour le moment.
Vous êtes vous déjà demandé comment était lu le code postal sur les enveloppes, ou encore comment le filtre anti-spam de votre messagerie préférée faisait pour stopper les mails indésirables ? Tout ceci demande une capacité à effectuer une décision reliée à un processus statistique. En effet, 2 personnes n’écriront jamais le même chiffre de la même manière et deux spams ne contiendront pas exactement les mêmes mots. Nous nous retrouvons face un ensemble d’éléments potentiellement infini tous différents les uns des autres et qui pourtant peuvent se regrouper en un nombre restreint de groupes de même caractéristique (ce caractère est un 3 ou encore ce mail est un spam…).

C’est dans cet objectif de tri que sont utilisés ce qu’on appelle des algorithmes d’apprentissage, dont font partie les réseaux de neurones artificiels. Ceux-ci vont être capable d’apprendre à identifier une certaine caractéristique dans un échantillon qui lui est soumis.

Architecture d'un réseau de neurones

Architecture d'un réseau de neurones

Les réseaux de neurones sont basés sur un modèle simplifié du neurone biologique, ils se composent généralement de neurones d’entrée, puis une couche dite cachée enfin une couche de sortie (voir schéma). Le tout reliés par des synapses. En entrée sont donnés les différents critères utiles au tri (par exemple l’occurrence de certains mots pour l’identification de spams), la sortie est la réponse du réseau (c’est plutôt un spam ou non).
Mathématiquement le principe repose sur le fait que n’importe quelle fonction peut être approximée par une combinaison linéaire de fonctions d’activation ( sigmoïde, tangente hyperbolique ou fonction de Heaviside ). Ainsi chaque neurone se trouve doté de cette fonction et chaque lien entre les neurones (synapse) est pondéré suivant le problème à résoudre.

Un tel réseau est à la base parfaitement stupide, il ne sait rien faire à part un traitement purement aléatoire de l’information. Comme quand vous voulez apprendre à faire quelque chose, il va falloir s’entraîner!
Durant cette étape nous allons soumettre à notre algorithme un échantillon de caractéristiques connues à trier. On pourra ainsi comparer la réponse du réseau à la réponse correcte. Sachant cela, nous pourrons améliorer le résultat en modifiant les poids synaptiques. Après plusieurs essais, le réseau de neurones aura une sortie proche de celle attendue et sera désormais prêt à utiliser ses capacités sur un échantillon quelconque.
L’analogie avec l’apprentissage humain est très fort : imaginez que je doive apprendre à quelqu’un à reconnaître une souris d’ordinateur. Je vais lui présenter plusieurs objets en lui disant à chaque fois si c’est une souris. Si je lui montre un nombre important de souris (diverses et variées), il va au final réussir à repérer les caractéristiques pertinentes et va pouvoir en extrapoler un «concept souris». Après la phase d’apprentissage, la comparaison à ce concept général sera utilise à chaque fois qu’il devra reconnaître une souris :
«Ah d’accord… Une souris est plus ou moins ovale, possède deux boutons et parfois un bouton au milieu, et elle est souvent raccordée par un fil etc…  Donc si je vois toutes ces caractéristiques sur un objet, j’aurai de bonnes chances de présumer que c’est une souris d’ordinateur».

Très bien, mais je suis un peu loin de la physique des particules ici n’est-ce pas? Alors revenons-y.
En physique des particules, le principe critique est de pouvoir discerner un phénomène bien particulier (le signal) au milieu des millions de collisions amenant à des phénomènes qui ne nous intéresse pas (le bruit de fond). Autrement dit, trouver l’aiguille dans la botte de foin… La théorie physique sous-jacente aux phénomènes observés dans les collisionneurs de particules étant la mécanique quantique, nous ne pouvons jamais avec certitude connaître l’issue d’une collision en particulier. Nous ne pouvons donner que les probabilités.
La méthode première pour augmenter nos chances est d’effectuer des «coupures» : je ne regarde que ce qui a une énergie supérieure à un tel seuil ou encore je ne prends que ce qui a été détecté dans une certaine partie du détecteur etc… Car je sais que c’est dans ces cas que j’ai le plus de probabilités de trouver mon bonheur.
C’est exactement ce que va faire un réseau de neurone, mais de manière optimisée, il va, de part son entraînement, apprendre à ne sélectionner que les évènements possédant les caractéristiques qui ont le plus de chance d’être du signal et rejeter tout ce qui a de fortes chances d’être du bruit de fond.
Le sujet de ma thèse est justement de mettre en évidence un phénomène particulier qui fait intervenir le boson de Higgs et de par la même découvrir (ou exclure) son existence. Il faut savoir que ce phénomène a une probabilité extrêmement faible de survenir, il est donc crucial de pouvoir trier ces évènements. C’est pour cela que je travail à l’aide de réseaux de neurones adaptés à la reconnaissance de ce phénomène.

Akinator, une application internet capable de deviner à quoi vous pensez grâce a un algorithme d'apprentissage.

Akinator, une application internet capable de deviner à quoi vous pensez grâce a un algorithme d'apprentissage.

L’intérêt pour les réseaux de neurones et les algorithmes d’apprentissage en général n’a cessé de croître ces 20 dernières années et sont couramment utilisés dans des domaines aussi variés que les milieux financiers (prédiction des fluctuations de marches), dans le domaine bancaire (pour déceler les fraudes aux cartes de crédit), en aéronautique (pilotes automatiques), en intelligence artificielle etc… Même certaines applications internet se vantant de pouvoir lire dans vos pensées ont vu le jour sur la toile comme 20q ou encore Akinator et utilisent ces algorithmes.

Nous pouvons voir que ces nouvelles techniques d’analyse ont un bel avenir devant eux. Au delà des applications sans cesse plus nombreuses, celles-ci s’améliorent de jour en jour grâce au travail des chercheurs et deviennent ainsi plus puissantes, plus rapides et plus précises. Mais comme nous l’avons vu, malgré le mot neurone, nous sommes encore bien loin d’un cerveau humain. Alors avant d’imaginer une invasion de robot tueurs, sachez bien que Terminator sait pour le moment à peine lire et que c’est déjà pas mal!

Share