L'INTELLIGENCE ARTIFICIELLE Christine Tassart 2018 De toutes ...

Ceci pourrait juguler les coûts d'examens redondants ou des fautes ... ou
américains ont dans leurs cartons des systèmes des drones aériens, des chars d'
assaut et ..... le ravitaillement en carburant, les livreurs, les taxis, les camionneurs
etc?

Part of the document


L'INTELLIGENCE ARTIFICIELLE
Christine Tassart 2018
De toutes les discussions avec des entrepreneurs et startups,
le sujet de l'Intelligence arti?cielle (IA) et de ses risques sur notre
civilisation est le thème d'actualité. Tout le monde a ce sujet sur le bout
des lèvres, c'est à la mode ! L'IA est le nouveau « buzzword » devant l'IOT
(Internet des Objets), le Big Data, la réalité augmentée, l'imprimante
3D.....
L'intelligence artificielle concrétise l'ambition de pouvoir créer des
machines qui peuvent penser, apprendre et créer des solutions à des
problèmes de façon similaire à ce que ferait le cerveau humain. C'est donc
l'ensemble de théories et de techniques, à forte complexité logique ou
algorithmique, mises en ?uvre en vue de réaliser ces machines capables de
simuler l'intelligence. Souvent classée dans le groupe des sciences
cognitives, elle fait appel à la neurobiologie (particulièrement aux
réseaux neuronaux), à la logique mathématique, à l'informatique et «
dévore du Big Data ».
A) Quelles sont ces théories et techniques ?

1) Les algorithmes : Ensemble de règles qui définissent une séquence
d'opérations. Ce sont des séries d'instructions qui indiquent à un
ordinateur comment il est censé résoudre un problème ou atteindre un
certain objectif.

2) L'apprentissage automatique (machine learning) ou apprentissage
statistique. L'apprentissage automatique procède généralement en 3 étapes :
un algorithme est d'abord formé sur un jeu de données et de résultats
connus; l'ordinateur intègre ensuite des milliers d'exemples et dernière
étape, il doit résoudre le même problème avec de nouvelles données
inconnues. L'ordinateur va donc filtrer les données, affiner l'algorithme
de départ voire ré-écrire son propre algorithme en fonction des relations
statistiques qu'il découvre entre les anciennes et les nouvelles données.

Les algorithmes apprennent par l'entrainement et s'améliore avec
l'expérience. Un bon exemple est celui du filtre anti-spam de notre boîte
mail. L'algorithme peut d'abord être entraîné à reconnaître les millions
d'emails qui ont été catégorisés comme étant des spams ou non des spams. Ce
processus génère de lui-même une application capable d'identifier
automatiquement les courriers indésirables et s'améliore et s'adapte en
permanence à mesure que d'autres exemples sont disponibles. Même principe
pour les recommandations d'achats d'Amazon, de films de Netflix, de
partenaires sur les sites de rencontres..... ou estimer si une transaction
sur une carte de crédit est frauduleuse....etc

3) L'apprentissage profond (deep learning) est un ensemble de méthodes
d'apprentissage automatique tentant de modéliser des données avec un haut
niveau d'abstraction et de complexité. On parle alors souvent de réseau
neuronal artificiel.
Un réseau neuronal artificiel s'inspire du fonctionnement des neurones
biologiques.

Un tel réseau permet à la machine d'apprendre par elle-même à reconnaître,
trier et analyser les éléments qui lui sont soumis, qui ressemblent à
d'autres qui lui ont été présentés et explicités par le passé. Exactement
comme il suffit de dire à un enfant « c'est une chaise » pour qu'il
reconnaisse ensuite toutes les autres chaises grâce à des éléments communs
qu'il assimile de façon inconsciente, tels que les quatre pieds et le
dossier de la chaise. En effet, le cerveau humain traite souvent les
informations, non pas avec des règles exhaustives, mais par la pratique et
la rétroaction. L'enfant qui apprend le monde autour de lui, voit une
chaise, fait une prédiction (une chaise !) et reçoit un commentaire
(«oui!»), et fait donc son apprentissage par l'entrainement. Le Deep
Learning utilise la même approche

Plutôt que d'indiquer pas à pas comment parvenir au résultat recherché
grâce à un algorithme (comme dans l'apprentissage automatique), on fournit
simplement des données à ces réseaux qui, suivant un processus
d'apprentissage, comparent leur résultat à celui recherché pour tenter
ensuite de s'en rapprocher au mieux. La machine construit elle-même son
algorithme ! La machine virtuelle est donc composée de milliers d'unités
(les neurones) qui effectuent chacune de petits calculs simples et sont
reliées entre elles. Elles reçoivent une entrée (pour continuer notre
exemple, une image d'une chaise); l'analyse; prend une décision à ce sujet
et est informé si sa détermination est correcte. Les connexions entre les
neurones sont ajustées, pondérées par l'algorithme en fonction du résultat.
Et par conséquent cela va changer ses prévisions futures. Les résultats de
la première couche de neurones vont servir d'entrée au calcul des autres
(ce fonctionnement par « couches » - jusqu'à 20 couches avec une complexité
grandissante - est ce qui rend ce type d'apprentissage « profond »)
Initialement, le réseau sera erroné plusieurs fois. Mais comme nous
alimentons en millions d'exemples, les connexions entre les neurones seront
réglées de sorte que le réseau neuronal finira par prendre des décisions
correctes dans presque toutes les occasions. Cette approche connexionniste
est l'intelligence de la fourmilière : chaque unité est rudimentaire, mais
collectivement, elle atteint une capacité très supérieure à la somme des
capacités individuelles de ses membres. La documentation complète d'un
algorithme d'I.A. de type Deep Learning ferait des milliards de milliards
de milliards de pages ... Obsolète quelques instants plus tard !
Ces techniques ont permis des progrès importants et rapides dans les
domaines notamment de la reconnaissance faciale, de la reconnaissance
vocale, de la vision par ordinateur, du traitement automatisé du langage
(Siri ou Google now). Les chercheurs de Facebook ont développé un système
composé de 9 niveaux de neurones artificiels qui peut déterminer
correctement, 97.25% du temps si 2 photographies représentent la même
personne même si les conditions d'éclairage ou l'angle de vue varient

Google vient d'annoncer qu'il utilisait désormais un réseau neuronal pour
son anti-spam afin de le personnaliser en fonction de chaque utilisateur.
Ainsi, même si la majorité des utilisateurs ne voient aucun intérêt à
recevoir des mails pour du Viagra, quelqu'un qui s'intéresserait à ces
sujets ne verrait plus ces e-mails automatiquement classés dans les spams.
Plus concrètement, une newsletter hebdomadaire envoyée par un marchand peut
intéresser une partie des internautes et être considérée comme du spam par
d'autres. Grâce à son IA, GMail apprend à connaître les centres d'intérêt
de chaque utilisateur pour personnaliser le filtrage de façon
transparente !

Plus on augmente le nombre de couches, plus les réseaux de neurones
apprennent des choses compliquées, abstraites, qui correspondent plus à la
manière dont un humain raisonne.

Le problème est « l'explicabilité, la traçabilité » - il peut être
difficile, voire impossible dans certains cas, de savoir comment un réseau
neuronal développe ses prédictions : le résultat étant noyé dans un jeu
d'innombrables pondérations croisées dont on ne peut retrouver le fil.
Comme le cas de deux robots de Google, Alice et Bob, qui cryptaient leur
conversation et un troisième robot Eve qui essayait de décrypter. Alice et
Bob ont réussi leur mission, ils ont inventé un langage que ni Eve ni ces
concepteurs n'ont pu déchiffrer !

4) La programmation génétique est une technique permettant à un programme
informatique d'apprendre, par un algorithme évolutionniste, à optimiser peu
à peu une population d'autres programmes pour augmenter leur degré
d'adaptation à réaliser une tâche demandée par un utilisateur. Le programme
Eureqa utilise cette technique : l'algorithme commence par combiner de
manière aléatoire plusieurs fonctions mathématiques sous forme d'équations
et ensuite voit à quel point ces équations concordent avec les données
collectées. Les équations qui échouent au test sont écartées, tandis que
celles qui se révèlent prometteuses sont conservées et recombinées afin que
le système converge vers un modèle mathématique précis et fiable. Eureqa ne
prit que quelques heures, sans algorithmes de départ, pour trouver un
certain nombre de lois physiques décrivant le mouvement du pendule, la
2ème loi de Newton sur le centre d'inertie ! C'est le Nec plus Ultra de
l'I.A. : On utilise cette programmation génétique pour faire des «
machines à inventer ».


5) Les Chatbot ou agent conversationnel doté d'intelligence artificielle
qui dialogue avec un utilisateur, et répond automatiquement à ses requêtes
24/7. L'illusion est là : l'utilisateur est invité à formuler sa demande en
langage naturel, elle est affinée par un échange convivial, puis le
logiciel interprète la requête. On a l'impression de dialoguer avec un
interlocuteur humain ! Fonctionne sur certains sites web pour le service
client (SNCF, Air France, AccorHotels, banques ...) ou le SAV des marques,
sur des applications mobiles et sur les principales plateformes de
messaging : Facebook Messenger, Skype....
Un exemple bien connu de ce type de robots s'appelle Siri et joue le rôle
d'assistant virtuel des Iphone. Le chatbot peut aussi s'immiscer dans des
groupes de réflexion et des forums de discussion, apportant de nouvelles
interprétations, corrigeant des imprécisions, tempérant parfois les
spéculations des internautes..... Bien d'autres chatbots devraient
rapidement faire leur apparition, alors même que 54% des Français déclarent
n'en avoir jamais entendu parler (étude 2016).
Chatbot = contraction de "robots" et de
"chat" dans le sens de conversation

6) La loi Moore : règle selon laquelle la puissance de calcul des
microprocesseurs double tous les 18 à 24 mois ! Tout le monde n'a