Impossible d’échapper aux termes techniques quand on cherche à comprendre à quoi correspond l’intelligence artificielle. Un phénomène qui fait couler beaucoup d’encre et surcharge la toile en définitions toutes aussi complexes les unes que les autres. Voici une explication qui me semble à la portée de tous.
L’histoire de l’IA en deux mots
La première chose à savoir est que cette notion ne date pas d’aujourd’hui. Elle a déjà été abordée en 1950 par le mathématicien Alan Turing, considéré comme le père de l’informatique. Il s’était posé cette question : une machine peut-elle devenir intelligente ? c’est-à-dire agir comme un être humain en imitant son mode de pensée. Il n’en fallait pas plus pour que d’autres chercheurs s’engouffrent dans cette réflexion. Le scientifique américain, Marvin Lee Minsky, va développer des formules plus poussées, en 1956, qui vont servir de bases pour permettre à des machines d’effectuer des tâches réalisées par l’homme. C’est pour cela qu’on lui attribue plus facilement l’origine du concept d’Intelligence Artificielle, AI en anglais, IA en français. Mais pourquoi ce concept a-t-il été oublié pendant près de 60 ans pour ressortir tout d’un coup aujourd’hui ? Pour le comprendre, il faut revenir aux bases de l’informatique.
Comprendre le fonctionnement des algorithmes pour appréhender l’IA
Pour comprendre le fonctionnement de l’intelligence artificielle, il faut juste se référer aux fondements de l’informatique. Ce qui nous renvoie aux principes de programmation basés sur des réponses binaires, 1 ou 0. C’est-à-dire que l’on considère que pour chaque question fermée, il n’ y a que deux réponses possibles : « oui » ou « non ». Rappelez-vous, les petits losanges où l’on place une question menant à deux parcours différents, « oui » et « non ». Après, il suffit de scénariser les différents parcours d’une discussion. Appliqué à un robot, censé vous faire la cuisine, ce principe de programmation pourrait donner une discussion du genre « voulez-vous des frites ? ». Si vous répondez « oui », il s’exécute, si vous répondez « non », il vous pose une autre question « des pâtes, alors ? » et ainsi de suite. Quand vous élaborez un scénario qui cherche à imiter le processus de décision de notre cerveau, cela devient plus long et plus complexe. On parle alors d’algorithme. Le souci est qu’à l’époque, la mémoire des ordinateurs était très limitée et ne pouvait pas traiter des informations aussi lourdes. Par ailleurs, la programmation implique une multitude de calculs, ce qui nécessite une rapidité d’exécution que les systèmes informatiques d’antan n’avaient pas. Du coup, tous les chercheurs sur l’IA ont dû prendre leur mal en patience jusqu’à l’arrivée d’ordinateurs plus puissants, capables de traiter des milliards d’informations en des temps records. Cerise sur le gâteau, l’arrivée d’internet et son explosion en 2003, qui a permis non seulement de faire progresser les recherches avec l’interactivité d’une intelligence collective instantanée entre les scientifiques, mais aussi de faire communiquer des objets entre eux. On parle alors de « l’internet des objets », comme votre smartphone qui peut activer la lumière chez vous, ou encore votre frigo qui peut contacter directement une centrale d’achat virtuelle pour passer une commande de yaourts parce que vous venez de prendre le dernier répertorié sur l’étagère.
Algorithme, IA, Deep Learning, quelle différence ?
Quand on parle « d’intelligence », on entend par là une combinaison entre plusieurs capacités. C’est-à-dire la capacité de comprendre, analyser, répondre, agir. Et quand on dit « artificielle », c’est pour l’attribuer à une machine et non pas à un être humain. Ce qu’il faut savoir, c’est qu’avec l’évolution des recherches, on est arrivés à deux types d’IA. L’IA simple, dite « faible », qui utilise des algorithmes pour satisfaire des requêtes selon des scénarios préprogrammés, comme pour jouer aux échecs par exemple. Et puis l’IA « forte » qui est capable de programmer elle-même les scénarios possibles et les décisions à prendre au fur et à mesure qu’elle se nourrit de nouvelles informations. C’est ce que l’on appelle « le Deep Learning » ou encore « le Machine Learning ». La machine qui se forme toute seule. Mais comment peut-elle faire ça ? Eh bien, au lieu de lui servir des informations binaires, « oui » ou « non », on lui donne des « règles » pour qu’elle puisse en déduire elle-même les réponses ou les décisions adéquates. C’est particulièrement intéressant pour gérer des sujets bien plus longs et plus complexes à programmer. Exemple : pour qu’une machine puisse reconnaître un chat, il faut qu’on lui donne toutes les formes, tailles et combinaison des différents membres existants et composant un chat. C’est-à-dire toutes les formes de têtes, d’oreilles, de corps ou de griffes. Autant dire que c’est quasi mission impossible. En revanche, dans le Deep Learning, on va dire à la machine « voici une série de chats, calcule tous les éléments concordants qui te permettraient d’identifier n’importe quel autre chat par la suite ». La seule difficulté est que pour que les calculs soient fiables, on a intérêt à communiquer à la machine un maximum de profils de chats possibles. Plus l’échantillonnage sera grand, moins on aura de risques d’erreur. Autrement, votre robot a de fortes chances de confondre les chats avec les lapins.
Maintenant, il n’y a plus qu’à imaginer ce que l’on peut réaliser avec ces concepts qui vont révolutionner nos modes de vie. Mais là, ce ne sont pas les articles qui manquent sur le sujet.
Besoin d’en savoir plus sur l’IA et son impact sur notre futur ?
Visitez le site www.backcast.fr
Comments