Publié le : 14 décembre 2024 / Mis à jour le : 14 décembre 2024 – Auteur : Konrad Wolfenstein

Les origines de l'intelligence artificielle : comment les années 1980 ont jeté les bases des modèles génératifs actuels – Image : Xpert.Digital
Pionniers de l'IA : Pourquoi les années 1980 furent la décennie des visionnaires
Les années 80 révolutionnaires : la naissance des réseaux neuronaux et de l’IA moderne
Les années 1980 ont été une décennie de changements et d'innovations dans le monde de la technologie. Avec la présence croissante des ordinateurs dans les entreprises et les foyers, scientifiques et chercheurs se sont efforcés de rendre les machines plus intelligentes. Cette époque a jeté les bases de nombreuses technologies que nous utilisons aujourd'hui sans y penser, notamment dans le domaine de l'intelligence artificielle (IA). Les progrès de cette décennie ont non seulement été révolutionnaires, mais ont aussi profondément influencé notre rapport à la technologie.
La renaissance des réseaux neuronaux
Après une période de scepticisme à l'égard des réseaux neuronaux dans les années 1970, ces derniers ont connu une renaissance dans les années 1980, en grande partie grâce aux travaux de John Hopfield et Geoffrey Hinton.
John Hopfield et les réseaux Hopfield
En 1982, John Hopfield a présenté un nouveau modèle de réseaux neuronaux, connu par la suite sous le nom de réseau de Hopfield. Ce réseau était capable de mémoriser des motifs et de les restituer par minimisation de l'énergie. Il a constitué une avancée majeure vers la mémoire associative et a démontré comment les réseaux neuronaux pouvaient être utilisés pour stocker et reconstruire l'information de manière fiable.
Geoffrey Hinton et la machine de Boltzmann
Geoffrey Hinton, l'un des chercheurs les plus influents en intelligence artificielle, a développé la machine de Boltzmann avec Terrence Sejnowski. Ce système de réseau neuronal stochastique pouvait apprendre des distributions de probabilité complexes et était utilisé pour reconnaître des motifs dans les données. La machine de Boltzmann a jeté les bases de nombreux développements ultérieurs dans le domaine de l'apprentissage profond et des modèles génératifs.
Ces modèles ont été révolutionnaires car ils ont démontré comment les réseaux de neurones pouvaient servir non seulement à classifier des données, mais aussi à générer de nouvelles données ou à compléter des données incomplètes. Il s'agissait d'une étape cruciale vers les modèles génératifs désormais utilisés dans de nombreux domaines.
L'essor des systèmes experts
Les années 1980 ont également été la décennie des systèmes experts. Ces systèmes visaient à codifier et à utiliser l'expertise de spécialistes humains dans des domaines spécifiques afin de résoudre des problèmes complexes.
Définition et application
Les systèmes experts reposent sur des approches basées sur des règles, où les connaissances sont stockées sous forme de règles « si-alors ». Ils sont utilisés dans de nombreux domaines, notamment la médecine, la finance, l'industrie et bien d'autres. Un exemple bien connu est le système expert médical MYCIN, qui a contribué au diagnostic des infections bactériennes.
Importance pour l'IA
Les systèmes experts ont démontré le potentiel de l'IA dans des applications concrètes. Ils ont montré comment les connaissances des machines peuvent être utilisées pour prendre des décisions et résoudre des problèmes qui nécessitaient auparavant une expertise humaine.
Malgré leur succès, les systèmes experts ont également révélé les limites des approches basées sur des règles. Souvent difficiles à mettre à jour, ils peinaient à gérer l'incertitude. Cela a conduit à une remise en question et a ouvert la voie à de nouvelles approches en apprentissage automatique.
Progrès en apprentissage automatique
Les années 1980 ont marqué une transition des systèmes basés sur des règles aux méthodes d'apprentissage axées sur les données.
Algorithme de rétropropagation
Une avancée cruciale a été la redécouverte et la popularisation de l'algorithme de rétropropagation pour les réseaux de neurones. Cet algorithme a permis d'ajuster efficacement les poids d'un réseau de neurones multicouches en propageant l'erreur à rebours à travers le réseau. Il a ainsi rendu les réseaux profonds plus pratiques et a jeté les bases de l'apprentissage profond actuel.
Modèles génératifs simples
Outre les tâches de classification, les chercheurs ont commencé à développer des modèles génératifs capables d'apprendre la distribution sous-jacente des données. Le classificateur naïf de Bayes est un exemple de modèle probabiliste simple qui, malgré ses hypothèses, a été utilisé avec succès dans de nombreuses applications pratiques.
Ces avancées ont démontré que les machines n'étaient pas obligées de se fier uniquement à des règles prédéfinies, mais pouvaient également apprendre à partir des données pour accomplir des tâches.
Défis et percées technologiques
Bien que les progrès théoriques soient prometteurs, les chercheurs ont dû faire face à d'importants défis pratiques.
Puissance de calcul limitée
Dans les années 1980, le matériel informatique était très limité par rapport aux normes actuelles. L'entraînement de modèles complexes était long et souvent trop coûteux.
Le problème du gradient qui disparaît
Lors de l'entraînement de réseaux neuronaux profonds par rétropropagation, un problème courant est apparu : les gradients dans les couches inférieures devenaient trop faibles pour permettre un apprentissage efficace. Cela a considérablement entravé l'entraînement des modèles profonds.
Solutions innovantes :
Machines de Boltzmann restreintes (RBM)
Pour résoudre ces problèmes, Geoffrey Hinton a développé les machines de Boltzmann restreintes (RBM). Les RBM sont une version simplifiée de la machine de Boltzmann, dont la structure du réseau est soumise à des restrictions facilitant l'apprentissage. Elles sont devenues des éléments de base pour des modèles plus profonds et ont permis le pré-entraînement couche par couche des réseaux de neurones.
Pré-entraînement par couches
En entraînant un réseau de manière incrémentale, couche par couche, les chercheurs ont pu entraîner les réseaux profonds plus efficacement. Chaque couche a appris à transformer la sortie de la couche précédente, ce qui a permis d'améliorer les performances globales.
Ces innovations ont été cruciales pour surmonter les obstacles techniques et améliorer l'applicabilité pratique des réseaux neuronaux.
La longévité des recherches des années 1980

De nombreuses techniques utilisées aujourd'hui en apprentissage profond trouvent leur origine dans les travaux des années 1980 – Image : Xpert.Digital
Les concepts développés dans les années 1980 ont non seulement influencé la recherche de l'époque, mais ont également ouvert la voie à des percées futures.
L'institut FAW Ulm (Institut de recherche pour le traitement des connaissances orienté applications) a été fondé en 1987 et fut le premier institut indépendant consacré à l'intelligence artificielle. Des entreprises telles que DaimlerChrysler AG, Jenoptik AG, Hewlett-Packard GmbH, Robert Bosch GmbH et plusieurs autres y ont participé. J'y ai moi-même travaillé comme assistant de recherche de 1988 à 1990 .
Fondation pour l'apprentissage profond
Bon nombre des techniques utilisées aujourd'hui en apprentissage profond trouvent leur origine dans les travaux des années 1980. Les concepts de l'algorithme de rétropropagation, l'utilisation de réseaux neuronaux à couches cachées et le préentraînement couche par couche sont des composantes essentielles des modèles d'IA modernes.
Développement de modèles génératifs modernes
Les premiers travaux sur les machines de Boltzmann et les RBM ont influencé le développement des auto-encodeurs variationnels (VAE) et des réseaux antagonistes génératifs (GAN). Ces modèles permettent de générer des images, des textes et d'autres données réalistes, et trouvent des applications dans des domaines tels que l'art, la médecine et le divertissement.
Impact sur d'autres domaines de recherche
Les méthodes et les concepts des années 1980 ont également influencé d'autres domaines tels que les statistiques, la physique et les neurosciences. L'interdisciplinarité de ces recherches a permis une compréhension plus approfondie des systèmes artificiels et biologiques.
Applications et impact sur la société
Les progrès des années 1980 ont conduit à des applications spécifiques qui constituent la base de nombreuses technologies actuelles.
Reconnaissance et synthèse vocales
Les premiers réseaux neuronaux ont été utilisés pour reconnaître et reproduire les schémas de la parole. Cela a jeté les bases des assistants vocaux comme Siri ou Alexa.
Reconnaissance d'images et de formes
La capacité des réseaux neuronaux à reconnaître des schémas complexes a trouvé des applications dans l'imagerie médicale, la reconnaissance faciale et d'autres technologies liées à la sécurité.
Systèmes autonomes
Les principes de l'apprentissage automatique et de l'IA des années 1980 sont fondamentaux pour le développement des véhicules et des robots autonomes.
Années 1980 : Apprentissage intelligent et génération
Les années 1980 ont incontestablement été une décennie de percées dans la recherche en intelligence artificielle. Malgré des ressources limitées et de nombreux défis, les chercheurs nourrissaient la vision de machines intelligentes capables d'apprendre et de générer.
Aujourd'hui, forts de ces fondements, nous vivons une ère où l'intelligence artificielle est omniprésente. Des recommandations personnalisées sur Internet aux avancées médicales majeures, ces technologies, dont les origines remontent aux années 1980, sont un moteur d'innovation.
Il est fascinant de constater comment les idées et les concepts de cette époque sont aujourd'hui mis en œuvre dans des systèmes extrêmement complexes et puissants. Les travaux de ces pionniers ont non seulement permis des avancées technologiques, mais ont également suscité des débats philosophiques et éthiques sur le rôle de l'IA dans notre société.
Les recherches et les développements en intelligence artificielle des années 1980 ont joué un rôle crucial dans la conception des technologies modernes que nous utilisons aujourd'hui. En introduisant et en perfectionnant les réseaux neuronaux, en surmontant les défis techniques et en imaginant des machines capables d'apprendre et de générer, les chercheurs de cette décennie ont ouvert la voie à un avenir où l'IA occupera une place centrale.
Les succès et les défis de cette époque nous rappellent l'importance de la recherche fondamentale et de la poursuite de l'innovation. L'esprit des années 1980 perdure dans chaque nouvelle avancée en intelligence artificielle et inspire les générations futures à repousser sans cesse les limites du possible.
Convient à:
- Question fréquemment posée, voici la réponse : L'intelligence artificielle dans l'entreprise – développement interne ou solution toute faite ? | Stratégie d'IA
- Question de compréhension au sujet de la numérisation et de l'intelligence artificielle : quels autres modèles d'IA existe-t-il en plus du modèle de langage IA ?

