Intelligence artificielle

L’intelligence artificielle est « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence ».
Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée. L’intelligence artificielle avant 2000 , les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non.
Sous le terme intelligence artificielle (IA) on regroupe lʼensemble des “théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler lʼintelligence.” Cette pratique permet à lʼHomme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. Dʼune façon plus commune, lorsque lʼon parle dʼintelligence artificielle, on entend aussi par là des machines imitant certains traits de lʼHomme.
Lʼintelligence artificielle avant 2000 Preuve que ce nʼest pas une science dʼaujourdʼhui, les premières traces de lʼIA remontent à 1950 dans un article dʼAlan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. De cet article découlera ce que lʼon appelle aujourdʼhui le Test de Turing qui permet dʼévaluer la capacité dʼune machine à tenir une conversation humaine.
Une autre origine probable remonte quant à elle à 1949 dans une publication de Warren Weaver avec un mémo sur la traduction automatique des langues qui émet lʼidée quʼune machine pourrait très bien effectuer une tâche qui relève de lʼintelligence humaine. Lʼofficialisation de lʼintelligence artificielle comme véritable domaine scientifique date de 1956 lors dʼune conférence aux États-Unis qui sʼest tenue au Dartmouth College. Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du MIT, ou encore dʼÉdimbourg.
Dès le milieu des années 60, la recherche autour de lʼIA sur le sol américain était principalement financée par le Département de la Défense. Dans le même temps, des laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à lʼépoque que « des machines seront capables, dʼici 20 ans, de faire le travail que toute personne peut faire ». Si lʼidée était visionnaire, même en 2018 lʼintelligence artificielle nʼa pas encore pris cette importance dans nos vies. En 1974 arrive une période appelée le « AI Winter ».
Beaucoup dʼexperts ne réussissent pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de chances de déboucher sur quelque chose de concret. Dans les années 80, le succès des systèmes experts permet de relancer les projets de recherche sur lʼintelligence artificielle. Un système expert était un ordinateur capable de se comporter comme un expert (humain), mais dans un domaine bien précis.
Grâce à ce succès, le marché de lʼIA atteint une valeur dʼun milliard de dollars, ce qui motive les différents gouvernements à de nouveau soutenir financièrement plus de projets académiques. Le développement exponentiel des performances informatiques, notamment en suivant la loi de Moore, permet entre 1990 et 2000 dʼexploiter lʼIA sur des terrains jusquʼalors peu communs.
On retrouve à cette époque le data mining, ou encore les diagnostics médicaux. Il faudra attendre 1997 pour une véritable sortie médiatique lorsque le fameux Deep Blue créé par IBM a battu Garry Kasparov, alors champion du… malgré les avantages et lʼapport des prouesses de lʼintelligence artificielle … L’intelligence artificielle entre de mauvaises mains est une menace sérieuse pour l’humanité en général. Cela peut conduire à une destruction massive. En outre, il existe une crainte constante de voir les machines prendre le dessus sur les humains ou les remplacer.
Yattara Aïcha Mohamed