Imaginée depuis longtemps, réalité aujourd’hui
Alan Turing, mathématicien connu pour avoir contribué par ses travaux au décryptage de la machine de
codage Enigma des nazis pendant la seconde guerre mondiale, et pour avoir posé les bases de
l’informatique, a été l’un des premiers à l’évoquer, dès 1950. Mais il aura fallu attendre encore
plus d’un demi-siècle pour que l’intelligence artificielle voit naître ses premières applications
réelles. Et l’histoire s’accélère : désormais, on estime que les entreprises vont voir leur activité
profondément impactée par l’IA dans les toutes prochaines années.
Machine learning vs deep learning
Le terme d’intelligence artificielle regroupe en fait des réalités assez différentes et notamment
deux approches technologiques : le « machine learning » (« apprentissage machine »)
et le « deep learning » ou « apprentissage profond ». Dans le premier cas, il
s’agit d’apprendre à un ordinateur des notions assez basiques, permettant tout de même de
reproduire, comme par mimétisme, des processus cognitifs proches de ceux du cerveau humain. Pour la
seconde technologie, on fait appel à des algorithmes beaucoup plus complexes, s’inspirant de nos
neurones et synapses. Résultat : la machine apprend en partie seule, développant des capacités dont
les limites sont aujourd’hui encore difficiles à imaginer.