Selon les fondateurs de la cybernétique, dont John McCarthy and Marvin Minsky, le terme intelligence artificielle désigne un comportement produit par une machine dont on peut raisonnablement estimer que, s’il avait été le fruit d’une action humaine, il aurait exigé de l’intelligence de la part de l’agent concerné. Trait saillant à retenir, cette définition s’appuie sur la comparaison entre la machine et l’homme. En effet, bien avant les ordinateurs jouant aux échecs ou les traducteurs automatiques, Alan Turing soulignait déjà que le concept même de « machine intelligente » ne pouvait être défini qu’à travers sa confrontation avec un comportement humain.
Cette définition recouvre un spectre très large: par exemple, elle inclut la capacité à trouver des erreurs d’orthographe dans un texte, ce qui nous paraît aujourd’hui tout à fait automatisable. Comme d’habitude, le développe-ment du numérique exige en permanence qu’on révise les définitions historiques, y compris celle de l’IA. Dans un premier sens, « intelligence artificielle » désigne un domaine de recherche autour des machines dotées d’une capacité d’apprentissage et dont le comporte-ment complexe ne peut être entièrement décrit ni com-pris par le concepteur humain. Le fonctionnement d’un tel système ne se réduit pas au choix d’action dans un catalogue écrit au préalable, aussi long soit-il. Du point de vue de l’histoire de l’informatique, l’apprentissage machine n’est qu’un outil d’IA parmi d’autres mais, en pratique, ces deux termes sont de plus en plus fréquemment synonymes.
Trois types d’algorithmes fondent les systèmes d’IA : apprentissage dit supervisé, apprentissage non supervisé, apprentissage par renforcement. Chacune de ces méthodes peut être réalisée seule, mais des algorithmes dits d’apprentissage profond (deep lear-ning) les emploient à des niveaux différents au sein d’un seul système.Cette imbrication contribue davantage à rendre inconcevable, au moins à ce jour, toute description mathématique rigoureuse de ce qui se passe pendant l’apprentissage profond.
La technique d’apprentissage supervisé présuppose que les systèmes informatiques élaborent leur fonctionnement en suivant des lois ou des indications dictées ou « étiquetées », par les hommes.
À l’inverse, la technique non supervisée permet à la machine d’explorer ses données sans qu’aucune « grille de lecture » ne lui soit imposée. Souvent, elle y trouve des régularités qui ne ressemblent guère à des notions familières à l’homme : c’est la marque d’un élément non-humain dans le comportement de ces machines que, par ailleurs, on mesure toujours à l’homme. C’est aussi l’élément qui procure aux systèmes d’IA leur incroyable efficacité. Dans le cas de l’apprentissage non supervisé, celle-ci peut aller jusqu’à mettre l’utili-sateur dans la situation d’indistinction : en 2019, la génération non supervisée de textes a été capable d’écrire plusieurs paragraphes tout à fait identiques à la production humaine dans le domaine visuel, le recours au non-humain et au non-explicable est encore plus fondamental : la reconnaissance des images est beaucoup plus efficace si les règles de fonctionnement ne sont pas dictées d’emblée par l’homme mais « découvertes » par le système.
La troisième méthode d’apprentissage, dite « par renforcement », consiste à identifier, en une suite d’étapes d’évaluation successives, puis à établir avec une force croissante, des corrélations pertinentes entre les données. Les dernières recherches montrent que le succès de cette méthode, très répandue dans le domaine des jeux, dépend souvent de la « curiosité » de la machine : sa capacité à attribuer un poids conséquent à l’exploration des scénarii inconnus ou imprédictibles.
Bien que l’efficacité des systèmes d’IA, déjà impressionnante, augmente chaque année, 5 facteurs contribuent à l’émergence, pendant leur utilisation, des tensions, ou même des conflits, de nature éthique et/ou juridique :
1. Présence de biais dans les données d’apprentissage : par exemple, un système de reconnaissance faciale ne doit pas être entraîné sur les visages des personnes ayant la même couleur de peau.
2.Apprentissage sans compréhension : contrairement à l’homme, un système informatique ne comprend pas le sens de ses actions, ce qui peut avoir des conséquences néfastes, comme des injures générées automatiquement.
3.Instabilité de l’apprentissage : les techniques actuelles ne résistent pas bien à plusieurs types d’attaques adversariales. Pour une bonne protection des systèmes d’IA, de nouvelles recherches et solutions techniques restent nécessaires.
4.Problème de spécification : les notions humaines ne peuvent être ni traduites dans le code informatique ni apprise mécaniquement avec une précision absolue. Ainsi, si une règle préconise de « protéger l’homme », le système doit savoir ce que signifie « l’homme », sinon une erreur dans l’identification ou dans la catégorisation se produira tôt ou tard.
5.Absence de compréhension mathématique satisfaisante du fonctionnement des systèmes d’apprentissage profond : Sans elle, il reste impossible de démontrer rigou-reusement que leur comportement ne sortira jamais du périmètre autorisé.
Cet article est paru dans la revue Clés CEA N° 69, rédigé par Monsieur Alexei Grinbaum, physicien et philosophe. Il travaille au Laboratoire de recherche sur les sciences de la matière (Institut de recherche sur les lois fondamentales de l’Univers du CEA).
Les pulsars sont des objets fascinants que les astrophysiciens étudient depuis leur découverte par Jocelyn Bell en 1967. En radioastronomie, ils se manifestent comme des sources périodiques d'impulsion radio mais, pour les astrophysiciens, il s'agit d'abord de cadavres stellaires