En ligne depuis le 08 2021
L’intelligence artificielle
Conférencier: Dominique ODERO
Dominique ODERO est docteur en physique. C’est un ancien directeur de programme chez Thales.
A propos de la conférence
Depuis la nuit des temps, l’homme a cherché à créer des outils pour faciliter ses tâches et des machines pour les faire à sa place et augmenter ses capacités et son autonomie.
Au milieu du XXème siècle, il a commencé à imaginer des théories et des techniques en vue de réaliser des machines capables de simuler son intelligence, par exemple répondre à des questions simples ou faire de la traduction automatique. Pendant les 60 dernières années, le formidable développement des ordinateurs, la découverte de nouveaux algorithmes et la collecte massive de données ont permis de faire évoluer considérablement les possibilités de cette Intelligence Artificielle.
Aujourd’hui, l’intelligence artificielle s’immisce partout dans nos vies : médecine, transports, industrie, enseignement, commerce, finances, justice, défense, environnement, assistance personnelle… Elle modifie insidieusement nos habitudes, et peu à peu change notre manière de travailler, de nous déplacer, de nous divertir, de gérer nos tâches quotidiennes, de gérer nos relations… Bref elle chamboule notre vie sociale.
Mais elle porte aussi beaucoup d’interrogations sur l’emprise grandissante de la machine sur l’humain, sur le pouvoir des sociétés qui ont l’exclusivité des données et de leur traitement, et sur les surprises que nous réservent encore les décennies à venir.
Posez vos questions au conférencier
bonjour, J’aimerai savoir ce que vous pensez de la “logique floue” (dans le processus de fuzzification) et de ce qu’elle peut induire d’interrogations en synthèse, interactions et autres conséquences qui échappent en partie à l’analyste. On peut s’en préoccuper dans le domaine de l’IA. L’alimentation du système en big data peut, me semble-t-il inquiéter et réclame une législation appropriée dans leur usage. Comment voyez-vous ces implications.(on n’est pas si éloigné de certaines nouvelles de science fiction de Philip K Dick).
Bonjour, merci pour ces questions très intéressantes auxquelles je vais essayer de répondre le plus clairement possible:
1) La logique floue est un concept de logique non booléenne introduite par le mathématicien américain d’origine iranienne Lofti Zadeh en 1965.
Elle part de l’observation que les gens prennent des décisions basées sur des informations imprécises et non numériques. Elle permet donc de manipuler des informations qui ne sont ni vraies ni fausses.
C’est une méthode très utile lorsqu’on se trouve confronté à des systèmes qui sont difficilement modélisables mais elle doit posséder un bon niveau d’expertise humaine car il faut fournir au système flou une base de règles exprimées en langage naturel pour permettre de raisonner et d’aboutir à des conclusions correctes
Cette méthode appartient au symbolisme plutôt qu’au connexionisme .C’est une généralisation des moteurs d’inférence vers des moteurs d’inférence floue . Elle a été appliquée par exemple par Volkswagen dans des boîtes de vitesse pour tenir compte des intentions “floues” du conducteur.
Ceci dit, la logique floue n’est plus utilisée de manière très courante, notamment du fait que les systèmes experts ne sont plus à la mode depuis une quinzaine d’années, les réseaux de neurones, ayant le vent en poupe!
2) L’alimentation des données pour faire fonctionner les algorithmes de l’IA devrait être soumise à des contrôles sérieux : d’abord pour ne pas créer de biais dans les résultats (par exemple les algorithmes de traitement de décisions de justice ne doivent pas être influencés par le fait que vous êtes noir vivant dans une zone géographique « difficile »…) .
Ensuite il faut prendre en compte les problèmes éthiques. Pour cela la législation mise en place par l’Europe est en pointe et garantit un niveau d’objectivité qui est malheureusement absente dans un certain nombre de pays totalitaires. Je ne prendrai qu’un exemple: la reconnaissance faciale pratiquée par la Chine pour observer, surveiller, et punir sa population…
Bien cordialement
D.Odero
je vous remercie pour l’intérêt que vous avez apporté à mes questions.
Je tiens toutefois à apporter quelques précisions sur le sujet de la logique floue. Je me réfère à mes archives. Les réseaux neuronaux peuvent souvent être formalisés par des matrices (l’algèbre aide à les classer en grandes familles cf Didier SANZ). Vous évoquez la moindre mesure de l’emploi de la logique floue. Or Bernard ANGENIOL (chez Thomson CSF en son temps) dit “nous ne savons pas ce qui se passe dans l’ordinateur pendant l’apprentissage”. J’ajoute la même opinion de Jean Claude PEREZ (en son temps chez IBM). Ces chercheurs ont basé leurs réflexions sur celles de John HOPFIELD (California Institute of Technologie en 1982).Ce n’est pas que je veuille apporter la contradiction mais, à ma connaissance, la logique floue est toujours d’actualité dans plusieurs domaines de modélisation des réseaux neuronaux.
Bien cordialement
Bonjour Monsieur,
Je fais mon mea culpa. Oui la logique floue est toujours d’actualité, même si elle est moins mise en avant par rapport aux techniques de reconnaissance d’images ou de la parole qui ont le vent en poupe actuellement.
Elle est liée d’abord historiquement à l’approche symbolique en « fuzzyfiant » les bases de données, les bases de règles et les moteurs d’inférence, pour « defuzzifier » les résultats en sortie.
Les applications principales de cette approche symbolique concernent les systèmes de gestion et de commande dans l’industrie à partir des années 1990 (appareils domestiques, appareils photos autofocus, systèmes automobiles (ABS, suspensions…), régulation des moteurs d’éoliennes …)
Mais la logique floue sert aussi dans l’approche connexionniste de l’IA dans le cadre de l’apprentissage des réseaux neuronaux. On peut trouver un exemple récent dans un article présenté dans le journal «IA Actu » en 2018 : modèle d’optimisation de la gestion de l’eau, développé par l’Université de Cordoba en Espagne.
La logique floue est donc bien utilisée dans les deux principales approches de l’IA : symbolisme et connexionnisme.
Bien cordialement
D ODERO
Merci pour votre réponse enrichissante. Le sujet est passionnant.
Je m’interroge sur les développements à venir de l’IA. L’algorithmique dans un réseau neuronal reste binaire, compte-tenu de la réactivité du neurone individuel (cf interdépendance entre les poids synaptiques, la somme et le seuil).
Or, l’expérimentation des ordinateurs quantiques avance sans être encore majeure dans ses applications.
Ayant suivi une conférence récente sur France Culture, un chercheur a abordé là une “logique” non binaire, entre le 0 et le 1. Mais, ajoutait-t-il, le 0 peut être le 1 (?) et réciproquement (se rapprochant ainsi des expériences en matière de mécanique quantique).
Comme je ne parviens pas à structurer intellectuellement cette analyse, je voudrais savoir comment vous envisagez l’adaptation, l’intégration, à ce nouveau processus.
Je vous remercie.
bonjour,
je reviens vers vous car j’ai été alerté après des interventions à effets significatifs. En effet, voici quelques mois une ancienne cadre chez Facebook (Frances Hangen) fut auditionnée par le Sénat pour y exposer les traitements de données chez ce GAFAM. Voici quelques jours, Blake Lemoine, ingénieur chez Google, a révélé l’évolution sur l’expérimentation de LaMDA (IA du géant américain) impliquant la sentience du système. Tout cela mérite une nouvelle conférence tellement ce sujet interagit sur notre présent. Qu’en pensez-vous? Merci.
Bravo, conférence et conférencier passionnants.
Je n’ai pas tout compris (notamment les notions de réseaux neuronaux et leurs variantes) mais les pistes sont ouvertes, reste plus qu’à explorer !
Ma question : Il semble que la puissance de l’IA soit inféodée à la puissance des ordinateurs. Or, on voit arriver les ordinateurs quantiques, sont-ils adaptés à l’IA ?
Merci
Bonsoir!
Et merci pour l’intérêt que vous avez porté à cette conférence.
En ce qui concerne les réseaux neuronaux, je peux détailler un peu plus leur fonctionnement : ces réseaux doivent être entraînés; à savoir que le poids des synapses a besoin d’être ajusté pour que le réseau de neurones génère de bons résultats. Or ces paramètres sont très nombreux dans un réseau de neurones de ” Deep Learning”. Ils peuvent être de plusieurs millions ! (comparés aux 400 du Perceptron de 1958, qui étaient ajustés pratiquement à la main!).
Comment fait-on alors pour définir le poids de ces synapses? La méthode la plus courante consiste à utiliser la rétro propagation du gradient. Elle fonctionne couche par couche en partant du résultat et en ajustant les voies des neurones pour permettre au réseau d’identifier les objets de la base d’entraînement fournis en entrée. Cette rétro propagation fonctionne en ajustant un par un les poids des neurones de chaque couche et en scannant un par un les objets du jeu de test pour optimiser le taux de reconnaissance en minimisant ce qu’on appelle la fonction d’erreur, soit la différence entre ce que génère le réseau pendant sa phase d’entraînement et la bonne réponse que l’on connaît déjà dans la base d’entraînement.
Pour ce qui concerne l’ordinateur quantique, il faut savoir que celui-ci est en plein développement mais est très loin d’être encore utilisable!
Dans ma conférence, j’ai parlé de la singularité en IA, c’est-à-dire lorsque l’IA faible actuelle deviendra une IA forte c’est-à-dire pratiquement lorsqu’elle aura acquis une conscience.
De la même façon, les ordinateurs quantiques doivent atteindre ce qu’on appelle la suprématie quantique lorsque ils seront capables de faire les calculs que les superordinateurs actuels ne peuvent faire.La capacité actuelle de ces superordinateurs est l’équivalent de 20 Qbits, donc les ordinateurs quantiques devront avoir une capacité supérieure. Google affirme avoir atteint cette suprématie en 2019 ce qui est fortement mis en doute par les autres constructeurs, dont IBM.
Ces ordinateurs quantiques, lorsqu’il seront opérationnels (on en est très loin!), seront très adaptés aux calculs combinatoires comme par exemple la cryptographie et ils pourront être également utilisés en IA, par exemple dans le traitement automatique des langues, le traitement de la reconnaissance vocale et et la reconnaissance de formes.
PS Les nombres décimaux que nous utilisons sont convertis en une succession de 0 et de1 ( les bits 0 et 1) pour être traités dans les ordinateurs classiques.
Les ordinateurs quantiques utilisent des Qbits (quantum bit) qui sont une superposition de toutes les valeurs possibles entre 0 et 1 pendant un temps très limité.
J’espère que cette réponse vous éclaire un peu!
Cordialement
D Odero