L’Intelligence Artificielle sera-t-elle l’enfant parricide de la Recherche ?

Que d’efforts déployés par la Recherche pour l’IA, sa fille prodigue !

intelligence-artificielleL’Intelligence Artificielle est une des filles très légitimes de la recherche et de l’informatique, ce couple chaque jour plus prolifique depuis un demi-siècle ! Comme beaucoup de parents, ce couple, si virtuel soit-il, peut s’enorgueillir de sa progéniture. Que d’innovations, propices à l’économie, sont à attendre de cette fille prodigue !

Le monde se peuple chaque jour davantage d’objets connectés destinés à améliorer nos modes de vie embarquant de savants cocktails d’intelligences artificielles… D’ailleurs, s’il fallait un signe montrant l’importance du phénomène, il suffirait d’observer les investissements du Géant Google, à l’exemple de son rachat de DeepMind1, start-up spécialisée en intelligence artificielle. Cette acquisition devrait lui permettre de développer des algorithmes capables d’interpréter les comportements humains de l’internaute. 

Interpréter les comportements humains ? N’est-ce pas pourtant ce qui est censé faire toute la différence entre l’intelligence artificielle et l’intelligence humaine ? C’est cette différence flagrante qui a motivé le « Test de Turing » qu’aucune machine, jusqu’à très récemment, n’avait pu tromper ! Parce que, si une machine dotée d’intelligence artificielle est depuis longtemps capable d’apprendre, ce qu’elle n’est pas censée faire, c’est laisser intervenir des états d’âme, faire preuve d’humour… Ses réponses aux situations n’étaient jusqu’alors « que » cartésiennes, basées sur des interprétations rigoureuses. Si vous lui demandez combien font « 2 + 2 », il n’y a aucune chance de l’entendre répondre « fiche-moi la paix, ce n’est pas le moment… », ni même « pourquoi tu me demandes ça, depuis le temps tu devrais le savoir… » !

Est-ce que l’on doit avoir peur des robots ? Question d’éthique…

Par exemple, pour Jean-Claude Heudin, directeur de l’Institut de l’Internet du multimédia et auteur d’ouvrages sur les « créatures artificielles », les robots sont des machines pour exécuter les tâches les plus répétitives et les moins gratifiantes. Les robots doivent nous aider dans notre vie quotidienne. Actuellement, il existe quelque chose très proche des robots : la voiture. On ne se pose pas la question de savoir si on doit en avoir peur, autrement que si le conducteur est dangereux !

Une des grandes questions éthiques2 à propos de l’intelligence artificielle doit être de mettre l’homme au centre, non pas de créer des robots pour le remplacer dans un but de profits accélérés.

Un des grands défis de l’intelligence artificielle, le langage corporel !

Le grand défi que doit donc relever l’Intelligence Artificielle, auquel s’affairent les chercheurs en sciences cognitives, est de rendre la machine capable non seulement d’interpréter les comportements humains mais surtout d’apprendre comme le fait le bébé humain.

Un nouveau pas est en train d’être franchi. Des chercheurs travaillent sur un algorithme qui serait capable de de déchiffrer, en temps réel, notre langage corporel3. Autrement dit, de lire sur notre visage nos émotions, comme le fait le bébé sur le visage de sa maman. Cette lecture déclenche en retour chez le bébé son sourire par exemple, l’incite petit à petit à communiquer avec elle !

Mais une fois nos émotions décryptées, une machine équipée de neurones artificiels pourra-t-elle s’inspirer assez près du fonctionnement de notre cerveau humain pour déclencher en retour les comportements appropriés ? C’est certainement le défi que doit relever la robotique et son intelligence artificielle…

L’Intelligence Artificielle supplantera-t-elle le chercheur ?…

Parmi les questions éthiques que soulève l’Intelligence Artificielle, il en est une qui revient dans différents secteurs professionnels : celle-ci va-t-elle tôt ou tard permettre aux machines de remplacer l’homme ? Question légitime.

En ce qui concerne actuellement le numérique, à l’Institut de l’Iconomie par exemple, on explique qu’il ouvre la voie du « cerveau-d’œuvre » en lieu et place de la « main-d’œuvre ». Le cerveau humain, dispensé des tâches répétitives, permettra d’optimiser la forme cognitive du travail, offrant ainsi une nouvelle dimension à l’économie, à la croissance. D’autres révolutions technologiques ont tracé le chemin de l’évolution du travail : le train, l’imprimerie…

Au-delà du numérique, et des objets connectés qui entrent dans notre quotidien, susceptibles de faire évoluer à la fois notre mode de vie et notre façon de travailler, si l’IA devient capable d’apprendre à apprendre, à déduire, voire à penser comme les humains, la Recherche n’est-elle pas le domaine par excellence où un tel développement aurait toute sa place ?

En effet, les compétences cognitives décuplées grâce à l’intelligence artificielle, doublées de capacités dopées à la puissance informatique, permettraient des analyses, des comparaisons, des projections exponentielles… Les chercheurs doivent-ils s’inquiéter de telles potentialités ?

Après avoir déployé tant d’efforts, tant de créativité, les chercheurs ne risquent-ils pas de se voir supplanter par cette fille prodigue qu’ils auront fait naitre ?

Dans le monde humain, la société a tracé des « lignes jaunes » qui se veulent dissuasives, que ce soient au rang des valeurs culturelles ou sous forme de réponses judiciaires contre les parricides.

En matière de recherche, un des garde-fous proposés par les questions soulevées à l’origine dans le domaine de la santé, c’est l’éthique. Mais l’éthique sera-t-elle en mesure de prémunir les chercheurs contre cet éventuel parricide ?

Quelle ressource les chercheurs devront-ils solliciter pour ne pas se voir « réduits » à la seule maintenance de tels supers-robots-chercheurs ?

L’éthique seule sera-t-elle une réponse ?

Sébastien Gailleau
Enseignant

Pour aller plus loin en vidéo…

Faut-il se méfier de l’intelligence artificielle ?

Grand Angle TV5Monde

____________________

1 Pour un montant de 400 millions de dollars
2 Colloque CIGREF Ethique et Numérique
3 Un algorithme en passe de déchiffrer le langage corporel humain

ligne-fine

Catégories
5 Comments
  1. Julien

    Je crois qu’il faudrait être bien naïf pour croire que les robots intelligents ne vont pas modifier la donne de l’emploi !
    Peut-être que les humains auront assez l’instinct de survie pour apprendre eux aussi à s’adapter !
    On peut effectivement penser que libérer leur « cerveau d’oeuvre » sera une bonne chose… Si le cerveau des machines ne le supplante pas.
    Et oui, c’est bien vu, la recherche est dans le viseur 🙁

  2. Noam

    Est-ce que Gödel sait ce que Turing veut qu’Huffmann nous fasse croire ?

    Votre article omet de préciser plusieurs notions fondamentales sous-jacentes au domaine abordé :
    1. les travaux sur la complexité inhérente à tout système informatique (même avec n cpu en parallèle) nécessitent un nombre assez impressionnant d’algorithmes avec complexité exponentielle pour obtenir une solution exacte, ou leurs pendants approximatifs pour obtenir une solution approchée en temps polynomial – exemple le shéma d’approximation d’Ibarra-Kim – ce qui introduit une marge d’erreur dans les resultats obtenus,
    2. tous les problèmes théoriques posés par la conjecture P==NP (volet théorique du point précédent), et
    3. le théorème d’incomplétude des systèmes formels (voir les travaux de Gödel) avec toutes ses conséquences…

    Nous pourrions allonger à dessein cette liste avec le tiers exclu, la logique modale, le cryptage et l’usage des fonctions elliptiques modulaires, l’étude de certaines variétés abéliennes…

    Or, justement tous ces petits problèmes théoriques représentent de nombreuses falaises à franchir avant d’arriver à votre intelligence artificielle. Bien avant vous Asimov l’avait magistralement résumé à sa façon : ses trois lois de la robotique (éthique) débouchaient simplement sur le mensonge d’un robot (vieux proverbe où l’enfer est pavé de bonne intentions).

    Plus concrètement, les travaux de John Sowa (chercheur d’IBM) concernant les réseaux sémantiques ont été notamment utilisés pour compiler et tenter de « comprendre » de manière « automatique » les flux d’informations, et plus particulièrement ceux relevant du domaine géopolitique global pour aider certaines agences de renseignement à élaborer des diagnostics probabilistes sur les tendances qui se dégagent, afin de pouvoir prendre de « bonnes » décisions. Qualifier cet ensemble très complexe avec le terme « intelligence artificielle » relèverait du présomptueux, car il faut encore beaucoup d’énergie humaine et électrique pour le faire fonctionner à peu près correctement (ou de ce qu’il en reste…), sans véritable garantie de la fiabilité des résultats de ce qu’il peut en sortir, et sans parler du goulot d’étranglement pour l’alimenter en entrée.

    En parallèle, mais à une échelle bien plus petite et en son temps, les travaux de reconnaissance de bulletins météo menés par un laboratoire de recherche en informatique avaient débouchés sur plusieurs milliers de lignes de LISP, ça marchait aussi, mais pas plus d’intelligence là-dedans, sinon que celle de la sueur des astuces des programmeurs pour le faire fonctionner à peu près correctement.

    Maintenant, contemplez tous les évènements qui se déroulent sur la planète depuis ces trente dernières années : vous ne pouvez décemment pas conclure à un réel progrès en IA sinon d’une véritable optimisation de la technique dans l’industrie de l’armement, compte-tenu des budgets pharaoniques dont cette industrie dispose et l’activité frénétique de ses acteurs (consultez donc la liste des incrits pour Oboron Expo 2014).

    En corollaire, considérez le nombre de conflits armés où la prétendue « intelligence artificielle » ne fait qu’équiper drones et autres matériels de guerre de plus en plus sophistiqués : vous ne croyez pas qu’il y aurait un volet notable de sensibilisation des médias à effectuer d’urgence concernant l’éthique dont vous nous parliez, face à la désinformation généralisée qui couvre allègrement l’actualité depuis de nombreuses années ?

    Enfin, les termes « potentialité », « cognitif », « déclencher des comportements appropriés » nous font surgir de l’inconscient le verbe « asservir » qui lui, n’apparaît pas du tout dans votre article. Heureusement, nos compétences cognitives humaines nous permettent encore d’y voir clair. Il reste néanmoins à notre sens de très nombreuses « marches de progrès » avant de seulement penser à caresser les prémisses de ce que vous cherchez à vouloir nous faire croire.

    l’IA parricide ? Non, les scientifiques ont encore de beaux jours devant eux, pour autant qu’ils ne cherchent pas n’importe quoi pour n’importe qui, mais qu’ils respectent justement cette fameuse éthique qui leur manque cruellement. Mais de quelle éthique s’agit-il exactement ? Celle que nous avons vu à l’œuvre au Cambodge dès avril 1975 et très récemment condamnée ne nous convient pas, finalement. L’éthique néonazie ultranationaliste mystérieusement soutenue en Ukraine par une fraction de l’occident nous laisse, avouons-le, plutôt perplexe devant le génocide des populations russophones qui émerge, et l’UE devrait commencer à sérieusement s’interroger de sa responsabilité et des conséquences de son silence. Celle prônée par le nouveau califat d’Irak qui penserait maintenant à s’étendre vers l’Arabie Saoudite nous semble relativement plus éloignée, mais procède aussi d’une logique de nettoyage ethnique de la population kurde, ne parlons pas de la Libye, voire de Gaza bien trop concomitante avec le MH17.

    Un défi plus difficile à relever ne serait-il pas plutôt celui consistant pour chacun d’entre nous à redevenir véritablement conscient ?

  3. Pierre Anthony

    Il y a quand même douze questions posées dans votre article. Quelques remarques me viennent au fil de la lecture…

    1. En l’état de nos connaissances, à propos de l’interprétation des comportements humains, il faudrait d’abord savoir si on se pose la question au niveau unitaire (un visage, une évolution de la stature…) ou bien macroscopique comme le mouvement d’une foule, ce qui cette fois se raccroche à l’étude des fluides granulométriques et donc à la théorie des avalanches… que j’étudie très sérieusement tous les matins lorsque des gens arrivent en haut d’un escalator en marche et s’arrêtent, ne sachant pas où aller tandis que l’escalator continue de livrer d’autres usagers…

    2. Pour effectuer une différence, il faudrait d’abord définir une métrique… sinon cela revient à comparer des choux et des carottes. Voyons, qui est le plus intelligent, Kasparov ou DeepBlue ?
    Mais il faudrait considérer DeepBlue = l’équipe au complet ayant mis au point logiciel + matériel compris, et là ça fait du monde, et comparer 1 avec n>1…

    3. Peur des robots ? S’ils sont effectivement construits sur la base des trois lois de la robotique (comme précisé dans le post précédent), il y a probablement lieu de nourrir une certaine inquiétude, et celle-ci se situe notamment au niveau de la fiabilité (disponibilité+intégrité+…),

    4. Là, je rejoins également le post précédent sur la notion d’asservissement.

    5. Voilà une question ouverte, mais on peut s’autoriser à penser que l’AI ne va pas les supplanter, mais qu’elle leur sera très probablement un apport supplémentaire.

    6. Les machines nous remplace déjà, dans la mesure où elles le peuvent… quand je pense à mon lave vaisselle, voire l’aspirateur dans le salon qui s’occupe tout seul…

    7. Là oui, et on pense aux démonstrations faites par ordinateur, les chercheurs externalisent vers la machine ce qu’il est possible de faire – voire l’algorithme de Robinson, et plus généralement les horloges Prolog non déterministes (inventées à Marseille…) mais là, on se heurte à un mur exponentiel…

    8. S’inquiéter ? Ils devraient plutôt s’inquiéter de ce qu’on fait avec le fruit de leurs recherches, et je rejoins le post précédent sur ce point – les drones et les missiles, entre nous… quelle énergie gaspillée ! En revanche pour savoir ce qui se passe sur Mars, c’est top…

    9. Supplanté ? L’homme supplanté par la machine ? Vous rêvez… Voir Gödel, post précédent…

    10. L’éthique, c’est LA question. On peut aussi parler de valeurs, de morales, de culture… et on débouche vite sur la théologie et ses mystères…

    11. La ressource immanente qui se trouve en eux, la conscience ! [voir post précédent, décidément j’arrive trop tard…]

    12. Non, l’humain a toujours le choix, et il trouvera sa réponse en lui-même, l’éthique n’étant à mon avis qu’un vague paragraphe perdu dans l’introduction de la préface au sein de l’immense bibliothèque du savoir humain.

    Merci pour votre article, j’ai posté sur tous vos points d’interrogation.

  4. fx

    Il est extrèmement probable que la limite fondamentale du temps polynomial ne sera dépassé qu’avec la technologie du « quantum computing ». Donc d’ici là, l’intelligence artificielle ne devrait se limiter qu’à une pré-intelligence artificielle.

    C’est la spécialisation d’un système expert qui peut lui faire dépasser la compétence humaine.
    Mais en dehors de cette spécialisation le système expert ne sait rien.

    La capacité d’acquérir de nouvelles compétences de manière articielle reste limité et c’est probablement la science cognitive qu’il faudra développer pour pouvoir produire un jour le logiciel adapté à l’ordinateur quantique.

    Je pense personnellement que l’esprit humain fonctionne sur la base d’une technologie quantique puisque le quantique est la limite ultime de la matière (voir l’intrication quantique). Alain Aspect admet que si l’ordinateur quantique est possible alors il ne voit pas pourquoi le vivant ne pourrait pas l’utiliser. Dans une vision holistique c’est d’ailleurs assez évident.

    Noam se pose la bonne question :
    « les scientifiques ont encore de beaux jours devant eux, pour autant qu’ils ne cherchent pas n’importe quoi pour n’importe qui, mais qu’ils respectent justement cette fameuse éthique qui leur manque cruellement. Mais de quelle éthique s’agit-il exactement ? »

    L’éthique actuelle est nettement destructive. L’éthique future devra être support de vie et donc intégrer la loi de la thermodynamique du non-équilibre qui régie les structures dissipatives et par conséquent les êtres vivants. Cette loi est la loi de production du minimum d’entropie c’est à dire de désordre.
    En mécanique quantique la probabilité d’existence se trouve là ou les interférences sont constructrices ailleurs l’interférence est destructrice et la probabilité de l’apparition d’une réalité physique est très faible.
    En thermodynamique du non-équilibre l’existence physique de la structure perdure si elle est capable de rester dans le minimum de production de désordre sinon elle disparait.
    De la même manière un programme informatique qui évolue se doit de rester le plus simple possible compte-tenu de la complexité croissante qu’il a a gérer. S’il ne suit pas cette règle il devient rapidement non-maintenable et il est fatalement remplacé. Un programme qui dure dans le temps est un bon programme: il coûte peu (argent ~= énergie). En pratique ceci conduit à créer un langage, c’est la forme la plus puissante de programmation.

    http://fr.wikipedia.org/wiki/Entropie_de_Shannon
    « En 1957, Edwin Thompson Jaynes démontrera le lien formel existant entre l’entropie macroscopique introduite par Clausius en 1847, la microscopique introduite par Gibbs, et l’entropie mathématique de Shannon. Cette découverte fut qualifiée par Myron Tribus de « révolution passée inaperçue »  »

    Donc fondamentalement les problèmatiques de l’informatique de la physique et de la biologie sont les mêmes et s’étendent à la sociologie. La révolution qui passe inaperçue est peut-être est la convergence des sciences vers une définition de l’intelligence.

    Peut-être qu’avant de dupliquer l’humain celui-ci devrait commencer par se réparer lui-même, à tous les niveaux: physiologique, psychique, sociologique.

  5. Pierre Anthony

    Suite au questionnement de l’article – faut-il avoir peur des robots – et à la remarque de Noam, je cite : « …une véritable optimisation de la technique dans l’industrie de l’armement, compte-tenu des budgets pharaoniques dont cette industrie dispose et l’activité frénétique de ses acteurs… », il est intéressant de noter également un article récent dans la tribune « Intelligence artificielle : des spécialistes demandent l’interdiction des armes autonomes » où lors de la conférence internationale traitant de l’intelligence artificielle à Buenos Aires en Argentine jusqu’au 31 juillet, quelque 1.000 scientifiques et experts demandent une interdiction des « robots tueurs », armes autonomes qui « visent et tirent sur des cibles sans intervention humaine ».

    Si 1000 spécialistes de l’intelligence artificielle en sont là, c’est qu’il y a danger, non ?

    En tout cas, s’ils sont déjà un millier à être conscient… il reste encore à réveiller du monde !!!

0 Pings & Trackbacks

Laisser un commentaire