Intelligence artificielle : une machine peut-elle être intelligente ?

Intelligence artificielle : une machine peut-elle être intelligente ?

 

Par définition nous pourrions dire que l’intelligence c’est la compréhension du monde, quelle que soit cette compréhension, et si elle est “artificielle”, c’est qu’elle n’est pas du fait de notre seul cerveau ou organisme mais d’une machine fabriquée par l’homme. Pour le moment, admettons cette définition.

Précisons aussi que ce qui parvient à la conscience humaine c’est une manifestation de l’intelligence. Ce que « produit » alors notre cerveau reflète cette intelligence, de l’utilisation de la main, jusqu’à l’écriture , de  la philosophie, l’économie , aux  sciences et à l’art. Cette intelligence fabrique des énoncés, des actions et des objets.

 

Ces  IA(s) (1) , dont nous parlons souvent , s’appliquent toujours à un champ d’expérimentation précis, comme jouer à un jeu de Go ou aux échecs, mais elles se manifestent aussi pour maintenir un robot en équilibre, ou, plus sensible pour nous humain du 21éme siècle , pour répondre à une question posée en langage naturel. 

Pour ce propos , il faut donc plutôt parler des IA(s) et non de l’IA.

 

Posons , à part, les questions de l’intelligence et de son artificialisation. La compréhension de ce qu’est l’intelligence est la partie philosophique de la réflexion .

Aussi nous vous renverrons,dans un premier temps, à votre propre compréhension de ces concepts : Qu’est ce que l’intelligence ?  Qu’est ce que l’artificialisation de l’intelligence par une machine ? 

Nous sommes alors dans l’ordre des sciences humaines ou de la philosophie.

 

Toutes les tentatives de création d’IA(s) ont pour objectif de créer une machine intelligente, un robot (2) réel ou virtuel. 

Mais de quel type ? IA pensante de films de sciences-fictions comme “HAL 9000” dans “L’odyssée de l’espace” de Stanley Kubrick, IA de substitution humaine pour jouer aux échecs, IA de cerveau augmenté pour effectuer des calculs mille fois plus vite, IA de..?

 

Nous allons nous intéresser donc aux interrogations suivants : 

  • Comment fonctionnent-elles ? 

  • Sur quels principes reposent-elles ?

  • Quels avantages ou quels risques pour notre société ?

  • Les domaines dans lesquels on peut ou bien, on sait, l’appliquer. 

  • Et puis pour faire quoi , avec quel niveau de performance ? 

 

Répondre à ces questions est de l’ordre du politique, de la science, de la technologie.

 

En conclusion de cette introduction , nous dirons que nous pourrions envisager de répondre à la question “une machine peut-elle être intelligente ? ”, que si nous sommes capables de définir ce qu’est l’intelligence.

Disons maintenant que l’Intelligence Artificielle (1) c’est la capacité à comprendre et la capacité à étudier, à résoudre, un problème, une question, embarquable dans une machine, plus ou moins adaptée à des besoins où des fonctions jusque-là servis ou exécutés, ou imaginés par des hommes. 

 

Chapitres : 

 

  • De l’éthique et d’Azimov

  • De l’intérêt de dupliquer l’humain

  • Le principe de base le plus utilisé : l’imitation.

  • Améliorer la performance dans les environnements complexes.

  • Simuler la pensée humaine.

  • Théories de la connaissance, sciences cognitives.

  • Des biais et du point Godwin 

  • De la responsabilité des machines

  • Quels domaines, pour faire quoi ?

  • Conclusion : Que penser de nos IA(s) ? 

 

Définitions préliminaires :

 

  1. IA(s) : Un programme qui permet de déterminer de façon autonome, une suite d’actions ou d’énoncés (des phrases) , qui répondent à un besoin exprimé ou qui sont déduites d’une analyse. Jointe à un robot, cette intelligence peut agir, ou s’exprimer.  

  2. Robot : Un robot est une machine physique ou dématérialisée sous la forme d’un programme, auquel on donne les moyens d’exécuter une ou plusieurs tâches dans un ou plusieurs champs déterminés. Ainsi du robot industriel qui grace à des bras mécanisés, soude, visse, perce, en suivant un programme fixé à l’avance. Un robot sans IA n’a donc pas d’autonomie dans ces choix, ce n’est que doté d’une IA qu’il acquiert une autonomie relative. 

1- Introduction : De l’éthique et d’Azimov

 

Lorsque Isaac Asimov, écrivain de sciences fiction, philosophe, édicte, avec John W. Campbell en 1942, les 3 lois de la robotique,  dites “ lois d’Azimov”,censées protéger l’homme des attaques d’un robot, il pressent bien que rapidement la question va être éthique ou morale. Et que si on ne légifère pas sur les limites des pouvoirs donnés aux machines la situation va  devenir incontrôlable et dangereuse pour l’humain.

 

De son côté, en suivant un peu cette idée , la commission européenne s’est saisie de la question des règles et limites à imposer aux IA : elle a adopté le rapport dit “Delvaux” , ce dernier est très novateur dans ces principes, car il aborde de vrais questions autour des IA(s), comme la responsabilité de l’IA. Et il se place sur le plan éthique et moral pour tenter de fixer des règles et des limites pour l’usage des IA(s)

https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_FR.html#_section Tout pourrait alors paraître sous contrôle. 

Récemment dans un entretien au Figaro,  Laetitia Pouliquen, spécialiste de ces questions dit pour se plaindre de la situation  : 

“C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine……. Il faut réinvestir la philosophie et les humanités dans ce domaine.”

Le FIGARO- Laetitia Pouliquen, directrice du think tank «NBIC Ethics».

 

Effectivement sans définition de l’homme comment peut-on distinguer les limites entre l’homme et la machine ?

Le problème est probablement mal posé, ou en tous cas il peut-être vu sous un autre angle, parce qu’au fond nous sommes partie d’un principe d’équivalence entre l’homme et la machine intelligente, certes pour le redouter, mais nous faisons tout pour le rendre possible et pensable surtout.

Or, et nous allons tenter de le démontrer, cette équivalence n’est pas possible. 

Par construction une machine ne peut que simuler les caractéristiques humaines et  dépasser, augmenter ses performances mesurées. Nous sommes dans une logique dite de l’homme augmenté et de la délégation de pouvoirs ou de compétences.

Les IA(s) sont donc des machines auxquelles nous assignons des tâches plus ou moins complexes et auxquelles nous déléguons des fonctions, des décisions, des pouvoirs, des compétences en leur donnant les moyens, ici, les programmes et les données, qui nous semblent appropriés à la réalisation de leur mission que nous déterminons. Y compris si nous leur donnons une autonomie..

C’est bien là que réside le risque :  qui délègue et que déléguons nous ? 

 

Plus que la question de l’intelligence qui comme nous l’avons dit est un problème de définition, intéressons nous à la portée des IA(s). La question est donc , voulons nous donner certains pouvoirs , comme celui de tuer à une machine-robot , et ce quelque soit sa capacité à imiter les comportements humains, à les augmenter, ou à en décupler les performances ? Dans “Minority Report” Film SF de …S.Spielberg , nous avons cet exemple de délégation faite à une IA, qui grâce à sa performance décide qui doit être neutraliser et quand , avant même qu’un crime ne soit commis.

 

I.Asimov avait raison, il faut déterminer les règles limites à fixer aux pouvoirs que nous cédons aux machines. Car ces machines sont souvent plus performantes que l’homme. 

Le froid réalisme conduit alors à penser que cette limite sera transgressée par tous ceux qui ne respecteront pas ce principe de limitation des pouvoirs. Et notamment pour des raisons politiques, stratégiques et militaires.

 

Il faudra donc que s’établisse un nouvel équilibre relatif, fragile, contestable et transgressé. Nous retrouvons le même type de problématique avec l’éthique promue autour des manipulations génétiques, du clonage humain par exemple.

 

La première règle à retenir est donc que la question des limites est morale, éthique, et politique mais sûrement pas technique et scientifique. Et donc progressivement nous inventerons des machines de plus en plus capables de dépasser les fonctions humaines, y compris dans la simulation de la pensée.

Oui, les machines imiteront parfaitement les comportements humains et dépassent ou, dépasseront, les performances humaines quel que soit le domaine d’application.

 

2- De l’intérêt de dupliquer l’humain 

Pour introduire cette question , quel intérêt y’a t-il à dupliquer l’intelligence humaine, je vous incite à lire le refus de Nick Cave. 

« C’est de la merde » : Nick Cave fustige une chanson écrite par ChatGPT

https://m.20minutes.fr/amp/a/4019475

 

Dupliquer, faire un double, reproduire un humain, ou reproduire, dupliquer,  certains comportements humains est une première question. Que duplique t-on ?

 

S’il s’agit de créer une sorte de clone humain, ayant finalement les mêmes capacités, artistiques par exemple, nous n’y arrivons pas encore pleinement, une question de temps. Nous aurons ce savoir-faire bientôt. Mais posons nous cette question pourquoi faire ?  Quel est l’intérêt finalement de copier l’humain ?

Probablement un intérêt purement intellectuel, celui de se dire que nous avons inventé une machine aussi performante , bluffante , qui semble se comporter comme un humain. Nous aurions réussi à reproduire, peut-être à comprendre certains de nos mécanismes intimes de pensée… nous serions à l’égal de Dieu des créateurs ? 

Un intérêt économique, celui d’économiser l’homme ou celui d’économiser des coûts.

Un intérêt sociétal, accéder à plus de bien être, palier à des manques… 

 

De façon un peu brutale, je dirai que nous savons déjà depuis longtemps fabriquer des humains, par un procédé biologique naturel de 9 mois environ, avec toutes leurs forces et leurs faiblesses, et par un long apprentissage de dizaines d’années nous en faisons un homme dit adulte, alors pourquoi vouloir créer spécifiquement des robots qui seraient iso-fonctionnel et Iso-comportemental mais qui ne seraient que des machines ? 

N’est-il pas plus intéressant d’imaginer de créer des robots aux fonctions adaptées et capables de plus de performance qu’un homme, que ce soit pour jouer aux échecs, se substituer à une action physique humaine, ou pour résoudre une équation complexe, mais dans un domaine défini. Et c’est ce que nous avons fait en majorité.

Certe le fantasme du robot servant attentionné, présenter souvent dans les films de SF, Sciences Fictions comme une sorte d’idéal, de perfection, est une rêverie séduisante. Cette rêverie perdure jusqu’au dérapage, ou le robot devient méchant et se retourne contre son maître.  

Nos populations vieillissent dans l’OCDE et nous pouvons penser qu’un assistant doté de capacités physiques et de capacités cognitives , voire affectives , pourrait soulager les aidants, eux bien humains, qui s’épuisent à soutenir et soigner les personnes dites dépendantes. La science-fiction dote ces robots-humanisés de qualités émotionnelles et affectives , capables d’empathie, de raisonnements psychologiques, de soutien moral, mais auxquels on refuse tout droit à l’erreur. Cette erreur devenant le biais transgressif , qui va les conduire à un comportement alors présenté comme déviant, et qui va justifier une punition humaine , souvent violente et douloureuse, mais où l’être humain sort vainqueur en désactivant ou en détruisant ce compagnon mécanique , intelligent, mais trop humain jusque dans ces choix et ces erreurs.
Attention, il faudra s’assurer que les 3 lois de la robotique d’Azimov sont bien respectées. Mais pourquoi pas, aller au bout de l’idée. Ce serait un degré très élevé de mécanisation du “care” par exemple.

Donc l’intérêt de dupliquer les hommes ou des comportements humains est dans le service rendu , y compris dans le monde économico-productif, que ces copies adaptées à leurs usages sauront fournir. 

Précisons que beaucoup de robots sont imaginés ou créés en fonction, non d’une fonction humaine, mais d’un besoin technique. Ce que nous disons c’est qu’une part des fonctions mise en œuvre dans ces robots partent de gestes ou de savoir-faire humain ou animal.

Cette extension des machines-robot-humains est déjà là, elle ne pourra que s’amplifier. et ne doutons pas qu’elle puisse un jour être si proche des comportements humains , que nous pourrions en être amoureux, sujet de nombreux film SF,  ou qu’elles seront capables de montrer des émotions, et de réaliser toutes les tâches humaines.  Nous saurons les doter des caractéristiques, physiques, émotionnelles, psychologiques et cognitives utiles.

Rapidement se pose, pour arriver à ce niveau de performance dans la ressemblance avec l’homme, la question de l’apprentissage. Comment lui donner les règles qui ressemblent à celles acquises lors d’une éducation humaine ?

Si nous voulons que ce robot se comporte émotionnellement et intellectuellement à l’égal d’un homme, sans en programmer tous les cas possibles d’interaction avec les hommes et toutes les réponses à donner acceptables, il faudra le doter de capacités  d’apprentissage et lui permettre d’accéder à des processus d’erreur et de réussite, de punitions et de récompenses , qui forment, construisent, nos comportements. 

Il faudrait même qu’un ou des éducateurs “parentaux”, lui permettent d’intégrer au mieux les interdits, les tabous ..  

Nous verrons plus loin l’incroyable réalité des IA(s) et leurs techniques d’apprentissage.

 

Essayer de dupliquer intégralement un humain n’est donc probablement pas la bonne idée, nous créons avec les IA(s) des outils de simulation, de remplacements, de performances, qui sont en mesure d’imiter, de simuler, de renforcer les hommes. Dupliquer un homme , risque de ne pas avoir un grand intérêt, hormis celui du moindre temps* nécessaire à sa production peut-être , voir ci-dessus l’argument de la reproduction humaine, et pose la problématique de l’apprentissage humain. L’apprentissage humain est extrêmement complexe car il se fait dans le temps et utilise nos sens, la multitude des ressenties, des expériences et de leurs combinaisons dans l’extraordinaire complexité du cerveau. Ce processus est absolument nécessaire à la constitution de l’intelligence et à la constitution des comportements humains , et ne peut se réduire à l’accumulation de connaissances,  (voir la suite de l’article.)

Et si nous étendons cette réflexion aux robots embarquant de l’IA, il ne s’agit pas non plus de dupliquer les hommes, il s’agira de les utiliser pour se substituer à certaines fonctions humaines, d’aider, de renforcer, sans jamais avoir besoin de créer des machines en tous points équivalentes.

 

En conclusion , Nick Cave a raison , ce n’est pas un poème de Nick Cave , et probablement que l’illusion ne tient pas très longtemps. Mais ce n’est pas du Nick Cave en fait, c’est du ChatGPT V3. Et ce poème issu de ChatGPT V3 peut être, lui aussi, excellent, un peu comme pourrait le faire un faussaire ou un humoriste en pastichant. 

 

*Nous pouvons imaginer créer une sorte de modèle de base , qui devra apprendre un certain temps, comment faire cet apprentissage et combien de temps?

 

3- Le principe de base le plus utilisé: l’imitation

 

Imiter le mouvement de la main et sa fluidité, imiter la marche humaine sur deux jambes, imiter le comportement d’un virus, … imiter. Nous savons depuis longtemps qu’une des sources principales de notre intelligence est cette capacité à imiter un comportement, une très grande partie de l’éducation repose sur cette art de l’imitation , inné chez l’homme, du sourire qui active l’empathie du nourrisson, aux essais de Léonard de Vinci pour voler, nous imitons.

 

Cette imitation ne porte pas que sur l’humain, les modèles retenus sont souvent biologiques , végétaux ou copiés sur la physiologie ou les comportements d’autres animaux, plus ou moins éloignés de l’homme. 

Très souvent la nature nous fournit des réponses à une problématique définie, une stratégie, un comportement, une organisation qu’elle soit sociale ou cellulaire et qui va servir de modèle, de point d’appui pour apporter une solution.

 

Aussi, il ne faut pas s’étonner que les IA(s), soient souvent construites sur le principe de l’imitation, Nous en reparlerons plus bas dans la simulation de la pensée humaine, par exemple avec les réseaux dit neuronaux qui veulent copier le fonctionnement des neurones humains avec leur milliards de synapses qui les interconnectent.

4- Améliorer la performance dans les environnements complexes.- L’homme augmenté –

Jusqu’à ce point nous considérons que l’IA, et les robots, sont conçus essentiellement sur des modèles humains . Supposer que nous imitons, comme vu plus haut, implique que nous nous centrons sur ce seul aspect. Mais les IA ne sont pas conçues en soit pour imiter, mais bien pour répondre à un besoin. Lors de cette recherche de réponses, nous ne cherchons pas à imiter l’humain, ce n’est pas le but. Le but c’est de fournir un algorithme, une mécanique guidée qui, elle, va résoudre, répondre à une problématique particulière.

 

Le but des IA(s) c’est d’apporter un service, une réponse à un besoin, humain, technique…

Il est intéressant de réfléchir à cette idée. Une large part des applications d’IA visent à fournir un “homme augmenté”, la SF parle de Cyborg. Augmentation des capacités physiques, porter des charges lourdes, augmentation des facultés humaines, voir la  nuit, augmentation des capacités intellectuelles, accéder à une mémoire plus grande ou aux calculateurs. Les films de SF comme “Iron Man”, nous montrent les formes abouties de cette augmentation, mêlant connection biologique au corps, renforcement mécanique, intégration de nouvelles fonctions et capacités physiques ou intellectuelles.

 

Des expériences importantes dans ces trois ordres sont en cours.

Sur l’augmentation des capacités physiques, des exo-squelettes existent aujourd’hui , et apportent des solutions de manipulations ou de substitution à des fonctions humaines défaillantes, la marche pour des handicapés par exemple.

Dans le cas des deux autres domaines les facultés humaines , voir, toucher, sentir, entendre, et les capacités intellectuelles, penser, mémoriser, calculer, les travaux existants semblent plus délicats à mettre en œuvre tant que nous n’aurons pas trouver des interfaces nerveuses ou neuronales directes fiables. (IND ou DNI)

Les  projets d’Elon Musk ou de Jeff Bezos en sont la vitrine médiatique, mais cette recherche avance et nous arrivons déjà à réaliser des connexions directes avec notre cerveau.

Cette question des IND reste encore un point très complexe, nous avons du mal à trouver des solutions dont certaines sont très invasives, et posent des problèmes d’éthique également. 

En recherche médicale et pour certaines applications en ophtalmologie ou en chirurgie des membres, des patients en bénéficient , comme pour, opérer un patient, poser un implant , connecter une main artificielle , ou rendre une vue partielle à un aveugle .

5- Théories de la connaissance, sciences cognitives

La théorie de la connaissance , nous renseigne sur la façon dont nous appréhendons le monde. Car, en fait, il y a un miracle, nous sommes capables d’analyser nos stimulis sensoriels , images, sons, toucher, odorat, goût… et d’en tirer un apprentissage, une connaissance, une reconnaissance en y associant des mots des concepts des énoncés, des images …

Nous avons donc déjà fait le travail que nous imposons aux IA(s). 

Nous nous inspirons donc de cette théorie pour structurer nos réflexions sur les moyens de créer de l’intelligence artificielle. 

L’analyse de l’articulation concept-mots-énoncés, tel que des philosophes comme Michel Foucault, par exemple dans son livre référence mondiale “l’archéologie du savoir”, nous l’ont fait comprendre sert de référence. Finalement dans le corpus des énoncés se liant les uns aux autres autour d’un concept ,une idée ou une image par exemple, nous avons découvert les risques et les mécanismes induits permettant, par exemple , de réfléchir à une structure des pensées et des énoncés, notamment performatif, que nous pouvons utiliser dans une IA. 

Mais nous avons aussi pu alors découvrir toute la problématique des biais anthropologiques. Reprenons l’idée, en analysant l’ensemble des énoncés autour d’un concept, nous découvrons sa dépendance à une situation anthropologique, c’est -à-dire qu’un énoncé ne vient pas de nul part. Il existe dans un contexte qui structure une vision du monde , une approche genrée, ou une vision de la pensée  scientifique en tant que modèle de perception du monde par exemple.

Transmettre ces biais à une machine est donc une nécessité, au sens où elle se fait sans aucun moyen de l’éliminer en restant au niveau de l’énoncé. Si nous voulons en amoindrir les effets , nous devons le comprendre et l’appliquer à nos IA en mettant en place des processus d’apprentissage, ou des règles d’analyse des énoncés. Ce relativisme est un moyen d’accès à une pensée fine, en nuance, telle que la pensée humaine.

 

Les sciences cognitives elles, nous montrent comment notre cerveau retient, se trompe, mémorise.

On étudie les moyens de le rendre plus fiable, de lui éviter des biais de connaissance. Les premiers travaux sont probablement ceux sur les illusions d’optique, notre cerveau nous trompe parfois.  Cette science nous permet de comprendre comment on peut leurrer un cerveau, le manipuler , tout comme le rendre plus fiable. Et cette compréhension nous permet d’adapter nos programmes de simulation, créant des effets d’auto-apprentissage, d’erreur-correction…
Prenons un exemple, nous avons compris que certains neurones jouent des rôles très particuliers comme dans la reconnaissance faciale. En apprenant à nos IA(s) à simuler cette capacité, nous leur permettons de devenir plus intelligentes, capable de mieux analyser et comprendre le monde donc.


Nous devrons appliquer les résultats acquis autour de la théorie de la connaissance et des sciences cognitives, notamment dans toutes les logiques d’apprentissage , et le fameux deep learning n’y échappe pas. 

Par exemple voici les cinq modes d’apprentissage humain selon Jean-pierre Astolfi 

  • déductif (logique, démonstration, preuve, conséquences),

  • inductif (causalité, mécanismes explicatifs, lois scientifiques),

  • dialectique (interaction, interprétation),

  • divergent (invention, créativité),

  • analogique (conceptualisation, comparaison, métaphore).

(Extrait d’Edupass, article de JP Astolfi, sur les modes d’apprentissage.)

 

L’élimination, la détection des biais cognitifs, auquel les IA(s) n’échappent pas non plus, fait partie des règles à mettre en place. La liste des biais cognitifs est longue

 

Conclusion : les IA(s) ne sont pas plus fiables qu’un homme, elles ne peuvent délivrer que ce que nous leur apprenons, elle dépendent des capacités qui leur sont données par les algorithmes,  pas mieux ni moins bien qu’un homme, elle sont essentiellement capables de réaliser plus de tâches et surtout plus vite.

Le dilemme du pendu* et quelques autres n’ont pas plus de chance d’être mieux résolus par deux IA indépendantes que par deux hommes. Il reste un dilemme.

 

*Le dilemme du pendu ou du prisonnier* est celui du choix d’un prisonnier qui doit trahir son partenaire ou se taire pour minimiser sa peine. L’article donne d’autres paradoxes, une machine saura en résoudre la plupart dès lors qu’ils reposent sur les probabilités, pas mieux qu’un mathématicien non plus, mais plus vite. 

6- Simuler la pensée humaine. 

Pour préparer ce sujet et la lecture critique des techniques utilisées dans les IA(s), je vous conseille la lecture de cet article “Le perroquet stochastique,” d’ Olivier Ertzscheid, université de Nantes.

 

Pour rendre possible la simulation de la pensée humaine , une des techniques les plus utilisées est celle des réseaux neuronaux. En effet comme vu plus haut, nous avons supposé que de cette façon nous avions les meilleures chances d’imiter le cerveau humain et quelquefois en empruntant aussi au règne animal.

Les études poussées sur tous les types de réseaux montrent que certaines règles s’y appliquent systématiquement.

 

  • Primauté de La localité  : nous établissons toutes les connexions possibles avec les nœuds de proximité physique en formant des grappes. 

  • La focalisation sur les hubs : certains de ces nœuds servent à établir toutes les connexions avec les autres hubs plus loin dans les grappes suivantes.

  • Les noeuds de passage : certains de ses noeuds servent en plus à établir des liens directs  avec des grappes très éloignées 

  • Les liens rares : certains neurones créent des liens improbables, très éloignés par une connexion directe.

 

Aujourd’hui, des systèmes informatiques sont capables de tous ces types de connexion, par apprentissage notamment dit “ profond”. Probablement comme le fait massivement le cerveau d’un jeune humain qui apprend, et ce que nous continuons à faire pratiquement toute notre vie,

 

En recherche encore plus approfondie nous découvrons que certains de ces noeuds se spécialisent et acquièrent des comportements que je qualifierait ici “d’étranges”, au sens d’ improbable et de surprenant.

Par exemple, ils fournissent un retour quasiment unique avec une très haute certitude d’identification ou de reconnaissance. Nous avons compris ce phénomène en étudiant comment, par exemple, nous étions capable de reconnaître instantanément quelqu’un de notre famille, peut être même de dos, et dans le presque noir… 

Ce type de compétence neuronale est extrêmement complexe à reproduire par une machine, mais nous commençons à y arriver. Et oui bientôt les systèmes de reconnaissance d’images ne confondront plus un couple d’orang-outan et un couple de noirs africains. Pas de racisme ici, c’est la machine qui déraille, il y a trop de points de ressemblance pour elle et la réponse apprise est trop fréquemment un match,  alors le système n’a pas le réflexe du neurone image comme nous… neurone parfois appelé le neurone  “grand-mère” ou “hall Berry” , et il se trompe et confond en toute innocence un humain et un animal…, d’autres exemples moins polémiques existent.( voir article cité plus haut) 

Remarque :Aujourd’hui les systèmes d’apprentissage utilisent des banques d’images , dédiées à cet apprentissage, qui leur permettent d’associer images, concepts et mots. Ces banques sont constituées par des hommes ou, et par des automates qui examinent le web ou d’autres banques d’images. La question est que dans ces banques, bien évidemment tous les biais, les erreurs humaines sont présentes. Finalement les IA(s) retraduisent ces biais comme la prédominance mâle et blanche par exemple.

 

Pour arriver à ce niveau de performance, nous avons dû réfléchir à une algorithmique ad-hoc. Une des techniques algorithmiques les plus développées dans la mise au point des IA(s) est celle dite des systèmes experts. Cette algorithmiques se décrit dans ce que les spécialistes nomment des moteurs d’Inférence fonctionnant sur une base de faits et une base de règles et découpant le raisonnement en une phase dite d’évaluation et une phase dite d’exécution. Des langages de programmation prennent en charge ce type d’algorithmique.

La performance d’un moteur d’inférence dans la résolution plus ou moins forte de questions qui lui sont soumises se mesure par degré niveau 0,0+,1,2…. Les meilleurs moteurs sont du niveau 1 aujourd’hui, l’idéal serait le niveau 2 ou la combinatoire variabilisée au maximum des règles apportées et de la profondeur des bases de faits permettra de simuler de façon presque parfaite le raisonnement humain le plus sophistiqué.

 

«Mais Jammy,  tout cela ne suffit pas à faire une pensée humaine. Et oui Fred nous avons des traits de génie, des idées disruptives, inattendues qui font que chaque homme est unique et que nous sommes capables de trouver des solutions incroyables à des questions réputées insolubles.»  (allusion à une émission de télévision de vulgarisation scientifique, Fred et Jammy)

Il y a quelques années , des chercheurs en informatiques Russes et Américains ont voulu créer une machine de jeu d’échec , imbattable. La guerre froide étant passée par là, Russes et Américains se sont livrés un combat incroyable avec des grands maîtres d’échecs et sur des machines à jouer, comme celle d’IBM. 

Pendant longtemps,jusqu’en 1980 à peu près, les champions de très haut niveau en échec , un Gasparov, un Fischer, battaient régulièrement le monstre d’IBM, qu’un  joueur même déjà très bien classé n’arrivait pas à surclasser par manque de capacité à anticiper à plus de trois ou quatre coups. Petit à petit, la force brut de calcul  ( La force brut veut dire ici la capacité à calculer tous les coups possibles sur plusieurs dizaines de tour)  et l’introduction de moteurs de choix très sophistiqués dans les programmes , grâce à des stratégies complexes et des calculs probabilistes, les machines n’avaient plus besoin de calculer des dizaines de coups à l’avance, les machines ont commencé à gagner régulièrement. 

Alors l’intérêt s’est déplacé vers un autre jeu, le GO. Son apparente simplicité cache en fait un nombre de combinaisons et de stratégies encore plus considérables que les échecs , et là pendant de très nombreuses années, un bon joueur battait n’importe quel ordinateur.

Et puis quelqu’un a eu l’idée d’imiter un peu plus la façon de jouer des hommes , et il s’est rendu compte qu’à l’origine des coups gagnants de l’homme , il y avait très régulièrement une stratégie , minoritaire , c’est à dire très peu attendue, qui était jouée. Un peu comme si le cerveau humain , pour venir à bout de la froide capacité à calculer de la machine , imaginait un coup fou, un peu impossible, mais qui était parmi les très bonnes stratégies possibles à ce moment-là compte tenu de l’état du jeu. L’apprentissage par renforcement était né (RL),  c’est une des techniques qui sont incorporées à TchatGpt. 

La machine ayant construit son jeu sur d’autres paradigmes, plus classiques,plus probabilistes se trouvait alors prise à revers et n’arrivait plus à reprendre le dessus.

Voilà c’est donc fini, même notre capacité à stratégiser l’imprévu, l’inattendu, est découverte.

Désormais, il est possible d’introduire même cette variable ‘coup de génie’ dans les IA(s).

Ce qui implique entre autres la prise de risques, choisie à un moment choisi lui aussi et la capacité à accepter de renoncer à une règle ou à en modifier le poids.

Et les machines se sont mises à gagner au jeu de Go…

 

Conclusion  :  dans peu de temps nous serons capable de simuler,souvent assez correctement, la pensée humaine avec tout ce qu’elle a d’inattendue et de complexe.  

7- Des biais et du point Godwin 

 

Nous savons, que toute discussion sur des questions conflictuelles entre deux ou plusieurs individus,maintenu un certain temps, converge inexorablement vers ce qu’il est convenu d’appeler le point Godwin, c’est à dire le moment ou l’une des parties va traiter l’autre de Nazi ou faire allusion à la Shoah. Et effectivement les premières tentatives de chatbot, outil de Chat autonome, en ont fait les frais, des propos racistes ou insultants ont été proposés par l’IA du chatbot.(voir expérience du chatbot* Microsoft)

*chat-robot = Chatbot.

 

Nous pouvons donc nous poser cette question, une machine ne pouvant être à priori accusée de racisme, comment peut-on en arriver là ? 

La réponse est à la fois navrante et extrêmement significative.

Un explorant le web très logiquement l’IA est tombée sur des propos racistes, souvent présentés comme des évidences ou souvent mis en référence.

Mais notre machine ne sait pas que ces propos sont condamnables, à la fois sur le plan moral et sur le plan judiciaire. Personne ne lui a dit qu’il s’agissait de fake News ou de propos racistes ou licencieux. Il faut noter qu’un certain nettoyage des documents retenus était bien réalisé. Mais la nature des questions posées faisant inexorablement glisser notre IA vers la faute, sans qu’à aucun moment elle refuse de diffuser certains propos ou certaines thèses.

Avec ChatGPT ce défaut semble presque corrigé, ce qui veut dire que l’épuration des bases de données images et textes a bien été menée, mais qu’également l’IA a été éduquée à reconnaître les sujets “délicats” et à éviter certains types de réponses.

 

Si ce risque autour du politiquement correct et pour le condamnable pénalement semble être mieux maîtrisé, il n’y a aucune raison pour que ces IA (s) presque pensantes et en autonomie, ne tombent pas comme nous dans des approximations ou des amalgames dangereux.

L’étude des biais cognitifs montre que même avec la meilleure volonté du monde, le risque d’interprétation trop rapide , de recherche d’un résultat attendu, de projection indus, qui sont des biais humains, présents dans beaucoup de nos productions intellectuelles, et donc sur le web, même en ne prenant pas comme source Twitter, nous conduise en fait à ne pas avoir d’objectivité même relative dans les réponses apportées sur les sujets très discutés. Autant sur un sujet scientifique, privilégier une hypothèse n’a pas forcément des conséquences morales ou pénales, autant sur les sujets anthropologiques, sociologiques , cela peut être le cas.

 

Il est très clair que l’IA, doit comme les humains, arbitrer, évaluer. Par exemple sur ChatGpt, l’IA prépare plusieurs réponses possibles et ensuite évalue celles qui paraissent les plus admisent, les mieux notées, la fréquence , la qualité-fiabilité des sources, pour ne donner qu’une seule réponse in fine. Ce qui peut expliquer des variations dans les réponses quand la même question, ou une question très proche, est posée plusieurs fois.

 

C’est une des raisons pour lesquelles l’usage de ces outils au niveau scolaire ou universitaire ne peut servir que comme une aide à la réflexion. Et que le travail des professeurs est donc de permettre leur maîtrise intelligente et non leur impossible éviction.

8- De la responsabilité des machines 

 

Nous pouvons considérer que pour les besoins d’un objectif , validé comme éthiquement acceptable, nous pourrions doter des machines d’une véritable intelligence pour les rendre propre à la réalisation d’une tâche, d’un objectif, avec une capacité et une ‘intelligence’ souvent supérieure à celle d’un être humain. 

Mais dans la réalité cela existe déjà, nous n’avons pas attendu les robots dotés d’IA pour créer des algorithmes capables de gérer, bien mieux que le cerveau humain, les comportements erratiques des acteurs des salles de marché, opérer le corps humain de façon autonome, éliminer ou choisir des autorisations de prêts bancaire, des régulations de flux automobiles… à chaque fois nous avons transféré notre intelligence, peu ou prou, mais surtout nous avons autorisé une machine doté d’IA à décider pour un homme … 

Que dire des robots tueurs, capables de prendre des décisions… pour éliminer , disons par euphémisme, “neutraliser” un humain. 

Imaginons que nous fabriquions  une arme télécommandable installée au coin d’une rue et pour laquelle nous avons réalisé  un algorithme de pilotage qui déclenche un tir, après sommation,  sur tout être humain montrant un caractère agressif, ou réalisant une agression physique sur un autre humain. Personnellement je peux trouver cela très bien ou pas. Mais que faisons-nous de plus avec un robot auquel nous aurions appris, en situation de combat, à neutraliser une tentative hostile perpétrée non seulement par une machine mais aussi par un être humain ? 

Récemment en Syrie,mais aussi sur d’autres terrains d’opérations avec la Turquie et l’Arménie notamment, des nuées de drones ont mené des attaques coordonnées de façon plus ou moins autonome, une partie seulement de ces drones étaient pilotées par des hommes. A la manière des vols intuitifs des étourneaux, grâce à une IA , ces appareils suivaient leur leader et de façon autonome lançaient des attaques ciblées sur des hommes au sol, provoquant débâcle et la défaite des troupes au sol, il semble dans un des cas recensés qu’il s’agissait de l’armée Arménienne.., 

Voilà nous y sommes donc , nous laissons déjà des machines agir en autonomie. Discuter du sexe des anges n’a plus de sens pour savoir de quel type est ou n’est pas l’IA qui permet cette autonomie. Cela ne sert plus qu’à établir une taxinomie, un classement de concepts et d’états utiles seulement à l’analyse. 

Dans cette perspective, il faut donc tenter une fois de plus de convaincre de la nécessité de réguler, d’imposer des règles communes, pour la guerre, comme une nouvelle convention de Genève, ce que nous avons plus ou moins réussi pour les armes chimiques ou atomiques en sachant que certains s’en affranchissent eux-mêmes ou par leurs alliés.

Bien évidemment ces tentatives imposent que des états bandits acceptent néanmoins de discuter de ces limites… vieux débat ! 

 

9- Quels domaines, pour faire quoi ? 

 

Visiblement les IA(s) vont, qu’on le veuille ou non, se généraliser. Elles vont gagner tous les domaines. Il est donc urgent de classifier et d’évaluer les différentes types d’utilisation des IA(s), pour fixer les règles, les responsabilités en fonction des risques, des urgences, des besoins, des volontés politiques… 

Le texte voté par l’Europe, dit « rapport Delvaux » se lance déjà dans cette direction.

https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_FR.html#_section

Il peut servir de base.

(À compléter)

 

La question des domaines d’application est importante, aujourd’hui la tentation est grande de trouver des domaines vendeurs… c’est à dire des domaines ou l’attrait des acheteurs est poussée au maximum, souvent en faisant appel à des sentiments profonds, affectifs, sexuels,… ceux qui vont activer notre cerveau reptilien ou nos émotions. Dans ce registre ont trouve les jeux sexuels couplés à une réalité virtuelle, ou augmentée, mais aussi  les propositions morbides pour faire revivre un mort, et toutes les inventions qui peuvent trouver un public.

Pour ce type de produit, les lois existantes sur les jeux devraient être renforcées, pour tenir compte, comme dans le cas des addictions, des faiblesses morales et psychologiques.



10 – Conclusion : Que penser de nos IA(s)

 

Sont-elles vraiment intelligentes ?

Pouvons-nous leur faire confiance ?

Il y’a aujourd’hui au moins 7 formes d’intelligence répertoriées par les chercheurs. Par exemple, voir la théorie des intelligences multiples d’Howard Gardner….. il s’agit plutôt de domaines de l’intelligence. Chacun de ses domaines correspond à des aptitudes à résoudre certains problèmes.

Aujourd’hui la plus part de ses domaines ont été investis par les IA(s). (Voir cet Article sur ce sujet  de W,Gardner), avec des niveaux de performance, comparés à ce que peut faire un homme, souvent supérieurs.

Mais avoir atteint un niveau de performance égal ou supérieur à celui d’un homme ne fait pas de ses intelligences des êtres humains. Et n’en fait pas non plus une intelligence qui peut se substituer à celle d’un homme. Elle ne le peut que si nous l’autorisons à le faire. C’est la nécessité de définir cette autorisation, au préalable par un homme qui confère à l’intelligence artificielle son pouvoir réel.

C’est ce qui est dangereux potentiellement et qui décentre la responsabilité d’une IA ou d’un robot doté d’une IA. Prenons l’exemple d’une voiture que nous dotons d’une capacité à conduire en autonomie. Attendu qu’elle ait kun comportement mesurable de fiabilité maximum, supérieur à l’homme, peut-on accepter qu’elle écrase un piéton ? Et si c’est le cas, quelles responsabilités sont en jeu et qui, de l’IA où de son concepteur, doit porter une responsabilité. Ou faut-il analyser les types de responsabilité en cause, pénale ou financière et les attribuer ensuite à l’IA ou a son propriétaire, ou à son concepteur ? 

 

Au delà de cette question fondamentale de la responsabilité, reste la question de la confiance ou de la réelle compétence des IA(s). En effet si nous doutons, de façon la plus objective possible, de la qualité de ces IA(s), nous pensons qu’elles n’atteignent pas le niveau de fiabilité ou de performance qui nous permettrait d’accepter de leur déléguer un pouvoir, une action. 

Par exemple, imaginons une machine dotée d’IA, un robot capable d’ opérer en ophtalmologie de la cataracte sans aucune intervention humaine. Si son niveau de fiabilité est supérieur aux capacités d’un homme , alors aucune raison de lui refuser nôtre confiance. 

C’est assez facile à imaginer dans des domaines où le résultat est parfaitement mesurable et ne donne pas lieu à interprétation ou contestation. Évidemment il n’en va pas de même pour les IA(s) susceptibles de faire des formulations contestables. Par formulation contestables il faut entendre, discutable sur un plan philosophique ou scientifique ou éthique. C’est le cas des IA(s) reproduisant toutes les formes de pensées humaines, que ce soit pour faire du Chat, répondre à des questions ouvertes, ou constituer des énoncés en réponse à des questions , ou produire des énoncés censés développer une connaissance en apportant une novation ou un développement original.

Ne doutons pas qu’une IA puisse apporter des solutions innovantes, qui relèveraient du génie humain, la simulation de la pensée, comme vu plus haut, permet pour certains domaines déjà et permettra de le faire pratiquement dans tous les domaines. 

Nous devons donc vérifier que les IA(s) méritent notre confiance et toujours penser que tous les énoncés sont contestables parce que précisément ce sont des énoncés produits avec des outils fabriqués par l’homme et qu’ils ne peuvent être totalement indépendants de leurs conditions de production, origines, biais de connaissance, d’apprentissage ou de méthodes… Mais est-ce si différent pour les hommes eux-mêmes et leurs pensées ?

 

Ne nous retranchons pas derrière une quelconque supériorité humaine sur les IA(s) pour n’importe lequel des domaines de l’intelligence, pour certains domaines Il n’y en a pas déjà maintenant , et pour d’autres il n’y en aura bientôt plus.

Il faut donc respecter deux principes fondamentaux : 

  • Quelque soit la fonction ou la performance des IA(s) elles doivent être contrôlées ou maîtrisées , c’est à dire que la délégation que nous leur donnons doit être garantie par des règles précises. 

  • Mais elles doivent être aussi validées ou certifiées, pour s’assurer que le niveau de performance atteint, garantie une efficacité au moins égale à celle d’un homme et respecte les règles et limites fixées. 

 

Maitrise et certification ou contrôle et validation , sont les deux lois proposées dans cette étude. 

Ces lois , avec celles d’ ASIMOV qui garantissent la sécurité physique des hommes, nous permettent d’accepter sereinement que les IA(s) interagissent loyalement avec nos activités humaines. 

 

Reste la question de la responsabilité juridique, et de toutes les conséquences associées, pénales, civiles . Mais aussi les assurances, la réglementation, par exemple sur la voie publique… Encore de nombreux sujets de réflexions, nous n’avons pas fini d’en parler. 




Laisser un commentaire