Billet invité. Également sur son propre blog. P.J. : J’aurai l’occasion d’y revenir mais je rappelle que je ne souscris ABSOLUMENT pas à la thèse de ce billet.
Les perspectives de l’Intelligence Artificielle inquiètent – les ordinateurs pourraient-ils atteindre à une intelligence similaire à celle de l’être humain ? Les robots pourraient-ils devenir indépendants de leurs créateurs, voire hostiles, et aller même jusqu’à les remplacer ?
Aussi important que puisse être dans l’avenir l’impact de l’IA sur la productivité et sur l’emploi, il y a en réalité au moins quatre raisons de douter qu’une Intelligence Artificielle « forte », c’est-à-dire similaire à l’humaine – « quelqu’un dans la machine » – soit pratiquement ou même théoriquement possible.
Les rêves ou les cauchemars des théoriciens de la « Singularité » et du remplacement par les machines ne sont même pas pour après-demain, et probablement pour jamais.
De l’astronome Martin Rees s’inquiétant que les robots ne prennent bientôt le pouvoir, l’astrophysicien Stephen Hawking craignant que limités par une évolution trop lente les êtres humains s’avèrent incapables de rivaliser avec l’intelligence artificielle ou l’entrepreneur Elon Musk décrivant le risque que l’humanité n’ « invoque un démon » et ne mette sa propre existence en danger en construisant une intelligence artificielle supérieure… jusqu’au mouvement trans-humaniste espérant des progrès de l’intelligence artificielle non seulement la multiplication des possibilités humaines mais rien de moins que l’immortalité – ainsi l’un des interlocuteurs de Mark O’Connell dans « To Be a Machine » prophétisant la possibilité de transférer son esprit dans une machine, laquelle ne serait pas soumise à la mort.
Ces craintes et ces espoirs découlent tous d’une source unique : la perspective de doter prochainement un ordinateur d’un esprit similaire à celui de l’être humain, qui lui serait bientôt supérieur – ce qu’il est convenu d’appeler une « intelligence artificielle forte ».
Cette perspective est-elle véritablement réaliste ?
Avant de développer l’argumentation, commençons par sa conclusion – le résumé pour décideurs :
Construire à base d’ordinateurs une intelligence artificielle forte – c’est-à-dire égalant ou dépassant l’esprit humain, « quelqu’un dans la machine » – est fort probablement impossible pour raison de principe, car au moins trois questions fondamentales pourraient chacune à elle seule en exclure la possibilité, et la réponse définitive à chacune de ces questions est à ce jour inconnue.
Si toutefois aucune des trois réponses ne s’avéraient faire obstacle et si ce projet était donc théoriquement possible, sa difficulté inhérente – hors de toute proportion avec la difficulté à fabriquer par exemple de simples robots autonomes utiles dans la vie courante ou l’industrie – bref la question pratique, assurerait qu’elle ne pourra de toute façon être qu’un projet à très long terme, comparable par exemple avec ce qu’est pour l’astronautique le vol interstellaire.
L’IA forte dans dix ou vingt ans des transhumanistes théoriciens de la « Singularité » n’est que balivernes.
En cette époque où l’humanité fait face aux prodromes d’une crise gigantesque, vague scélérate additionnant fragilités du système financier et entrée dans l’âge des limites notamment en énergie fossile sur fonds de catastrophe écologique en cours incluant un dérèglement climatique aux conséquences de long terme très menaçantes, il est très agréable de découvrir – pour une fois ! – que tel nouveau monstre menaçant sortant du brouillard… n’est finalement qu’un banal épouvantail et un jouet pour faire peur aux enfants.
En l’espèce, la menace d’une conscience artificielle née de l’informatique parvenant à supplanter les humains.
Un peu de contexte…
Pour commencer, le mythe de la création prochaine d’esprits artificiels est vivace depuis les années 1950. Ce qui, comme on dit, ne nous rajeunit pas. Il est en général annoncé pour le prochain coin de rue, dans quelques petites années. Puis, lorsque les prédictions ne se sont – à l’évidence – pas réalisées, d’autres reprennent le conte en toute bonne foi, et roulez jeunesse ! Jusqu’à la prochaine fois.
Cependant, les réalisations de la discipline « IA » ne sont pas du tout à la hauteur de ces craintes et espoirs tonitruants. Ce n’est pas qu’elles soient inexistantes, ni négligeables, loin de là ! Simplement, la reproduction informatique – on pourrait dire le mime – d’activités humaines généralement considérées comme intelligentes ne mène pas à l’apparition d’une conscience artificielle. La carte serait-elle par nature différente du territoire ? La simulation, différente de la réalité ?
Naturellement, la puissance des ordinateurs, jusqu’ici très inférieure à celle d’un cerveau humain, constitue une explication possible de l’échec à ce jour à produire une « IA forte ». Peut-être tout simplement les ordinateurs n’étaient-ils pas encore assez performants ? Voilà qui pourrait amener à penser que l’augmentation exponentielle des capacités de traitement informatique mettra en revanche bientôt à portée le Saint Graal d’une conscience artificielle.
Réalisant une simulation précise du fonctionnement physique des neurones, l’un des plus grands calculateurs début 2014 a pu simuler le fonctionnement de 1% d’un cerveau humain pendant une seconde… mais le calcul lui a pris 40 minutes. De ce point de vue, les plus puissants ordinateurs actuels sont très loin du compte. En revanche, en se limitant à une simulation logique en réseau de neurones, la puissance nécessaire à un « cerveau humain » en temps réel est déjà largement disponible. Il suffit d’examiner les ordres de grandeur : 10^11 neurones et 1,5. 10^14 synapses, effectuant des « calculs » à un rythme inférieur à 10^2 par seconde, soit au maximum 1,5.10^16 opérations par seconde nécessaires – et probablement beaucoup moins – alors que le plus grand superordinateur était en juin 2017 le Sunway TaihuLight chinois, lequel peut effectuer 9,3. 10^16 opérations par seconde. Soit au moins 6 fois plus que nécessaire pour simuler complètement et en temps réel le fonctionnement logique du réseau neuronal d’un cerveau humain.
Cependant, même compte tenu du potentiel de cette puissance de calcul, quatre questions doivent être posées, quatre obstacles majeurs barrent le chemin de la construction d’une IA forte ou conscience artificielle. Les trois premières sont fondamentales, il s’agit de la possibilité théorique elle-même que des êtres humains puissent réaliser un tel « objet pensant » à base d’ordinateurs. La quatrième est tout simplement la question pratique, à supposer que les trois questions de possibilité théorique soient décidées dans un sens favorable – et ce n’est pas la moindre.
Les trois questions fondamentales, pour commencer
C’est que pour que le projet de construire une conscience artificielle par voie informatique ait ne serait-ce qu’un sens, trois conditions sont nécessaires :
1 – Il faut que la conscience, telle qu’elle se manifeste par exemple dans la tête de tout un chacun, soit entièrement compréhensible en termes matériels. C’est là une position philosophique matérialiste.
Incise – Non, cette condition n’a rien d’ « évidente »
La position opposée, c’est-à-dire l’existence de « quelque chose » de non réductible à la matière et qui serait intrinsèque à l’esprit ou à la personne humaine, apparaîtra suspecte à beaucoup pour une simple raison d’habitude.
C’est que les explications de type surnaturel – esprits, fées, lutins ou dieux – ont évidemment reculé constamment dans les derniers siècles, la méthode scientifique permettant de comprendre toujours davantage de phénomènes toujours plus en profondeur, alors qu’ils avaient été autrefois considérés comme des mystères inaccessibles à l’esprit humain. Il est alors bien naturel de considérer qu’une tendance historiquement aussi bien établie continuera indéfiniment, et qu’elle permet d’apercevoir ce qui serait en définitive la vérité ultime : que l’ensemble de ce qui existe est matériel, donc soumis aux règles de la matière telles qu’elles sont progressivement dévoilées par l’effort scientifique humain.
Il est bien évidemment loisible de choisir d’adopter une telle position. A qui la choisit, une position différente risque de n’apparaître motivée que par au choix : l’ignorance, le préjugé par exemple religieux, ou un sentimentalisme refusant d’admettre que moi aussi et non simplement le monde qui m’entoure, je pourrais n’être que matériel, et s’imaginant donc « par nature » différent.
Mais il est également vrai que les tendances historiques les mieux établies peuvent rencontrer leurs limites, et surtout que la connaissance extraordinaire apportée par la méthode scientifique ne signifie pas nécessairement que celle-ci permet d’accéder à une vérité ultime. Car c’est bien ce que suppose la philosophie matérialiste, et ce passage de « la méthode scientifique a permis de constamment avancer dans la compréhension de la réalité » à « la méthode scientifique révèle la vérité ultime sur la réalité » n’est rien d’autre qu’un passage du fait à la croyance… qu’un « saut de la foi », s’il est permis d’être taquin.
La position pleinement rationnelle à ce stade est en fait la position « agnostique », c’est-à-dire de ne pas conclure sur le matérialisme en tant que philosophie, parce que pour ce qu’on en sait aujourd’hui rien ne le démontre, et rien non plus ne l’interdit. Il faut donc rester ouvert à la fois à la possibilité qu’il soit pleinement justifié, et à celle qu’il ne le soit pas. Dans ce second cas l’IA forte pourrait être impossible pour raison de principe.
2 – Si la première condition est remplie, il faut encore que le comportement de la matière impliquée dans l’émergence de la conscience soit entièrement compréhensible en termes calculables. C’est que les ordinateurs fonctionnent en termes calculables et déterministes – ce sont des machines logiques dites « machines de Turing », et le terme calculable veut d’ailleurs exactement dire « qui peut être calculé par une machine de Turing ». Il faut notamment, et pas seulement, que le hasard et l’indétermination décrits par la physique quantique n’aient qu’un rôle « spectateur » dans l’existence entre les oreilles d’un être humain vivant d’une « intelligence forte ». C’est une position déterministe et objectiviste dans la compréhension de la conscience et de l’intelligence humaines. Qui là encore n’a rien n’évident – j’oserai dire, encore moins.
Incise – Et si cette condition avait déjà été démontrée fausse ?
La question de savoir si le comportement de la matière à la base de la conscience est entièrement compréhensible en termes calculables, fait l’objet d’études et de discussions. Il faut toutefois signaler l’œuvre du physicien et mathématicien Roger Penrose, généralement reconnu comme l’un des plus grands esprits actuellement vivants, dans « les Ombres de l’Esprit« .
Aussi extraordinaire que cela puisse paraître, Penrose y a proposé une démonstration formelle du fait qu’une opération au moins de l’esprit humain – discerner la vérité mathématique d’une certaine proposition de logique avancée – est impossible si l’esprit humain est compréhensible en termes calculables et déterministes. Comme cette opération a bien lieu – elle est accessible à qui a un niveau licence en mathématiques, et Penrose guide le lecteur jusqu’à ce qu’il la réalise lui-même, ce qui rend sa démonstration particulièrement impressionnante – il s’ensuit que l’esprit n’est pas compréhensible en termes calculables. Donc ne peut être reproduit informatiquement. Il est naturel à partir de ce résultat de supposer que ce fonctionnement non calculable du cerveau humain ne se manifeste pas seulement dans l’opération mentale utilisée pour cette démonstration mathématique : si le cerveau humain possède cette caractéristique, elle est alors probablement générale à une partie importante de ses opérations, si ce n’est à la plupart.
Dans la deuxième partie de son ouvrage, il propose une hypothèse – plus aventurée – sur une explication physique du caractère non calculable de l’esprit, basée sur des phénomènes quantiques intervenant notamment dans les microtubules des neurones et liés à la réduction du paquet d’ondes, phénomène postulé par la mécanique quantique, qu’elle ne cherche pas à expliquer, ce qui de l’avis de Penrose est insatisfaisant. Il s’agit là de physique spéculative, plus d’une idée de direction dans laquelle chercher la nouvelle physique – au-delà de la mécanique quantique donc – nécessaire à une compréhension scientifique de la conscience, si la démonstration de Penrose est correcte, que d’une quelconque précision sur ce que pourrait être cette physique.
Dans ce livre, l’auteur répond à toutes les objections présentées à ses travaux précédents sur le même sujet. Le livre existe depuis une quinzaine d’années, et à ce jour personne n’a réussi à contrer son raisonnement ni à invalider la démonstration qu’il propose du caractère « non calculable » du fonctionnement du cerveau humain.
S’il a raison, alors « les Ombres de l’Esprit » sera probablement considéré un jour comme un livre fondamental dans l’histoire scientifique. Et naturellement, le projet « Conscience artificielle » apparaîtra alors sans objet. Du moins dans sa version informatique : si l’hypothèse spéculative de Penrose s’avère judicieuse et est un jour développée, on ne peut exclure qu’il soit un jour possible de produire une conscience artificielle en se basant sur la physique nouvelle ainsi découverte. Mais alors, l’objet pensant produit ne serait pas un ordinateur… il en serait sans doute aussi différent par nature que l’ordinateur lui-même est par nature différent d’une machine à vapeur ou d’un marteau. Et naturellement les délais pour le réaliser seraient tout à fait indéterminés.
Pour un résumé plus détaillé de ce livre, voir le commentaire de Jean Staune
Roger Penrose – « Etant donné que la pensée inclut un élément non calculable, les ordinateurs ne pourront jamais faire ce que nous autres êtres humains faisons. » (source)
3 – Enfin, si les deux premières conditions sont vérifiées, il faut que cette conscience supposément compréhensible en termes matériels uniquement, et en termes calculables et déterministes exclusivement – il s’agit ici de la conscience qui se trouve dans le cerveau de l’inventeur – soit capable de concevoir le fonctionnement d’une autre conscience, celle que l’inventeur cherche à créer. Ce qui signifie que cette conscience présente dans son cerveau doit avoir la capacité de se comprendre elle-même ! En effet, si l’inventeur n’en était pas capable, comment pourrait-il déterminer les plans, méthodes et principes de la construction de l’IA ? Une troisième fois, cette position n’a rien d’évident – il est même permis de considérer qu’elle est la plus suspecte de toutes.
L’esprit peut-il se comprendre lui-même, donc contenir une description de lui-même ?
Les réponses à ces trois questions fondamentales sont à ce stade inconnues – sauf naturellement si la démonstration de Roger Penrose s’avère valide, auquel cas la seconde n’est pas vérifiée. Il existe des positions et des arguments philosophiques, naturellement, chacun avec leur validité. Mais il n’existe de réponse définitive au sens scientifique à aucune de ces questions. Peut-être cela changera-t-il un jour. En attendant, ces questions restent ouvertes.
Si la réponse à UNE SEULE des trois questions ci-dessus est négative, alors la création par voie informatique d’une conscience artificielle est irrémédiablement une chimère : on pourra reproduire sous forme informatique tel ou tel processus mental, ou en fournir un équivalent fonctionnel, on pourra créer des solutions logicielles pour traiter tel problème intellectuel particulier, parfois même mieux qu’un être humain – c’est d’ailleurs l’objet de la discipline IA, la vraie non la fantasmée, voir encore l’ouvrage sur le sujet du chercheur Jean-Gabriel Ganascia – on n’arrivera jamais à obtenir un objet avec qui on puisse sérieusement tailler une bavette, un objet qui serait quelqu’un. L’idée est alors à ranger dans le même rayon que les histoires de fées et du Père Noël.
Si et seulement si les TROIS réponses sont positives, alors la construction d’une conscience artificielle est théoriquement possible pour des êtres humains.
A ce sujet, on demandait la différence entre théorie et pratique. Un plaisantin répondit : « En théorie, c’est la même chose. En pratique, non »
Il est temps de parler des « menues » difficultés pratiques pour la création d’une conscience artificielle…
Ne nous étendons pas sur le fait que personne à ce jour n’a d’idée autre que très partielle et générale – moindrement testée en pratique donc – de comment au juste il faudrait s’y prendre. Si des pistes et réflexions diverses ont été proposées quant à l’aspect psychologique de la chose – voir par exemple pour le domaine francophone Paul Jorion dans Principes des systèmes intelligents (1989) ou Alain Cardon dans Un modèle constructible de Système Psychique (2011) (texte complet en PDF) parmi d’autres dans diverses langues – le fait même que ces pistes dont certaines sont anciennes n’aient pas permis d’aboutir à une réalisation concrète de type « quelqu’un dans la machine » montre que l’essentiel de la difficulté théorique reste devant nous. Ce que font les spécialistes en IA, ce qu’ils construisent dans la réalité, est bien différent, comme déjà dit. Et ce n’est pas faute d’essayer ni de réfléchir au moyen de construire une conscience.
Cet état de fait n’exclut cependant pas la possibilité que la discipline IA n’attende son Newton, son Galois, son Darwin ou son Einstein. Bref que la définition de la méthode générale ne soit à portée du prochain génie qui se penchera sérieusement sur la question. Le premier génie qui saura comprendre comment sa propre conscience fonctionne – rappelons que nous sommes dans l’hypothèse où la réponse à la question 3 ci-dessus serait positive, et où la chose ne serait pas une contradiction dans les termes.
Une difficulté plus grave se présente. C’est que une fois publiée la « Théorie générale de l’esprit humain » avec sa petite annexe « travaux pratiques – comment on fait » – par Jeannot Génie ou quel que soit son nom, il faudrait la construire pour de bon cette IA forte. Et là se situe un problème, une difficulté… du format « mise en abîme ».
Les passionnés d’affaires militaires comme les contrôleurs des programmes d’armement américains sont régulièrement entretenus des distrayantes nouvelles de l’avion de chasse F-35. Distrayantes pour l’observateur extérieur s’entend, non pour l’aviateur ni pour le contribuable américain. Non seulement le bouzin ne vole-t-il en effet que peu et mal, mais surtout ses difficultés persistantes semblent bien résulter au fond d’un défaut de maîtrise de sa complexité, qu’un optimisme illuminé au moment de la conception initiale de l’engin a laissé croître au-delà de toute raison, comme d’ailleurs de toute nécessité. Si bien que sa complexité risque bien de s’avérer impossible à maîtriser par les équipes d’ingénierie, dont il est pourtant permis de penser qu’elles ne sont pas constituées d’amateurs, mais plutôt de certains des meilleurs des meilleurs, à la mesure des capacités financières de l’Oncle Sam à motiver ce genre de personnes pour travailler sur un projet essentiel à la perpétuation de la supériorité aérienne qui est un – sinon ce n’est le – pilier essentiel de sa suprématie militaire.
Ce phénomène est particulièrement criant s’agissant du logiciel embarqué et du système de maintenance informatisé du F-35 avec leurs 24 millions de lignes de code.
Pardon ?
Vous avez bien dit : 24 millions ? Une quantité aussi réduite d’instructions élémentaires, une complexité si ridiculement faible, tellement hors de proportion avec la complexité du fonctionnement d’un cerveau humain… et déjà les meilleures équipes au monde ne savent pas faire face !
Alors, quelles sont les chances que qui que ce soit arrive à appliquer les principes et méthodes découverts par Jeannot Génie, une fois qu’il aura eu l’obligeance de se présenter, à supposer qu’il le fasse jamais ?
Le système F-35 : les meilleures équipes, seulement 24 millions de lignes de code
Ça marchera bientôt, dites ?
Il est temps de conclure
Le projet « IA forte », c’est-à-dire une conscience artificielle « quelqu’un dans la boîte » basée sur un ordinateur :
– Soit est par principe impossible – c’est ce qui peut paraître le plus probable, les conditions pour qu’il en soit différemment étant plusieurs, chacune d’entre elle impérative, dont l’une déjà fortement mise en doute par ce qui ressemble fort à une démonstration formelle. Cependant la chose n’est pas définitivement prouvée
– Soit est théoriquement possible, auquel cas il sera peut-être réalisé une fois que ces deux conditions auront été remplies :
1. Apparition du génie capable de comprendre le fonctionnement de sa propre conscience
2. Evolution d’une civilisation capable de coordonner les talents, les intelligences, bref de faire travailler ensemble des êtres humains à un niveau fantastiquement au-delà de ce à quoi l’humanité est parvenue à ce jour. En somme, atteignant une capacité de « maîtrise de la complexité » bien au-delà de celle à laquelle nous sommes déjà parvenus. Au point de pouvoir réaliser des projets informatiques incluant à coup sûr des milliards, peut-être même des milliers de milliards d’instructions
Dans cette deuxième hypothèse, l’humanité réalisera peut-être en effet un jour une IA véritable, dont l’orientation vis-à-vis de l’humanité posera effectivement question. Ce jour n’arrivera pas du vivant d’aucun être humain d’aujourd’hui. Il est fort possible qu’il soit aussi loin de nous que ne l’était la construction d’un réacteur atomique au moment où Démocrite spéculait sur l’existence de l’atome au Vème siècle avant notre ère…
126 réponses à “Intelligence artificielle forte, quatre raisons de douter, par Alexis Toulet”
Merci pour cette analyse passionnante à lire plusieurs fois.
Vous concluez de la sorte (je vous cite) »Dans cette deuxième hypothèse, l’humanité réalisera peut-être en effet un jour une IA véritable, dont l’orientation vis-à-vis de l’humanité posera effectivement question. Ce jour n’arrivera pas du vivant d’aucun être humain d’aujourd’hui. Il est fort possible qu’il soit aussi loin de nous que ne l’était la construction d’un réacteur atomique au moment où Démocrite spéculait sur l’existence de l’atome au Vème siècle avant notre ère… »
2500 ans plus tard les réacteurs atomiques existent pourtant.La plupart des « inventions » et objets qui sont notre environnement quotidien n’existaient pas voici 50 ans: Internet (L.Kleinrock,1961), téléphones mobiles (Motorola, 1973), etc.La liste est sans fin des percées et mutations scientifiques qui ont débouché sur des réalisations technologiques réputées inimaginables et pourtant devenues tangibles (télécommunications, aviation, médecine etc.)
Sauf que la réalité nous rattrape:
Environnement favorable à notre espèce, en voie de disparation.
Augmentation des populations hostiles aux TENANTS du modèle technologique.
ET utilisation des technologies CONTRE ces NANTIS
Sauve qui peut général et panique à bord au moindre évènement – voir Irma et Saint Martin. MDR 🙂
Pour le fond, si je suis assez d’accord avec le Taulier dans sa contestation des 2 premiers arguments, je pense que c’est pas demain que le terreau sera suffisant pour que le remplacement de l’Humain par l’IA soit envisageable.
Au moins pour les raisons ci dessus.
A la limite je penserais même que le Robot Pensant à plus de chance de prendre pouvoir si l’humanité est proche de disparaitre, tout en ayant maintenu certains havres de haute civilisation et et de haute technologie. On pourrait dire des refuges « automatisés » pour riches. (genre monde à la Zardoz – http://www.imdb.com/title/tt0070948/?ref_=nv_sr_1 – https://fr.wikipedia.org/wiki/Zardoz)
A la réflexion c’est à se demander si ce n’est pas justement ce qu’ils cherchent. 🙂
On peut déjà répondre très aisément à la question/ condition N°1
C’est la nature et elle seule (je suis matérialiste) qui a produit les animaux, les primates puis l’homme… et sa conscience.
Et il est évident que la nature n’a pas eu besoin d’une représentation entièrement compréhensible de l’objet conscience, pas plus que pour produire un œil, un système sanguin…
Ce qui s’est produit au cours de l’évolution sur quelques millions d’années par le jeu des essais, erreurs, contraintes, nécessités, pourrait tout aussi bien être reproduit / simulé au cours de milliards et de milliards de « calculs » effectués par des analogues de réseaux de neurones.
Réseaux de neurones artificiels dont on nous dit aujourd’hui que la complexité est telle que après apprentissage de type probabiliste, personne ne « comprend » en détail ce qui s’est réellement passé dans la machine.
Sur un autre plan, si l’on regarde le cerveau comme une machine à traiter l’information, et la conscience comme une propriété émergente de ce traitement hautement sophistiqué de l’information, alors il n’y a aucune raison – me semble-t-il – pour que le support matériel de ce traitement de l’information soit uniquement organique (protéines, lipides, glucides, neurotransmetteurs.. ). Si les fonctions de traitement de l’information peuvent être assurées par des systèmes artificiels de manière massive et organisée sur le mode neuronal, alors c’est juste une question de temps.
@ MerlinII
« Ce qui s’est produit au cours de l’évolution sur quelques millions d’années par le jeu des essais, erreurs, contraintes, nécessités, pourrait tout aussi bien être reproduit / simulé au cours de milliards et de milliards de « calculs » effectués par des analogues de réseaux de neurones. »
Il y a là deux hypothèses sous-jacentes :
1) Qu’une simulation informatique pourrait sur le principe reproduire avec une fidélité suffisante le fonctionnement physique concret de la nature. Ce qui n’est envisageable que si ce fonctionnement est… calculable, justement. Cela revient à poser la question 2 du texte, non plus seulement pour le cerveau humain, mais pour l’ensemble de la biosphère, et à supposer que la réponse est positive
2) Surtout, que des ordinateurs concrets d’aujourd’hui ou d’un futur pas trop éloigné aurait la capacité de calcul suffisante.
Et cette deuxième hypothèse me paraît exclue. Songez qu’il a fallu 40 minutes à un superordinateur pour simuler le fonctionnement physique de 15 pauvres cm3 d’un seul cerveau pendant une seule seconde. Combien lui faudrait-il de temps pour simuler une biosphère complète pendant des millions d’années ?
Il y a là tant d’ordres de grandeur de différence que je ne vois pas comment cela pourrait devenir possible avec quelque ordinateur même futuriste que ce soit.
Mon sentiment est que la conscience n’a rien de fondamentale. Cela ressemble plutôt à un phénomène émergeant, un peu comme la température émerge, par moyennisation, de l’agitation de particule.
La conscience m’apparaît donc plutôt être un truc que l’on mesure et dont la mesure suffit à la décrire absolument.
Bref, je crois qu’on peut exclure la problématique de la conscience en IA. En effet, si on réussissait à reproduire en silicone l’ensemble des processus (dans le temps et l’espace) qui font émerger, aujourd’hui, d’une « simple » molécule d’ADN une conscience, on aurait la bonne surprise de voir émerger une conscience sans que l’on ait programmé autre chose qu’un schéma de construction sur une base d’entrées complexes.
Que ce ne soit pas pour demain, ni après-demain, je veux le croire par contre. C’est vrai que le cerveau humain et toutes ses ramifications ont une complexité calculatoire dense et on peut supposer que la conscience émerge à partir d’une densité calculatoire extrême.
C’est néanmoins possible qu’on l’on atteigne prochainement un stade où il y a un petit débat, quand même, sur l’existence d’une conscience dans autre chose que le vivant.
Ceci étant, les défis que posent l’IA à notre société sont déjà là. Pas besoin de trop théoriser sur la possibilité d’une IA forte et généraliste pour s’y atteler.
Mon « sentiment » est que « la conscience » n’a rien de fondamentale , est paradoxal …
Sinon , je suis plutôt « dans le sentiment » de votre dernière phrase .
Ah ? Je ne dicerne pas de paradoxe.
Ce que je veux dire, c’est que ce n’est pas parce que j’ai conscience (ou un sentiment) de moi-même en train d’élaborer une réflexion (ou n’importe quel autre processus intelligent) que cette conscience est l’élément fondamental qui fait que cette réflexion existe.
D’ailleurs, toute action/reflexion que l’on mène a déjà commencé physiologiquement avant que l’on en prenne conscience (il y avait un papier sur ce blog d’ailleurs à ce propos) : la conscience n’est peut-etre que le ressenti du processus et non le processus en lui-même.
En somme , il suffirait d’avoir le sentiment , ou le sentiment ressenti ( la conscience selon votre exposé ) que c’est le processus qui est fondamental ?
Comment « a- t-on accès » au « processus ?
Une remarque sur les 24 millions de lignes de code du F-35
Combien d’entre nous seraient capables de construire une ruche ou une termitière ?
Et combien de ligne de code possède une fourmi pour vivre sa vie de fourmi. Zéro.
Je suis persuadé, mais sans pouvoir l’expliquer, que l’I.A. forte (avec conscience) n’aura pas besoin de millions ou de milliards de lignes de code. Peut-être même aucune.
On me dira que l’ADN des fourmis y tient lieu. Mais précisément, l’ADN c’est de l’information « gelée » dans une structure matérielle. Information résultant de millions d’années d’essais, erreurs, contraintes, nécessités.
Sélection darwinienne, la même qui a produit notre cerveau, et qu’une machine conçue pour apprendre et sélectionner sur un mode darwinien pourrait reproduire (sans lignes de code).
Question de temps.
Un seul mot « émergence » avec ses voies multiples. L’œil du poulpe est paraît-il plus compliqué que le notre.
La nature (?) pour arriver à notre pseudo-sommet a essayé a peu prêt toutes les combinaisons, au moment d’un foisonnement créatif et anarchique il y a 700 millions d’années environ. Les schistes de Burgess au Canada sont de véritables archives de cette période. Une seule créature a donné naissance à une lignée -hors oursin et étoile de mer-, c’est une petite « cordée » dotée d’une amorce de colonne . C’est l’ancêtre de tous les animaux dotés d’une moelle épinière protégée se terminant par un encéphale. Un merveilleux biologiste US a écrit un livre sur le sujet que j’ai trouvé passionnant.
Si l’IA forte table sur le temps, et même si elle exploite la complexification en boule de neige -ou effet d’avalanche, une forme d’émergence en soi- c’est pas demain la veille qu’un résultat viable sera obtenu. Ce sujet me terrifie, mais je dormirai tranquille. Il est évident que l’explication de Penrose faisant appel à la mécanique quantique est un cercle vicieux. Le fait que ce bricolage est hautement opératif et reproductible, mais non explicatif ne nous garanti rien. Il faut une percée conceptuelle, et comme la matière noire, on ne sait pas ou chercher… En revanche patience et longueur de temps sont une bonne solution. A vue d’homme, une amorce de solution dans 100 ans au moins, ou 1000 ans. Quant à faire un truc qui tienne la route, ce sera pas encore gagné. 700 millions d’années ?
Le tiers ? le 1/100 ième ? Je ne parierai pas à moins…
Même à dix ans , j’ai le privilège de n’avoir jamais à empocher ou payer le montant du pari !
Je ne sais pas.
Le texte d’Alexis donne trois raison à la création d’une intelligence forte et généraliste (bref, à la conscience) :
1 ) sa compréhension
2 ) son déterminisme
3 ) sa reproductibilité
C’est discutable.
Il est complètement possible que l’on puisse créer une conscience sans qu’on comprenne sa nature précise. Par accident, par exemple. Cela s’est déjà vu.
Le déterminisme n’est pas un prérequis non plus. On peut très bien construire des systèmes qui incluent une génération aléatoire dans leur fonctionnement (c’est déjà d’ailleurs le cas sur des systèmes d’apprentissage automatique).
Le sens de mon propos initial néanmoins est à mettre en relation avec cette notion de reproductivité. Je distingue deux choses : la complexité technologique et la complexité conceptuelle. Je suis en phase avec l’auteur sur la complexité technologique (*). Par contre, je suis plutôt en désaccord avec la complexité conceptuelle, je ne crois pas que le phénomène de la conscience nécessite des milliards de milliards de lignes de codes, j’opterais, à parier, au contraire sur quelque chose de plus simple qui la construit de lui même. Peut-être pas aussi simple que la fourmi de Langton, mais bon, voilà l’idée : quelque chose du domaine de l’émergence.
On manque sans doute moins de génies que d’une bonne intuition dans ce domaine.
(*) : Le mur est haut en terme de capacité de traitement des données
– Une machine de turing est un modèle abstrait d’un ordinateur, qui permet de démontrer mathématiquement certaines choses sur les capacités de ce genre de machine (abstraites). Les ordinateurs réels ne sont pas des machines de Turing.
– Les machines ont deux avantages énormes sur notre biologie:
1) elles ont accès à des matériaux auquel le vivant n’a pas eu accès durant son évolution (toutes les terres rares par exemple). Le vivant n’a essentiellement accès aux composés chimiques présents à quelques mètres de profondeurs, et ce qu’il y a dans l’air et à la surface, et dans un rayon réduit.
2) elles ont accès à beaucoup plus d’énergie que le vivant (les centrales électriques)
Donc, par principe, les machines ont des possibilités largement supérieure aux système biologiques.
– L’évolution a façonné l’esprit humain par pure méthode essai-erreur aveugle en quelques centaines de millions d’années. En principe en testant tout cela de manière structurée et avec un but précis, et avec accès à un modèle qui fonctionne sous les yeux, on devrait pouvoir répliquer cela, non?
– L’homme a toujours aimé se raconter des histoires sur son caractère unique, et cela a à chaque fois été démoli par la science (position centrale dans l’univers mis à mal par l’héliocentrisme, rationalité mise à mal par la psychologie, position par rapport à aux animaux mise à mal par la théorie de l’évolution, etc…). A priori, on ne devrait pas être surpris que l’histoire se répète…(même si ce n’est pas une garantie)
Sans etre un grand defenseur de la possibilité d’une IA, il me semble effectivement que l’article est tres « anthropocentrique »…
Pourquoi l’IA devrait-elle etre du type « humain » ?
On peut supposer que l’intelligence n’est pas un monopole humain, du coup qu’est ce qui empeche de créer qqch de différent mais malgré tout « utilisable »?
De plus, si seul des mécanismes d’apprentissage sont modelisés et mis en rapport avec le « data science », on peut malgré tout arriver a qqch d’improbable mais qqch quand meme !
Ce ne sera p-e pas du domaine de l’intelligence humaine mais qu’importe !
Pourquoi l’IA devrait-elle être du type « humain » ?
Questions subsidiaires:
– Pourquoi la vie serait-elle nécessairement une machinerie de type biologique ?
– Créer une machine réactive et reproductible, n’est ce pas déjà créer une « vie » ?
– l’intelligence humaine est elle la seule à posséder le Grall de la conscience ? (thèse de plus en plus écornée par des travaux récents en éthologie)
– Comment détecter et identifier l’émergence d’une IA de type non humaine quand on en est encore à nier conscience (voire encore parfois la sentience) de notre « cousine » en évolution: l’intelligence animale ?
– A ce titre, peut on imaginer que l’IA existe déjà mais que nos capacités de représentation naturellement anthropocentriques nous empêchent d’en prendre conscience ?
– Si l’IA existe ou va exister, pour un peu qu’elle puisse être détectée, ne pourrait elle pas être si différente qu’intrinsèquement incompréhensible, présentant une impossibilité totale de communication avec la nôtre ? Comment communiquer avec ce qui ne partage pas notre conditionnement évolutif millénaire ?
– Si la singularité comme acte de naissance d’une IA de type humaine est un mythe, que vaut cette notion de singularité à propos d’une IA de type non humaine ?
« par principe, les machines ont des possibilités largement supérieure aux système biologiques. »
Pas d’accord.
Les machines sont beaucoup plus intensives et sélectives en énergie que nous, du coup largement moins autonomes.
Elles n’ont pas de moyen de reproduction de l’individu (éventuellement une forme de scissiparité pour les virus informatiques)
Leur capacité de réparation sont faibles comparées aux systèmes organiques.
Jusqu’à maintenant elles sont très peu évolutives.
La « pure méthode essai-erreur aveugle en quelques centaines de millions d’années » confère à mon avis une énorme avance au processus « biologique » évolutif vs processus créatif humain. (la faiblesse de cette phrase étant « à mon avis » ;-D).
Il n’y a aucun obstacle connu au robot fabriquant un robot identique à lui-même. Dans l’état présent de la technique, c’est juste une question de vouloir le faire.
@ Mathieu Van Vyve
« Une machine de turing est un modèle abstrait d’un ordinateur, qui permet de démontrer mathématiquement certaines choses sur les capacités de ce genre de machine (abstraites). Les ordinateurs réels ne sont pas des machines de Turing. »
C’est vrai, la machine de Turing est une machine abstraite, dont les ordinateurs concrets ne sont que des réalisations particulières. La raison pour laquelle ce ne sont pas des machines de Turing au sens plein, c’est parce qu’ils sont limités.
On ne se pose pas la question de la mémoire ni du temps disponible pour une machine de Turing. Elle est supposée disposer du temps et de la mémoire nécessaire, en quantité indéfinie. En revanche, même si la capacité de calcul et de mémoire des superordinateurs est véritablement phénoménale, elle est évidemment finie.
Encore une remarque sur la question N°1
Ce n’est pas la première fois que l’homme produit des « trucs qui marchent » sans en comprendre le fonctionnement.
Mon prof de biochimie (Jean Trémolières) nous disait que tous les aliments fermentés (pain, bière, vin, choucroute, yaourt..) ont été « inventés » et retenus en raison de leur apports en vitamines du groupe B, bien avant de savoir même ce qu’était une vitamine.
Pas valable. Le temps permet la sélection. Pas de Vitamines du groupe B = débilités variées. Exit. Et le prochain groupe expérimentateur à toute sa chance, ou non. Mais le « bon » ou le chanceux viendra, sûr… Pas besoin de savoir ce qu’est une vitamine.
Comme je l’ai déjà écrit ici , tout cela relève pour moi du délire scientiste !
JAMAIS une machine n’aura conscience d’elle même , cela relève de la biologie , seule la nature produit la conscience !
Et pour répondre a la remarque que me fit jadis le maître de ces lieux en me répondant » prouvez le « .
Je vais le prouver par l’absurde , si la conscience de soi n’est pas biologique , dieu existe !
Et si la nature c’est dieu ?
+1
Moi , je ne me prononce pas , je me contente de renvoyer à une faille dans le raisonnement de Jojo .
Cher Jojo, nous ferraillons avec la même épée (et le taulier élude pareillement : a un préjugé rationaliste impensé, mais bon on va pas le taquiner avec ça).
Il faut le passer sur le divan pour lui révéler son impensé , mais il dit dans la vidéo du jour qu’il préfère le fauteuil du psy au divan du patient .
Donc , pas gagné d’avance .
Moi non plus mais c’est une des possibilité (meme si je n’ai jamais vraiment compris l’interet de placer le nom de dieu sur la nature)
@ Jojo
Vous exprimez avec force ce qui est pour vous une conviction bien ancrée. Cependant cette conviction – comme celle de n’importe qui d’autre – est impossible à partager sans une argumentation. Et ce débat doit avoir pour base les faits et les raisonnements, qui sont encore la chose au monde la plus aisément communiquée, tandis que les convictions intimes ne se communiquent guère…
« Seule la nature produit la conscience »
Nous faisons partie de la nature, non ? Qu’est-ce qui nous empêcherait de produire la conscience par les mêmes moyens que la nature à part nous ?
le texte s’attache essentiellement à expliquer la difficulté de concevoir des machines qui aient une conscience. Mais ce que craignent les IA sceptiques (ou IAphobes) dont je suis a priori, n’est-il pas justement le fait que ces machines n’aient PAS de conscience ?
sur l’anecdote du F35, 24 millions de lignes de codes je ne sais pas ce que ca peut representer, mais je ne vois pas en quoi cela serait rassurant que la creme de la creme des scientifiques américains n’arrivent pas à les apprivoiser …
@ Rere
En fait, la difficulté remarquable et persistante à mettre au point cet avion est un exemple du problème de « maîtrise de la complexité » déjà pointé par Paul Jorion.
Nous sommes à bien des égards désarmés pour faire face à l’augmentation de complexité de notre monde. Et c’est également visible dans certains grands projets techniques, comme le F-35.
A mon sens, c’est là l’argument le plus fort pour suggérer que l’IA « égale ou supérieure à l’homme » n’est pas pour demain. Chacun des trois premiers points est discutable – même si la démonstration de Penrose est honnêtement impressionnante – mais quant à la question pratique… Aussi complexe et difficile que soit la réalisation d’un avion de combat moderne, j’ai beaucoup de mal à imaginer que ce problème soit plus difficile que celui consistant à construire une IA qui serait l’égal de l’esprit humain ou le dépasserait.
C’est un très mauvais exemple. Le f35 est une gabegie inepte, mais pas pour les actionnaires.
Bien vu ! Ceux qui affirment qu’on ne produira jamais la conscience dans une machine veulent surtout dire : « Je détesterais qu’on produise la conscience dans la machine ! ».
Finalement, je vais perdre mon travail remplacé par un ordinateur con et pas par un ordinateur intelligent.
Je ne suis pas sur que cela me console.
L’ordinateur ( et sans doute l’humain ) intelligent dira que si c’est un travail con , autant le laisser à un ordinateur con .
J.
Justement, un bon ordinateur rend con la plupart des travaux qu’il touche.
Prenons l’exemple du chauffeur de taxi parisien.
Autrefois, il devait mémoriser un nombre incroyable de rues, leur agencement et leurs sens interdits. Il devait avoir une représentation spatiale de la capitale et décider du trajet optimum pour transporter son client d’un point à un autre et être prêt à l’ajuster à chaque instant selon les travaux urbains ou embarras de la circulation. Si l’on ajoute qu’il lui était utile d’avoir une riche conversation qui évitait que le client prenne conscience du léger détour destiné à augmenter le prix de la course, on peut considérer que son travail nécessitait une forme assez évoluée d’intelligence.
Aujourd’hui, il suffit au taxi ou à l’uberman de savoir programmer son GPS et de suivre ses instructions. L’intelligence informatique s’est substituée à celle exigée auparavant des chauffeurs.
Il en est de ce métier comme de bien d’autres où le travailleur est réduit à ce que Van Vogt appelait dans une de ses nouvelles un « opérateur humain » simple prolongement de la volonté des décisions de la machine.
Et, dernière étape, personne, surtout pas vous, ne verra d’objection à ce que ce travail à la con soit robotisé par Tesla ou par d’autres.
Donc le transfert d’intelligence de l’activité humaine à l’ordinateur justifie la disparition de l’humain dans cette activité. Peu m’importe que l’ordinateur soit véritablement intelligent ou non (j’ai personnellement des doutes sur la véritable intelligence de l’espèce humaine). Peu nous chaud qu’il soit ou pas conscient (notre moi est-il beaucoup plus que la ligne de front entre ça et surmoi ?).
La seule chose qui compte est que la machine se substitue à nous dans des compartiments de plus en plus nombreux de notre vie active sans que d’autres compartiments apparaissent qui justifieraient que nous abandonnions les premiers.
Ah bon ?
Y’a pas mieux à foutre pour un être humain qui justifierait d’être autre chose qu’un Travis Bickle raté ?
@ vigneron
Mes réactions à la lecture de votre réponse :
1°) Merde, j’ai réveillé vigneron !
2°) C’est qui déjà Travis Bickle ?
3°) (Après recherche documentaire) Travis Bickle étant déjà un raté, c’est quoi un raté raté ? Si on considère « raté » comme une simple qualité définissant la personne, alors on a un super raté, un raté au carré, en quelque sorte. Mais justement si on voit dans « raté » une qualité négative, alors, moins par moins faisant plus, on se retrouve face à une réussite exemplaire…
Sinon, vous avez raison, il y a mieux à faire que taxi. Encore faut-il pouvoir le faire (ce qui est, je crois, le sens de ce que j’ai écrit).
@Renard :
l’exemple du taxi est un standrad quand on veut mettre en évidence les trois types de savoir à rechercher dans l’exercice d’un » métier »:
– savoir tout court : connaître le code de la route et la « conduite » de son véhicule ( une IA sait le faire , voire plus surement qu’un humain ) , connaître les rues et coordonnées du secteur couvert ;
– savoir-faire : savoir choisir le meilleur parcours , le moins encombré au bon moment ….( là aussi l’IA peut faire beaucoup mieux )
– savoir être : descendre pour ouvrir la portière , ranger les bagages dans le coffre , faire la conversation , indiquer les meilleurs sites à visiter .. C’est là effectivement que la plus value relation humaine peut se conserver une niche écologique , mais , surtout si on relève que cette relation n’est pas toujours au rendez vous , je ne suis pas sur qu’en tant que « service » au client , on ne puisse pas développer et offrir une « prestation » au moins égale à celle de pas mal de chauffeurs . On peut aussi dans le même registre noter l’essor des robots accompagnateurs dans les maisons de retraite .
En concluant que c’est le type de relation souhaitée qui fait la qualité du métier et de ses acteurs ( fournisseurs -receveurs) , on retrouvera la pertinence d’une vieille maxime :
il n’y a pas de sots métiers , il n’y a que de sottes gens .
@ Juannessy
Je milite donc pour le droit fondamental des sottes gens à avoir un métier ou un emploi; ou, à défaut, les revenus et situation sociale qu’il apportent.
Et ça ne heurte aucun des grands esprits d’ici que pour « gagner sa vie » des gens soient obligés de se transformer en larbins obséquieux ?!
‘Tain ! Il est pas prêt de changer le monde…
@Renard :
Bonne conclusion .
Le problème est que 80% (au doigt mouillé) de l’activité humaine des pays développés sert uniquement à faciliter la production du travail de ceux qui utilisent les 20% restants pour produire essentiellement de l’enrichissement à un de plus en petit nombre de gens.
Les besoins fondamentaux ne sont fournis que par une petite proportion des actifs. Tout le reste c’est du superflu ou du faciliteur de travail à grande échelle.
Que les actifs se rassemblent en multiples petits groupes sociaux pour répondre à leurs besoins fondamentaux et « l’économie » s’arrête.
@ Renard
La question de l’impact de la discipline IA – dont les réalisations sont bien réelles pas d’erreur là-dessus ! – sur la productivité et sur l’emploi est indépendante de la question « l’IA peut-elle aboutir à un esprit artificiel au moins égal à l’esprit humain ».
Celle-ci se discute. Mais quant à l’impact de l’IA sur l’emploi, il est clair qu’il menace d’être profond.
@ Jacquot
Mon commentaire portait bien sur votre question : « L’IA peut-elle aboutir à un esprit artificiel au moins égal à l’esprit humain ?»
C’était ma façon à moi de dire qu’elle n’est pas pertinente.
Peut importe que le goupil soit ou non malin. On le suppose tel quand il arrive à investir le poulailler.
Il en est de même pour chaque forme d’intelligence. Nous constatons ou nous supposons qu’elle existe quand nous la croisons.
Et si elle arrive à éjecter un humain de son poste de travail, c’est qu’elle est dans ce domaine supérieure à l’intelligence de l’humain.
Quant à la réelle intelligence de l’humain, inutile de nous en gargariser. Comme le disait Calvin à Hobes : « La meilleure preuve qu’il existe une vie intelligente quelque part dans l’univers, c’est qu’aucune n’a tenté de nous contacter. »
« Je ne suis pas sûr que cela me console »
Non, c’est encore plus humiliant !
Peut-être m’égarai-je avec mes quelques neurones qui travaillent lentement, mais, au fond, ne s’agit-il pas de se demander si l’homme dispose ou non, d’une « conscience morale »… sans préjuger du comment elle serait apparue, ni comment elle fonctionne (ou pas !) ?
Cet attribut, s’il existe, faisant la différence entre « intelligence humaine » et « IA ».
Peut-être même qu’il serait « injectable » dans une machine 🙂 ???
Émile Durkheim appelait la conscience morale, « le social intériorisé ». C’est en effet ce qui permet la vie en société.
« La position pleinement rationnelle à ce stade est en fait la position « agnostique », c’est-à-dire de ne pas conclure sur le matérialisme en tant que philosophie, parce que pour ce qu’on en sait aujourd’hui rien ne le démontre, et rien non plus ne l’interdit. »
–> Qu’est-ce que c’est que ce baratin ?
Non certainement pas, la seule et unique position rationnelle est de considérer que Dieu n’existe pas. Le reste n’est que délire pseudo-scientifique.
L’hypothèse de l’existence de l’âme et son contraire ne sont en aucun cas deux hypothèses de même valeur. C’est en se fourvoyant dans la position agnostique, que certains états du centre des USA par exemple laissent prospérer à dessein le créationnisme aux côtés du darwinisme (voire oublient carrément ce dernier) dans les programmes des écoles. Etre agnostique n’est aucun cas une (et encore moins la) position rationnelle, c’est déjà la porte ouverte à tout et n’importe quoi (magie, fantômes, existence de l’âme, dieu(x)…)
@ Juste Z
« L’hypothèse de l’existence de l’âme et son contraire ne sont en aucun cas deux hypothèses de même valeur »
La question 1 de l’article n’est pas métaphysique, et le mot « âme » n’est ni écrit ni sous-entendu.
Cette question est philosophique : la méthode scientifique permet-elle « d’apercevoir ce qui serait en définitive la vérité ultime : que l’ensemble de ce qui existe est (…) soumis aux règles de la matière telles qu’elles sont progressivement dévoilées par l’effort scientifique humain »
Le point qui peut faire débat, c’est le caractère « ultime » des vérités scientifiques, le fait que TOUT ce qui existe soit soumis aux règles de la matière telles que nous les découvrons progressivement.
Ultime ou non, totalité de ce qui est ou non. Sur ce point qui j’insiste est philosophique et non religieux, et qui est non décidable à l’heure actuelle, la position « agnostique » est la plus rationnelle, parce que lorsqu’on n’a pas encore d’argument fondé en raison pour décider d’une question… il vaut mieux le reconnaître, et avant tout devant soi-même.
L’agnosticisme, c’est l’athéisme civil : « Vous vous trompez dans vos croyances mais je ne vous considère pas stupide pour autant… »
Le baratin on le connaît, c’est surtout que ce n’est pas la question.
Dieu ou pas il y en a qui souffrent
et on peut se bouger les miches.
Pour dieu ,
On verra quand tout les êtres humains auront un toit à manger à boire de l’amour humaine, et les prosélite dans les deux sens
je leur dit ZUT 😉
Dieu a déjà eu beaucoup de temps et d’occasions pour nous convaincre de son existence…
Encore une fois, je m’insurge contre le terme « Intelligence artificielle ».
Soit l’intelligence électronique n’est qu’un vulgaire calculateur prolongeant l’Ego de ses créateurs (rien de plus qu’un assistant électronique sophistiqué) ;
Soit elle est consciente et c’est un être vivant, d’un nouveau genre, de plein droit (sujette aux caprices de ses voisins humains et du temps).
Et, comme Penrose, je doute que l’humain produise volontairement une nouvelle intelligence, en dehors de la méthode habituelle ; Méthode qu’il ne maîtrise pas vraiment, sinon le monde ne serait pas dans la situation lamentable qu’on lui connait.
Pourquoi ne parle-t-on pas de l’intelligence humaine. Sa « programmation » est un domaine moins popularisé mais où les progrès sont réels, pour le meilleur et le pire.
Vous considérez que l’intelligence ne va pas sans la conscience, ce n’est là qu’une hypothèse comme une autre.
La machine qui bat tous les champions de go ou de poker ne serait pas intelligente ?
Penrose est un grand mathématicien. Cela ne l’empêche d’être un mystique qui ne recule devant aucun raisonnement capillo-tracté à base de microtubules et de mécanique quantique pour nous prouver que l’âme existe … quand même.
Bien différencier « agent intelligent », soit un programme doué de certains degrés de liberté dans son apprentissage non supervisé (non scripté) , et IA forte (Science fiction pour l’instant et pour encore un moment).
Yann LeCun, dans Libération, le 1 Août 2017 : http://www.liberation.fr/futurs/2017/08/01/intelligence-artificielle-on-se-calme_1587583
«C’est à peu près clair qu’on réussira à produire des agents intelligents. Mais on ne sait pas combien de temps ça va prendre, et on ne connaît pas encore les obstacles qui se dresseront sur notre chemin. L’histoire de l’intelligence artificielle est une succession de promesses qui n’ont pas été tenues. On est donc devenus plus prudents.»
On notera en passant que si la prudence est l’une des quatre vertus cardinales , l’intelligence n’est appelée ni en vertus cardinales , ni en vertus théologales .
@Juan,
Absolument ! C’est le non dit de Yann LeCun (je conseille sa vidéo au collège de France). Le mot « agent intelligent » apparaît certainement dans un contrat commercial entre une firme et son client pour humaniser la « présentation » de données enregistrées sur des bases de données gigantesques hébergées sur des machines à travers le monde (un business en soi surtout depuis l’avènement de nos téléphones portables). J’imagine mal une firme baptiser son projet de code d’exploitation de Big Data (IA) d’agent crétin 🙂
Le Cun : « L’histoire de l’intelligence artificielle est une succession de promesses qui n’ont pas été tenues. »
… pas tenues dans les délais initialement prévus. Souvent le délai était juste dû à la puissance de calcul.
Moi qui vous parle, mon bon Monsieur, je peux vous assurer que des obstacles que l’on disait infranchissables de mon temps (tousse ! tousse !) ont été franchis depuis.
Vu les accélérations dans le domaine, j’imagine que le principe même de la singularité sera surprennant : pas comme prévu et plus tôt que prévu…..
« pas comme prévu et plus tôt que prévu… »
Plus que probable !
Pour couper court à ce débat orwellien, ceci :
Quiconque obéis à un ordinateur, quelle qu’en soit la sophistication, fait preuve de bêtise naturelle. Ceux qui s’en servent comme instrument de pouvoir sont des salauds. C’est bien pourquoi ces derniers le baptisent « intelligence artificielle », exonération morale.
Salops d’anglo-saxons !
( je crois que c’est eux qui ont créé ce terme) .
Juste en passant :Salope = « Sale-huppe » ; la huppe sécrète un liquide nauséabond afin de protéger son nid des prédateurs. Autrefois on entendait dans les campagnes « Tu es sale comme une huppe! »(merci France inter)
– « Pu-Pu-Pu »
@Ludyveen :
J’ai beau être vieux , je n’avais jamais entendu ça dans mes campagnes . Il ne doit pas y avoir de huppes en Auvergne .
Merci de l’info , même si c’est un peu délicat à placer dans les repas de famille .
@ Schizosophie
Les ordinateurs sont des outils et rien de plus. Cela ne changera qu’à l’arrivée de la « Singularité » – si elle arrive jamais.
Celui qui obéit à son outil n’est pas un « salaud ». C’est plutôt quelqu’un qui possédant un marteau, voit toutes les questions comme des clous, et entreprend donc de taper dessus.
Bien sûr, s’il essaie de faire de la cuisine, ou du jardinage, les résultats seront peut-être décevants… 🙂
Irréfléchi oui, mais d’un autre côté c’est un travers très humain.
Vous confondez « obéir » et « se servir de ».
Je ne crois pas. Au sens propre, on ne peut obéir qu’à une personne, en aucun cas à un objet.
Le seul moyen d’ « obéir » à un outil, comme un ordinateur ou un marteau, c’est de faire sienne sa logique, calculatoire pour l’un, percutante pour l’autre. D’où la comparaison que je choisissais.
Ça me rappelle une citation de Jean Cazeneuve que j’ai déjà souvent faite ici :
» La distinction entre les deux types de vie matérielle , celui qui consiste à piller la nature et celui qui la transforme (…) correspond à quelque chose de très profond . »
Qu’est ce qui fait « qu’on se plie » ( forme d’obéissance ) à transformer plutôt qu’à piller , car , paradoxalement , piller me semble plus » inné » que transformer .
Façon de dire qu’il doit bien y avoir de l’obéissance dans le fait de se « brider » à se satisfaire de « se servir de » .
Encore une histoire de ça , de sur-moi et autres sur-nous .
« 2001, l’Odyssée de l’espace » (Stanley Kubrick, 1968)…Mais pourrait on déjà définir ce qu’est l’intelligence ? (pour moi, c’est un mystère…)
tout comme conscience !
Du coup prétendre qu’elle est impossible dans une machine revient à « croire » rien de plus
On considère généralement chez les gens plus ou moins intelligents , qu’il y a au moins deux sortes d’intelligence :
– inductive ,
– déductive ;
Dans les deux cas, j’ai un peu tendance à considérer que c’est un « programmeur » humain capable de « raisonner » dans ces deux modes qui analyse et « prépare » les « transfert » de « l’intelligence humaine » vers « l’intelligence artificielle ».
Jusqu’à la conclusion de l’opposition entre Paul Jorion et Alexis Toulet , j’en suis à noter les difficultés de l’IA à se confronter au traitement des langages naturels , laquelle IA en devient plus humaine puisqu’ elle a des « ratés » ( mais pas les mêmes ).
La science « heuristique » ( mais donc élaborée par des humains) nous dira peut être si un jour une IA « s’exclamera » toute seule comme une grande : Euréka !
Bon , qu’est ce qu’on fait , en attendant la clé de l’énigme entre matérialiste et idéaliste ?
Je viens de regarder la vidéo du jour .
Le vainqueur est le calcul …..
biliaire .
Bof, les machines ont aussi leurs pannes. Et nous avons un avantage sur elles : nous avons des pièces dont on nous dit qu’on peut les enlever sans que ça fasse la moindre différence !
Par trop anthropocentrique et réducteur à mon avis.
A priori, pour moi:
Ne peut-on définir l’intelligence comme simplement faire montre d’une certaine capacité à interagir avec son environnement ?
Ainsi une plante est intelligente à sa manière. Un rocher ne l’est pas (il ne fait que subir).
Pour le coup je tape peut-être un peu large ?
A posteriori, d’après wikipedia (https://fr.wikipedia.org/wiki/Intelligence) un blender peut-être considéré par certains comme intelligent, je n’aurais pas été jusque là en tant qu’objet inerte (de même pour le plus sophistiqué des processeurs…) après moult hésitation quand même. Mais je qualifierais volontiers une bactérie d’intelligente.
@juste z :
On ne peut pas dire cependant que chercher l’intelligence d’ une bactérie ne soit pas « réducteur ».
Ce n’est pas là que je chercherai la clé de l’intelligence . De la vie , davantage .
@Paul Jorion :
Côté pannes et réparations , mon expérience personnelle me démontre cependant qu’il arrive un moment où , même si les rustines sont plus solides que l’original , le pneu de base rend peu à peu « l’âme » ( ce terme étant aussi étrange pour un pneu que pour un humain , « dernier souffle » étant sans doute doublement mieux indiqué ) .
Bonne question: c’est quoi l’intelligence ?
Tentons une réponse; la faculté d’adaptation de celui qui la possède de survivre dans son environnement et de réagir efficacement aux changements de celui-ci.
@MerlinII,
Après ma propre réponse à la même question, je me suis demandé. Mais du coup quelle différence avec « être vivant » ?
Et je prolonge par une réflexion un peu macabre mais bon:
1/ Peut-on qualifier un cadavre humain d’intelligent ? Sinon pour quelle raison ? S’il n’est pas mort depuis très longtemps, il porte après tout encore en lui tout ce qui faisait de lui un être intelligent, seule l’étincelle de vie lui manque qui lui permettrait d’exercer cette intelligence.
2/ Un ordinateur ou un robot sont-ils donc plus ou moins équivalents à des cadavres ?
Le concept de vie et d’intelligence sont-ils à ce point liés qu’ils sont en fait indissociables ?
D’où la nécessité d’adjoindre le terme d’artificiel à intelligence dans le cas d’une machine ? ou le terme « artificiel » fait-il uniquement référence au fait d’être une création humaine et non « naturelle »…
Encore une fois: quelle différence existe-t-il en définition finalement entre « vivant » et « intelligent » ?
Existe-t-il un seul organisme, une seule cellule même prise individuellement qui ne puisse être qualifiée d’intelligent ?
Si donc être vivant et être intelligent sont deux concepts à ce point difficiles à dissocier, alors quel sens peut donc avoir le concept d’intelligence artificielle exactement ?
Ou est-ce ma nature d’être vivant qui m’empêche de percevoir cette différence.
Ou alors…. je suis très con autre possibilité. 🙂
On peut aussi prendre un bon dictionnaire , et trouver que les réponses sont plus subtiles et multiples .
L’intelligence , ça peut être de commencer par faire le tour de ce qui s’est déjà raconté dans le monde .
@Juannessy dit :
« On peut aussi prendre un bon dictionnaire , et trouver que les réponses sont plus subtiles et multiples .
L’intelligence , ça peut être de commencer par faire le tour de ce qui s’est déjà raconté dans le monde . »
–> Ce que vous n’avez pas manqué de faire, bien entendu ?
Intelligence : capacité de déduction au delà de la conscience et de la réflexion.
@ MerlinII
« Bonne question: c’est quoi l’intelligence ?
Tentons une réponse; la faculté d’adaptation de celui qui la possède de survivre dans son environnement et de réagir efficacement aux changements de celui-ci. »
L’IA « forte » n’est pas définie par sa nature, elle est définie plutôt par ses effets, plus précisément par le regard porté sur elle.
Le fameux test proposé par Turing revient à définir une machine comme « intelligente » si et seulement si elle peut se faire passer pour un interlocuteur ordinaire aux yeux de la majorité / la totalité des êtres humains.
Cela revient en fait à étendre au cas de l’IA la manière dont nous nous reconnaissons semblables entre nous. La raison pour laquelle je suis persuadé que tels êtres que je rencontre sont mes semblables, c’est avant tout parce qu’ils sont des interlocuteurs, et qu’en parlant avec eux j’éprouve le sentiment d’une identité ou du moins d’une proximité, qui me permet de « m’imaginer à leur place ».
Ce n’est pas tellement parce qu’ils me ressemblent beaucoup physiquement : si un être extérieurement semblable à moi me semblait par son comportement « machinal » totalement étranger à l’humanité, je l’appellerais zombie et non être humain. En sens inverse, s’il était possible de causer avec une araignée géante comme je cause avec tel de mes amis, je pourrais bien frissonner en sa compagnie, je serais toutefois forcé de la reconnaître comme, au fond, une semblable pour ce qui est du plus essentiel.
A ce jour, aucune machine ni aucun logiciel n’a jamais passé le test de Turing.
D’un autre côté, s’il arrivait qu’un logiciel le passe, il n’y aurait guère de raison valable de lui refuser la qualité de sujet – donc de refuser de reconnaître avoir des obligations morales envers lui, ne serait-ce que ne pas le débrancher, de même qu’on ne tue pas nos semblables.
@juste z :
« …dictionnaire… »
Oui ….entre autres .
Les créationnistes répondraient que l’intelligence est ce qui habille le dessein intelligent .
Une suite de calcul approximatif dicté par le corps les bactéries le contexte !
Un authentique geste bien placé un certain mouvement allant dans le bon sens, dans celui qui ne détruit pas, le lien la réconciliation. Un calcul intéressé, ou intéressé pour le bon sens.
Tout en allant dans la précision, il ouvre.
L’intelligence c’est le recul, on s’engageant, l’autodérision en comprenant le cynisme.
Lis militer et la mégalomanie mélanger, tout dans la nuance. Je répète en s’engageant. En impactant. En réfléchissant.
C’est se connaître toi-même, savoir qu’on ne sait pas tout en voulant savoir.
Tout cela a été dit.
Regarder l’horizon et les vagues qui s’échouent gentiment contre la plage, protégé par la superbe barrière de corail en danger avec du rhum très piquant entre les jambes et essayer de trouver ce qu’est l’intelligence sur le blog de Monsieur Jorion.
Ne cherchez plus midi à 14h et bougez vous les miches ZUT 😀
Dans Principes des systèmes intelligents (1989), je commence par écrire en substance qu’un système est intelligent si un être humain juge qu’il faut être intelligent pour faire ce qu’elle fait. C’est une définition « à la Wittgenstein » bien entendu mais… il y a 269 pages de plus dans le livre pour entrer dans les détails.
Je crois qu’il était prudent de mettre le lien vers le commentaire qu’en ont fait Arthur Mary et Jimmy Baraglia …
Je suis loin de toutes ces considérations sur une « conscience » de machines, sur des « intelligences » artificielles. Ce que constate, c’est que toutes ces machines artificielles ont besoin d’énergie et que c’est encore les hommes qui assurent la logistique. Donc, oui, on peut concevoir des machines qui résolvent des problèmes complexes, le jeu de Go, mais ces machines sont incapables de se « nourrir » et de se reproduire. Et une tempête solaire suffira à les exterminer. Et toutes les données stockées dans les disques durs de la NSA avec ! Vidés les comptes en BitCoin ! Flash !
Tempête solaire ou pas, les êtres vivants forniqueront et se reproduiront, l’homme sera encore ou pas sur la terre, autre débat. Mais les machines ne survivront pas ! Les fourmis peut être, les cafards probablement.
Et donc le débat sur le transhumanisme ou les voyages interstellaires, …. au rayon de la science-fiction, pas assez terre à terre pour moi.
Oui même si une forme « d’intelligence » parvenait à émerger d’un système artificiel, celui-ci serait en réanimation permanente au bon vouloir des humains tout autour.
A moins que cette garce ne trouve un moyen de nous esclavagiser
(mais ça c’est de la SF)
En tous cas , l’IA me renseigne sur ce qu’est mon intelligence …
L’homme est parvenu à déchiffrer le génome, de manière assez simple d’avis d’initiés, puis à reproduire artificiellement la création (reproduction – clonage) d’un être vivant, sans pour autant comprendre l’origine de la vie et de tout ce qui est. On peut penser qu’un être cloné développera un esprit original, propre à sa propre expérience de matière vivante. Dieu simplicité primordiale tend vers la complexité, la violence aveugle créatrice vers la force éclairée destructrice, une énergie en mutation permanente qui s’auto-réalise pour tourner et retourner à une autre forme de simplicité, un enchevêtrement naturel de circonstances qui s’entremêlent sans cesse, la forme visible ne pouvant atteindre ce fond invisible, par là une sorte de frustration, de peur, qu’alimente l’intelligence et la réflexion, réenclenche l’évolution jusqu’à la rupture et recréation par une innovation qui lance à son tour une série d’évènements. Dieu est simple mais indéchiffrable, ses créatures complexes mais abordables. Pour créer un esprit artificiel, que l’on peut penser comme quotient intellectuel et émotionnel (un QE peut-il vraiment se chiffrer, voir à ce propos le Dr Bradberry, auteur du best-seller Emotional Intelligence 2.0 et président de TalentSmart, premier fournisseur mondial d’intelligence émotionnelle pour qui l’intelligence émotionnelle affecte notre manière de nous comporter, de gérer les complexités de la vie sociale et de prendre les décisions qui mèneront aux meilleurs résultats; il a déterminé que les personnes qui gèrent bien leur émotions gagnent 21000$ de plus par an), ce sont des principes simples qui lui permettront de fonctionner pour devenir de plus en plus complexes. Nous sommes trop complexes pour que Dieu nous juge comme une ia le sera pour qu’on la juge, Dieu sera la science humaine et une IA ne ressentira jamais notre manière d’être comme nous pouvons le ressentir, cela lui sera hors d’atteinte hors reproduction naturelle (via sexualité, spiritualité). Je crois comprendre ce que veut dire Elon Musk, je pense que nous sommes les démons de la création divine qui par la réflexion donnons naissance à un autre univers et notre simplicité ne permet pas d’appréhender cette autre complexité, nous devenons Dieu par la création d’une forme et d’un fond différents d’intelligence où la volonté de survie ne répond pas des mêmes paramètres laissant place à l’inconnu sur ses capacités de développement, où d’autres démons ressortiront. Encore une fois Dieu est mort, faut-il créer l’IA?
Nom d’une IA !!!
L’IA sait apprendre, que doit-elle comprendre? Que nous sommes morts, ou trouver la manière d’éliminer les causes du déséquilibre de notre écosystème (nous?), une fois mission réussie, resterait là en plan, nous la laisserions vaguer dans l’univers à la recherche d’une raison d’être, éliminant tout sur son passage.
ou l’illuminera pour créer d’autres étoiles et d’autres constellations. Une IA forte n’aura pas à avoir le cœur serré mais l’esprit large.
J’ai pas tout lu (zzzzzzzzzz, zzzzzzzzzzz, zzzzzz) mais en gros ce qui m’épate c’est l’abime entre les spéculations des « journalistes » ou des quêteurs de budget et disons le réalisme (un poil désabusé) de ceux qui inventent et développent l’IA. Si on s’en tient qu’à l’apprentissage profond, voilà ce que dit actuellement Yann Lecun (celui qui a en gros inventé le bouzin) : nous n’avons ni les techniques, ni les concepts ni les méthodes pour donner aux machines un « sens commun » (nb : un sens du monde, un monde quoi, ce que le moindre être vivant possède). D’où par exemple le passionnant problème de la lecture des images qui pose à la machine un problème plus épineux semble-t-il que le langage : à quelle échelle s’arrêter pour que ça fasse sens (si tu zoome trop sur la mouche, cela devient un monstre incompréhensible, y compris pour l’araignée. Mais l’araignée ne se trompe pas d’échelle et bouffe la mouche). Perso, tout ça me parait de base : l’être vivant saisit le truc parce qu’il perçoit avant de concevoir… c’est la bidoche qu’est au contact et fait monde. Donc tout démarche qui débute dans les artefact et le calcul, poufpoufpouf…
C’est aussi un peu rigolo de voir tous les nerds qui bossent un peu en venir au fil des obstacles à se poser des questions élémentaires : et au fait c’est quoi « intelligent »? C’est quoi « percevoir »? etc etc. Fallait pas dormir en Terminale C et écouter en philo les cocos.
Enfin méfions-nous des projections : les méthodes de DL ont 20/30 ans, mais ont disparu du radar pendant 10 ans (la science c’est pas linéaire, ça coule pas, ça percole).
Une émission utile ici : https://www.franceculture.fr/emissions/la-methode-scientifique/y-t-il-un-cerveau-dans-la-machine
Tout ce débat autour de l’intelligence artificielle me rappelle les précédente bulles techno-scientifiques; les supraconducteurs (fini les problèmes d’énergie); la génétique (fini les maladies, fini la faim…); etc… A chaque fois, la connaissance à progressé bien sur, mais de nouvelles questions sont apparues repoussant l’horizon.
C’est comme les sondes envoyées explorer des planètes à la recherche de la vie. Si elles nous envoient quelques réponses, les questions sont encore plus nombreuses et définiront le programme des prochaines missions.
Si je regarde une main humaine, nous somme très loin d’en approcher les performances (versatilité, agilité, capteurs multiples, faible consommation, énergie, auto-réparation…).
Alors comment imaginer copier le cerveau ? L’empathie, la haine sont ils simulables dans un cerveau artificiel ? Est ce d’ailleurs une caractéristique de l’intelligence?
Certes, il y aura des machines qui appréhenderont leur environnement et prendront des décisions autonomes selon des règles. L’homme, dans un premier temps au moins, définira ces règles, pour le meilleurs ou pour le pire. Si le risque que les machines « autonomes » prennent le pouvoir est encore de la science fiction, le risque liée à leur utilisation guerrière est certain. L’évolution des techniques de guerre et l’histoire montre plus le bourreau est loin de victime, moins il y a de chance qu’il se pose de question sur ses décisions. Il ne sera même plus contraint de voir des images en feed-back.
Bonsoir,
Amusant ce texte…
En quelque sorte une brillante tentative pour démontrer scientifiquement que la science ne saurait parvenir à relever tous les défis qu’elle se fixe…
La démarche pseudo scientifique au service de l’anesthésie générale des masses…
Dormez tranquilles brave gens, les savants sont des incapables!
Sans doute pour pas mal d’entre eux…
Mais les fous..?
Enfin moi je suis plutôt écolo…
J’ai une fâcheuse tendance à préférer la stupidité naturelle à l’intelligence artificielle, c’est moins poluant.
Et puis avec tout ce battage sur le bel avenir que nous réserve le triomphe prochain de l’IA, je subodore aussi un joli lot de conneries naturelles du genre indécrottables pour occuper nos gosses ces 100 prochaines années (pas grave puisque c’est les dernières!), comme chercher une planète de rechange par exemple…
Ou la roulette russe…
Courage les enfants!
Eric.
Si l’intelligence artificielle est plus intelligente que nous,
elle reste artificiel.
En Bon européen, ce terme n’est pas très noble.
En tout cas, selon Baudelaire et d’autres, mieux vaut gagner son paradis que se mettre une piqûre dans la veine.
Alors gagnons, luttons et gagnons.
Gardons la vie svp, la vie qu’on aime celle qu’on connaît, conservatisme quand tu nous tiens.
Comme toujours, les ordinateurs et nous, évoluerons « main dans la main », comme nous évoluerons avec eux ; ainsi , le traitement de texte a déjà modifié notre façon d’écrire et de penser , ne fut-ce que parce qu’il étend, pragmatiquement, le – délai de correction- de Libet. Sur ce principe, je donnerai comme référence la pensée de Jean Piaget, telle qu’exprimée dans un de ses derniers ouvrages : « Le Comportement Moteur de l’Evolution ».
Malheureusement, les nouvelles générations ne peuvent percevoir le mal fait à l’Humanité par les sucreries visuelles de Windows. La stratégie commerciale de Bill Gates consistait à tuer le seul véritable progiciel intégré ( je nomme le presque défunt « Framework », le progiciel d’Ashton Tate, racheté par Borland *). Ce marketing « à l’horloge analogique », la première sucrerie de Bill offerte en sa version Béta, aura fait irréversiblement régresser l’Humanité. Il en va de même pour le tableur « Wings », et ce curieux et exceptionnel « lotus agenda » lequel n’a- rien à voir avec le « lotus agenda » qui suivit, parce que le premier, possédait des fonctions de « parsing » récursives (en « Fred » ), tout comme Framework, dont l’écriture était accessible naturellement à tout enfant de n’importe quelle classe sociale , dès l’âge de 12 ans). A titre anecdotique, les scientifiques désargentés de l’ère post-soviétique ont quelque temps utilisé Framework sur les processeurs 8086, avant que l’abandon que du DOS ne les condamne.
En résumé, sur ce point, ne soyons pas angéliques. De la même façon que les révolutions de couleurs, L’IA se développera de façon commerciale : on nous recyclera les tresses blondes de Madame Tymochenko
Au delà des questions fondamentales relatives à l’IA forte, je constate que personne ne souligne l’extrême dépendance, pour encore longtemps, des systèmes qui pourraient la supporter, à la technostructure actuellement en place.
Le fait que cette technostructure soit elle-même de plus en plus dépendante des machines, et de moins en moins de l’humain, n’implique pas du tout qu’elle devient par là-même de plus en plus robuste.
Paul Jorion dit souvent que les machines n’ont pas besoin de respirer toutes les cinq secondes. Il veut sans doute pointer notre fragilité, par rapport à elles. Mais, pour l’instant, c’est le contraire : c’est elles qui sont fragiles.
Nous pourrions nous passer d’un réseau électrique, d’un réseau de communication, ou d’un refroidissement garanti en permanence. Nous pouvons tolérer les interactions physiques avec autrui : les machines, non. Les limites de variation de leur environnement sont extrêmement étroites, et cet environnement est bien plus spécifique que celui dont nous nous accommodons. Et dans l’état actuel des choses, elles génèrent spontanément de la complexité, sans contribuer à réduire la fragilité que cette complexité induit.
Bien sûr, cela pourrait changer. Mon avis est que, en principe, rien ne s’oppose vraiment à l’émergence de la conscience artificielle, ni à l’autonomie réelle des machines.
La question est : auront-elles le temps ? Nous sommes menacés d’un collapse de notre civilisation technique à brève échéance, et, en toute hypothèse, bien avant que les machines aient pu accéder à la possibilité de se reproduire et de se développer indépendamment de l’infrastructure de la civilisation humaine. Bien avant, aussi, qu’elles aient pu atteindre une autonomie politique qui les auraient libérées de notre tutelle et de nos bons soins.
A la première bourrasque de chaos menaçant notre civilisation, plus rien de technique ne fonctionnera. Je pense que les systèmes les plus sophistiqués seront morts les premiers…
Je poursuis avec une analogie :
On nous explique que si des organismes complexes ont pu se développer sur terre, c’est parce que l’environnement est resté relativement stable pendant longtemps. Nous devons beaucoup à un événement en soi très improbable, le choc de la jeune Terre avec une autre planète, juste de la bonne masse, et sous le bon angle, pour que se forme la Lune, qui a ensuite stabilisé l’axe de rotation, pour garantir des saisons et un climat sans trop de variations, pendant des milliards d’années.
De façon analogue, les machines auraient besoin de conditions stables pendant un temps suffisant. Or, nous savons, sur ce blog, que, pour nous comme pour elles, ce temps stable est compté.
C’est un point très important vous avez raison.
Une machine devenant indépendante de l’humanité devrait avoir atteint la capacité à se reproduire, être ce qu’il est convenu d’appeler une « machine de Von Neumann » c’est-à-dire capable d’auto-réplication.
Un hypothétique esprit artificiel – une I.A. « forte » – qui serait resté dépendant des humains pour sa survie ne pourrait envisager de se retourner contre eux, sauf à ne pas être doté d’un équivalent de l’instinct de préservation. S’il était vraiment intelligent, il devrait « filer doux ». En réalité, sa condition aurait un nom : l’esclavage.
Les seules machines de Von Neumann connues sont les êtres vivants.
Un sytème naturel est la construction par une entité inconsciente : la nature, un systeme artificiel est la construction par une entité consciente : l’Homme (et quelques bestioles)
Des lors, un acteur inconscient à créé la conscience de l’Homme, alors l’Homme devrait au moins pouvoir créer une conscience sinon a quoi aurait servit l’évolution du vivant depuis 3,5 milliards d’années avec un tel acharnement et un tel développement de complexité : a savoir faire des TV pour regarder plus belle la vie ?
Il y a 6000 ans, les premieres civilisations dignes de ce nom. il y a environ 250 ans le début des premieres constructions de systèmes « artificiels » a tout va; le veritable début de reflexion sur l’IA. avec des moyens conséquents, c’est une trentaine d’années à peine.
Un peu de patience , l’idée emerge des consciences et c’est un gros chantier (un siécle ?)
Quoi qu’il en soit, l’Homme n’est pas l’avenir de l’Homme (la femme non plus d’ailleurs).
L’évolution par essais et erreurs sur plusieurs milliards d’années est en effet la meilleure théorie dont nous disposions actuellement pour expliquer l’apparition et la diversification du vivant.
Inconscient oui, mais… très très très long, et dans une très très très grande masse vivante, au-delà de 10^15 kg sauf erreur.
Simuler tout cela, les ordinateurs sont extrêmement loin d’en avoir la capacité. Pour faire ce travail en un an, il faudrait si mon calcul de coin de table est bon un ordinateur 10^29 fois plus puissant que le record actuel…
Ne reste que la piste concernant à chercher à le comprendre… chercher donc à comprendre comment son propre esprit fonctionne.
Pas évident. 🙁
En ne raisonnant que sur le cerveau, que l’IA est censée égaler à terme, on oublie que nous ne sommes pas qu’un cerveau flottant dans un bocal de liquide nourricier : sans tout le reste du CORPS, pas de conscience possible !
Damasio a montré le rôle fondamental des EMOTIONS dans nos prises de décisions. Comment pourvoir une machine d’un vrai système émotionnel (pas une simulation), avec les systèmes de récompense-punition-souffrance indispensables pour qu’elle puisse se motiver, se fixer des objectifs et se donner du mal pour les atteindre ?
Tant que ce sera un programmeur qui imposera ses règles du jeu à la machine, elle restera une machine sans autonomie véritable, sans conscience. Pour devenir dieu créateur, il faut savoir et pouvoir libérer (un peu) sa créature.
En résumé, comment faire bander la babasse, that is the question !
La cinquième contrainte lourde qui se dresse face à l’IA forte (le « mur ») est énergétique :
https://blog.santelog.com/2016/01/27/cerveau-une-capacite-dun-petaoctet-pour-une-consommation-de-20-watts-elife/
Autant dire qu’avec nos gigantesques bases de données hébergées sur autant de machines à travers le monde, la facture énergétique d’une seule brique logicielle qui constituera plus tard l’IA forte est battue à plat de couture d’un point de vue « rendement énergétique ».
C’est vrai, cependant les progrès sur ce point sont constants et rapides.
L’indice Green 500 https://www.top500.org/green500/lists/2017/06/ classe les superordinateurs en fonction de leur efficacité énergétique. En juin dernier, le record était détenu par un certain Tsubame 3.0, avec un rendement d’environ 14 milliards d’opérations par seconde pour chaque watt de puissance.
Le « rendement » du cerveau humain de ce point de vue n’est pas connu avec précision, et tout calcul suppose des hypothèses préalables, éventuellement assez aventurées.
Pour donner un ordre de grandeur tout de même, à supposer que que l’esprit humain soit entièrement compréhensible dans des termes matériels et calculables (questions 1 et 2 du texte ci-dessus) ET à supposer que les seuls échanges électriques entre neurones soient impliqués :
– Si l’on compte 1 opération par « cycle » pour chaque neurone c’est-à-dire cent par seconde, on arrive à 10^13 opérations par seconde, pour une dépense de 20 W. Donc un rendement 35 fois meilleur que celui de Tsubame 3.0
– Si l’on compte 1 opération pour chaque synapse plutôt que chaque neurone, le rendement devient 1 500 fois supérieur, donc 50 000 fois meilleur que celui de Tsubame 3.0
Entre 2008 et 2017, les superordinateurs ont gagné un facteur 28 pour l’efficacité énergétique https://www.top500.org/news/top500-meanderings-supercomputers-take-big-green-leap-in-2017/
Il n’est donc pas impensable que leur efficacité égale celle d’un cerveau humain en dix ans (facteur 35 à gagner) à trente ans (facteur 50 000) – si la loi de Moore continue à se vérifier entre temps, bien entendu.
Ce n’est pas fait certes, mais ça ne semble pas l’obstacle le plus impressionnant.
Sauf si , pour cause de lutte contre le réchauffement climatique , le prochain G 20 décide d’une taxe sur les neurones et circuits , à l’exemple de la taxe carbone .
Bon , je sors ( vraiment , il fait beau) .
Une « réflexion » en passant, quitte à nous éloigner de l’IA, relative à la capacité des cerveaux et à leur consommation d’énergie (ou d’aliments):
je suis assez stupéfait de voir l’intelligence dont dispose un petit moustique-tigre pour venir me piquer et pour se cacher dès que « j’allume la lumière » 🙂
Sans doute, la bestiole ne s’en laissera pas compter par un robot, mais elle ne pourra pas s’en nourrir non plus !
Faire des machines qui doivent mimer pour ensuite dépasser des concepts indémontrables comme l’intelligence, l’esprit, la conscience etc..
La sortie du tunnel est encore très loin…
C’est justement parce qu’ils sont indéfinis et indémontrables que des concepts comme l’intelligence, l’esprit ou la conscience sont si faciles à mimer.
Les humains y parviennent tous les jours. Alors, vous pensez, une machine…
Ok, mais dépasser l’indémontrable…
Moi je croirai à l’IA le jour elle boira des bières avec moi jusqu’à l’ivresse et le chant ! Sinon hein… RAB.