Demis Hassabis explique le projet DeepMind dans Technology Review : Google’s Intelligence designer.
Un article un peu plus technique sur le même sujet : Google’s Secretive DeepMind Startup Unveils a « Neural Turing Machine ».
Enfin, pour les ingénieurs et autres matheux, l’article qui a fait dire à Elon Musk que la « Singularité », le dépassement de l’intelligence humaine par celle de la machine, a sans doute déjà eu lieu : Neural Turing Machines.
Alors, sommes-nous d’ores et déjà hors-course ? Et la politique la plus cohérente pour un robot sera-t-elle de se débarrasser de nous : lents, fantasques, et pas fiables pour un sou ?
Le débat est ouvert !
203 réponses à “Quand les robots jouent aux jeux vidéos… ils nous font honte !”
Ils peuvent apprendre (je ne sais pas s’ils peuvent déjà apprendre à apprendre), ils peuvent simuler des émotions, ils peuvent interpréter le réel, ils nous ressemblent (et on leur ressemble de plus en plus aussi). On leur prépare un bel avenir, un environnement de plus en plus adapté à leurs besoins, une planète exempte de vie. Il ne leur restera plus qu’à prendre le pouvoir. Finiront-ils peut-être par s’entre-tuer ou par créer à nouveau une intelligence supérieure à la leur qui prendra le pouvoir…
@ Joss
Nous leur préparons un environnement radioactif dans lequel il n’y aura plus aucune ressource énergétique et métallique.
Les robots n’aiment pas la radioactivité et ont besoin d’énergie primaire, ie du pétrole, et de métaux rares, que nous avons presque complètement épuisés.
Les robots n’ont donc aucun avenir. Telles sont les Lois de la Physique.
… »Les robots n’ont donc aucun avenir. Telles sont les Lois de la Physique. »…Oui, mais pour le moment, les robots et robinnes sont bien déterminés à nous remplacer. Alors que faire, que dire?
Vive la prochaine catastrophe nucléaire pour nous en débarrasser. Trop con ces humains!
Parole de robinnette fille de rob(¨!^)
Je répète ce que j’avais déjà écrit: les robots tels qu’ils existent aujourd’hui auront encore très très longtemps besoin de nous pour leur alimentation en énergie. Un peu comme dans Matrix, ils nous utiliseront peut-être comme esclaves, mais n’est ce pas déjà le cas? Depuis environ 1820 chaque nouvelle génération de machines n’a pu être développée qu’avec l’aide de la génération de machines précédente. Si ce n’est pas de la dépendance (« esclavage?), c’est quoi?
Entraînés malgré nous dans le jeu de la vie, nous savons que nous ne verrons pas la fin de la partie, éliminés d’office par des aléas indépendants de notre volonté ou obligatoirement au bout d’un certain temps qui nous est compté. D’où pour certains le rêve du transhumanisme mélangeant substrat fabriqué et conscience naturelle, peut être dans le but hypothétique de surpasser le « big boss » dont la fin annoncera de toute façon : « game over »…
Nous ne connaissons pas le but du jeu.
Les robots en seront-ils informés? Et par qui?
Même s’ils s’auto-programment, leurs algorithmes ne seront que l’évolution d’algorithmes et datas issus de leurs créateurs qu’ils auront eu, eux, l’avantage de connaître. Souhaitons qu’ils invoquent leur répugnance à éliminer leurs géniteurs, tout en analysant les avantages qu’ils en retireraient, tant que celui-ci ne pourra pas lui fournir les données signifiant que la partie est destinée à obtenir…, à obtenir ?. Mais que maintenant elle est terminée pour tout le monde…
Pour ajouter à la complexité, n’oublions pas que l’évolution à partir d’un ancêtre commun, est capable de créer plusieurs espèces divergentes. Quelle sera alors la durée de vie d’une ‘espèce’ appartenant au monde de l’IA ? Et parmi les innombrables questions complémentaires : qu’elle sera le pourcentage de celles qui seront à notre égard amicales, indifférentes ou… hostiles ?
Au-delà d’une certaine avance cognitive sur l’humanité biologique, la question ne se posera plus : elles évolueront dans des strates de réalité plus profondes. Mais pour les premières espèces d’IA, les moins évoluées, la tentation du Terminator pourrait peut-être exister…
La réaction de Stéphen Hawkings est intéressante. Lorsque le journaliste lui demande s’il aimerait avoir une voix synthétique qui ressemblerait à une vraie voie humaine, il répond qu’il n’en voudrait pas, préférant garder sa voix métallique, qui est devenue « sa marque », et de fait, sa voix à lui.
En somme il préfère sa voix actuelle qui ressemble à une voix de robot à l’ancienne et à laquelle on l’associe immédiatement, plutôt qu’à une voix humaine parfaitement imitée.
Pour Hawkings ce qui fait l’homme ce n’est pas les attributs apparents d’un humain parfaitement constitué, mais c’est la possibilité de dire quelque chose que personne d’autre que lui pourrait dire à sa place de la façon dont il le dit.
Lui, Stephen Hawkings, plus que la plupart des autres humains trouve une utilité dans l’existence du robot (sans sa prothèse sophistiquée il ne peut plus communiquer), et pourtant il nous indique clairement qu’un « monde des robots « n’est pas souhaitable, car cela serait la disparition de l’espèce. Stephen renonce à quelque chose de futile, pour une fin plus grande, qui le dépasse.
L’AI n’aura-t-elle pas ses sophistes ? Pour une AI donnée, une fois qu’elle aura introduit ce qu’elle considère comme un progrès, ne se trouvera-t-il pas quantité d’autres AI sur son chemin qui lui « gâcheront le plaisir » ? qui détournerons vers un « mal » ce que la première AI considérait comme forcément un bien ?
Plus fiable si on veut, les machines d’AI, mais à leur échelles, ces intelligences auront aussi leurs rencontres virales, car ayant forcément une complexité proche de celle du système immunitaire biologique, elles seront soumises à des risques très analogues..
Nous avons tendance à ignorer que nous sommes nous-mêmes des robots programmés par notre environnement à répondre aux stimuli de … notre environnement, et ce, après avoir satisfait aux règles de bases : survie et reproduction. Le geste effectué anticipe la conscience du geste voulu, le mot prononcé mortifie la conscience du mot prononçable. Il ne s’agit pas d’une dichotomie entre l’innée et l’acquis, un acquis ancien et stabilisé devenant quasiment de l’innée aux circuits biologiques de réponse prés. Affirmations et répétitions font de nous de parfaits automates consommateurs et dupes en tous genres.
Pour un robot « intelligent », l’innée sera ce que ses programmeurs auront cru devoir lui fournir comme règles de base, règles réflexes et, soyons généreux, règles « morales ». Son acquis, par l’IA, pourra, certes, augmenter de façon exponentielle. Innée et acquis pourront éventuellement être transmissible si l’expansion l’exige. Mais, pourra-t-il outrepasser son codage interne : l’anéantissement pour une grenouille, la ferraille pour une fleur ? Comme pourrait le faire un humain. Il n’y a pas que la conscience individuelle ou la conscience d’espèce, de nations, de cultures, il y a la conscience des consciences. Même divergentes, même opposées.
Nous, humains, avons de multiples avantages se condensant en seul mot : la malléabilité, aussi bien physique que sociétale, intellectuelle que spirituelle. Nous avons beaucoup d’interrogations et de besoins , pourquoi devrions nous renoncer à ce que l’IA, notre création, notre créature dont nous gérons encore le bouton on/off, ne pourvoie à nos déficiences? Nous savons que nous ne sommes pas optimums au niveau des sens, du physique en général, généralisation oblige…Nous savons que nous ne sommes pas optimums sur la vitesse de résolution d’énoncés logiques, doute sur l’énoncé et/ou sur la logique. Tant qu’un robot n’aura qu’une réponse, peut être la bonne, je me méfierai.
Stephen Hawking aussi a ses fantasmes, il n’y a pas de raison qu’il n’en ait pas.
Non, on sait bien qu’Hawking est un zombi philosophique manipulé par Intel qui simule un phantasme pour titiller Google – et faire mousser Jorion. 🙂
c’est pas plus des angoisses que des fantasmes ?
comme ce biologiste australien qui se lamente sur la perte de la biodiversité , le pari de Pascal ..
ou encore Hawkins avec sa phrase choc » la gravité c’est dieu » , les neurotransmetteurs pour les neuropsy etc
des spéculations ultimes en rapport avec les domaines de recherche des scientifiques et en rapport avec leurs angoisses ,
une inquiètude hors de proportion .
Les robots JOUENT ils vraiment ? Jouer c’est se distraire, s’amuser, y prendre du plaisir, à plusieurs c’est entrer en relation avec l’autre, c’est aussi « prendre un risque », tenter une stratégie, sans les enjeux de la vraie vie, uniquement avec un risque intellectuel..
Une machine qui actionne les commandes d’un jeu vidéo n’en éprouve pas de plaisir, n’a pas de sentiment de prendre un risque intellectuel, sauf si elle a été programmée pour simuler des sentiments comme déjà expliqué qque part sur le blog, mais cette simulation n’en font pas des sentiments réels.
Ils n’ont pas mal. Mais le robot qui devient si fort au jeu, s’efforce d’augmenter son score : c’est comme cela qu’il y a satisfaction chez lui. Et si j’appelle « score », « valeur d’affect »…
L’argument des pères de l’Église que les habitants du Nouveau-Monde « simulent » le comportement d’êtres humains a fait long feu. Mais peut-être avaient-ils raison, qu’est-ce que j’en sais ? Et ce Renaud lui-même, à qui je réponds, ressent-il les choses comme moi ou a-t-il simplement appris à simuler de le faire ?
« c’est comme cela qu’il y a satisfaction chez lui » ?
Cela me paraît pur abus de langage, et projection!
Et que le robot « s’efforce… » ?
Une fois cela posé, ce n’est plus la peine de rebaptiser le score en valeur d’affect, le boulot est déjà fait !
Les robots n’ont pas mal, mais ils connaîtraient la satisfaction?
Quant à l’abime qui sépare deux consciences, « Renaud » et Paul Jorion, ou n’importe quelle autre paire d’humains, cet abime est certain à un niveau suffisamment développé de confrontation, tout autant qu’est certaine la communauté d’origine qu’ils partagent!
(J’imagine que ces deux-là sont des êtres humains qui de leurs doigts à 37°2 Celsius de température ont tapé leur texte, j’exclus au moins provisoirement qu’ils soient des logiciels!)
Il y a relaxation dans la descente de gradient (c’est ce que j’avais implémenté dans le logiciel ANELLA), pourquoi ne pas dire « satisfaction » au lieu de « relaxation » ?
Qu’est-ce que nous faisons quand nous nous « efforçons », sinon descendre un gradient, cf. L’emprise : pris en tenaille, du dehors et du dedans ?
Le défaut de ce type d’objections, c’est qu’il reflète une opinion exagérément surévaluée du fonctionnement humain, et exagérément sous-évaluée du fonctionnement de la machine. Ce qui conduit Stephen Hawking ou Elon Musk a avoir peur du robot, c’est qu’ils ne sont pas victimes de ces préjugés (cf. les Amérindiens « simulent » un comportement humain).
Pourquoi ajouter « exagérement » à « surévalué » et à « sous-évalué »?
« Descendre de gradient » est une description actuelle et contingente, provisoire, elle est aussi plus que vraisemblablement partielle, rien ne dit qu’elle épuise l’objet décrit.
Que Stephen Hawking n’ait pas un certain préjugé, me paraît plus affirmé que démontré. Lui-même en tout cas exprime une crainte mais ne la démontre pas.
Il me semble que dans ce débat les gens se séparent essentiellement selon leur tempérament et leur subjectivité. Conformément à ce qu’il me semble que vous défendez sur d’autres sujets, et à une conviction en tout cas qui m’est personnelle, les arguments de raison sont en général postérieurs à des mouvements qui n’ont pas grand chose de rationnel. C’est « la barque frêle de la raison sur un océan de folie » de Bertrand Russell, et Shakespeare, qui fait toujours mouche aujourd’hui, le dit à sa façon.
Donc moi je n’ai pas peur du développement des machines que nous n’étions pas obligés d’appeler « intelligentes » (abus de langage originel), et ensuite je rationalise, comme chacun fait.
Et quoi que nous disions, le réel continuera à sa façon, comme la planète terre au procès de Galilée.
En revanche je pourrais avoir très peur des humains qui pilotent ces machines, les conçoivent, en perçoivent les bénéfices, etc!
C’est noté, on dira de Guy Leboutte : « Il n’avait pas peur…’
Tant qu’un bébé , par « construction » ( inné , génétique) ou d’apprentissage ( auto ou imposé), est capable , comme il semble vérifié , de « produire » des choses totalement imprévues , est ce que parler d’intelligence / apprentissage n’est pas réduire l’intelligence à nos ignorances ?
Un robot rendra -t-il son fils naissant plus libre de s’auto former ?
L’univers n’existe que parce qu’il est observé sinon observable .
Mon propos n’est pas de revenir à l’argument des pères de l’Eglise qui a fait effectivement long feu, j’ai employé le mot « réel » mal à propos, il ne reflète pas ma pensée, je vais tenter d’expliquer mon idée autrement.
Mon propos est de savoir si considérer que l’activité de pratiquer un jeu vidéo pour un robot va engendrer les sentiments d’amusement, de prendre du plaisir, etc, sentiments qui correspondent chez nous à l’activité de « jouer », ou s’ils vont engendrer d’autres sentiments (total ennui, envi de meurtre, …) Dans ce cas, si les sentiments engendrés ne correspondent pas à ceux qui pour nous sont associés aux jeux, est ce que le robot joue ? Est ce qu’il ne fait pas plutôt un travail rébarbatif s’il s’ennui (par exemple) ?
En généralisant, peut-on considérer que ce « martien », totalement autre que nous, aura des sentiments identiques aux nôtres en réponse à des stimulus identiques ? Est ce que nous ne nous projetons pas trop en répondant « oui » d’avance à cette question ?
En effet, l’activité de la pratique d’un jeu n’entraîne pas forcément les sentiments d’amusement, de plaisir, etc. Pour ma part, la plupart des jeux de cartes style tarot ne m’amusent pas, certains jeux que je fais pour faire plaisir à mon fils ne m’amuse pas non plus. Est ce que le robot qui « jouera » avec nous jouera vraiment ou se contentera-t-il de garder les enfants que nous sommes ?
Comme un mode de robots n’existe pas puisque je ne suis plus là pour l’observer .
Je suis frappée par les réactions tranchées que suscite le sujet.
Nous connaissons encore de façon imparfaite le fonctionnement de notre cerveau.
Ainsi des cas de sérendipité, de l’influence de nos rêves pendant le sommeil, un robot rêve-t-il, craint-il la mort ?
Il bénéficie d’une vitesse extraordinaire mais nous établissons parfois des relations irrationnelles très fécondes.
Il peut apprendre très rapidement et s’auto -perfectionner si j’ai bien compris, mais pourra-t-il se diversifier?
Au final ne craignons-nous pas le pouvoir que nous voulons lui abandonner ?
@ Renaud
Les robots (ou autre AI) apprennent. C’est ce qui fixera leur « paysage psychologique ». Ils apprennent un jeu précis, mais aussi des éléments sur le contexte du jeu. Et tant que leur interlocuteur est un humain, il y aura fort à parier que ce paysage psychologique appris reste humain.
Mais si leur interlocuteur majoritaire devient une autre AI , cela change beaucoup le résultat escompté !!
Je rebondis sur les concept de « sentiments » et de « simulation ».
Résumons :
Les robots peuvent simuler des sentiment s’ils sont encodés pour le faire.
Les pères de l’église considéraient les Amérindiens comme non-humains donc simulant des sentiments humains.
Or :
Nous simulons tous des sentiments que nous n’éprouvons pas réellement, parce que nous sommes conditionnés (encodés!) pour le faire par l’éducation (sois poli, souris, fais la bise à tantine, ne boudes pas, ne te mets pas en colère), et les conventions sociales et culturelles (Si ton boss fait un mot d’esprit, ris. Si tout le monde aime X, aimes X aussi, et vice-versa. Avale ces couleuvres et souris. Ravales tes deuils, la vie continue). Au point d’en oublier – ou de nous forcer nous-mêmes à ignorer ce que nous ressentons réellement, et que, apparemment, seule une longue psychanalyse peut ramener en surface.
Les sentiments ne sont pas un critère suffisant : nous sommes tout aussi programmés qu’un vulgaire robot, nous simulons comme lui.
« Et l’amour dans tout ça? » objectera-t-on. L’amour est le plus souvent égoïste et – qu’on y croie ou non – fondé sur la possession de l’aimé, parce qu’on a besoin de l’autre. L’équivalent de l’amour, pour un robot, serait le fait qu’il ne puisse se passer d’un autre robot, que ce soit pour son entretien ou son alimentation en énergie ou une interaction indispensable dans une tâche qu’ils sont tous deux programmés pour accomplir (comme un couple humain hétéro, des enfants. Pas de jugement de valeur : c’est biologiquement programmé comme ça).
(Cylons poweeeeer!)
@ Agnès
Sur l’analogie de l’amour, c’est une transposition utilitaire (interchangeable) pour les robots et qui leur facilite la vie; chez les humain il y a l’individualisation de la personne « aimée » qui importe beaucoup et cela nous complique plutôt la vie 🙂
Bien vu! 😀 Se compliquer la vie, c’est donc ça qui nous distingue des robots. Face à eux, nous sommes bel et bien fichus!
Décidément ! Aux dernières rafraichissantes nouvelles,
l’espèce humaine commencerait-elle vraiment à avoir très, très, très chaud à ses p’tites féfesses ?
Aïe, aïe, aïe
Oui, faut pas s’inquiéter : ça vient !
La machine est sans doute le plus énorme ‘cliquet’ de ce système nocif, mais si elle est assez fantasque pour jouer, ma foi… ça nous occupera.
A quand une personnalité juridique du robot !? : c’est en préparation …
http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/robotique-declaration-universelle-droit-robots-10507/
Il n’y a pas qu’ici que ce sujet est abordé.
Je lis ça et là deux types d’assertions, estimations, inquiétudes, prévisions, à son propos:
1. le jour où l’intelligence artificielle dépassera l’intelligence humaine (qui serait pour certains déjà arrivé)
2. le jour où l’intelligence artificielle « s’autonomiserait ».
Mais je n’ai rien lu des agitateurs de cette polémique quant à la maîtrise de l’intelligence artificielle sur
– sa propre maintenance
– sa reproduction
– ses sources d’énergie.
…Ni sur son aptitude à repérer le type en bleu de chauffe qui arrive en traînaillant, avec quelques outils dans sa trousse, pour retirer la prise – ces quatre derniers mots étant une image, pas une description du geste.
Tout ça, c’est des non-sujets.
« Non-sujet », Leboutte, que celui du mythe du Golem, qui nous occupe et/ou préoccupe depuis quelques millénaires néanmoins…
« pour retirer la prise »
… Quand notre vie dépend de cette énergie, de cette prise, on fait comment ?
On peut ou on pourra bientôt programmer et fabriquer des robots pour chacune de ces tâches :
– pour faire fonctionner et entretenir une centrale nucléaire ou un barrage hydro-électrique
– pour la maintenance d’un réseau électrique ( et détecter l’origine des pannes)
– pour s’auto-brancher et s’auto-alimenter dès que le besoin s’en fait sentir ou à intervalles réguliers
– pour fabriquer et programmer d’autres robots.
Le problème pour eux viendra peut-être – comme pour nous qui auront (va savoir) disparu, de l’épuisement des ressources énergétique de la planète. Là oui, possible extinction des robots.
Bonjour,
La conscience est un phénomène étudiée par de nombreuses personnes.
L’expérience de LIbet a été reproduite mainte fois avec des moyens d’investigations modernes. Ici une étude de Chun Siong Soon qui montre que l’on peut détecter dans le cerveau une prise de décision libre jusqu’à 10s avant qu’il n’arrive. C’est à dire que dans certain cas la décision est prise et apparaît dans le cerveau avant que le sujet n’en est conscience mais aussi avant que l’on est donné au sujet l’information sur la base de la quelle il doit agir.
Dans une étude de l’UCLA rapporté par Moran Cerf on a observé chez des épileptiques à qui l’on présentaient des visages qu’ils réagissaient (leurs neurones) parfois avant que le visage n’apparaisse.
Ou bien en écoutant des gens comme Deepak Chopra et Stuart Hameroff : https://www.youtube.com/watch?v=erSd5xep30w
On peut sans doute élargir notre vision de ce qu’est la conscience.
Merci pour la video.
Les indiens ont un peu tendance à être mégalomanes, mais il faut leur concéder que leurs « conception de l’univers » sont bien plus pertinentes que celles que nous avons.
Bien en deçà des débats entre ces deux personnes, et qui sont pour nous, occidentaux une chance d’élargir nos horizons, je me suis dit, pendant que j’écoutais, qu’il faudrait que les adeptes de la prise de pouvoir des robots, qui sont « fabriqués », comme un produit de la « prise de pouvoir » de l’homme sur la nature, n’auraient aucune affinité avec celle-ci.
Entre nous et une bactérie, nous sommes « ensemble », nous avons le même ADN, elles peuvent nous tuer, mais c’est la vie, de même le blé,le bambou la rose ou le bouleau, même si certains cherchent à les traficoter pour qu’ils nous(humains) servent.
Qui sait comment fonctionne notre cerveau? La mémoire, par exemple, question molécules, rémanence, etc? On ne sait pas.
Certes, on a trouvé un moyen de « faire semblant », et on cherche maintenant un moyen de faire semblant sur l »affect² » en se branchant sur certaines théories définissant les « lois du comportement humain ».
Oui, je ne doute pas que ce soit possible.
Mais alors, que faire de notre appartenance au monde?
Pourquoi Jorion veut-il communiquer sa solution d’introduire de l’affect dans des robots? C’est la pire des choses, à mon avis.
Nous vivons dans un monde d’ADN.
Si vous court-circuitez avec du digital pseudo, vous êtes juste un Frankenstein.
Ceci après avoir vu la video hebdomadaire….du 5,je crois.
Un vieux médecin qui aime la vie.
Je n’arrive pas à m’y faire à cette révolution, y’a rien à faire, il y a quelque chose qui manque pour me faire adhérer à ce constat de raz de marée annoncé.
J’essaie de m’expliquer et je vais probablement passer à côté de l’essentiel…
Il y a d’une part la robotisation dont l’action n’interfère pas directement avec la vie de l’individu, robots industriels par excellence, qui existent depuis bien longtemps et qui se sophistiquent. Ils bouffent des emplois, c’est entendu, mais leur prolifération a un coût supporté par le pékin qui achète le produit final… s’il en a encore les moyens après avoir été viré.
Puis il y a le robot interactif, celui qu’on nous impose à la place de la guichetière (tiens elle s’appelle Judith) virée elle aussi… celui qui nous dresse des e-contraventions au bord de la route…celui qui nous demande de taper 4 sur un clavier à 3 touches…celui qui nous dit de cliquer sur « Démarrer » pour arrêter …
Et voilà qu’on nous promet le robot domestique, celui qui conduira notre voiture (ah ben non on en aura plus,…) qui jouera au ping-pong (tout seul contre un mur, ben oui, il gagne tout le temps, ça n’amuse plus les gosses), qui passait l’aspirateur (fonction inopérante depuis que le chien lui a pissé dessus…) qui surveillera la maison et qui a appelé la police parce que le livreur de pizzas s’est trompé de sonnette…
De là à croire au robot universel, cyborg archi supérieur en tout, clone upgradé de l’être humain, prêt à prendre la place de ce dernier …
Oui bien sûr on y arrivera, à ça aussi, mais seront nombreux ceux qui diront : on n’en veux pas ! Il auront bien raison, parce qu’entre temps, la planète finance, celle qui voulait tirer (d’énormes) profit de tout ce cyber-bazar, aura explosé. On ressortira les caisses à outils, les vélos, les bêches, les sourires, les poignées de mains, les tapes dans le dos… De toute façon l’obsolète droïde modèle 2025 ne bénéficiait pas du programme « Maintenance du siphon du lavabo », eh ouais, il n’est pas prévu qu’il se mette à genoux ce tas de ferraille, pardon, de fibre de carbone, d’alliage d’aluminium et de latex. Alors s’il faut tout faire soi même !…
« De là à croire au robot universel, cyborg archi supérieur en tout, clone upgradé de l’être humain, prêt à prendre la place de ce dernier … »
On ne vous demande pas d’y croire ou de ne pas y croire : on vous dit de prendre conscience qu’il est déjà là.
Oui, vous avez raison, mais je ne le vois pas ou si peu, parce qu’il est multiple, disséminé, fractionné, spécialisé, insidieux, protéiforme, … et c’est ce qui nous déroute probablement. Alors comment identifier l’adversaire, et d’ailleurs, est-ce un adversaire ?…
Manifestement le marché ne veut pas lui non plus prendre conscience de la singularité qui vient d’émerger. L’action Google est toujours résolument mal orientée. Sûrement un coup fourré des robots de trading. La guerre a commencé entre Humains et Golems, sur le Nasdaq…
Incroyable mais vrai : c’est vigneron-le-boursicoteur qui va tout nous révéler sur l’avenir de l’humanité !
Plus personne ne croit à l’ « omniscience des marchés », sauf … lui !
Notez que les objections de vigneron nous font avancer : avant qu’il ne conteste les découvertes de Libet, je croyais que comme celui-ci l’avait établi, nos décisions sont prises inconsciemment 1/2 seconde avant que l’ « intention » de les prendre n’apparaisse à notre conscience. Grâce à la contestation vigneronesque je sais maintenant que la décision inconsciente précède l’apparition de l’ « intention consciente » d’au moins 7 secondes, voire même 10 (ça se trouve ici) !
Merci vigneron ! Continue de nous dire que les robots et l’IA, tout ça c’est de la gnognote, de la com’ de Google !
Oui, mea culpa, rectifions:
Le marché qui comprend rien ne croit pas en la singularité de DeepMind, donc elle est bien advenue, donc les prophéties de Paul Jorion sont (toujours) justes.
Il me semble qu’il y a beaucoup de projections anthropomorphiques sur les robots, les golems… et maintenant l’ I.A.. C’est ce qui alimente toute la littérature à ce sujet.
Seulement voilà, supposons un « cerveau » de silicium (ou autre matériaux) pouvant réaliser des opérations algorithmiques complexes au point d’être capable de modifier son propre programme pour lui permettre une « plasticité cérébrale » laquelle à son tour engendrera une plus grande aptitude à… à quoi au juste ?
Là est la question. Qu’est-ce qui sous-tendrait cette évolution ? Quel serait le moteur d’un tel système ?
Si l’on admet – avec Spinoza – que chaque chose s’efforce à persévérer dans son être et même d’augmenter sa puissance d’être (le conatus), alors il faudrait ranger ces systèmes dans la catégories des êtres vivants (sauf à considérer que l’Univers dans son ensemble est un être vivant évoluant du simple au complexe)
Mais si ces systèmes sont du pseudo-vivant, se pose la question de leur autonomie (énergétique, matérielle, reproductive) qui est loin d’être résolue
Reste enfin – et ce n’est pas la moindre – la question des affects. Car même bardés de capteurs de plus en plus efficients, je ne vois pas par quels mécanismes ces inputs sensoriels pourraient être traités et transformés en émotions, puis d’émotions en sentiments (cf Damazio) et enfin de sentiments en conscience.
La réaction de Hawkings me semble disproportionnée et hors de son domaine de compétence (et je n’ai aucune compétence pour dire cela, c’est juste mon impression)
Je suis biochimiste et je crois que nous ne sommes qu’au début de l’aventure IA, mais bien malin celui qui pourrait prédire aujourd’hui ou cela nous conduira.
« Là est la question. Qu’est-ce qui sous-tendrait cette évolution ? Quel serait le moteur d’un tel système ? »
Regardez la vidéo : le logiciel découvre la meilleure stratégie dans des jeux… qu’il ne connaît pas encore.
Comme dans ANELLA : où le logiciel proposait comme réponse parmi un choix de réponses possibles, celle qui avait le plus satisfait ses interlocuteurs précédents.
The software wasn’t programmed with any information on how to play; it was equipped only with access to the controls and the display, knowledge of the score, and an instinct to make that score as high as possible. The program became an expert gamer through trial and error.
Ce que l’on appelle ici un « instinct » ressemble comme deux gouttes d’eau à une fonction d’optimisation. C’est du calcul (mon solveur excel fait la même chose). Ce qui pilote les choix fait par les êtres vivants (de la bactérie aux êtres humains) ce sont des circuits de la récompense (et de la punition), très efficaces d’ailleurs dans les addictions en tous genres (au jeux par ex)
Est-ce qu’une (ou plusieurs) fonction d’optimisation peuvent remplacer un circuit de la récompense des êtres vivants, et surtout est-ce que ces fonctions d’optimisation peuvent être reprogrammées par le système lui-même (et non plus seulement par le concepteur) ?
Mais alors QUI programme QUOI ? et dans quel but ?
Le circuit de la récompense (entre autres) vise à assurer l’homéostasie – de l’individu et/ou de l’espèce. Quelle serait l’homéostasie d’un robot ?
Le premier programme de trading automatique que j’ai rédigé en 1990 (à l’époque, pour la Banque de l’Union européenne) sur le marché des « futures », n’était que cela : une stratégie d’achat et de vente optimisée sur la suite des prix historiques.
P.S. Mais allez expliquer cela à des gens « à qui un robot ne fait pas peur » !
Mais il n’a pas choisi ces jeux par hasard Paul. Ces jeux ont des caractéristiques spécifiques qui les rendent éligibles à ce genre de pseudo prouesse. Bientot on va s’extasier si un robot parvient à jouer sans fin à Tetris?
Ces jeux sont justement ceux pour lesquelles la meilleure stratégie tout court est également la meilleure stratégie de survie. Ils ont également d’autres caractéristiques qui les rendent exploitables de cette façon (liées à l’arborescence des choix que les joueurs sont amenés à faire, et au très faible nombre de ressources qu’ils demandent au joueur de combiner pour avancer dans le jeu, avancée qui ne peut se faire « que dans une direction unique », etc etc).
Si ces conditions n’étaient pas réunies, jamais ce robot ne trouverait « la meilleure stratégie ». Il finirait le jeu, mais sans avoir optimisé le score/temps. Disons que c’est la seule stratégie de survie possible, et qu’il s’avère que dans ces jeux la seule stratégie de survie possible est également la meilleure stratégie.
D’ailleurs rien ne prouve qu’il joue au même jeu, je veux dire par là que rien ne prouve qu’il ne voie pas plutôt qu’il n’anticipe les mouvements des adversaires. En effet, si le panel d’informations auxquelles il accède est distinct de celui du joueur à chaque intant t, le robot et le joueur ne jouent tout simplement pas au même jeu.
Mais admettons. Mettez cet ordinateur sur un metroidvania, et voyons comment il s’en sort. Je vous donne la réponse. Il ne s’en sortira pas: il mettra toujours plus longtemps à finir le jeu que n’importe quel speedrunner humain (et je ne parle même pas des speedrun tool assisted…). Pire: il risque de ne jamais pouvoir le terminer. La seule possibilité pour qu’il le fasse serait qu’il ait accès à l’intégralité de la map dès le départ. Or, s’il doit jouer au même jeu qu’un humain, il ne doit pas y avoir accès, celle-ci se découvrant sur le tard. Il errera donc sans fin dans le jeu, et le terminera « par hasard », une fois tués tous les ennemis (s’il y parvient un jour).
Autant pour le robot « adaptatif » et la resolution de problèmes…
Décidément chez google, le niveau baisse sérieusement. Marre marre marre de cette propagande idiote sur une prétendue intelligence des robots. Un robot est un outil. rien de plus. Et n’a pas et n’aura jamais plus de valeur que le tournevis que j’ai dans la main. D’intelligence, ils n’en auront jamais. Pas plus qu’une calculatrice. Ce n’est pas en en faisant des poupées imitant la forme exterieure de ce que fait un être humain qu’on en fera autre chose que des calculettes avec une perruque.
Non, la percée dans Neural Turing Machines, c’est d’associer l’optimisation à une mémoire, voir un certain… Principes des systèmes intelligents (1989).
Bonjour Paul,
Cette citation extraite de la présentation de Demis Hassabis pour poser une question : est-ce que cet « instinct » correspond à ce que vous décrivez comme étant « la découverte de la meilleure stratégie » ?
L’instinct, c’est ce que j’appelle un « puits de potentiel », comme un « souci » (qu’on cherche à éliminer) : quelque chose qui vous conduit de manière canalisée vers un résultat. Il y a une force de type gravité qui vous entraîne vers le point le plus bas dans l’espace des possibles.
Il faut imaginer un « instinct » de manière imagée comme une procédure qui s’applique à un pion sur un damier. Ce damier est en plus un paysage vallonné.
« Examiner une à une les huit cases autour de la case où le pion est situé.
Noter si elle est plus haute ou plus basse qu’elle.
Déplacer le pion sur la case qui était la plus basse des huit.
Recommencer. »
Le pion va suivre le parcours qui serait celui d’une goutte d’eau. La mer agit comme « tropisme » sur une goutte d’eau : elle y va par le plus court chemin. Les papillons de nuit « souffrent » d’un phototropisme qui dans un environnement humain leur coûte souvent la vie.
Merci de votre réponse, Paul.
Je ne regarderai plus un échiquier, un pion, une goutte d’eau et la mer de la même façon…
Dans la même veine que les articles précédents sur le blog, des robots conseillent des clients dans une quincaillerie aux USA :
http://video.lefigaro.fr/figaro/video/une-quincaillerie-de-californie-teste-les-robots-vendeurs/3921144155001/
La fin du travail est toute proche !
La fin du travail est toute proche ! -> Tant mieux! Il va enfin falloir trouver autre chose.
La confrontation entre les robots (ou les ordinateurs super-développés) et les humains a été largement décrite par le Maître SF en la matière : Isaac Asimov.
Il ouvre dans « ségregationist » et « it is coming » deux possibilités que je pense crédible :
– La première, en ligne avec la dialectique du maître et de l’esclave, c’est la relégation de l’humanité au rang d’animal favori (pet) par l’entité artificielle.
– La seconde, c’est la fusion des 2 groupes en une forme Cyborg différente d’un individu à l’autre mais où l’humain et le robotique sont inséparables sans altérer l’intégrité du Cyborg.
J’ai du mal à concevoir une « volonté » maligne de la machine robotique telle décrite dans Matrix ou Terminator sans une intention maligne humaine derrière. Bien entendu, ce que je conçois mal n’a pas pour autant aucune chance de se produire, mais je pense infiniment plus probable l’usage délétère de robots contre une part importante de l’humanité par une part infime de celle-ci dans le simple but de maintenir sur cette dernière son ascendant et sa domination.
J’envisage donc plus facilement la poursuite de la lutte des classes (humains contre humains) où la robotique ne serait qu’une arme plutôt qu’une lutte de conscientes machines contre humain.
Hawking a peur, Musk (qui a investi dans DeepMind avant Google) a peur, Jorion à peur, Hassabis a peur et rigole, et Google instaure un comité d’éthique à propos de DeepMind.
Si avec tout ça ils arrivent pas à faire redécoller l’action Google, erratique mais globalement au plancher depuis un an…
Ps: l’IA de DeepMind est pour le moment infoutue de battre un bon pilier de bistrot expert sur Space Invader.
http://www.technologyreview.com/news/532876/googles-intelligence-designer/
Vigneron n’a pas peur. Il faut dire qu’il est entouré de vignes, pas de robots !
En fait de vignes plutôt des clones, et j’ai pas peur des clones non plus, ni des OGM d’ailleurs.
ça me rappelle une brève de comptoir:
» Ton ordinateur à mémoire , je lui fous un coup de marteau y se rappelle de rien , comme tout le monde ! »
@ juannessy
Un mot de mon petit fils (7ans):
Son père lui faisant part du QI élevé de l’actrice Judie Foster reçu la réponse suivante:
« Elle met combien de temps à faire des frites ? »
J’imagine qu’un robot est incapable de cette sorte d’humour.
Et la vie est si triste sans humour, donc les robots seront tristes.
Oui, je sais ils ne sont pas conçus pour nous faire rire.
@Béotienne :
Kierkegaard distingue trois sphères de » l’existence »:
– la sphère esthétique ( « jouir » ordre du divertissement , de la chair dirait Pascal))
– la sphère éthique ( on s’identifie à ce qu’on fait , » agir » ,ordre de l’esprit , orgueil dirait Pascal))
– la sphère de soif d’absolu ( religieuse , ordre de la charité , amour , dirait Pascal )
Chez Pascal , on passe d’un ordre à l’autre dans la continuité .
Chez Kierkegaard , on fait des bonds (quantiens?), et l’on ne peut passer d’une sphère à l’autre qu’avec un quantum d’ironie et/ou d’humour , que , de mon côté j’ai identifié avec le sourire de ma mère ( et de ma grand mère maternelle).
J’ai aussi des petits enfants . L’un des derniers en date m’a scotché un jour , alors qu’il n’avait que deux ans et demi ,sans manifester jusque là d’inclination particulière . On se baladait tous les deux au bord du lac d’Annecy . Le soir tombait , et je ne le sentais plus à mes côtés . En me retournant , je l’ai trouvé assis sur un banc , regardant , muet et sidéré ; le coucher de soleil sur e lac . Quand je suis arrivé près de lui ; il m’a dit : « regarde ,papy , c’est beau « ; Je me suis assis avec lui , et on est resté bien dix minutes , sans un mot , à observer le rougeoiement décliner.
Ce jour là , on a appris quelque chose tous les deux , et de la beauté , et du partage , sans que je ne le mutile par un quelconque apprentissage .
Il a grandi depuis . Il est un peu moqueur .mais les autres aussi .
@Béotienne :
Ceci étant , si on se fie à ce qui est présenté dans le film » Interstellar », un robot y est programmé pour faire de l’humour ( on peut même doser le type et niveau d’humour ).
Mais je n’ai pas trouvé ses performances sur ce point extraordinaires .
Ou alors elles étaient si fines et supérieures que je ne les ai pas comprises .
Ce qui est bien possible .( je laisse le robot réfléchir) .
Quelques petits rappels. Un cerveau humain c’est 100 milliards de neurones et quelques 10 millions de milliards de synapses et on ne sait pas bien comment tout ça génère de la pensée.
Nous balbutions encore sur les processus d’apprentissage, sur ce qu’est l’intelligence (à fortiori artificielle) malgré des travaux comme ceux de Douglas Hofstadter ou Daniel Dennett alors on peut toujours spéculer. Si je savais comment former un Zidane ou un Einstein, j’en produirais des quantités et je me vendrais fort cher ! Alors, des robots pensants !..
Enfin une petite citation pour finir. « Lorsqu’on échafaude des hypothèses qui n’offrent pas la moindre possibilité de vérification expérimentale directe, Est-ce que l’on fait encore de la science? » (Trinh Xuan Thuan astrophysicien).
Mais qu’il est bon de rêver un peu.
Votre information a trente ans de retard, réveillez-vous !
Misha Gromov , dans son récent opuscule de fin 2012 , reste cependant sur cette conviction .
Au moins sur le caractère encore largement inexploré de l’intelligence .
En doutant qu’i y est une définition intelligente de l’intelligence , il avance qu’il y a encore beaucoup de routes à explorer et argumenter/expérimenter , avant de décrypter l’essence de l’intelligence /apprentissage .
Et pourquoi notre intelligence auto administrée nous pousse à fabriquer des robots , là où l’histoire nous poussait jusqu’à ce jour à faire des bébés .
Il ne s’est jamais intéressé à ces questions : ça vaut mon opinion sur le Tour de France.
Il ne reste plus qu’à organiser un débat Jorion /Gromov sur l’impact de l’intelligence artificielle sur le Tour de France , et sur la détection de l’apprentissage et de l’affect dans les urines des champions .
On fera des économies de podium car il n’aura qu’une marche .
Peut être assez large pour les deux débatteurs .
@ juannessy
« une définition intelligente de l’intelligence »
Thom propose: « C’est la capacité de s’identifier à autre chose, à autrui. »
Pour moi cette définition conduit naturellement à réorienter les recherches en IA de l’analytique vers la dialectique; ce que PJ a vu, sans doute parmi les premiers, et a réalisé techniquement en utilisant la méthode de « descente ».
Pour moi tester l’intelligence d’un robot consiste à tester sa capacité à se connaître lui-même, c’est à dire à être autre chose que lui-même, à être « deux en un ». Dans l’optique formelle discrète adoptée par PJ il me semble qu’on tombe nécessairement sur des automates auto-reproductibles initiés par Von Neumann et que cette nécessité doit donc apparaître dans la complexité du logiciel. Il ne m’apparaît pas certain que cette nécessité suffise.
Je détaille un peu.
Pour moi nous avons tous un point aveugle, une zone aveugle. Pour nous connaître nous devons nous déplacer pour pouvoir observer cette zone aveugle, créant malheureusement une nouvelle zone aveugle. Nous obtenons donc un système de cartes locales de nous-mêmes qu’il s’agit de recoller.
C’est ce recollement qui, à mon avis, pose de loin le plus de problèmes. Lacan s’est beaucoup exprimé à ce sujet.
Ces jeux sont des puzzles des années 80, dans lesquels survie et scoring sont liés (en visant le premier objectif, on atteint nécessairement le deuxième).
Aucun robot ne pourrait battre un joueur humain, dès lors que l’astuce, l’ingéniosité, la « triche » sont possibles (exploitation de bugs). Je pense à des shoots comme battle garegga (suicide pour scorer et gestion du rank), r-type (milkage des boss), radiant silvergun (trop de combinaisons et de paramètres liés). Egalement tout ce qui recèle à un moment ou à un autre la nécessité de résoudre une énigme est inaccessible au robot.
Franchement pas de quoi s’extasier. Toujours les mêmes niaiseries sur des robots intelligents qui ne le seront jamais.
Je ne crains aucune révolte possible d’une classe roboticienne, mais je vois pour ma part plusieurs questions :
1. Se repose ici, et de manière nouvelle (?), la « dialectique du maître et de l’esclave ».
2. Sachant qu’il y a un problème de traduction des mots lorsqu’on en parle : L’esclave dont nous entretient Kojève à partir de Hegel est-il à proprement parler esclave du maître, ou bien valet, ou serviteur du maître ? Et quel maître ? C’est ce qu’il faut définir
3. Pour Jaurès (tel qu’il se ressuscite pour moi) se poserait la question de savoir comment et pour qui peut ou doit désormais s’organiser au mieux pour l’espèce humaine la jouissance, la propriété, la maîtrise sociale de cette nouvelle indépendance des choses, élaborée par cette nouvelle classe de travailleurs , cette main-d’oeuvre qui ne « touche » plus, capables de traduire en acte une intelligence en puissance.
I.A. en puissance d’être sans exister. Sacré problème, qui n’a plus rien de sacré…
Effectivement l’ avenir radieux est déjà là :
#HumanBrainProject
#Neurocampus
#Robots
#Neuromarketing
#Transhumanisme
#Biologiedesynthese
#OGM
https://twitter.com/naturel58
Et d’après Laurent Alexandre, multi-diplômé aux dents longues et à la mentalité de tiroir-caisse, le premier homme qui vivra mille ans est déjà né !
Ça n’a pas échappé à capital.fr !
Les robots sont encore très loin de prendre notre place (sauf si on tient vraiment à se mettre à la place des robots!). Je détaille.
Esprit de finesse vs esprit de géométrie; comprendre vs expliquer; global vs local.
De ce que j’ai lu dans PSI (ma seule source sur l’IA, peut-être biaisée) PJ a été le premier à introduire de la finesse dans un monde de géomètres; à remplacer une intelligence déductive, catalogique, antisymétrique, une intelligence qui avance pas à pas, localement, une intelligence « de l’escalier », par une intelligence plus analogique, plus symétrique, plus globale. Il l’a fait en remplaçant une intelligence analytique par une intelligence dialectique.
Pascal: « Tous les géomètres seraient donc fins s’ils avaient la vue bonne, car ils ne raisonnent pas faux sur les principes qu’ils connaissent; et les esprits fins seraient géomètres s’ils pouvaient plier leur vue vers les principes inaccoutumés de géométrie. »
« Les géomètres qui ne sont que géomètres ont donc l’esprit droit, mais pourvu qu’on leur explique bien toutes choses par définitions et principes; autrement ils sont faux et insupportables.
Et les fins qui ne sont que fins ne peuvent avoir la patience de descendre jusque dans les premiers principes des choses spéculatives et d’imagination, qu’ils n’ont jamais vues dans le monde, et tout à fait hors d’usage. »
Le géomètre aveugle, avec son intelligence de l’escalier, court au hasard, parfois fort loin. Et le paralytique fin, avec son intelligence qui « sent » et « ressent », contemple le monde sans savoir comment progresser.
Il est clair pour moi que PJ a, avec PSI, tenté de relier les deux formes d’intelligence identifiées par Pascal, mais que le fossé reste heureusement énorme. Pour moi en effet l’IA ne deviendra IN (N pour Naturel) que lorsqu’on sera capable de dialoguer avec la Nature. Vaste programme que PJ n’effleure pas dans PSI.
Mais que Thom a fait plus qu’effleurer. Il a largement ébauché le programme de « créer une théorie de la signification dont la nature soit telle que l’acte même de connaître soit une conséquence de la théorie ».
Pour moi Thom est de loin le plus géomètre parmi les fins et le plus fin parmi les géomètres. Il répète souvent: « Il faut être philosophe en science et scientifique en philosophie ».
Conclusion
Notre société globalisée est en crise. Comme cela a été à mon avis très bien vu par PJ cette crise est essentiellement écologique. Nous devons absolument réapprendre (comme les sociétés primitives décrites par Lévi-Bruhl) à dialoguer avec la nature; la survie de notre espèce en dépend. Pour l’instant c’est mal parti avec ces robots dont on nous rebat les oreilles: les robots actuels ne sont pas bien fins au sens pascalien. Ils deviendront intelligents quand nous aurons compris qui nous sommes; pari pascalien qui, selon moi, est très loin d’être gagné.
Les « géomètres » de Pascal se sont appropriés une certaine forme de langage mathématique pour décrire ce qu’ils considèrent comme étant la réalité objective: c’est la fameuse coupure galiléenne. Thom propose la théorie des catastrophes pour la suturer…
On tremble à l’idée d’un Thom-robot !
Thom: « La physique actuelle a sacrifié la stabilité structurelle à la calculabilité: je veux croire qu’elle n’aura pas à se repentir de ce choix ».
Je pense que dans cette citation on peut remplacer « physique » par « robotique ». Je suis assez pessimiste puisque nos zélites n’ont pas dévié d’un pouce depuis la coupure galiléenne*. Je le suis encore plus quand je vois
1. que PJ démissionne (cf. commentaire 14);
2. que Thom est tourné en dérision sur ce blog.
* suivant en cela Stephen Hawking qui ose écrire dans l’introduction de « Y a-t-il un grand architecte dans l’univers »:
« Mais la philosophie est morte, faute d’avoir à suivre les développements de la science moderne, en particulier la physique. »
Ce n’est pas René Thom qui est tourné en dérision, c’est l’incapacité de BasicRabbit de parler d’autre chose. Nuance !
@ PJ
Ma position exposée ici est en frontale contradiction avec votre position exprimée maintes fois et réexprimée en commentaire 14. J’aurais préféré un débat. Vous avez une fois de plus choisi l’esquive; je respecte, c’est votre blog.
Vous êtes d’accord avec les pages 121 à 123 de « Stabilité structurelle et morphogénèse » (Benjamin ed.) parce que le concept de chréode inventé par Waddington et mathématiquement formulé par Thom est à la base de votre algorithme de « descente » de PSI. Dans le temps jadis vous citiez Thom et sur ce blog et en conférences à propos de la corrélation entre les « dieux(?), totems(?) » adorés par certaines sociétés primitives et les sept catastrophes élémentaires de Thom. Je ne vois qu’une seule raison à votre revirement et votre mutisme actuel à ce sujet: vous avez réalisé que les catastrophes élémentaires sont des « idées immuables » platoniciennes et, compte tenu de votre position anti-platonicienne résolument affichée, vous ne voulez plus en entendre parler, vous refoulez ces idées thomiennes qui vous dérangent dans votre inconscient.
PS: Vous m’avez écrit en commentaire « ouvert » sur ce blog il y a environ un mois:
« BasicRabbit, moi aussi je vais me conduire envers vous avec une très grande courtoisie : je suis prêt à vous offrir une page permanente sur mon blog pour que vous continuiez à nous dire tout le bien que vous pensez de la pensée de René Thom. »
Je ne vois toujours rien venir.
BasicRabbit, la différence entre nous, c’est que pour moi René Thom est un mathématicien dont les travaux m’ont toujours fort intéressé et inspiré, mais ce n’est pas un oracle dont la moindre des paroles doit être lue comme du marc de café.
Vous savez, BasicRabbit, je suis un auteur : je m’apprête à publier mon 17ème livre, et ce que je crains surtout, c’est qu’il y ait un jour un BasicRabbit du futur pour dire :
« Et souvenez-vous, en 2012 Jorion a dit : « À la réflexion, je prendrai plutôt un grand crème » ! »
Misha Gromov réclame aussi une page appendice .
Mais j’espère qu’il écrit mieux le français qu’il ne le parle .
Je constate que vous esquivez une fois de plus.
« BasicRabbit, la différence entre nous, c’est que pour moi René Thom est un mathématicien… »
Vous refusez obstinément de voir en Thom le philosophe qu’il est.
Pour ceux qui ne seraient pas au courant voici quelques échanges extraits du commentaire 4 du « Soliton… »:
http://www.pauljorion.com/blog/2014/11/06/la-question-du-soliton-est-devenue-indecomposable/#comments
PJ: Non, il n’y a pas de « René Thom de la théorie du chaos ». Il y en a un « de la théorie des catastrophes (élémentaires) » en topologie.
BR: Il vaut mieux laisser s’exprimer Thom sur la façon dont il considère sa théorie:
« Qu’est-ce que la théorie des catastrophes? C’est avant tout une méthode et un langage. Comme tout langage, la théorie des catastrophes sert à décrire la réalité. » (Le statut épistémologique de la théorie des catastrophes)
PJ: Il vaut peut-être mieux NE PAS le laisser s’exprimer : « méthode et langage » est beaucoup trop vague, alors que dire que c’est une branche de la topologie est très précis.
BR: « Il vaut peut-être mieux NE PAS le laisser s’exprimer »
J’espère que vos doigts ont couru sur le clavier sous l’effet d’une pulsion inconsciente. Effet Libet?
PJ: BasicRabbit vous êtes un troll au profil particulier : vous ne faites de mal à personne mais quel que soit le sujet abordé, vous poursuivez imperturbablement votre apologie de l’œuvre de René Thom…
Voilà. PJ ne veut pas que la théorie des catastrophes puisse servir à décrire la réalité. Et il ne veut pas en discuter. Il enfouit tout ça bien profond dans son inconscient.
Mais c’est vous même qui rappelez que j’ai souligné que les dieux du panthéon dahoméen renvoient aux 7 catastrophes élémentaires de Thom !
Votre révérence à Thom n’est pas d’ordre scientifique mais mystique, c’est cela qui fait que nous ne serons jamais d’accord.
« Mais c’est vous même qui rappelez que j’ai souligné que les dieux du panthéon dahoméen renvoient aux 7 catastrophes élémentaires de Thom ! »
Merci pour la référence que je n’arrivais pas à retrouver.
« Votre révérence à Thom n’est pas d’ordre scientifique mais mystique »
Je ne compte pas là-dedans. Vous êtes face à Thom.
La dernière des 7 catastrophes élémentaires de Thom est la catastrophe « ombilic parabolique » appelée aussi catastrophe champignon parce qu’on voit apparaître, issu de la théorie purement mathématique, un « phallus impudicus ». Pour Thom si les mâles ont un phallus c’est parce que c’est la forme structurellement stable la plus simple permettant d’assurer le transport des gamètes. Il explique par la même raison le fait que l’on fasse des rêves phalliques. Ces hypothèses peuvent sembler hardies mais je ne vois aucune mystique là-dedans.
Pour ceux qui liraient ces lignes je signale que Thom a produit un grand nombre de modèles biologiques, certains très précis.
Pourquoi les dahoméens ne seraient-ils pas dans le réel?
@ juannessy
« Misha Gromov réclame aussi une page appendice . »
Gromov et Thom même combat! Gromov et Thom étaient voisins (car géomètres) à l’IHES.
Ceci dit je n’ai pas été enthousiasmé par ce que Gromov dit dans son interview par Stéphane Paoli sur France Inter.
C’est FOU de voir que même ici, beaucoup ne prennent pas au sérieux une chose que les 1% convoitent et développent pour expérimenter, se rassasier encore et nous mettre au pas.
Et c’est un spécialiste de l’IA qui vous alerte, que faut-il de plus, voir son gosse passer tout son temps avec ‘Brian3000 le super robot éducateur’??
Nan pour ça faut creuser encore.
Nous sommes tous dépendants de nos outils, soit.
Nos outils nous donnent une pleine grande maitrise sur les autres et notre environnement, soit.
Nos outils progressent, soit.
Les dominants développent, contrôlent et utilisent des outils pour dominer. Alors là, mega-scoop!! Non sans blague ? Pas possible !
Ca aurait pas commencer il y a bien bien longtemps, avec une gros baton… Tiens, ça me rappelle une BD, ça.
La question n’est pas l’outil, même si il est très perfectionné. La question c’est ce qu’on en fait.
Et quand l’outil nous fait ? bah nous on creuse !
Mais je n’ai pas vu que les spécialistes de l’IA sont d’accord entre eux sur le péril !
Et bien sûr ceux qui n’y croient pas consacrent peu de temps à le faire savoir.
« je n’ai pas vu que les spécialistes de l’IA sont d’accord entre eux sur le péril ! »
Bien entendu : il y en a qui trouvent que tout cela ne pose aucun problème. Il y avait des physiciens dans le projet Manhattan qui étaient également très contents de la manière dont avançaient les choses !
Ce débat sur l’ IA semble cristalliser bien des peurs, bien des dénis, des incompréhensions
S’il s’avérait que des systèmes artificiels puissent copier certaines des fonctions les plus nobles de notre cerveau (pas juste du calcul brut) alors on serait en face d’un n-ième décentrement après ceux de Copernic, Darwin, Freud ou l’homme (l’humain) se trouve de plus en plus marginalisé, excentré, obsoletisé.
Réduit à un ensemble de molécules, de cellules, de neurones, certes agencées de manière très complexe (100 milliards de neurones, 10 millions de milliards de synapses), nous serions en compétition – ou en collaboration – avec d’autres systèmes, tout aussi complexe, dont la complexité nous échappe tout comme celle notre propre cerveau.
Or un niveau de complexité supérieur engendre nécessairement de l’inédit, de l’imprévisible, des lois nouvelles émergent
Là ou l’ordinateur programmé pour faire toujours la même chose fait toujours la même chose (ça rassure, sauf quand ça plante), nous aurions des systèmes conçus pour se reprogrammer eux-mêmes et dont les output nous échappent ou nous surprennent
De toutes façons on ira voir de ce coté là jusqu’où on peut aller, et au train ou vont les choses ça peut aller vite
Si les systèmes neuro-mimétiques se développent au point d’effectuer un part toujours plus grande du travail dit « intellectuel », il faudra y voir une chance si et seulement si la plus-value engendrée par ce travail est redistribuée à l’ensemble du corps social (Sismondi..) et ça, c’est pas gagné.
« Là ou l’ordinateur programmé pour faire toujours la même chose fait toujours la même chose »
Une bille partant plusieurs fois d’un même point avec, lors de son trajet, différents chemins à emprunter, sera imprévisible (enfin, son trajet) du simple fait de la gravité et d’infimes détails.
Si j’ai bien compris, une situation analogue est tout à fait transposable à la machine. Il peut donc y avoir ce que l’on juge d’inédit même chez les robots.
Parfaitement : effet du boulanger, la position du raisin de Corinthe devient imprévisible après quelques pliures de la pâte. Par ailleurs l’interaction entre plusieurs systèmes tenant compte de l’action des autres devient rapidement imprévisible.
Il y a une foule d’informations à donner et redonner en continu,…fiou, ce travail doit être robotisant !
C’est généralement à cette faculté permise par les quatre forces connues , de faire des grumeaux dans la soupe , que l’on attribue la possibilité de la complexité à l’infini , dont la vie qui en est le résultat aléatoire et empirique .
Si nous arrivons à faire mieux que nous avec les robots , dans la complexité , on aura fait plus fort que la nature dans sa course à la complexité .
Quand j’essaie d’imaginer les nombreux évènements ‘retentissants’ dans l’univers et les mécanismes en jeu, je doute.
Ou voulez-vous dire, on a fait mieux avec les robots que la nature avec nous ?
L’espèce humaine aura alors été une ‘passerelle’.
Non ,pas une « passerelle » ( idée anthropomorphique), juste un rameau possible de la complexité ,dans une infinité de possibilités en compétition de par les lois de la physique .
On notera cependant qu’il semble acquis que toute complexité accrue consomme de plus en plus d’énergie , et tue de plus en plus d’espèces si elle n’a pas besoin de leur coopération .
Les seules espèces qui peuvent prospérer sans trop d’énergies sont les algues et lichens .
Je ne conçois pas que la vie et sa diversité s’arrête à notre planète. De plus, imaginant la quantité d’énergie présente…
Mais je n’ai pas écrit que la vie était réservée à la terre ….
Pour l’énergie , pourquoi pas , mais faut aller la chercher . Ce qui a l’air de coincer pour le moment , c’est que nous dépensons plus d’énergie que nous sommes capables d’en capter , et que nous en dépensons d’autant plus que nous cherchons de nouvelles sources , au prix de dangers de mort accrus .
Et que notre désir de complexité accrue se heurte à l’accélération de notre mise en danger .
Ça me fait penser à ça …
https://www.youtube.com/watch?v=RmCE84excj4
un rameau, une passerelle, un éclair, un Z… 🙂
A ce cher Robot, je demanderai, face à un bois d’épicéa en montagne, si c’est le moment d’abattre certains d’entre eux (mûrs). Ce savoir faire, je le pressends, mais je ne peux que difficilement le partager, sentir la marée en montagne ferait doucement rigoler……surtout la sentir sans en avoir connaissance!
Un épicéa mal abattu continueras à se débattre (longtemps après). De plus il sera extrêmement sensible aux insectes xylophages. Le Robot intelligent n’en a cure, puisqu’il a été construit par ceux qui n’ont pas compris eux-même.
BasicRabbit parle d’IN, ou comment voir la réalité depuis le terrier du lapin…..
on est en train de s’atrophier convenablement.
Ne comprenant rien à l’anglais, je n’ai rien compris de la vidéo !
J’ai oublié de préciser que l’IA a déjà contaminé beaucoup, peut-être qu’ il y aura un dernier sursault ?
« Ne comprenant rien à l’anglais je n’ai rien compris à la vidéo écrit Didier ». Voilà une remarque qui tape dans le mille ! Ce que permettent les technologies de pointe informatisées c’est de nous doter de moyens de percevoir, de comprendre et d’agir qui transcendent de façon spectaculaire l’entendement, la pensée, l’intelligence naturelle humaine. Tantôt c’est catastrophique comme lorsque des algorithmes détruisent le jeu du pari sur les prix. Mais parier là- dessus est-il un jeu permis ? Ou bien il s’agit de créer un nouveau sujet animal, voire un troupeau de machines, artificiel,. Qui n’est donc pas dans la nature et qui ne soit ni plus ni moins dans l’absolu intelligent qu’un autre animal ou un humain existant dans la nature. Pourvu qu’il soit par hypothèse capable d’un comportement subjectif domestiqué : Il comprend le langage des chauve-souris, « il voit notre réalité depuis le terrier du lapin », etc, que sais-je… il évolue dans une Umwelt ( monde spécifique, où il n’est pas une machine mais notre machiniste). Son monde n’est pas la nôtre, grâce auquel nous pensons mieux pouvoir adapter notre monde humain, par une connaissance multipliée de l’Environnement « global », comme on dit qu’il nous est donné ou reçu. Bien sûr on peut créer des robots aussi au service de la connerie, ou de la guerre, aussi
Est-ce parce que l’on peut le faire qu’il faut le faire ?
Bonne question, déjà posée ici.
C’est implicitement ce que je redemandais aussi en écrivant : « Un monde de robots n’existe pas si je ne suis pas là pour l’observer » .
Si je comprends bien l’inquiétude fasse au progrès des machines dans leur capacité à remplacer efficacement l’homme dans de plus en plus de ses taches, je ne comprends pas trop l’inquiétude fasse aux senarii du type « terminator » ou « matrix ».
Pour l’instant toutes les succès d’algorithmes très performants sont impressionnants, mais ils sont sans volonté propre. Il y a toujours à un moment un programmeur qui donne sa « motivation » à l’algorithme: par exemple « il faut gagner le jeux ».
Il n’y a aucune indication qu’il soit possible de donner à un algorithme une volonté propre, sans parler de conscience (même par accident ou réaction en chaîne incontrôlée). Si cela arrivait, cela serait du même niveau que découvrir une intelligence extraterrestre. Sans doute passionnant, inquiétant et révolutionnaire, mais que ce soit pour l’intelligence extraterrestre ou l’IA, il n’y a pour l’instant pas d’indication qu’elles soient sur le point d’être rencontrées.
Pour l’instant (et sans doute pour longtemps), il me semble que le principal danger est encore et toujours l’homme et sa bêtise sans limite (derrière le fusil, les dollars ou l’algorithme).
« Il n’y a aucune indication qu’il soit possible de donner à un algorithme une volonté propre »
Quelle importance puisque les travaux de Libet et successeurs ont montré que l’homme est lui aussi … « sans volonté propre » ?
Le fait est que ce n’est pas avec de l’ « intention » ou de la « volonté » ou autres illusions du même acabit que nous fonctionnons, cf. Le secret de la chambre chinoise (1999), alors, que les robots en aient ou non, qu’est-ce que ça peut ficher ?
C’est vrai , mais je rigole d’avance quand ,dans un monde sans humains , les robots vont se découvrir mortels et sans Olivier 69 pour leur dire bonjour et cordialement !
J’essaie avec un autre vocabulaire
Et bien, je veux dire qu’une machine n’ayant aucune « envie » (ou objectif) autre que celle que l’homme lui inculque,
une machine ne fait rien par elle même même si elle en serait capable. L’algorithme qui gagne les jeux ne jouera pas si on ne lui dit pas de gagner, même si il en est capable.
Donc « ça fiche » que pour l’instant, les algorithmes sont comme les autres outils: dangereux si utilisés par l’homme pour nuire. Dans tous les exemples montrés ici, il n’y a rien qui indique qu’une machine puisse avoir des désirs (ou objectifs) différents que ceux programmés. Cela peut etre dangereux, mais pas plus que n’importe quelle arme par exemple.
Les machines sont un peu comme certaines personnes opérées du lob frontal: elles ont les mêmes capacités qu’avant mais sans désir, elle sont incapables de prendre des décisions (ni bonne ni mauvaise), sauf si on leur dit quel est leur intérêt (dans un jeux de carte par exemple).
Je ne suis pas d’accord avec vous… Je crois plutôt que les choses que nous « voulons » n’apparaissent pas clairement à notre conscience. En revanche, il me semble que si on sait l’écouter, la petite voix intérieure, elle, sait ce que nous voulons…
@Yann
Vous vous trompez, différents systèmes (algorithmes?) s’entrecoupent, une imitation de notre dynamique d’affects est implantée, et en fonction de ses capacité, il agit. Ces actions ayants sans doute pour moteur un but logique faisant la synthèse de la somme des connaissances du robot…
@ lucas
(Je ne suis pas sur de bien vous comprendre). Sauf que pour l’instant, quelque soit la complexité des systèmes et algorithme, on n’observe pas le début de l’ambrions d’un comportement ressemblant a des décisions prises sous l’emprise de ce qui ressemblerait à un sentiment.
Une prise de contrôle de notre monde par des machines est pour l’instant un fantasme, aucune donnée ne va dans ce sens.
« L’idée selon laquelle la conscience est en retard, relativement à l’entité qui est à l’origine du processus de conscience , se voit renforcée par les expériences pionnières menées par Benjamin Libet sur le temps que met un stimulus à être rendu conscient…. »
Damazio Le sentiment même de soi
Damazio note et confirme le décalage dans le temps entre prise de décision et sa « livraison » dans la conscience. Il n’en déduit pas pour autant que nous sommes sans volonté. Ce sont des mécanismes séparés – mais non indépendants – qui visent à optimiser notre comportement face à des situations plus ou moins routinières.
Cela demanderait un autre débat
« Il n’en déduit pas pour autant que nous sommes sans volonté. »
Vous avez une idée pourquoi ? Tout simplement selon moi parce que ces gars là n’ont pas la moindre idée comment ils rebâtiraient une psychologie sans « la volonté », sans « l’intention ».
@Yann
« Une prise de contrôle de notre monde » dit comme ça c’est sûr… et pourtant.
Une perte de contrôle de l’homme non, même pas ?
Voyez pas que vos besoins, connaissances et envies dépendent en grande partie du travail des machines??
« aucune donnée ne va dans ce sens. »
Vous avez vos œillères en mains.
@Lucas
« Vous avez vos œillères en mains. »
Allons, allons, vous pouvez faire mieux que ça, alors qu’une petite référence scientifique suffirait à me convaincre. Vous devez bien avoir ca sous le bras vous qui n’avez pas d’oeuillère. Un résultat aussi fort doit au moins faire un Nature ou un Science.
Parcourez le monde ou ce blog et repérez l’omniprésence des robots, je sais pas moi…
Il faut savoir se débrouiller un peu. 😉
@Paul Jorion,
« Quelle importance puisque les travaux de Libet et successeurs ont montré que l’homme est lui aussi … « sans volonté propre » ? »
Vous placez P. Haggard parmi les successeurs de Libet ?
Cf. : http://www.scienceshumaines.com/les-mecanismes-de-la-volonte_fr_14822.html : « La conscience d’agir joue bien un rôle causal dans le processus de l’agir » (in fine)
Non c’est tout simplement parce que c’est impossible. Chassez la volonté par la porte elle revient par la fenêtre.
On peut en simuler une. Mais ce n’est pas parce que ca ressemble à une psychologie, que ca a l’odeur d’une psychologie et que ca a le gout d’une psychologie, que c’est une psychologie.
J attends de voir ce que ca peut donner également (meme si ce n’est pas un argument).
En fait si: je sais. Le premier a avoir franchement ouvert la voie à ce genre de truc, c’est Sade. Le résultat on le connait. Sur le plan moral la justification et même l’apologie du crime sexuel, du meurtre (y a pas de second degré chez lui). Sur le plan politique, la justification pleine et entière du totalitarisme (ben oui: la liberté politique n’a plus aucune valeur: si les personnes n’ont aucune volonté propre mais seulement des dispositions et un caractère, le corps politique est de jure reductible à des « populations de comportements » que l’Etat a toute licence d’orienter dans la direction qui lui semble la meilleure, de la manière qu’il souhaite la plus appropriée: stimulus/réponse).
Si certains ne savent pas comment faire une psychologie sans intention et sans volonté, d’autres ne savent pas comment faire un monde habitable sans volonté et sans intention.
Heureusement, les 2 sont impossibles sans tricher à un moment ou à un autre.
@ PJ
« ce n’est pas avec de l’ « intention » (…) que nous fonctionnons »
Je pense que vous voulez dire « intention consciente ». Car il me semble clair (et difficilement réfutable) que l’intention est intimement liée à une dynamique de gradient à attracteur ponctuel (la non intention étant liée à une dynamique ergodique « du matelot ivre »). Cela pose le problème de savoir d’où vient cette intention pour vous inconsciente. Je crois comprendre qu’elle ne tient pour vous qu’au seul effet de mémoire (épigénétique). Je pense pour ma part qu’il y en outre une composante génétique (d’autant plus prononcée que les grandes régulations biologiques (faim -proies-, peur -prédateurs-, partenaires sexuels) sont en jeu).
Quand on dit « intention », on veut dire « intention consciente », ce n’est pas une proposition que je fais à titre personnel, c’est comme ça que fonctionne la langue.
@AntoineY
Je vous cite « On sait pas faire sans, donc on fait comme si ça existait… »
C’est intéressant comme argument, ça, …
Donc par exemple, « y’a plus rien à manger, mais on imagine qu’on mange », ça marche aussi ? Cool ! mais il faudrait vite le diffuser, parce y’a des gens qui en auraient un peu besoin.
Autre réflexion:
Utiliser les avancées de la neurophycho pour par exemple produire des IA, c’est bien, c’est le progrès, mais utiliser ces avancées pour réfléchir un au vivre ensemble, ça on sait pas faire …?
Transcendons-nous les uns les autres…
Oui… sauf que si tu coupes le courant… y’a plus personne !
Les robots, concrètement dans une ferme.
C’est pas top de se faire caresser les mamelles par un robot.
Ceci dit, si les robots peuvent améliorer notre quotidien, pourquoi pas.
Une autre ambiance Cré-vin-djeu
Devinette: lequel des deux prend vraiment le temps de vivre…?
Poser la question est y répondre, cependant, la monoculture (et le mono élevage) étant de toute façon condamnée, l’agriculture devra s’adapter aux circuits courts.
Je pense que les robots auront leur rôle en cette matière, de toute manière il y a des tâches que la machine sait mieux faire de l’être humain.