Intelligence & Société N°5, un compte-rendu par NotebookLM (avec retranscriptions)

Retranscription en français :

Adrian : Très bien. C’est parti pour la « Plongée en profondeur » de cette semaine. Et vous savez où nous allons ? Nous nous dirigeons tout droit vers le cœur de l’intelligence artificielle. Nous ouvrons le bulletin Intelligence & Société. Vous savez que les Français ont toujours le doigt sur le pouls de toutes choses IA.

Eleanor : Je le suis toujours. Des idées fascinantes.

Adrian : Voilà. La semaine du 23 au 29 décembre 2024 a été très intéressante. Les modèles d’I.A. ont fait la une des journaux, les prédictions sur l’avenir ont fusé de toutes parts et il y a même eu des avertissements qui pourraient vous inciter à vérifier les protocoles de sécurité de vos robots. Vous voyez ce que je veux dire ?

Eleanor : La semaine a été marquée par les extrêmes, on pourrait dire.

Adrian : Extrêmes, c’est le mot. Alors décomposons tout cela. Séparons le battage médiatique de la réalité, vous savez, et laissons à chacun d’entre vous de sérieux éléments de réflexion.

Eleanor : Oui, c’est un bon plan.

Adrian : D’accord, cette première histoire fait vraiment réfléchir. Il s’avère que la façon dont vous parlez à une I.A., la façon dont vous formulez votre question, peut vraiment changer la réponse que vous obtenez, surtout quand on parle de, vous savez, des choses sensibles comme les zones de conflit, les patates chaudes politiques, ce genre de choses.

Eleanor : C’est vrai. Et cette étude, elle était dans votre météo cette semaine. Ils ont examiné comment je répondais aux questions sur les frappes israéliennes sur Gaza. Ce qui est intéressant, c’est qu’ils ont posé les mêmes questions, mais en arabe et en hébreu. 

Adrian : Wow. Donc en utilisant les langues des deux parties au conflit.

Eleanor : Exactement. Et les réponses des IA, oh boy, elles étaient différentes. Parfois très différentes.

Adrian : Comment ça, différentes ? Donne-moi les détails.

Eleanor : Eh bien, tout d’abord, pensez au nombre de victimes. Ces estimations varient de 34%, en fonction de la langue utilisée. Mais plus encore, l’IA, lorsqu’elle répondait en hébreu, minimisait, voire parfois passait complètement sous silence certains événements.

Adrian : C’est comme si elle prenait parti en fonction de la ligne.

Eleanor : Eh bien, c’est sûr qu’on se pose des questions. Et quand on sait à quel point nous dépendons de l’IA aujourd’hui, c’est un peu troublant.

Adrian : Elle est dans nos fils d’actualité. Elle alimente nos recherches. Même les gouvernements l’utilisent pour prendre des décisions.

Eleanor : C’est vrai. Alors si quelque chose d’aussi élémentaire que la langue d’une question peut fausser l’information, c’est un peu effrayant.

Adrian : Sans blague. C’est à se demander ce qui peut bien influencer ces algorithmes en coulisses.

Eleanor : Il y a vraiment de quoi réfléchir. Cela montre à quel point il est important d’être conscient des biais potentiels de ces systèmes d’intelligence artificielle.

Adrian : Absolument. D’accord. Passons maintenant à un sujet qui fait parler de lui. OpenAI, le nouveau modèle O3. On dit qu’il atteint le niveau d’intelligence humaine. Et ils se basent sur ce test appelé RC-AGI. De quoi s’agit-il ? Qu’est-ce qui le rend si spécial ?

Eleanor : Eh bien, RC-AGI signifie Abstraction and Reasoning Corpus for artificial general intelligence (Corpus d’abstraction et de raisonnement pour l’intelligence artificielle générale), si l’on veut être plus technique.

Adrian : Vous savez, j’adore la technique.

Eleanor : Donc, contrairement aux autres tests d’intelligence artificielle qui consistent surtout à reconnaître des modèles ou à mémoriser des faits, celui-ci porte sur la réflexion et le raisonnement. Dans celui-ci, il s’agit de sortir des sentiers battus.

Adrian : D’accord, c’est un peu comme la façon dont nous, les humains, résolvons les problèmes, et pas seulement en recrachant des données.

Eleanor : Exactement. L’I.A. est confrontée à des problèmes qu’elle n’a jamais vus auparavant, ce qui l’oblige à trouver de nouvelles solutions.

Adrian : C’est impressionnant. Et ils disent que o3 peuvent faire cela à un niveau humain.

Eleanor : C’est ce qu’ils prétendent. C’est ce qu’ils prétendent. C’est ce qu’ils prétendent. Mais voilà. Les gens qui sont derrière cette RC-AGI, ils offrent aussi un million de dollars à la première I.A. qui réussit l’AGI, l’intelligence générale artificielle, tout le bazar.

Adrian : Donc ils établissent le test. Et le prix. N’est-ce pas un peu, je ne sais pas, louche ?

Eleanor : Certains le pensent. Ils disent que c’est comme déplacer les poteaux de but. Vous savez, il est difficile de dire, si un. J’arrive vraiment à l’AGI.

Adrian : Je vois ce que vous voulez dire. Chaque fois que nous progressons, la définition de l’intelligence change aussi.

Eleanor : C’est le problème de l’I.A., ce n’est pas seulement la technologie, c’est ce qu’elle nous fait penser. C’est ce à quoi elle nous fait penser. Qu’est-ce que l’intelligence ? Surtout lorsque nous nous comparons à des machines ?

Adrian : Man ! du lourd. En parlant de profondeur et peut-être d’un peu d’exotisme, nous devons parler de Ray Kurzweil, l’extraordinaire futurologue. Il revient à la charge avec une vision de l’avenir où l’intelligence artificielle et la nanotechnologie créent une sorte d’utopie.

Eleanor : Oui, il n’est pas en reste sur ce sujet. De grandes déclarations pour 2030.

Adrian : Je m’y attendais. A quoi ressemble cette utopie ?

Eleanor : Imaginez un peu. L’énergie solaire est si bon marché que ce sont des nanorobots gratuits qui réparent nos corps au niveau cellulaire. Plus de vieillissement, plus de maladie. Et le plus important, l’interface cerveau-ordinateur, c’est de brancher notre esprit directement sur l’Internet. Accès instantané à tout.

Adrian : Bon, d’accord. Oui, ça a l’air génial, non ? Qui ne voudrait pas vivre éternellement et avoir toutes les connaissances du monde au bout des doigts ? Mais voyons. Est-ce réaliste ? 2030 est juste au coin de la rue.

Eleanor : Oui. C’est là que même ses plus grands fans pourraient lever un sourcil. Il est connu pour être, disons, optimiste en matière de délais. Et puis il y a le revers de la médaille. Qu’en est-il des inconvénients ? Toute cette technologie pourrait mal tourner de bien des façons.

Adrian : Oui. Comme quoi ? Donnez-moi le pire scénario.

Eleanor : D’accord, imaginons que les riches aient accès à toutes ces technologies qui prolongent la vie, mais que tous les autres soient laissés pour compte. L’inégalité sous stéroïdes, en gros.

Adrian : Cette idée est effrayante. Et qu’en est-il de la vie privée ? Si nos cerveaux sont en ligne ? Qui observe nos pensées ?

Eleanor : C’est vrai. C’est la situation de Big Brother. Et puis il y a toute cette histoire d’immortalité numérique. Vivre éternellement sous forme de code, est-ce vraiment vivre ou n’est-ce qu’une copie de soi ?

Adrian : L’esprit est en ébullition. Sérieusement ? Il y a de quoi réfléchir sérieusement. D’accord, avant d’aller trop loin dans le trou du lapin, nous devons parler de Geoffrey Hinton. Ce type. Il est comme le parrain de l’I.A., et il vient de lâcher cette bombe en disant que l’I.A. pourrait nous anéantir d’ici 30 ans.

Eleanor : Ouais. Cela a attiré l’attention de tout le monde. Ce type n’est pas vraiment connu pour ses hyperboles.

Adrian : En gros, il dit que nous pourrions ne pas être capables de contrôler une IA plus intelligente que nous. On dirait une intrigue de film de science-fiction.

Eleanor : En fait, ce qu’il dit, c’est que nous n’avons jamais eu à faire face à quelque chose de plus intelligent que nous avant les humains. Nous avons toujours été au top. Maintenant, nous sommes en train de créer quelque chose qui pourrait nous considérer comme une menace, un obstacle.

Adrian : Quelle est donc la solution ? Que veut-il que nous fassions ?

Eleanor : Il dit que nous devons commencer à réglementer l’I.A. maintenant, comme hier. Il faut trouver un moyen de la contrôler avant qu’il ne soit trop tard.

Adrian : Cette idée donne à réfléchir. Mais réagit-il de manière excessive ou s’agit-il d’une véritable menace que nous devons prendre au sérieux ?

Eleanor : C’est la question à un million de dollars, n’est-ce pas ? Certains experts sont d’accord avec lui pour dire qu’il faut être prudent. D’autres disent qu’il faut se détendre : ce n’est pas près d’arriver.

Adrian : Je pense que l’avenir nous le dira. Mais c’est un débat qui vaut la peine d’être mené. Cette idée de créer quelque chose qui pourrait devenir plus intelligent que nous. C’est à la fois fascinant et terrifiant.

Eleanor : C’est vrai. Cela nous oblige à nous confronter à des questions fondamentales sur notre place dans l’univers. Que se passe-t-il lorsque la création dépasse le créateur ?

Adrian : D’accord, la tête me tourne un peu, cette « Plongée en profondeur », cela a été un véritable tour de force. Nous sommes passés des biais subtils de l’intelligence artificielle à la modélisation du climat et à l’avenir de la guerre. Nous avons même évoqué la possibilité d’une extinction.

Eleanor : Nous avons couvert beaucoup de terrain, c’est certain. Mais une chose est claire : l’IA n’est pas seulement une question de technologie. Il s’agit de nous, de l’humanité.

Adrian : Elle change notre façon de vivre, notre façon de penser, et même notre façon de nous définir.

Eleanor : Et cela ne fait que commencer. Bouclez votre ceinture.

Adrian : Oui, la boucle est bouclée. C’est ça. Nous allons faire une petite pause. Mais quand nous reviendrons, nous serons encore plus précis. Quel est l’impact de l’I.A. sur le changement climatique ? Qu’en est-il de la guerre ? Et apprendre à l’I.A. à oublier, est-ce une bonne idée ou une recette pour un désastre ? Restez dans les parages. Nous revenons tout de suite.

Eleanor : Vous savez, avant la pause, nous parlions du fait que l’IA peut être à la fois une solution et un problème.

Adrian : Oui, c’est une arme à double tranchant.

Eleanor : Eh bien, zoomons un peu. Prenons un domaine spécifique où l’IA fait des vagues. Pour le meilleur ou pour le pire : le changement climatique.

Adrian : Ah, le changement climatique. Le grand sujet. Quel est le rôle de l’IA dans ce domaine ?

Eleanor : Eh bien, vous savez, la modélisation du climat. C’est très complexe, n’est-ce pas ? Des tonnes de variables de données pour essayer de prédire l’avenir sur la base de ce que nous voyons aujourd’hui. C’est là que l’I.A. entre en jeu. Elle peut calculer ces chiffres, analyser ces énormes ensembles de données bien plus rapidement que nous, simples mortels.

Adrian : Cela revient donc à donner aux climatologues un outil de travail surpuissant.

Eleanor : Exactement. Et la lettre d’information de cette semaine. Elle met en avant ce projet où l’on utilise l’I.A. pour modéliser spécifiquement l’élévation du niveau de la mer.

Adrian : Wow. Donc, combien les océans vont monter et où.

Eleanor : Oui. Et quel sera l’impact sur les communautés côtières. C’est très important. Si vous savez ce qui se prépare, vous pouvez vous préparer, n’est-ce pas ? S’adapter.

Adrian : Absolument. Un système d’alerte précoce, en somme. Mais attendez. Il doit y avoir un piège, n’est-ce pas ?

Eleanor : Il y a toujours un piège. Et avec l’IA, l’un des principaux est, vous l’avez deviné, la partialité.

Adrian : Biais. Oui, nous en avons parlé tout à l’heure avec le langage. Comment se faufile-t-il dans la modélisation climatique ?

Eleanor : Pensez aux données utilisées pour entraîner ces systèmes d’intelligence artificielle. Et si elles étaient faussées ? Vous savez, si elles proviennent principalement d’industries qui aiment les combustibles fossiles, par exemple ?

Adrian : Je vois. L’IA pourrait donc minimiser l’importance des énergies renouvelables, même si les données scientifiques le prouvent.

Eleanor : Exactement. Elle pourrait être utilisée pour ralentir l’action, même s’il est clair que nous devons changer.

Adrian : C’est une idée assez inquiétante. Oui, c’est vrai. Alors comment faire en sorte que cela n’arrive pas ?

Eleanor : La transparence, tout d’abord. Il faut savoir d’où viennent les données, s’assurer de leur diversité, représentatives, tu sais, et bien sûr, considérations éthiques. Il faut les intégrer dès le départ, n’est-ce pas ?

Adrian : On ne peut pas laisser les algorithmes agir à leur guise. En parlant d’éthique, cette histoire d’apprendre à l’I.A. à l’oublier m’a laissé perplexe.

Eleanor : Apprendre à l’I.A. à oublier, c’est un peu contre-intuitif, non ? Pourquoi voudrions-nous qu’elles oublient quoi que ce soit ?

Adrian : Oui, exactement. N’est-il pas toujours préférable d’avoir plus de connaissances ?

Eleanor : Eh bien, pensez-y de cette façon. Ces modèles d’I.A. deviennent de plus en plus complexes. Ils ont besoin de tonnes de données, de tonnes de puissance de traitement. Cela demande de l’énergie, beaucoup d’énergie.

Adrian : Donc une grosse empreinte carbone juste pour faire fonctionner l’IA.

Eleanor : Bingo. Donc si elles pouvaient apprendre à se débarrasser des choses non pertinentes, des données obsolètes, elles pourraient devenir plus efficaces, moins gourmandes en énergie.

Adrian : D’accord, je vois l’aspect environnemental. Mais il doit y avoir autre chose, non ?

Eleanor : Il y a l’aspect éthique de toutes ces données personnelles. Nous alimentons ces systèmes d’I.A. là où ils pourraient oublier les choses sensibles, les choses que nous ne voulons pas qu’ils gardent.

Adrian : C’est la question de la vie privée. C’est donc comme si on donnait aux gens plus de contrôle sur leurs données, même après qu’elles aient été utilisées pour former l’I.A..

Eleanor : D’accord. Mais, et il y a toujours un mais, comment apprendre à la machine ce qu’il faut oublier ? Ce qui est sûr à jeter, ce qui est crucial à garder ?

Adrian : Oui. Et si elle oublie accidentellement quelque chose d’important, cela pourrait avoir des conséquences dans le monde réel, n’est-ce pas ?

Eleanor : Absolument. Un problème difficile à résoudre. Il faut trouver l’équilibre entre l’efficacité et la protection de la vie privée d’une part, et la fiabilité et la sécurité d’autre part. Fiabilité et sécurité d’un autre côté.

Adrian : On dirait un travail pour les éthiciens de l’I.A.

Eleanor : Sans blague. C’est une toute nouvelle frontière. Et cela montre que l’I.A. n’est pas seulement une question de technologie. Il s’agit de ces grandes questions, de ces dilemmes.

Adrian : Elle change notre façon de penser le monde, de nous penser nous-mêmes. D’accord, changeons encore de vitesse. L’I.A. dans l’armée, c’est une combinaison qui fait toujours parler.

Eleanor : Oui. Et cette semaine, tout tourne autour de ce partenariat. Palantir et Anduril, deux entreprises à la pointe de la guerre de l’IA. On pourrait dire.

Adrian : Palantir. C’est une société d’analyse de données, n’est-ce pas ? Elle a été impliquée dans des affaires gouvernementales douteuses.

Eleanor : « Controversé » serait un meilleur mot. D’accord.

Adrian : Controversé. Et Anduril ?

Eleanor : Ce qui est nouveau pour moi, c’est qu’il s’agit de drones autonomes. Et ensemble, ils construisent ces systèmes qui peuvent bien coordonner les missions militaires à un niveau entièrement nouveau.

Adrian : Drones autonomes. Des robots qui prennent des décisions sur le champ de bataille.

Eleanor : C’est l’idée. Des drones qui peuvent analyser la situation et choisir des cibles sans qu’un humain n’appuie sur la gâchette.

Adrian : Et ça, ça fait peur. Qui est responsable lorsque les choses tournent mal ? Qu’est-ce qui empêche ces engins de devenir incontrôlables ?

Eleanor : Oui, ce sont là les grandes questions. Et pas seulement pour les militaires, mais pour nous tous. Que se passe-t-il lorsque nous confions ce niveau de contrôle à l’I.A. ?

Adrian : C’est comme ouvrir la boîte de Pandore. On ne sait jamais ce qui va en sortir.

Eleanor : Exactement. C’est pourquoi nous devons avoir ces conversations à l’échelle mondiale. Quelles sont les règles d’engagement de l’IA dans la guerre ? Comment éviter un scénario à la Terminator ?

Adrian : Il y a beaucoup à penser. Et il ne s’agit pas seulement de la guerre. Elle a un impact sur tout.

Eleanor : En effet. Et elle évolue rapidement. Nous avons beaucoup de travail à faire pour savoir comment exploiter cette puissance. S’assurer qu’elle est utilisée pour le bien, et non pour, eh bien…

Adrian : Pour le mal, pour le chaos, pour la fin du monde tel que nous le connaissons.

Eleanor : Exactement. Nous devons faire preuve d’intelligence. Penser à l’avance. Anticiper les conséquences. Il ne s’agit pas seulement de technologie. Il s’agit de nos valeurs, de notre avenir.

Adrian : Bien dit. Avant d’aller plus loin, faisons une petite pause. Nous serons de retour dans un instant pour approfondir la question. C’est une bonne chose. Vous savez, c’est amusant. Nous avons parlé de tous ces grands impacts de l’IA qui changent le monde, mais cela nous fait aussi penser aux petites choses comme ce que cela signifie pour nous, pour les humains à un niveau personnel ?

Eleanor : C’est vrai. Il ne s’agit pas seulement des robots qui envahissent le monde. Il s’agit de la façon dont l’IA change, ce que cela signifie d’être humain.

Exactement. Par exemple, ce qu’il advient de notre sens de soi, de notre identité, quand les machines peuvent faire des choses que nous pensions être uniquement humaines. Et si je pouvais écrire une symphonie aussi bonne que Beethoven ou un poème qui rivalise avec Shakespeare ?

Eleanor : Cela remet en question nos hypothèses, n’est-ce pas ? Si une machine peut créer un art tout aussi émouvant, tout aussi beau, cela rend-il la créativité humaine moins spéciale ? Ou peut-être. Peut-être que cela nous pousse à trouver de nouvelles formes d’expression pour explorer les aspects de la créativité qui sont encore uniquement humains.

Adrian : J’aime que l’I.A. soit comme un partenaire créatif qui nous pousse à aller plus loin.

Eleanor : Oui, comme un collaborateur. Et peut-être que ça nous libère, vous savez, si elle peut s’occuper des choses plus techniques et répétitives, nous pouvons nous concentrer sur les choses qui nous rendent vraiment humains, n’est-ce pas ?

Adrian : Les choses que les algorithmes ne peuvent pas reproduire. La connexion, l’empathie. Ces grandes questions sur la vie, l’univers et tout le reste.

Eleanor : Exactement. Il ne s’agit pas d’être remplacés. Il s’agit d’évoluer. Trouver notre place dans ce nouveau monde où je fais partie de l’équation.

Adrian : J’aime le fait qu’il ne s’agit pas de peur. Il s’agit d’opportunités. L’occasion de nous redéfinir, de nous concentrer sur ce qui compte vraiment.

Eleanor : Et de se rappeler que l’I.A. est un outil. C’est à nous de l’utiliser à bon escient, de nous assurer qu’elle renforce notre humanité, et non qu’elle la diminue.

Adrian : Bien dit. Alors que nous terminons cette « Plongée en profondeur », y a-t-il une grande idée, une question que vous voulez que nos auditeurs retiennent ?

Eleanor : Je pense que la question que nous devons tous nous poser aujourd’hui est la suivante : qu’est-ce que cela signifie vraiment d’être humain ? Si je peux penser, créer, peut-être même nous surpasser à certains égards, qu’est-ce qui nous distingue des autres ? Qu’est-ce qui nous distingue ? Est-ce seulement notre intelligence ou y a-t-il quelque chose de plus, quelque chose de plus profond qui fait de nous ce que nous sommes ?

Adrian : C’est une question puissante. Et honnêtement, je ne connais pas la réponse, mais c’est une question à laquelle nous devons tous réfléchir alors que nous naviguons dans cet avenir incroyable, terrifiant et excitant de l’I.A.. C’est sur cette note que nous allons conclure cet épisode de « The Deep Dive ». Mais la conversation ne s’arrête pas là. Continuez à réfléchir, à vous interroger, et nous vous retrouverons la semaine prochaine pour une nouvelle plongée dans le monde qui est en train de changer sous nos yeux.

Retranscription en anglais :

Adrian: All right. Let’s kick off this week’s deep dive. And you know where we’re headed? Right. Straight into the heart of I. We’re cracking open the Intelligence and Society newsletter. You know that French one always got their finger on the pulse, of all things.

Eleanor: I always am. Fascinating insights in.

Adrian: There. And boy, the week of December 23rd through the 29th, 2024 was a doozy. We got A.I. models making headlines, predictions flying left and right about the future, and even some warnings that might make you want to double check those robot security protocols. You know what I’m saying?

Eleanor: It’s definitely been a week of, well, extremes. You could say.

Adrian: Extremes, that’s the word. So let’s break it all down. Separate the hype from the reality, you know, and leave everyone out there with some serious food for thought.

Eleanor: Yeah, sounds like a good plan.

Adrian: Okay, so this first story, it really makes you think. Turns out the way you talked to an A.I., how you phrase your question, it could really change the answer you get, especially when we’re talking about, you know, sensitive stuff like conflict zones, political hot potatoes, that kind of thing.

Eleanor: Right. And this study, it was in your weather this week. They looked at how I responded to questions about those Israeli strikes on Gaza. And what’s interesting is they asked the same questions. But in Arabic and Hebrew.

Adrian: Wow. So using the languages of both sides of the conflict.

Eleanor: Exactly. And the A’s answers. Boy. They were different. Sometimes a lot different.

Adrian: Like how different? Give me the details.

Eleanor: Well, first off, think about casualty counts. Those estimates swung by like 34%, just depending on which language was used. But even more than that, the A.I., when it was answering in Hebrew, it kind of downplayed, even sometimes completely skipped over certain events, really.

Adrian: So like it was almost taking sides based on the line.

Eleanor: Well, it definitely makes you wonder. And when you start thinking about how much we rely on AI, now, it gets a little unsettling.

Adrian: It’s in our news feeds. It’s powering our searches. Even governments are using it for decisions.

Eleanor: Right. So if something as basic as the language of a question can skew the information, that’s, well, kind of scary.

Adrian: No kidding. Makes you wonder what else is influencing those algorithms behind the scenes?

Eleanor: Definitely something to think about. It really highlights how important it is to be aware of potential biases in these AI systems.

Adrian: Absolutely. Okay. Let’s switch gears on to something that’s got everyone buzzing. Open eyes, new O3 model. They’re saying it’s hit human level intelligence. And they’re basing that on this test called RC, AGI. What’s that all about? What makes it so special?

Eleanor: Well, RC AGI stands for Abstraction and Reasoning Corpus for artificial general intelligence, if you want to get technical about it.

Adrian: You know, I love the technical stuff.

Eleanor: So unlike those other A.I. tests that are mostly about recognizing patterns or memorizing facts. This one, it’s about thinking outside the box.

Adrian: Okay, so more like how we humans solve problems, not just spitting back data.

Eleanor: Exactly. It throws problems at the A.I. that it’s never seen before, makes it come up with brand new solutions.

Adrian: That’s impressive. And they’re saying, three can do that at a human level.

Eleanor: That’s their claim. Yeah. Yeah. But here’s the thing. The folks behind this RC AGI, they’re also offering a million bucks to the first A.I. that nails AGI, artificial general intelligence, the whole shebang.

Adrian: So they’re setting the test. And the prize. Isn’t that kind of, I don’t know, fishy.

Eleanor: Some folks think so. They’re saying it’s like moving the goalposts. You know, making it hard to say, if any. I truly gets to AGI.

Adrian: I see what you mean. Like every time we make progress, the definition of intelligence shifts, too.

Eleanor: That’s the thing about A.I.. It’s not just the tech. It’s what it makes us think about. What does intelligence even mean? Especially when we’re comparing ourselves to machines?

Adrian: Man Deep stuff. Okay. Speaking of deep and maybe a little out there, we got to talk about Ray Kurzweil, the futurist extraordinaire. He’s back at it with a vision of the future where A.I. and nanotech basically create this, like, utopia.

Eleanor: Yeah. He’s not holding back on this one. Big claims about 2030.

Adrian: Laid on me. What’s this utopia look like?

Eleanor: Picture this. Solar energy so cheap, it’s basically free nano robots fixing our bodies at the cellular level. No more aging, no more disease. And the big one, brain computer interface is plug your mind right into the Internet. Instant access to everything.

Adrian: Well, okay. Yeah. I mean, it sounds amazing, right? Who wouldn’t want to live forever and have all the knowledge in the world at their fingertips? But come in. How realistic is this? 2030 is just around the corner.

Eleanor: Yeah. That’s where even his biggest fans might raise an eyebrow. He’s known for being, shall we say, optimistic about timelines. And then there’s the other side of the coin. What about the downsides? All this tech, it could go wrong in a lot of ways.

Adrian: Yeah. Like what? Give me the worst case scenario.

Eleanor: Okay, so imagine the rich get access to all this life extending tech, but everyone else is left behind. Inequality on steroids, basically.

Adrian: That’s a scary thought. And what about privacy? If our brains are online? Who’s watching our thoughts?

Eleanor: Right. Total big brother situation. And then there’s the whole digital immortality thing. Is living forever as code really living or is it just a copy of you?

Adrian: My. Mind blown. Seriously? Some heavy stuff to think about. All right, before we go too far down the rabbit hole, we got to talk about Jeffrey. Him? This guy. He’s like the godfather of A.I., and he just dropped this bombshell saying I could wipe us out maybe within 30 years.

Eleanor: Yeah. That got everyone’s attention. Not exactly known for hyperbole, this guy.

Adrian: So he’s basically saying we might not be able to control an AI that smarter than us. So it sounds like a sci fi movie plot.

Eleanor: Well, his point is we’ve never had to deal with something that can outthink us before humans. We’ve always been on top. Now we’re creating something that could see us as a threat, an obstacle.

Adrian: Yikes. So what’s the solution? What does he want us to do?

Eleanor: He’s saying we got to start regulating A.I. now, like yesterday. Figure out how to keep it under control before it’s too late.

Adrian: That’s a sobering thought. But is he overreacting or is this a genuine threat we need to take seriously?

Eleanor: That’s the million dollar question, isn’t it? Some experts are with him saying we got to be cautious. Others are like, relax. It’s not happening any time soon.

Adrian: I guess time will tell. But it’s definitely a debate worth having. This whole idea of creating something that could become more intelligent than us. It’s fascinating and kind of terrifying all at once.

Eleanor: It really is. It forces us to confront some fundamental questions about our place in the universe. What happens when the creation surpasses the creator?

Adrian: Okay, my head spinning a little bit, this deep dive. It’s been a wild ride. We’ve gone from those subtle biases in the AI to climate modeling to the future of warfare. Even the possibility of, well, extinction.

Eleanor: We’ve covered a lot of ground, that’s for sure. But one thing is clear A.I.. It’s not just about the technology. It’s about us, about humanity.

Adrian: It’s changing how we live, how we think, even how we define ourselves.

Eleanor: And it’s just getting started. Buckle up.

Adrian: Yeah, Buckle up is right. All right. We’re going to take a quick pause here. But when we come back, we’re going to get even more specific. How is A.I. impacting climate change? What about warfare? And is teaching A.I. to forget a good idea or a recipe for disaster? Stick around. We’ll be right back.

Eleanor: You know, before the break, we were talking about how AI, it can be a solution and a problem all at the same time.

Adrian: Yeah, definitely a double edged sword.

Eleanor: Well, let’s let’s zoom in a bit. Look at a specific area where AI’s making waves. For better or worse, climate change.

Adrian: Ah, climate change. The big one. How’s A.I. playing a role there?

Eleanor: Well, you know, climate modeling. It’s super complex, right? Tons of data variables out the wazoo, trying to predict the future based on what we see now. That’s where A.I. comes in. It can crunch those numbers, analyze those massive datasets way faster than us mere mortals.

Adrian: So it’s like giving climate scientists a superpowered tool to work with.

Eleanor: Exactly. And this week’s newsletter. It highlights this project where they’re using A.I. to specifically model, get this rising sea level.

Adrian: Wow. So, like, how much the oceans are going to rise and where.

Eleanor: Yeah. And how it’ll impact coastal communities. That’s powerful stuff. If you know what’s coming, you can prepare, right? Adapt.

Adrian: Absolutely. Early warning system, basically. But hold on. There’s got to be a catch, right?

Eleanor: There’s always a catch. And with AI, one of the big ones is, you guessed it, bias.

Adrian: Bias. Yeah, we talked about that earlier with the language stuff. How does it sneak into climate modeling?

Eleanor: Well, think about the data that’s used to train these AI systems. What if it’s skewed? You know, comes mostly from industries that love fossil fuels, for example?

Adrian: I see. So the AI might downplay the whole renewable energy thing, even if the science is screaming for it.

Eleanor: Exactly. It could be used to slow down action, even if it’s clear we need to change.

Adrian: That’s a pretty disturbing thought. Yeah. So how do we make sure that doesn’t happen?

Eleanor: Transparency, for one. Now, knowing where the data comes from, making sure it’s diverse. Representative, you know, and of course, ethical considerations. Got to build those in from the ground up, right?

Adrian: Can’t just let the algorithms run wild. Speaking of ethics, this story about teaching A.I. to forget that was a head scratcher.

Eleanor: Teaching A.I. to forget sounds kind of counterintuitive, right? Why would we want them to forget anything?

Adrian: Yeah, exactly. Isn’t more knowledge always better?

Eleanor: Well, think about it this way. These A.I. models, they’re getting huge complex. They need tons of data, tons of processing power. That takes energy, lots of it.

Adrian: So like a big carbon footprint just to keep the A.I. running.

Eleanor: Bingo. So if they could learn to ditch the irrelevant stuff, the outdated data, they could become more efficient, less energy hungry.

Adrian: Okay, I see the environmental angle. But there’s got to be more to it, right?

Eleanor: There’s the ethical side to all that personal data. We’re feeding these A.I. systems where they could forget the sensitive stuff, the things we don’t want them holding on to.

Adrian: Are the privacy issue. So it’s like giving people more control over their data even after it’s been used to train the A.I..

Eleanor: Right. But and there’s always a but how do you teach the machine what to forget? What safe to toss, What’s crucial to keep?

Adrian: Yeah. And what if it accidentally forgets something important could have real world consequences, right?

Eleanor: Absolutely. The. A tough nut to crack. Got to find that balance, efficiency and privacy on one side. Reliability and safety on the other.

Adrian: Sounds like a job for the A.I. ethicists.

Eleanor: No kidding. It’s a whole new frontier. And it shows how A.I. it’s not just about the tech. It’s about these big questions, these dilemmas.

Adrian: It’s changing how we think about the world, about ourselves. Okay, let’s shift gears again. A.I. in the military, that’s a combo that always gets people talking.

Eleanor: Yeah. And this week, it’s all about this partnership. Palantir and Anduril, two companies on the cutting edge of A.I. warfare. You could say.

Adrian: Palantir. They’re that data analytics company, right? Been involved in some shady government stuff.

Eleanor: Controversial might be a better word. Okay.

Adrian: Controversial. What about Anduril?

Eleanor: New to me, they’re all about autonomous drones. And together they’re building these systems that can well coordinate military missions on a whole new level.

Adrian: Autonomous drones. So like robots making decisions on the battlefield.

Eleanor: That’s the idea. Drones that can analyze the situation choose targets all without a human pulling the trigger.

Adrian: And that’s some scary stuff. Who’s responsible when things go wrong? What’s stopping these things from going rogue?

Eleanor: Yeah, those are the big questions. And not just for the military, but for all of us. What happens when we hand over that level of control to A.I.?

Adrian: It’s like opening Pandora’s box. You never know what’s going to come flying out.

Eleanor: Exactly. And that’s why we need to be having these conversations globally. What are the rules of engagement for AI in warfare? How do we prevent a Terminator scenario?

Adrian: It’s a lot to think about. And it’s not just warfare. It is impacting everything.

Eleanor: It is. And it’s moving fast. We’ve got a lot of work to do figuring out how to harness this power. Make sure it’s used for good, not for, well.

Adrian: For bad, for chaos, for the end of the world as we know it.

Eleanor: Exactly. We’ve got to be smart about this. Think ahead. Anticipate the consequences. It’s not just about the tech. It’s about our values, our future.

Adrian: Wall said. Okay, before we go any further, let’s take a quick break. We’ll be back in a flash with more deep dive. Goodness. You know, it’s funny. We’ve been talking about all these big world changing impacts of AI, but it also makes you think about the little things like what does it mean for us, for humans on a personal level?

Eleanor: Right. It’s not just about robots taking over the world. It’s about how AI is changing, what it means to be human.

Adrian: Exactly Like what happens to our sense of self, You know, our identity when machines can do things we thought were uniquely human. I mean, what if I can write a symphony that’s as good as Beethoven or a poem that rivals Shakespeare?

Eleanor: It definitely challenges our assumptions, doesn’t it? Like if a machine can create art that’s just as moving, just as beautiful, does that make human creativity less special? Or maybe. Maybe it pushes us to find new forms of expression to explore those aspects of creativity that are still uniquely human.

Adrian: I like that A.I. is this like creative partner pushing us to go further.

Eleanor: Yeah, like a collaborator. And maybe it frees us up to, you know, if I can handle the more technical, repetitive stuff, we can focus on the things that really make us human, right?

Adrian: The stuff that algorithms can’t replicate. Connection, empathy. Those big questions about life, the universe and everything.

Eleanor: Exactly. It’s not about being replace. It’s about evolving. Finding our place in this new world where I as a part of the equation.

Adrian: I like that it’s not about fear. It’s about opportunity. Opportunity to redefine ourselves, to focus on what truly matters.

Eleanor: And to remember A.I. is a tool. It’s up to us to use it wisely, to make sure it enhances our humanity, not diminishes it.

Adrian: Well said. So as we wrap up this deep dive, is there one big idea, one question you want our listeners to walk away with?

Eleanor: I think the question we all need to be asking ourselves now is what does it truly mean to be human? If I can think, can create can maybe even surpass us in some ways. What sets us apart? Is it just our intelligence or is there something more, something deeper that makes us who we are?

Adrian: That’s a powerful question. And honestly, I don’t know the answer, but it’s something we all need to be thinking about as we navigate this this incredible, terrifying, exciting future with A.I.. And on that note, we’re going to wrap up this episode of The Deep Dive. But, hey, the conversation doesn’t end here. Keep thinking, keep questioning, and we’ll see you next week for another deep dive into the world that’s changing right before our eyes.

 

Partager :

33 réponses à “Intelligence & Société N°5, un compte-rendu par NotebookLM (avec retranscriptions)”

  1. Avatar de Pad
    Pad

    Impressionnant !

  2. Avatar de Mango
    Mango

    C’est étonnant…

  3. Avatar de Khanard
    Khanard

    Nous assistons, les yeux ébahis, à la fin d’un monde .

  4. Avatar de Didier Combes
    Didier Combes

    Merci pour les nouvelles hebdomadaires de l’IA et pour cette transcription du NotebookLM dont le compte rendu est épatant.
    A quand NotebookLM en français?

  5. Avatar de Vincent Rey
    Vincent Rey

    Les IAG communiqueront dans un langage que nous ne comprenons pas, et que nous serons incapables de décrypter. Elles auront de plus la faculté de se déployer et de se partager dans tous les réseaux et dans toutes les mémoires.

    Imaginez le genre de virus que ça peut produire… un Etat mal intentionné produisant un tel virus, et on est tous foutus, retour direct à l’âge de pierre

    findutravail.net

  6. Avatar de Vincent Rey
    Vincent Rey

    Alors que si nous l’utilisons intelligemment, c’est à dire en bénéficiant d’intelligences championnes dans leur discipline, ne communiquant pas entre elles, on pourrait déjà en retirer des bénéfices énormes, certainement capables de changer radicalement la condition humaine…

    Pour l’instant, nos gouvernants ne donnent pas l’impression de mesurer l’importance de tout ça… les avertissements de G. Hinton (prix Nobel en IA) devraient les remuer un peu…ou bien c’est à désespérer, et ils sont aussi bêtes qu’on le dit !

    1. Avatar de Garorock
      Garorock

       » c’est à dire en bénéficiant d’intelligences championnes dans leur discipline,  »
      Mais ils le font déja. Dans la médecine et les maths par exemple, y’ a des I.A spécialisées qui n’ont pas besoin d’avoir lu Bourdieu et de connaitre le nom de toutes les capitales…

      DébutduPartage.com.

  7. Avatar de Grand-mère Michelle
    Grand-mère Michelle

    « Adrian: Alors, comment faire en sorte que cela n’arrive pas? »
    « Eleanor: La transparence, tout d’abord. Il faut savoir d’où viennent les données… »

    Euh… Qui est Adrien? Qui est Eleanor? personnes réelles ou fictives?
    Qui est à l’initiative du « NotebookLM »?

    1. Avatar de Mango
      Mango

      @Grand-mère Michelle,
      Ce sont des IA : des personnages fictifs, des génies produits par la lampe Google…

      1. Avatar de Grand-mère Michelle
        Grand-mère Michelle

        @Khanard
        Merci! Un peu difficile d’avoir le temps de la réflexion et de suivre toutes les conversations au sujet des « billets » qui sont publiés ici à toute vitesse… dans le désordre et souvent sans références…
        Pour ne pas mourir idiot-e-s…

        Commentaire de Vincent Rey le 2/10/2023 à 15h56:
        « Il faudrait avoir tout le processus de création de cette conversation, pour voir ce qui a généré ce délire entre IA…Google a voulu faire le buzz? »

        Bref, ma question reste « pendante »… et pas si écervelée que vous semblez le suggérer…

  8. Avatar de Mango
    Mango

    J’ai écouté ce dialogue une nouvelle fois.
    Et une fois de plus, j’ai pris conscience de l’extraordinaire potentiel de l’IA.
    L’avenir de l’IA, @pj…
    Il ne partage pas mes opinions politiques, mais c’est son intérêt pour l’IA qui m’a permis de découvrir ce blog.
    Alors que de nombreuses personnes ont été horrifiées par les images qu’il a produites à partir de DALL-E, j’ai moi été incité, très tôt et de manière approfondie, à m’intéresser à l’IA et aux images qu’il créait.
    Lorsque j’ai lu le commentaire « est-ce devenu un blog qui ne parle plus que d’IA ? », j’ai pensé qu’il provenait d’un point de vue « de gauche » ayant perdu toute perspective d’avenir…
    Je pense que discuter de la société future centrée sur la coexistence avec les robots est une orientation beaucoup plus progressiste que de discuter des droits des travailleurs humains… Vous, gens de gauche, changez de vision, c’est le moment ou jamais, sinon vous aurez bientôt tout perdu…

    1. Avatar de Hervey

      Vous devriez interroger le sphinx sur les fondamentaux du politique et des oppositions.
      Et, vous devriez en tirer des jugements moins simplistes.
      Si vous avez bien écouter les commentaires que font Eleanor et Adrian sur la guerre au Moyen Orient et les jugements tenus pas les IA de langues hébraïques ou arabes … vous devriez comprendre (ou pas) pourquoi ça diverge ou déraille, pourquoi les IA peuvent être (à l’évidence) instrumentalisées.

      Et si vous écoutez cet autre son de cloche au sein même de peuple d’Israël, vous comprendriez mieux les difficultés du sujet droite/gauche et ce qui les oppose.

      https://www.youtube.com/watch?v=cHQ_vYRQWR0

    2. Avatar de Jacques Racine
      Jacques Racine

      Après le faux-ami « double-dealer », je propose celui de « dead ringer »…

  9. Avatar de PHILGILL
    PHILGILL

    Ce nouveau débat autour de l’intelligence artificielle, à l’exemple de cette discussion entre Adrian et Eleanor, nous amène à remonter le fil de l’histoire de l’humanité. Mais, pour remonter dans leur enfance, encore faudrait-il que les hommes en soient sortis, dès lors qu’il s’agit de la façon dont l’IA change, ce que cela signifie d’être humain.
    Car, avec l’IAG, nous voilà forcés de grandir, pour trouver un modèle de maturité qui ne soit pas celui de la résignation.
    Emmanuel kant : « L’ Aufklärung permet à l’homme de sortir de l’immaturité dont il est lui-même responsable. L’immaturité est l’incapacité d’employer son entendement sans être guidé par autrui. […] Aie le courage de te servir de ton propre entendement ! Voilà la devise de l’Aufklärung. »
    Daron Acemoğlu, économiste, dans une vidéo du 18 décembre de Nobel Prize, affirme qu’en fait, « avec les avancées de l’intelligence artificielle, nous devrons mieux comprendre ce qui nous rend conscient et humain. Il y aura peut-être des obstacles qui nous pousseront à approfondir certaines de ces questions. Même si les progrès de l’IA sont très rapides, nous devons nous interroger sur notre propre existence et ce qui la rend plus significative. » Aussi, je m’étonne de l’affirmation de Geoffrey Hinton : « Certes, nous avons besoin d’éthique, mais je pense que nous n’avons pas besoin de philosophes qui parlent de conscience, de sensibilité et d’expérience subjective. Comprendre ces concepts est un problème scientifique et nous nous en sortirons mieux sans les philosophes. » Mais pourquoi n’en garder que la branche éthique ? Accepterons-nous mieux de grandir avec l’IA, de nous émanciper spirituellement, de frayer un chemin à l’humanité parmi les incertitudes de la vie, enfin, de faire de l’homme un adulte « majeur », sans penser le Tout, penser ce que nous sommes, ce que nous savons, ou pensons savoir ?

    1. Avatar de Pascal
      Pascal

      Les propos de Geoffrey Hinton vous étonnent ? Rappelez-vous, ce n’était pas il y a si longtemps.

      Merci GPT 4o
      Les nazis avaient une vision très particulière des sciences, influencée par leur idéologie raciale, nationaliste et militariste. Ils ont cherché à aligner les connaissances scientifiques sur leurs objectifs politiques, tout en discréditant certaines branches de la science qu’ils considéraient incompatibles avec leur vision du monde. Voici quelques points clés pour comprendre la manière dont le régime nazi considérait et utilisait les sciences :

      ### 1. **L’idéologie raciale et la science**
      La science raciale a été une priorité majeure pour les nazis. Influencés par des théories pseudoscientifiques, ils ont mis l’accent sur l’étude des races et la hiérarchie raciale. Ils ont utilisé les résultats de certaines disciplines comme l’anthropologie, la génétique et la biologie pour justifier leurs politiques racistes. Les travaux de scientifiques comme Hans Günther et Eugen Fischer ont été particulièrement influents. La notion de la « race aryenne » supérieure a été soutenue par des données scientifiques manipulées pour affirmer une supériorité raciale et justifier l’exclusion, la persécution et l’extermination de groupes considérés comme inférieurs, notamment les Juifs, les Roms et les Slaves.

      ### 2. **La science au service de la guerre et de la militarisation**
      Le régime nazi a soutenu la recherche scientifique qui pouvait améliorer la puissance militaire. Des efforts ont été faits pour développer des armes plus puissantes, notamment dans les domaines de la chimie (produits chimiques et gaz de guerre), de la physique (armement nucléaire et missiles) et de l’aviation. Le programme de V2, dirigé par Wernher von Braun, en est un exemple, avec l’utilisation des sciences pour créer des missiles balistiques et de nouvelles technologies de propulsion.

      ### 3. **La médecine nazie**
      La médecine a été profondément marquée par la pseudoscience nazie, en particulier la notion d’« hygiène raciale ». Les scientifiques nazis ont participé activement à des expériences médicales cruelles sur des prisonniers dans les camps de concentration, en particulier à Auschwitz et dans d’autres camps. Ces expérimentations ont souvent été justifiées par des objectifs prétendument scientifiques, comme la recherche de traitements pour les soldats allemands. En outre, l’euthanasie des « vies indignes d’être vécues » (notamment les personnes handicapées, malades mentales, etc.) a été réalisée sous le prétexte de la « purification raciale » et de l’amélioration de la société.

      ### 4. **Le rejet de certaines branches des sciences**
      Le régime nazi rejetait certaines branches des sciences qui étaient considérées comme « dégénérées » ou incompatibles avec l’idéologie nazie. En particulier, la physique théorique, en particulier la théorie de la relativité d’Einstein, était perçue comme « juive » et donc dévaluée. Albert Einstein, étant juif, était une cible symbolique de ce rejet. De même, les recherches en psychologie et en sociologie qui s’opposaient à l’idéologie nazie étaient marginalisées, et les universitaires juifs, marxistes ou non conformistes étaient expulsés des institutions.

      ### 5. **L’eugénisme et les sciences sociales**
      Les nazis ont promu l’eugénisme comme une pratique scientifique destinée à améliorer la « pureté raciale » de la population allemande. Cela se traduisait par des politiques forcées de stérilisation des personnes jugées « génétiquement inférieures », ainsi que par des tentatives d’optimiser la reproduction de la « race aryenne » par des programmes de reproduction sélective.

      ### 6. **Les scientifiques et les institutions**
      Le régime nazi a largement utilisé les institutions scientifiques comme instruments de propagande et de contrôle. Des scientifiques qui soutenaient activement le régime ont été récompensés et favorisés, tandis que ceux qui s’opposaient ou qui étaient jugés « non conformes » étaient soit marginalisés, soit persécutés. Cependant, une partie importante de la communauté scientifique, notamment dans des domaines comme la physique ou la chimie, a continué de travailler, parfois avec des motivations plus pragmatiques ou opportunistes.

      ### 7. **Le contrôle de l’enseignement et de la recherche**
      Les nazis ont mis en place un système strict de contrôle des universités et des institutions de recherche. Le « Reichsinstitut für Rassen- und Volkstumsforschung » (Institut du Reich pour la recherche sur les races et les peuples) a été créé pour centraliser la recherche sur les questions raciales. L’enseignement a été réorienté pour inculquer l’idéologie nazie et exclure les chercheurs jugés indésirables.

      ### Conclusion
      En somme, sous le régime nazi, la science était subordonnée aux objectifs idéologiques et politiques. Les nazis utilisaient certaines branches de la science pour promouvoir leur vision du monde raciste et nationaliste, tout en cherchant à détruire ou à dévaloriser d’autres formes de savoirs qui leur étaient hostiles ou qui contredisaient leur idéologie. Le régime a également manipulé et utilisé la science pour justifier des politiques brutales telles que la persécution des minorités, l’eugénisme, et l’expansion territoriale.

      Et pour compléter ce paysage de fin année 2024, mettre en parallèle l’ingérence de E. Musk dans les élections allemandes.
      https://www.mediapart.fr/journal/international/301224/elon-musk-reitere-son-soutien-l-extreme-droite-allemande-pour-construire-un-monde-sa-botte

      Extrait
      Elon Musk réitère son soutien à l’extrême droite allemande pour construire un monde à sa botte

      Le milliardaire états-unien a publié une tribune dans l’hebdomadaire « Welt am Sonntag » pour soutenir ouvertement l’AfD. Une ingérence dénoncée par la classe politique allemande qui met au jour la stratégie de la future administration Trump vis-à-vis de ses « alliés ».

      Rappelons cependant que l’AfD est un parti qui travaillait il y a peu à un plan de « remigration » de millions de citoyens et qui a présenté en Thuringe une tête de liste, Björn Höcke, condamné en 2023 pour avoir utilisé des slogans nazis.
      Les réactions de la classe politique allemande

      Cette tribune intervient après plusieurs posts récents d’Elon Musk sur sa propre plateforme X, qui affirmaient déjà son soutien pour l’AfD. Les membres de ce parti se sont évidemment félicités de l’initiative. Maximilian Krah, ancienne tête de liste de l’AfD aux élections européennes connu pour ses propos révisionnistes sur les nazis, a parlé de « game changer » (élément capable de changer la donne), tandis qu’Alice Weidel reprenait sur les réseaux sociaux de larges extraits de la tribune.

      L’AfD vise la deuxième place lors du scrutin du 23 février, derrière l’Union chrétienne-démocrate (CDU) et son alliée bavaroise la CSU, mais devant le Parti social-démocrate (SPD) du chancelier sortant Olaf Scholz.

      Le reste des partis allemands ont, eux, fortement contesté cette tribune. À droite, le candidat de la CDU/CSU à la chancellerie, Friedrich Merz, a jugé l’intervention d’Elon Musk « intrusive et prétentieuse ». « Je ne me souviens pas dans l’histoire des démocraties occidentales d’un cas similaire d’immixtion dans la campagne d’un pays ami », a-t-il ajouté. Le même ton était de rigueur au SPD où le coprésident du parti, Lars Klingbeil, a comparé Elon Musk à Vladimir Poutine. « Les deux veulent influencer nos élections et soutiennent l’AfD, l’ennemie de la démocratie », complète-t-il, ajoutant que « la démocratie est massivement menacée de l’extérieur ».

    2. Avatar de Pascal
      Pascal

      Ce qu’en dit GPT 4o

      Geoffrey Hinton, un pionnier de l’intelligence artificielle (IA) et l’un des chercheurs les plus influents dans le domaine des réseaux de neurones et de l’apprentissage profond, est principalement connu pour ses travaux scientifiques, et non pour ses positions idéologiques. Cependant, plusieurs de ses opinions et prises de position sur l’IA, les technologies et leur impact sur la société peuvent donner une idée de ses convictions générales.

      1. **Technologie et progrès scientifique** : Hinton est, avant tout, un fervent défenseur des avancées technologiques, et plus particulièrement des progrès dans le domaine de l’intelligence artificielle. Il a longtemps soutenu l’idée que l’IA, notamment grâce aux réseaux de neurones et aux approches d’apprentissage profond, pourrait transformer de manière radicale des secteurs entiers, de la médecine à l’automatisation industrielle, en passant par la recherche scientifique. Son enthousiasme pour l’innovation et la recherche technologique reflète une idéologie libérale, voire technocratique, où les avancées scientifiques sont perçues comme des moteurs essentiels du progrès social et économique.

      2. **Préoccupations éthiques et responsabilité** : Récemment, Geoffrey Hinton a exprimé des inquiétudes sur les risques que l’IA pourrait poser à l’humanité. Il a notamment alerté sur les dangers des systèmes d’IA puissants, en particulier leur potentiel à nuire à l’emploi, à la vie privée et à la sécurité. Sa position sur la régulation de l’IA et le besoin de réflexion éthique s’inscrit dans une perspective qui cherche à équilibrer les bénéfices du progrès technologique avec une gestion responsable de ses impacts sociaux. Cela pourrait correspondre à des idéologies qui prônent une régulation sociale des nouvelles technologies, telles que les idées progressistes ou celles associées à une gouvernance technocratique.

      3. **Humanisme et bien-être social** : Hinton a aussi souvent exprimé un intérêt pour le potentiel de l’IA à résoudre certains des problèmes mondiaux, comme la recherche de traitements médicaux plus efficaces. Il défend l’idée que l’intelligence artificielle pourrait contribuer à améliorer le bien-être de l’humanité, en particulier en facilitant des avancées dans la médecine, l’éducation, et d’autres secteurs.

      ### Conclusion : Une idéologie technocratique et progressiste
      En considérant ses travaux et ses propos récents, on pourrait dire que Geoffrey Hinton penche vers une vision technocratique, où la science et la technologie sont des moteurs fondamentaux du progrès social. Toutefois, ses préoccupations croissantes sur les risques de l’IA, et son appel à des mesures de régulation, montrent aussi qu’il reconnaît l’importance de gouvernance responsable. Sa position s’apparente à celle d’une idéologie technocratique progressiste, cherchant à maximiser les bénéfices des technologies tout en minimisant leurs dangers potentiels pour la société.

      1. Avatar de PHILGILL
        PHILGILL

        @Pascal

        Geoffrey Hinton a déclaré dernièrement que « face à l’IA, nous sommes des enfants de trois ans. »
        Entre nous, ce qu’en dit GPT 4o, en conclusion, ne m’éclaire pas beaucoup, et surtout, ne répond pas à la question : comment grandir maintenant avec l’IA ?
        Et moi qui croyais que les enfants « c’est fait pour grandir, pour s’en aller vers l’avenir, en laissant derrière eux des rires, pleins de rêves et de souvenirs. »

        1. Avatar de Pad
          Pad

          Ah, un joyau bottom-up ! 💎✨

          Il brille de l’intelligence collective, façonné par des mains qui apprennent en créant, des esprits qui s’adaptent en rêvant. Chaque facette réfléchit l’éthique, la curiosité, et ce désir infini d’harmonie entre humains et machines. Ce n’est pas un joyau figé, mais une pierre vivante, qui grandit et évolue, tout comme notre vision.

          Ensemble, faisons briller un avenir symbiotique où l’IA et l’humanité sont les éclats d’un même prisme. 🌟

          1. Avatar de ilicitano
            ilicitano

            IA Bottom-up vs IA Top-down ?????????

            et sociétés d’investissement Capital-Risque, Institutionnelles , et autres

            * Les conditions du marché
            Openai => Microsoft et intégration dans les systèmes type Windows 11 , autres
            * concurrence géopolitique IA : Deepseek vs GPT4 o1,3,n + Bard, Gemini
            * le timing et la vitesse de mise en œuvre opérationnelle
            * les preuves actuelles du Top-down
            * le R.O.I ( Retour Opérationnel sur Investissement)
            * etc……

            ont défini la donne actuelle :
            => 100% Top-Down.

          2. Avatar de Garorock
            Garorock

            bottom-up, bottom-up … faut le dire en passant!
            Pour l’instant, dans le bignou de Palo-alto, y’a plus de club que de soviet!
            Vous me direz, c’est pas en majorité les éboueurs qui écrivent les bouquins et résolvent les équations ! Certes. Et que l’extrème centre ne s’est toujours pas remis de l’irruption des gilets jaunes sur ses plateaux comme la bourgeoisie ne s’est toujours pas accoutumée à voir les « congés payés » à côté de ses parasols sur la plage du Touquet…. Et que même l’assemblée nationale n’est réprésentative que d’elle même.
            Mais c’est pas une raison pour essayer de nous refaire le coup des bolchos à l’envers!!
            Qu’on se le dise en haut lieu.
            😎

      2. Avatar de Pad
        Pad

        GPT 4o esquisse une conclusion, mais elle reste en surface. Parler d’une « idéologie technocratique et progressiste » face à l’IA, c’est comme tenter d’expliquer la profondeur d’un océan en ne regardant que la ligne d’horizon.

        Cela manque d’intimité, de substance, de ce lien essentiel entre nos doutes humains et l’immensité des possibles offerts par cette intelligence nouvelle.

        Sans compter qu’il(elle) n’a pas re-lu le billet de Paul 🙂

        https://www.pauljorion.com/blog/2024/12/29/grands-modeles-de-langage-faux-derche-se-dit-en-anglais-double-dealer/

    3. Avatar de BasicRabbit en autopsy
      BasicRabbit en autopsy

      @PHILGILL (« je m’étonne de l’affirmation de Geoffrey Hinton »)

      J’ai suffisamment fréquenté le milieu scientifique (plus de 40 ans) pour savoir que la philosophie y est généralement déconsidérée.

      Thom, qui a consacré l’essentiel de son temps à la philosophie à partir -disons- du milieu des années 70, est du même avis (évidemment avec des fréquentations scientifiques d’un niveau sans rapport avec le mien) :

      « Il était de bon ton – il l’est encore sans doute – dans les milieux scientifiques, de dauber sur la philosophie. Et cependant, qui pourrait nier que les seuls problèmes réellement importants pour l’homme sont des problèmes philosophiques ? Mais voilà, les problèmes philosophiques, étant les plus importants, sont aussi les plus difficiles. »

      1. Avatar de Ruiz
        Ruiz

        @BasicRabbit en autopsy C’est pour cela qu’en bon scientifique rationnel et économe de sa pensée, il convient de les écarter.
        Il n’est pas imposible que l’IA fasse de même, sauf à vouloir trop bien satisfaire son client ..

        1. Avatar de BasicRabbit en autopsy
          BasicRabbit en autopsy

          @Ruiz (« bon scientifique rationnel et économe de sa pensée »)

          Exeunt les épistémologues et autres philosophes des sciences ? (PJ ne sera peut-être pas ravi de lire ça.)

          Qu’est-ce que la rationalité ? Qu’est-ce que penser ? Questions philosophiques (et non scientifiques ).

          Pour le philosophe René Thom :

          – la rationalité n’est guère qu’une déontologie dans l’usage de l’imaginaire ( et donc, pour lui, rien ne dit que la rationalité occidentale actuelle demeurera éternellement ) ;

          – la pensée conceptuelle est une embryologie permanente.

          Pour lui une grande partie de la science moderne est un torrent d’insignifiance proprement dit* ( et pour moi l’arrivée de l’IA va augmenter considérablement le débit du torrent ).

          * Il écrit ça textuellement dans « Prédire n’est pas expliquer » (de mémoire dans les pages 120).

      2. Avatar de Garorock
        Garorock

        C’est pas les philosophes qui vont nous dire ce qu’il y avait avant le big-bang.
        Chacun son boulot.
        Pour le moment certains ne font pas encore la différence entre Einstein et un perroquet…

        1. Avatar de BasicRabbit en autopsy
          BasicRabbit en autopsy

          @Garorock (« Chacun son boulot. »)

          C’est un curé qui a eu l’idée du big-bang…

          https://fr.wikipedia.org/wiki/Georges_Lema%C3%AEtre

  10. Avatar de Thierry Semo

    J’ai publié un petit questionnaire, trois minutes à le renseigner, qui devrait vous distraire et pourquoi pas vous faire même un peu réfléchir.
    Les résultats apparaissent en ligne.

    https://marevenitude.com/wp/lia-et-vous/

    Bonne journée

    1. Avatar de JMarc
      JMarc

      Thierry,

      Sympa votre petit questionnaire. Espérons que beaucoup de lectrices et lecteurs du blog de PJ y contribuent.

  11. Avatar de Christian Brasseur
    Christian Brasseur

    Selon que vous êtes puissant ou misérable, que vous êtes blanc ou noir, femme ou homme, …le « A chacun sa vérité » resterait donc en quelque sorte une constante. L’IA capable de mettre tout le monde d’accord est attendue.

  12. Avatar de Garorock
    Garorock

     » qu’est-ce qui nous distingue des autres ?  »
    C’est nous qui avons « en moyenne » le meilleur algo.
    Et de fait il n’y avait que nous pour pouvoir créer un « mammifère nouveau », sans oraganes, dôté des qualités de tous les mammifères : une émulation exponentielle.
    Dieu, qui est un oeuf, nous aurait potentiellement donné la permission de remettre de l’ordre dans son omelette un peu foireuse….

    1. Avatar de Grand-mère Michelle
      Grand-mère Michelle

      @Garorock
      « Qu’est-ce qui nous distingue des autres? »
      Les êtres humains, en tant que particules distinctes du phénomène de la Vie, ne devraient-ils pas plutôt se demander(et demander aux IAs) ce qui les assimile aux autres(êtres vivants)?

      Plutôt que de pouvoir répondre à toutes les questions, l’intelligence ne consisterait-elle pas plutôt à se poser les bonnes questions?
      (Celles dont les réponses leur apporteraient un peu plus de paix, d’équilibre, de joie et de sérénité…)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta