j'adhère au cera

Pierre COLLET

Le futur et l’IA : qu’est-ce qui nous attend vraiment au bout du chemin ?

Comment l’intelligence artificielle va-t-elle évoluer au cours des prochaines années ? Après ChatGPT, qu’est-ce qui nous attend ?

  

Rencontre du CERA du 06 février 2024

 

Pierre COLLET prend la parole :

Merci, merci, bien sûr, à toute l'équipe du CERA de m'avoir invité, c'est un grand plaisir d'être avec vous ce soir.

 

 Alors, je crois que toutes mes conférences sont différentes, dans le sens où je les refais à chaque fois, parce qu'en fait le domaine change à chaque fois, donc là j'ai refait celle-là dans le train, on va voir comment elle va se passer, c'est bien, ça va être une surprise pour moi aussi. Alors, je vais essayer de tenir dans une heure et demie, parce qu'on a pas mal de choses à voir ensemble, explorer pas mal de domaines pour remettre tout ça ensemble, c'est quand même un gros sujet. Alors, avant tout et avant la conclusion de cette conférence, il faut que vous sachiez que je suis par nature un grand optimiste, et j'espère, je compte sur le débat qui aura lieu sur les questions-réponses après la conférence pour essayer d'égayer un peu la soirée.

 

 Bon, qu'est-ce que je veux dire ? Je suis désolé, ces transparences sont en anglais, mais je vais parler en français dessus, donc s'il y a des points qui ne vont pas, ça sera quand même compréhensible. Donc on va avoir un certain nombre de points, là vous voyez 4 points, j'espère rentrer suffisamment dans ces points de manière qu'on puisse aller cheminer ensemble vers la fin. Alors, je vais commencer un peu par la fin, justement, avec cette petite citation de T.S. Eliot, ce qu'on appelle le début est souvent la fin, et terminer c'est en fait savoir commencer, et la fin c'est l'endroit d'où on part. Alors, je ne sais pas si vous connaissez cette personne-là.

Voilà, donc elle s'appelle Lil Miquela, et gardez-la en tête, on va reparler à la fin, c'est pour ça que je commence par la fin. Mais avant de parler de Lil Miquela, petite incise, qui est-elle ? Elle est née en 2016, ça ne lui fait pas beaucoup d'années. Elle a plus de 2,8 millions de followers sur Instagram en 2023, mais on est déjà en 2024. Ses meilleurs clips sur YouTube font entre 7 millions et 4 millions de vues. Elle a des contrats avec Prada, Calvin Klein, etc. Et il se trouve que cette personne n'existe pas, elle est complètement virtuelle, c'est un avatar, et on va voir l'implication que tout ça a à la fin de cette présentation. Bon, donc, parler de l'intelligence artificielle et d'éthique, remettre un peu tout ça dans le même sac, pour ça il faut arriver à peut-être définir un peu ce que c'est que l'intelligence, avant de parler de ce que c'est que l'intelligence artificielle. On va faire un peu de science quand même, ce soir, je n’espère pas trop, pour pas vous ennuyer de trop, mais c'est important. Et donc on va commencer avec la notion d'ontologie, qui est essentielle pour comprendre tout ce qui s'est passé dans l'Occident sur le développement des sciences, et bien sûr après de la notion d'intelligence.

 

 Alors on va faire beaucoup d'étymologie ce soir, c'est très important, parce que la signification des mots, l'étymologie des mots, je ne sais pas qui c'est qui a fabriqué les mots, mais les mots ont toujours une signification profonde, merveilleuse, et vous allez voir qu'à chaque fois qu'on prend un mot, qu'on comprend ce qu'il veut dire, d'où il vient, c'est toujours éclairant. Alors, bon, philosophie, c'est le fait d'aimer la connaissance, la poursuite de la sagesse, on va faire un peu d'épistémologie, on va regarder ce qu'il y a un peu au-dessus de tout ça, pour essayer de faire un peu de théorie, voir le divin, c'est ça l'étymologie du mot. Donc, l'objet de la philosophie c'est effectivement la quête de la connaissance, pour comprendre la nature fondamentale de tout ce qui est la connaissance, réalité, existence, tout le monde qui est autour de nous, et actuellement on a vraiment ce défaut de penser que la philosophie c'est du côté de la littérature, et en fait pas du tout, c'est la science, c'est la compréhension du monde qui est autour de nous. Donc c'est absolument fondamental, et d'autant plus que maintenant, avec l'IA, vous allez voir que ça va nous interroger très sérieusement. Alors, intelligence, étymologie et signification, donc un inter léger, relier les choses et trouver les mots pour arriver à rassembler un certain nombre de concepts ensemble, donc là j'ai pris des références tout bêtement sur Wikipédia. En anglais, ça a aussi cette connotation un peu militaire, il y a la CIA, Signed Front Intelligence Agency, intelligence en anglais, ce sont aussi les informations en temps de guerre pour savoir de quoi est fait l'ennemi, etc.

 

 Donc il y a aussi cette petite connotation qui n'existe pas en français. Bon, alors, regardons un peu comment tout ça a commencé, et ça a commencé il y a très longtemps avec Parménide, en Occident. Parménide c'est un philosophe grec, il y a 2500 ans maintenant, et en fait c'est lui qui a attiré l'attention et qui a permis à toute la science occidentale de se développer, parce qu'en fait il a attiré l'attention des philosophes de l'époque, donc les scientifiques de l'époque, qui s'appelaient des philosophes, sur le fait de dire que le monde est composé d'objets, d'entités, et qu'il ne s'agit pas de construire sur des fondations qui sont en sable.

 

 Donc avant d'élaborer des concepts, il faut s'assurer que le concept précédent qui est dessous, il est solide, il a été vérifié, et que ce n'est pas quelque chose de flou, sur lequel on n'est pas sûr. Parce que si vous construisez une maison sur un tas de sable, forcément, si les fondations ne sont pas bonnes, la construction risque de ne pas être très solide. Ensuite, il a dit que ce qui est, et ce qui n'est pas, ne peut pas être. Donc c'est très important de bien comprendre la détermination des choses, où les choses commencent, où les choses terminent, pour s'assurer de quoi il s'agit avant de pouvoir continuer. Maintenant qu'on a défini la notion d'objet, il faut comprendre comment les objets interagissent entre eux. Cette notion d'interaction entre eux, on va le voir, c'est ce qui consiste les ontologies. En fait, ça se fait via des lois. Il faut reprendre les définitions des mots, etc. Comment est-ce qu'on va relier les objets ensemble ?

 

 En fait, ça va se faire par un graphe. Pour les gens qui font de l'informatique, c'est un graphe qui ressemble à ce qu'on appelle un arbre en informatique. En informatique, les arbres sont un peu bizarres. La racine de l'arbre est en haut, les feuilles sont en bas. Généralement, à partir de la racine qui est en haut, on descend, mais les flèches vont de haut en bas. Alors que dans une ontologie... Alors là, j'ai tapé le mot ontologie sur internet, j'ai essayé de trouver un truc. C'est la première ontologie qui est arrivée. Je l'ai trouvé très bien. Vous voyez qu'ici, c'est une espèce d'arbre, mais avec les flèches qui vont du bas vers le haut.

 

 Maintenant, quand on regarde un peu de quoi il s'agit, c'est une ontologie sur l'agrométéorologie. J'ai un pointeur un peu magique ici. Je ne sais pas comment ça va passer dans la vidéo. C'est l'agrométéorologie ici. On se rend compte qu'il y a Sergio qui est là, peut-être. Sergio qui travaille dans le rio climat, qui lui-même travaille sur la notion de bioclimat, qui fait partie de la climatologie, qui est une agrométéorologie. Martha a des compétences en précipitation, qui fait partie de la climatologie, etc. C'est comme ça qu'on arrive à définir un domaine à partir d'un certain nombre d'entités. Comment est-ce que ces entités sont reliées ensemble ? C'est ce qu'on appelle une ontologie, c'est le graphe des connaissances et comment les connaissances sont reliées entre elles. D'un point de vue informatique, parce que l'IA est reliée très fortement à l'informatique, c'est la science des données, etc. Il faut comprendre que pour nous, tous les objets qui se trouvent là, les entités, c'est ce qu'on appelle les données, la science des données, etc. Finalement, c'est ça qui définit en philosophie ce qu'on appelle la vérité.

 

 La vérité, il faut savoir qu'en dehors des mathématiques, elle n'existe pas. C'est quoi la vérité de cette télécommande ? Quelle masse fait-elle exactement au sens mathématique du terme ? Il faut que je connaisse tous les atomes qui la composent. C'est quoi sa couleur exacte ? On se rend compte qu'à la fin, quand on descend au niveau atomique, en plus tout est flou, on descend dans la physique quantique, il n'y a plus rien de déterminé. Les objets, on ne sait pas où ils sont, on ne peut pas déterminer leur vitesse et leur position à la fois. Donc à la fin, il n'y a plus rien. Voilà, super, parfait. Finalement, c'est quoi l'objet de la science ? D'où vient le mot science ? L'objet de la science, ça vient de syndérer, c'est scinder. Et l'objet de la science, c'est de faire la part entre le vrai et le faux. Entre séparer le bon grain de l'ivraie, qu'est-ce qui est déterminé, qu'est-ce qui n'est pas déterminé. C'est ça l'objet de la science, trouver ce qui est vrai, trouver ce qui est faux. C'est ça l'idée de ces objets, comprendre ce qu'ils sont. Et ensuite, la deuxième partie, c'est avec les lois. Ça consiste à trouver comment les objets sont reliés entre eux et quelle est leur interaction. Et en science, on fait ça avec des équations. Les équations définissent ce qu'on appelle des lois. En latin, la loi provient de ius, qui a un rapport avec la justice.

 

La justice, la loi, ce sont des mots qu'on utilise assez souvent ensemble. Quel est l'objet de la justice ? C'est de trouver l'égalité. C'est pour ça qu'on a la balance qui se trouve ici. La balance de la justice, c'est celle qui doit déterminer ce qui est égal. Si vous voulez une pomme, la pénalité ne sera pas la même que si vous voulez un œuf ou un bœuf. C'est ça l'idée, c'est d'arriver à trouver le bon équilibre des choses. C'est ça l'égalité, la justice, la loi. C'est mettre les choses en rapport. Maintenant, quand on ramène ça sur la notion de science, il y a une loi qui est très connue en science, une des premières qui a démarré la révolution scientifique du XVIIe siècle. C'est la loi universelle de la gravitation de Newton. Cette loi dit quoi ? La loi veut dire qu'il y a une égalité ici, si j'arrive à contrôler mon truc, il y a une égalité, c'est ça la notion de loi, entre la force d'attraction entre deux corps et une équation qui détermine cette force. Cette force est déterminée à partir de quoi ? C'est la masse d'une entité, un objet ici, fois la masse du deuxième, divisé par la distance au carré entre les deux. La distance entrée au carré entre les deux, c'est la position de l'un moins la position de l'autre, et tout au carré. C'est ce qu'on appelle une loi en science, c'est la loi universelle de la gravitation. Il n'y a pas qu'en science qu'on fait des lois, j’ai discuté avec un avocat aujourd'hui, il y a aussi les interactions humaines. Ce ne sont pas des cailloux qui interagissent entre eux, des fois on appelle ça les sciences dures, c'est la science des cailloux, les planètes, la Terre, quand on recevait un caillou dans la figure, et puis après il y a les sciences humaines, et en sciences humaines on a aussi des lois. Elles sont définies comment ?

 

Je vous présente Hammourabi, qui est debout, qui a les mains en signe de prière, devant le dieu Shamash, ou peut-être Marduk, qui lui donne une liste de lois, parce qu'à l'époque, il y a 3700 ans, et depuis le début de l'humanité, on vivait dans une époque où les lois provenaient des dieux, c'est ce qu'on appelle un système hétéronome, Nomos en grec ça veut dire loi, hétéro ça veut dire que les lois venaient d'ailleurs, donc actuellement nous sommes en France dans un gouvernement autonome, dans le sens où les lois sont faites par le parlement, les députés, les sénateurs, etc.

 Donc ce sont des humains qui font les lois pour d'autres humains, mais à cette époque-là, les lois étaient des lois divines, et donc c'est pour ça que c'est un système hétéronome. Alors c'est très intéressant parce qu'on a retrouvé cette stèle, et dans cette stèle qui est faite en basalte, écrite en cunéiforme verticalement, maintenant qu'on a réussi à comprendre le cunéiforme, on a réussi à comprendre ce qu'étaient ces lois, et de quoi elles étaient faites. Alors je vous en ai pris une, il y en a environ 125, 150, qui sont toutes écrites comme ça, et qui décrivaient la manière dont les humains devaient interagir. Dans ces cas-là, les entités, ce sont les humains.

 

 Les interactions, ce ne sont pas des équations. Ah, finalement, ce ne sont pas des équations. Alors ça dit quoi ? Une des lois dit, si un humain, à l'époque c’étaient des hommes, il y a toute une hiérarchie, on y reviendra après. Si un homme a une dette contre lui, qu'il a empruntée, et que le dieu des tempêtes, Hadad, dévaste son champ, ou alors s'il y a une inondation qui a emmené toutes ces céréales, ou s'il n'y a pas de grain qui a poussé dans son champ à cause du fait qu'il n'y a pas assez d'eau, là ça gère trop d'eau, là ça ne gère pas assez d'eau, là ça gère le vent, ça essaie de tout gérer. Alors, dans cette année, dans l'année où ces catastrophes se sont produites à cause du dieu Hadad, il n'aura pas à redonner du grain à son créditeur, le contrat sera interrompu pendant toute cette année, et il n'aura pas besoin de payer d'intérêts pendant toute cette année.

 

 Il y avait déjà la notion d'intérêt, c'est sympa, ce n'est pas sa faute, donc pas d'intérêt sur le fait qu'il doit de l'argent, qu'il n'a pas pu rembourser. Outre la loi qui est elle-même intéressante, ce qui est intéressant c'est de regarder quand c'est une loi scientifique, ça a été fait avec des plus, des moins, des multipliés, des divisés, ce genre de choses, c'est ça les opérateurs. Et là, c'est quoi les opérateurs ? Il y a un if-then, c'est si on se retrouve en informatique, tiens, if-then-else, donc si une condition, mais cette condition, vous voyez qu'elle contient des ou, et puis il y a des non.

 

 Tiens, et ou non, c'est ce qu'on appelle les opérateurs logiques. Les opérateurs logiques, on se retrouve dans le monde de l'information, dans le monde des ordinateurs à cette époque-là. Et donc, qu'est-ce qu'on a ? En fait, si une condition, alors une autre condition, c'est ce qui définit l'égalité, c'est ce qui définit ce qui est juste. Donc en fait, le if-then, c'est l'équivalent du signe égal. D'accord ? Si ceci se produit, alors il est égal, il est juste que cette pénalité soit appliquée. Alors, maintenant, ça nous amène vers quoi ? Ça nous amène vers le fait que lorsque les lois sont des lois humaines, des lois qui déterminent le comportement des entités animées les unes entre les autres, donc quand c'est des animées non humaines, on appelle ça l'éthologie, la science du comportement, lorsque ce sont des animées humaines, la manière dont on doit interagir entre nous, ça s'appelle l'éthique. Le comportement entre les humains. Donc on se rend compte que finalement, il est fait avec de la logique. Alors, c'est qui la logique ? En fait, la personne qui a bien compris tout ça, c'est Georges Boole, c'est pour ça qu'on a des boulins. Les boulins, c'est comment est-ce qu'on détermine des informations qui sont vraies, fausses, et comment est-ce que le vrai et le faux se combinent ensemble. Alors, quelle est l'étymologie de logique ?

 Eh bien, on va revenir dessus à la fin de cette présentation. C'est la notion de logos, raison, idée, etc. Mais ce sont aussi les premières phrases du prologue de Saint-Jean, de l'évangile selon Saint-Jean. On va voir l'importance que ça a tout à l'heure. Alors maintenant, ça nous amène on sait à peu près ce que c'est plus ou moins multiplié mais les gens savent beaucoup moins ce que c'est que la logique et comment fonctionnent les logiques et les opérateurs logiques. Alors, la logique, c'est l'étude du raisonnement. C'est important, bien sûr, en intelligence artificielle parce que ça a tout mélangé, l'intelligence artificielle.

 

 Et donc, on va regarder un peu ce que c'est que l'algèbre booléenne. Et en fait, l'algèbre booléenne, ça ne fonctionne pas comme une algèbre arithmétique, plus et moins. Donc, il se trouve qu'on a aussi des opérateurs. Alors, on a un opérateur dont on a déjà parlé un petit peu avant, et on a un opérateur et finalement, c'est très très similaire à l'arithmétique générale qui a deux lois. Alors, c'est quoi les lois ? Eh bien, voilà, si j'ai A qui vaut 0 ou B qui vaut ces valeurs-là ici. Donc là, la première ligne, ça va être quand A et B valent 0 et 0. A fois B, 0 fois 0, ça fait 0. A et B, tiens, donc faux et faux, ça fait faux. C'est 0 aussi. Et si j'ai A plus B, donc l'opérateur arithmétique, 0 plus 0, ça fait 0. Et A ou B, tiens, ça fait 0 aussi. Et on se rend compte qu'il y a une similarité très proche entre la notion de et la notion de multiplier. Vous voyez que 0 fois 1, ça fait 0. Eh bien, 0 faux et vrai, ça fait faux.

 Vrai et faux, ça fait 0, etc. Vous voyez que c'est exactement la même chose. Et là, quand j'ai 1 fois 1, ça fait 1. Eh bien, vrai et vrai, ça fait vrai. Donc de ce côté-là, il n'y a pas de problème. Maintenant, quand je regarde du côté de l'addition, eh bien, 0 plus 0, ça fait la tête à totaux. 0 plus 1, ça fait 1. 0 ou 1, ça fait 1. Faux ou vrai, ça fait 1. Vrai ou faux, 1 plus 0, ça fait 1. Vrai ou faux, ça fait 1. Maintenant, je vais vous poser des questions. D'après vous, ça fait quoi ? 1 plus 1 ? Est-ce que vous savez ce que ça fait, 1 plus 1 ?

 

 Souvent, ça fait 2.  D'accord. Et d'après vous, ça fait quoi vrai plus vrai ? En fait, c'est ça le gros problème. C'est que vrai plus vrai, ça fait vrai. Et ça ne fait pas 2 fois vrai. Et donc, ce qu'on comprend ici, c'est que l'addition, l'arithmétique, elle est ce qu'on appelle additive. 1 plus 1, ça fait 2. Alors que la logique n'est pas additive. Quelque chose qui est 10 000 fois vrai, c'est quelque chose qui est vrai. D'accord. Et le problème, l'énorme problème qu'ont les ordinateurs, c'est que les ordinateurs, ils travaillent avec vrai et faux. C'est des opérateurs booléens. Donc ce que vous avez, les ordinateurs ne savent pas compter, il ne faut pas le dire.

 

 Si vous demandez à l'ordinateur combien ça fait 1 plus 1, l'ordinateur va lui dire que ça fait 1. Pourquoi ? Parce que l'ordinateur, il fonctionne avec du vrai. Et pour un ordinateur, vrai ou vrai, c'est-à-dire vrai plus vrai, ça fait vrai. Ça ne fait pas 2 fois vrai. Alors c'est très intéressant parce que, en informatique, la manière dont on implémente le vrai et le faux, le vrai c'est 5V, il y a un courant dans un fil, le courant c'est plus 5V, le faux c'est 0V. Donc heureusement que ce n'est pas additif parce que si je cherche à 5V plus 5V, si c'était additif, ça devrait faire 10V.

 

 Et puis si je cherche à afficher ce qu'il y a sur mon compte en banque, si j'ai 2000€ sur mon compte en banque, tout d'un coup l'ordinateur devrait afficher 10000V, alors il faut que je m'en arrête. Forcément, parce que si j'additionne les volts... Vous voyez bien que c'est un gros problème. Heureusement, quand j'affiche 1 million, je n'ai pas 5 millions de volts qui sortent de mon ordinateur. Et j'en suis très heureux. Mais ça veut dire qu'on a un très gros problème, c'est qu'on ne sait pas faire calculer les ordinateurs. Il faut faire des circuits logiques pour faire des additions, pour faire des soustractions, des divisions, des multiplications.

 

 C'est tout un binz parce qu'on essaye de faire du calcul avec des machins qui ne savent pas calculer. Parce qu'ils sont basés sur la logique. Alors maintenant, qu'est-ce que c'est qu'être basé sur la logique ? On va voir que ça a d'autres influences. C'est que si avec les sciences dures, la science des cailloux, les lois c'est des égalités, nous, c'est quoi le mécanisme déductif de logique qui permet de fabriquer ? C'est quoi l'égalité dans la notion de logique ? L'égalité dans la notion de logique, c'est ce qu'on appelle le syllogisme.

 

 Je ne sais pas s'il y en a qui ont fait un peu de loi, un peu de juridique. Le syllogisme, c'est le syllogisme que doit être basé toute la législation, toutes les lois. Et si un jour vous allez au tribunal, les avocats, le procureur, les juges, etc., doivent baser leur raisonnement sur le syllogisme. Et malheureusement, vous allez voir que le syllogisme, ce n'est pas un truc qui est facile à comprendre et du coup, ce n'est pas un truc qui est très compris, y compris des spécialistes du domaine. Alors, ça fonctionne en utilisant deux modes.

 

 Le premier mode, c'est le modus ponens. C'est la modalité qui donne le pouvoir, c'est ça qui donne le pouvoir à la justice de vous mettre en prison ou pas. Et il y a l'inverse du modus ponens, c'est la modalité qui réfute les choses. On va voir comment ça fonctionne. Alors, la personne qui a compris ça, tout a été inventé en Grèce il y a plus de 2000 ans, même l'IA, on va voir qu'il y a tout plein de choses. Ils avaient tout compris, les Grecs. Alors, c'est Théophraste de Lesbos et William de Rode qui ont travaillé sur le syllogisme qui veut dire inférence, conclusion.

 Donc, comment ça fonctionne ?  C'est l'aspect performatif de la loi. Donc, si on a A implique B qui est vrai, on a une proposition. Ensuite, si A est vrai, alors ça signifie que B est vrai. La manière dont on traduit ça habituellement en philo, c'est de dire on a une proposition qu'on fait, on va dire si tous les humains sont mortels, ça, ça va être humain implique être mortel.

 

 Alors, si Socrate est humain, et voilà, si A est vrai, ça implique que Socrate est mortel. Alors, d'un point de vue table de vérité, c'est comme ça qu'on fait en informatique. Je reprends mes A, B, 0, 1, etc. Alors, ça, on arrive à comprendre à peu près, et c'est très important c'est la vie de tous les jours, c'est comment est-ce qu'on interagit avec les gens, c'est basé sur la logique, c'est basé sur cette déduction. Donc, la déduction, c'est que si je pars d'un truc vrai, vrai implique faux, bah non, ce n’est pas vrai, donc là, l'implication elle est fausse. Maintenant, vrai implique vrai, ah bah oui, bien sûr, c'est vrai, c'est-à-dire que, là, dans ces cas-là, tout se passe bien, il n'y a pas de problème. Et alors là, ce que les gens ont du mal à comprendre, et malheureusement, les professionnels aussi de la justice ont du mal à comprendre ça, c'est que, d'après vous, qu'est-ce qui se passe si je commence avec une prémisse fausse ? C'est-à-dire que, si Socrate n'est pas un humain.

 Et est-ce que le fait que Socrate ne soit pas un humain, soit que je suis capable de déduire que Socrate est immortel ? Ou est-ce que le fait que Socrate ne soit pas un humain me permet de décrire que Socrate est mortel ? D'après vous, c'est quoi l'implication ? En fait, c'est la même chose à gauche et à droite, pour vous montrer que l'implic, qui est ici le syllogisme, il a une transcription en logique, c'est non A ou B. C'est comme ça qu'on décrit ça en matière logique. D'après vous, si les prémisses sont fausses, qu'est-ce qu'est la conclusion ? Là, j'ai quelqu'un qui dit 1, j'ai quelqu'un qui dit faux.

 

 Alors, faux, est-ce qu'on va faire un truc à main levée ? Généralement, malheureusement, les gens pensent que si la prémisse est fausse, et bien forcément, la déduction et le reste est complètement faux. Et là, je vais peut-être vous surprendre un peu, c'est qu'en fait, c'est toujours vrai. Alors, l'idée profonde et importante à comprendre qui est derrière ça, c'est que si je commence d'une idée fausse, de quelque chose qui est faux, je peux tout déduire d'un truc qui au départ était faux. Vu qu'au départ, c'était faux. Par exemple, voilà, j'ai 10 milliards d'euros, donc je vais voir Beneteau et je vais dire, je veux acheter ce bateau qui coûte 5 millions d'euros, j'ai 10 milliards, donc donnez-le moi. Ben, en fait, possiblement, si je les ai, on peut me le donner le bateau, mais en fait, je ne les ai pas.

 

 D'accord ? Donc en fait, ce qu'il faut comprendre, c'est qu'à partir d'une prémisse fausse, si je dis j'ai 10 milliards d'euros, je peux tout acheter. Donc là, de ce côté-là, ça, ça valide le truc, mais malheureusement, dans la réalité, ce n’est pas vrai. Donc là, il y a une grosse différence à faire entre le concept qui est, quand je pars d'une chose fausse, tout devient possible, parce que de toute façon, au départ, c'était faux. Mais alors après, dans la réalité, ce n’est pas la même chose. Donc on va voir un peu l'implication de ce truc-là.

 

 Donc c'est ça qu'il faut comprendre, il faut se souvenir de ça, c'est qu'en logique, faux implique vrai, c'est vrai, et faux implique faux, c'est vrai aussi. En partant d'un truc faux, je peux tout déduire, ce que je veux. C'est très important à comprendre ça. Alors maintenant, pourquoi c'est important ?

 

 J'ai tapé ici, hier, le syllogisme juridique, définition exemple, j'ai pris ça sur le web, par Maxime Bizeau. Donc si vous êtes étudiant en droit, vous devez impérativement comprendre et maîtriser le syllogisme, d'abord parce que le syllogisme est le raisonnement par action du juriste. Un juriste n'est pas quelqu'un qui apprend par cœur son code civil, mais quelqu'un qui raisonne à l'aide du syllogisme juridique que personne ne comprend.

 

 Voilà.

 

 Parce que là, pour l'instant, ça va, parce qu'on le fait dans le bon sens, mais ça titille les gens, que faux implique vrai, ça soit vrai. Que faux implique quelque chose, ça soit vrai. Bon, alors après, il y a le pire, qu'est-ce que c'est que la contraposée du syllogisme ? La contraposée du syllogisme, c'est quand j'ai l'implication, dont je pense qu'il est vrai, comment est-ce que j'inverse ça ? C'est le fameux Moses-Tolens, c'est le fait de réfuter les choses.

 

Eh bien, la plupart du temps, donc je vais dire, voilà, si A implique B est vrai, alors comment est-ce que je remets l'inverse ? Les gens disent, voilà, si A implique B est vrai, mon truc ne marche plus, il est là, eh bien la réfutation de ce truc-là, ça doit être de dire, si A est faux, alors B est faux. Mais en fait, c'est pas ça, parce que vous voyez bien que si A est faux, alors tout le reste est vrai. Donc la manière dont ce truc-là s'inverse, ça s'inverse en renversant les deux propositions. C'est-à-dire que, alors on va le faire ensemble, si tous les humains sont mortels et vrais, si Zeus n'est pas mortel, donc si B est faux, alors ça veut dire que Zeus n'est pas humain.

 Et ça, ça fonctionne bien, ça s'inverse bien, ce syllogisme s'inverse bien si on part de B, donc ça veut dire que lorsque B est faux, A sera faux. Mais ça ne veut pas dire que lorsque A est faux, B est faux. Parce qu'encore une fois, lorsque A est faux, quand on démarre d'un truc faux, tout le reste devient vrai. Donc ça s'inverse, et ça, ça fait des nœuds dans les neurones de tout le monde. Alors, la preuve, c'est que j'ai vu il y a trois semaines, il y a un mème qui est arrivé sur Internet, et vous allez voir que c'est assez amusant, il y a quelqu'un qui a fait justement une proposition comme ça, qui s'appelle René Descartes, cogito ergo sum, je pense, donc je suis, et donc est apparu, il y a quelque chose comme deux, trois mois, cette image-là sur Internet.

 

 Et donc ça, c'est la tête de Descartes quand il a pris conscience que les personnes qui n'existent pas, que les personnes qui ne pensent pas existent aussi. Donc je pense, donc je suis, donc pour les personnes, si je ne pense pas, donc je n'existe pas. Et c'est quand il a rendu compte que, bah non, il y a un mec qui ne pense pas, il existe. Donc vous voyez la tête qu'il fait.

 Mais est-ce que vous voyez le gros problème qu'il y a derrière ? C'est qu'en fait l'inversion du syllogisme je pense, donc je suis, elle a mal été faite. C'est-à-dire que je pense, donc je suis, ça a été inversé en disant je ne pense pas, donc je ne suis pas. Mais ce n'est pas comme ça que ça s'inverse. Je vous ai dit que ça s'inversait, la bonne manière d'inverser ça, c'est d'inverser les deux. Et si j'inverse, si je dis si B est faux, ça implique que A est faux, alors là ce que dit Descartes, ça prend tout son sens, ça dit je pense donc je suis, donc si je ne suis pas, si je n'existe pas, alors je ne pense pas. Et là c'est nickel. Et donc là ça s'inverse correctement.

 

 Mais pour vous montrer à quel point les gens ne le comprennent pas, dans Stake Exchange, un endroit où les gens se posent des questions sur la philosophie, donc Stake Exchange, philosophie, question qui est posée, il y a 7 ans, est-ce que nous n'existons pas lorsque nous ne pensons pas, comme l'a dit Descartes ? Ou est-ce que nous pensons continuellement, et démarre une discussion complètement oiseuse là-dessus ? Donc avec le prémice de cette discussion sur la philosophie, est-ce que nous n'existons pas quand on ne pense pas ?

 

 Mais ce n'est pas du tout ce qu'il a dit Descartes. Ça ne s'inverse pas comme ça. Ça s'inverse en disant, est-ce que si nous n'existons pas, nous ne pensons pas ? Bah oui, si on n'existe pas, on ne pense pas. Là, de ce côté-là, il n'y a pas de problème. Vous voyez que tout le démarrage de la discussion a été fait sur une inversion incorrecte du syllogisme, le modus tollens a été mal fait. Et donc, du coup, je suis content, j'ai trouvé, vous avez vu que je mets des petites photos des philosophes, des trucs comme ça, j'ai trouvé la photo de Théophraste lorsqu'il a lu ça en 2016, ça c'est la photo de Théophraste quand il s'est rendu compte qu'en 2016, les philosophes ne comprennent toujours pas le modus tollens, c'est la manière dont on inverse correctement les syllogismes. Voilà, ça c'est un énorme problème comme vous pouvez l'imaginer, surtout quand...

 

 Alors, donc maintenant, revenons sur, bon, il y a des différences entre l'arithmétique et la logique, il y en a un qui est distributif par rapport à l'autre, la multiplication est distributive par rapport à l'addition, mais l'addition n'est pas distributive par rapport à l'explication, et c'est le cas en logique, il y a plein de différences comme ça qui font qu'on n'est pas dans les mêmes mondes, c'est pas la même chose, la science est la science humaine, l'arithmétique plus ou moins multipliée, divisée, ça ne fonctionne pas pareil que et où et non.

 

Alors maintenant, la différence entre l'intelligence artificielle et naturelle, moi ce que je propose dans mes travaux, et c'est comme ça que je fais ça, je propose de définir l'intelligence de manière extrêmement simple, je dis que l'intelligence c'est le fait d'être capable de trouver, de comprendre la relation qu'il y a entre des objets, vous avez la terre, vous avez le soleil, et ben Newton, il a trouvé la relation qu'il y avait entre les deux, c'était qu'en fait il y en a un qui attirait l'autre, suivant la force de la loi universelle de gravitation, et comme c'est son cerveau humain qui a réussi à partir des trajectoires de Tycho Brahe, de la seconde loi de Kepler, etc, il a réussi à mettre tout ensemble, et à trouver la relation qu'il y avait entre le soleil et la terre, entre le soleil et la lune, entre le machin, etc, et ben il a utilisé l'intelligence naturelle.

 

 Et donc moi ce que j'ai fait faire l'année dernière à mes étudiants d'intelligence artificielle, c'est que j'aurais donné la trajectoire de la lune autour de la terre, et voilà, vous êtes Newton, pouvez-vous faire un programme d'intelligence artificielle qui serait capable de retrouver une loi de corrélation, d'interaction entre la terre ? Et ben ils ont trouvé, et donc leur ordinateur, ce n'est pas eux qui l'ont fait, ils ont lancé un programme d'apprentissage automatique, et bien l'ordinateur a retrouvé la loi universelle de la gravitation, de Newton.

 

 Et ben là, dans ces cas-là pour moi, c'est de l'intelligence artificielle, parce que ce n'est pas un humain qui a trouvé la F égale G fois m1 fois m2 sur la distance au carré, c'est un ordinateur qui a trouvé ça à partir des données, à partir des mêmes données que celles qu'avait Newton. Donc voilà, ça définit relativement simplement la notion d'intelligence artificielle. Donc les objets, c'est encore une fois ce qui est là. L'intelligence, c'est la relation, c'est comment l'intelligence est gérée, la manière dont les choses sont interreliées. Quand la formulation de ce truc-là sous la forme d'une loi est faite par un humain ou un chien ou n'importe quoi, on appelle ça de l'intelligence, et quand c'est fait par une machine, on appelle ça de l'intelligence artificielle. Donc ça c'est ma définition propre, mais vous avez le droit de la reprendre si elle vous intéresse bien sûr.

 Donc, machine learning, c'est ça, c'est le fait de trouver les lois. Et alors maintenant, c'est intéressant, ça permet de faire la distinction avec la notion d'optimisation. Et l'optimisation, c'est lorsqu'on a déjà la loi, on connaît cette loi qui existe, et on voit un météore qui passe dans le ciel, on voit un astéroïde. Eh bien, en connaissant une approximation de la masse de la Terre, quand on regarde la trajectoire de la météorite, on est capable d'en déduire sa masse, sa vitesse, sa trajectoire, etc. Mais dans ces cas-là, le fait de déduire la masse à partir de la trajectoire, quand on a déjà la loi, c'est ce que j'appelle l'optimisation. L'optimisation, c'est trouver les valeurs qui permettent de déterminer les objets. Donc voilà, c'est ça la différence entre les deux. Alors maintenant, regardons la notion d'intelligence. Est-ce qu'il n'y a qu'un seul type d'intelligence dans le monde ?

 Eh bien, regardons un petit peu ça. Pendant des milliers d'années, l'homme, l'humain a essayé de voler, puis il n'a pas réussi. Puis maintenant, je pense qu'on est tous capables de dire, avec des vidéos comme ça, qu'on est capables de voler. On est capables de faire des trucs que les oiseaux n'arrivent pas à faire. On peut voler sur le dos. J'ai vu une mouette voler sur le dos. Non, les mouettes ne volent pas sur le dos, ni les pigeons. Mais pourtant, les avions font ça très bien.

 Est-ce que nous avons réussi à voler comme les oiseaux ? Je vais vous montrer la dernière tentative à ma connaissance, qui est en 2006, de faire un avion qui vole comme un oiseau. Ça devrait démarrer. Là, c'est un avion qui a un moteur, bien sûr, mais le moteur n'est pas connecté à une hélice, à un jet ou à quoi que ce soit. Le moteur est juste connecté à des ailes. Le but du jeu, c'est d'arriver à regarder si on est capable de voler comme un oiseau. Mais là, il n'y a que les ailes. C'est quand même intéressant. Traverser l'Atlantique comme ça, il faut un gros sac vomitif. Il y a quand même le décollage. On réussit enfin en 2006 à voler comme un oiseau. Après, il faut contrôler le vol et se reposer correctement. On se rend compte que l'atterrissage et le contrôle du vol sont un peu difficiles. Voici le premier et dernier atterrissage connu d'un avion volant comme un oiseau. Pourtant, on vole, mais pas comme les oiseaux.

 

 Ce qui nous a empêché de voler pendant des milliers d'années, c'est qu'on a essayé de voler en battant des ailes. Alors que si on essaie de voler sans battre des ailes, voilà ce que ça donne. Ça, c'est 1973, je crois. Il y a des gens qui font des deltaplanes comme ça. Ils font ça avec quoi ? Du bambou, parce que c'est une super résistance. De la toile et des cordes. Une fois que vous avez des morceaux de bois, de la toile et des cordes. Sincèrement, c'est la technologie Jésus-Christ. Jésus-Christ était habillé, il avait de la toile. Dès qu'il y a des habits, dès qu'on fait des vêtements, de la toile, on peut voler comme ça.

 Pourquoi est-ce qu'on n'a pas volé comme ça pendant des milliers d'années ? C'est parce qu'on s'est obstiné. Il y a je ne sais pas combien de gens qui sont morts en essayant de battre des ailes en se jetant de la tour Eiffel. Vous avez toutes les vidéos qui sont comme ça. Le problème, c'est de battre des ailes. Nous, on ne sait pas faire. Mais si on accepte de ne pas battre des ailes, c'est bien. On vole très bien, mais pas comme les oiseaux. Maintenant, si je ramène ça à la notion d'intelligence, est-ce que les avions volent comme des oiseaux ?

 

 Est-ce que les sous-marins nagent ? Est-ce que vous avez vu des sous-marins qui avancent en se tortillant ? Non, les sous-marins ne s'avancent pas en se tortillant. Et donc, pourquoi est-ce que l'IA devrait avoir une intelligence qui serait de la même nature que l'intelligence humaine ? En fait, c'est de fabriquer des contraintes qui finalement n'ont peut-être pas besoin. Encore une fois, on sait voler, mais pas comme les oiseaux. Est-ce que d'autres animaux sont intelligents ?

 

 Là, on a un oiseau. Une tête de linotte. Les linottes, ce n'est pas très intelligent. C'est une espèce de héron. Il est à la pêche. Il a compris que les poissons aiment les morceaux de pain. Il a été faucher un petit morceau de pain. Et puis, il est à la pêche. Qu'est-ce qu'il va faire ? C'est là où on voit la notion d'intelligence. Il met son morceau de pain en attendant qu'un poisson... Pas n'importe quel poisson, parce qu'il y a des poissons qui sont super gros. Là, il est plus gros que le moineau. Forcément, il va se faire bouffer son morceau de pain. Comme c'est son morceau de pain qui est son appât, il n'a pas envie de se le faire manger par des poissons qu'il n'est pas capable d'attraper. Qu'est-ce qu'il fait ? Il attend que les gros poissons passent. Ça y est, il n'y a plus de gros poissons. Là, il l'a pris parce qu'il y a des poissons qui sont trop gros pour lui.

 Donc, il attend. C'est comme la pêche, il faut attendre. Je reprends ça parce que je vais me le faire bouffer. Et ceux-là, je ne peux pas les manger. Après, ils sont partis. Non, là non plus, ça ne va pas. Il est à la pêche. Au bout d'un moment, il a trouvé son petit poisson de la bonne taille. Parce que lui, il ne mange pas de pain, il mange des poissons. Là, il y a quand même de la réflexion. Quand c'est des gros poissons, il prend son morceau de pain. Il avait déjà trouvé l'idée d'aller pêcher avec un morceau de pain. Enfin zut, c'est incroyable. Donc, si les gens disent que les animaux sont bêtes, on appelle ça des bêtes d'ailleurs, c'est pour ça que ce n'est pas intelligent. Là, le truc-là, il avait quelques neurones dans sa tête. Alors, d'après vous, les plantes, est-ce qu'elles sont intelligentes ? Est-ce qu'elles sont capables d'apprendre ? Et d'apprendre comment ?

 

 Je vois les gens qui font des grimaces. C'est intéressant de vous parler à votre plante tous les jours. Elle vous est reconnaissante ou pas ? Alors, il y a un test d'apprentissage qui est très connu, qui s'appelle le test de Pavlov. Alors Pavlov, vous avez peut-être entendu parler de ça. C'était donc le test, c'est qu'on prend un chien, on le met dans une cage, il n'a rien à manger. Et puis, ce qu'on fait, c'est qu'on fait sonner une petite sonnette. Et puis, disons, 30 secondes ou une minute après que la sonnette sonne, on apporte de la nourriture.

 

 Au bout de quelques fois, le chien, qui n'est pas bête non plus, il a fait la relation entre deux entités. Entre l'entité sonnette et l'entité, il y a de la bouffe qui arrive. Donc, il a fait preuve d'intelligence. Et donc, on fait sonner l'un. Et puis, au bout d'un moment, le chien, il a appris. Et quand la sonnette sonne, il se met à saliver. Il est tout content, il a mis la queue et il attend la bouffe. Donc, la question, c'est est-ce qu'on peut transposer ça aux plantes ? Eh bien, en fait, ça a été fait il y a relativement peu de temps et de façon superbe en 2016, encore une fois. Donc là, ils se sont dit, vous savez qu'il y a des tournesols. Les tournesols tournent avec le soleil. Jusqu'à maintenant, on avait une interprétation des plantes qui tournaient avec le soleil, que c'était la partie à l'ombre de la tige qui poussait plus rapidement que la partie au soleil.

 

 Donc, si vous avez le soleil qui est face à une fleur, forcément, la partie de la tige qui est à l'ombre poussant plus vite, ça va orienter la fleur par ici. Si le soleil se déplace, qu'il va à droite, la partie à l'ombre se déplace. Et donc, finalement, on a une plante qui tourne avec le soleil. Et puis là, on explique les tournesols. Et puis, il n'y a pas de problème. Eh bien, jusqu'en 2016, les gens se sont dit, voyons voir, essayons de refaire l'expérience de Pavlov.

 

 Et puis, on va la faire avec un truc qui pousse vite. Donc, on prend un petit pois. Et puis, dans les premières journées, les petits pois poussent très vite. Et en fait, ce qu'ils ont fait, ils se sont dit, voyons voir, qu'est-ce qui peut être l'équivalent de la nourriture ? L'équivalent de la nourriture, les plantes, ça mange quoi ? Ça mange de la lumière. Parce que ça prend, bien sûr, le CO2 qu'il y a dans l'air. Et puis, avec la lumière, ça va faire de la photosynthèse. Et la photosynthèse va fabriquer du carbone. Donc, la nourriture d'une plante, c'est de la lumière et du CO2. Et puis, après, ça pourrait être sensible à quoi ? Ils se sont dit, peut-être que c'est sensible au vent. Alors, ça n'a pas de neurones. C'est bizarre. Donc, on ne sait pas ce que ça va... Bref.

 

 Alors, ce qu'ils ont fait, c'est qu'ils ont pris un tube de PVC. Ils ont mis un pot, là, avec le petit pois qui était dedans. Et ils ont fait des séances d'entraînement. Alors, à gauche et à droite, ils ont mis un ventilateur et puis une lampe à ultraviolet qui permet de faire une grosse, grosse photosynthèse, avec de la bonne nourriture pour plantes, de la lumière. Et puis, ils ont fait ça à gauche et à droite. Et donc, une session d'entraînement, c'est pendant 60 minutes, ils ont amené de l'air par un ventilateur du côté gauche. Et après 60 minutes, pendant une heure, ils ont démarré les UV. Et puis, ils ont arrêté le ventilateur 30 minutes après, etc. Donc, ça, c'était les séances d'entraînement. Ils ont fait ça à gauche. Ils ont fait ça à droite. Et qu'est-ce qui s'est passé ? Eh bien, comme on pouvait s'y attendre, quand on allume la lumière ici, le petit pois, il se tourne à gauche pour récupérer sa lumière. Et c'est normal parce que, soi-disant, ça pousse plus vite quand c'est à l'ombre. Donc, forcément, il se tourne du côté opposé où il y a la lumière. C'était la notion mécanique. Et donc, ils ont fait ça à gauche, à droite, etc. Et puis après, grosse surprise, ils ont fait le test comme Pavlov. Ils ont démarré le ventilateur à gauche. Et sans qu'il y ait de nourriture, le petit pois s'est tourné à gauche. Et si vous démarrez le ventilateur à droite, le petit pois tourne à droite. Donc, tout petit pois qu'il est, il a fait la relation entre le vent qui vient d'à gauche ou d'à droite. Et donc, il sait qu'il va y avoir de la lumière qui va à droite. Donc, il se tourne. Donc, il a appris. Il est aussi capable d'intelligence. Alors, c'est une très mauvaise nouvelle pour les... Je ne sais pas s'il y a des végétariens dans la salle. Je suis vraiment désolé. Les plantes apprennent aussi. Vous pouvez faire l'exemple. Pavlov, ça marche sur les plantes. Donc, maintenant, il faut sucer des cailloux. Je ne sais pas ce qu'on fait. Voilà. C'est beaucoup plus difficile de manger de manière éthique et sereine quand on sait que les plantes... Voilà. Bref. Donc, les plantes apprennent. Alors après, il y a tout plein d'exemples comme ça. Mais je vois que le temps passe. Ça fait déjà 43 minutes. On ne va pas rentrer là-dedans. Quel est l'animal le plus intelligent sur Terre ? Je vais vous le présenter. C'est celui-là. C'est un Caenorhabditis elegans. Alors, pourquoi est-ce que c'est le plus intelligent sur Terre ?

 

 C'est qu'en fait, c'est une forme de télie. Les Caenorhabditis elegans ont exactement 1035 cellules. Toujours les mêmes. Mais, chose incroyable auquel on s'aperçoit quand on a disséqué ce machin-là. De ces 1035 cellules, un tiers sont des neurones. Un tiers des cellules de ce bestiaux-là sont des neurones. Qu'est-ce qu'il fout avec un tiers de ce qui le constitue comme étant des neurones ? Pourquoi est-ce qu'il a besoin d'être si intelligent que ça, ce truc-là ? Et rapporté à un humain, ça voudrait dire que notre cerveau devrait faire 15 kilos au lieu de faire 1,5 kilo. Comparé à sa masse, il a 10 fois plus de cerveau que nous, ce truc-là. C'est incroyable. C'est bien parce qu'on a fait son connectome. Comme ils sont tous absolument identiques, on a regardé tel neurone est relié à celui-là, etc. C'est quand même assez étonnant ce truc-là. Un tiers de ces cellules, c'est des neurones.

 

Bref. Maintenant, on arrive sur une autre notion d'intelligence qui va nous amener sur la notion d'intelligence artificielle. C'est celle de Michel Serres, qui était un philosophe qui est mort maintenant il y a trois ans. Lui, ce qu'il avait fait, c'est qu'il avait fait une proposition. C'était que la faculté de l'homme, ce qui était spécifique à l'humain, c'était d'avoir été capable d'externaliser ses fonctions corporelles. L'exemple qu'il donnait facilement, c'est que tout bêtement, si je veux boire avec ma main, je vais mettre ma main sous l'eau. Mais forcément, l'eau va tomber au milieu des trous de ma main. Autant fabriquer une main artificielle, ça s'appelle une cuillère. Une cuillère, c'est une main avec un manche. Le manche, c'est l'avant-bras. Plutôt que de faire ça avec ma main qui est percée, maintenant, je peux boire. Si j'ai un marteau, qu'est-ce que c'est qu'un marteau ? Au lieu de taper sur un clou pour me faire mal au poing, j'invente un marteau. C'est un poing en métal avec un manche en bois. C'est un avant-bras et un poing. On peut imaginer que les vêtements sont des poils amovibles. Pour lui, la capacité d'être humain, son inventivité, c'était d'être capable d'externaliser ses fonctions corporelles. Et là où c'était intéressant, c'est qu'il a fait une super vidéo que je vous conseille de regarder sur Internet.

 

 Ça doit être la parabole de Saint-Denis. C'est le titre de la vidéo. Il raconte que quand il était lui-même étudiant en philosophie, on lui avait appris que la cognition était faite de trois facultés qui étaient dans notre tête. C'était la mémoire, l'imagination et la raison. La mémoire, ça fait un certain temps qu'elle avait déjà été externalisée. La mémoire a été externalisée quand on a fait l'écriture. Quand on veut se souvenir quelque chose, on prend des notes. Et puis après, deux ans après, on relit ces notes. Ah oui, il y avait un truc qu'on avait oublié. Maintenant, on n'est pas obligé de tout mémoriser. Donc la mémoire, on l'avait déjà externalisée.

 C'est pareil avec les images. L'imagination, c'est les images que vous avez dans votre tête et les images, vous faites des peintures. Vous faites des photos, des peintures rupestres, etc. Et ça titille votre imagination. Puis après, la raison. Là, ce n'était pas facile. Mais qu'est-ce qu'on a maintenant avec les ordinateurs ? Dans les ordinateurs, on a toute la mémoire qu'on veut. Avec Internet, on a absolument tout ce qu'on veut. Après, les images, toutes vos photos de vacances, vous les avez mises dedans.

 

 Vous avez même des films. Vous avez des choses qui vous font imaginer des choses dans des ordinateurs. Et puis, la raison, les ordinateurs sont capables de faire de la logique, de la logique inductive sans se tromper, comme certains humains. Ils sont capables de faire de l'arithmétique et tout. Finalement, c'est l'ultime stade de l'inventivité humaine. C'est qu'on a réussi à externaliser notre cerveau et la cognition.

 

 Et maintenant, vous êtes toutes et tous, je pense ici, des humains augmentés qui n'ont pas de téléphone portable avec eux. Y a-t-il une main qui se lève ? Non. Il n'y a pas une seule main qui se lève. Donc, je vous annonce que vous êtes tous des humains qui avez externalisé votre tête.

 

 C'est-à-dire que dans votre téléphone portable, il y a de la mémoire. Tout ce que vous avez, vos notes, vos machins, les listes de courses, des images, des photos, des films, des vidéos, etc. Grâce au GPS, ça vous fait le raisonnement pour trouver le meilleur moyen d'aller du point A au point B, etc. Vous n'avez plus besoin de le faire vous-même. Vous n'avez même plus besoin de savoir où vous habitez.

 

 Vous pouvez vous perdre dans votre ville. Dès que vous avez ça, c'est votre cerveau qui est externalisé dans votre poche ou dans votre sacoche. Vous voyez qu'on arrive à la notion d'externalisation. Maintenant qu'on a fait toute cette présentation de la notion d'intelligence, regardons un peu la notion d'éthique. Si on peut arriver à mettre ça ensemble. Il faut comprendre que depuis l'origine de la civilisation, on va faire remonter ça à 10 000 ans environ, l'agriculture, et bien, attention, en Occident, on se rend compte qu'il y a plusieurs éthiques qui se sont succédées jusqu'au XXe siècle.

 

 Les éthiques, ce qu'on appelle ça des méta-éthiques. Les méta-éthiques qui se sont succédées de 10 000 ans... Il faut savoir qu'elles se superposent, elles ne se remplacent pas l'une de l'autre. Elles s'ajoutent les unes aux autres. Il y avait la notion de supernaturalisme. Il faut que je fasse ça pour que ça passe à la vidéo. Le supernaturalisme, c'est-à-dire une éthique qui tient compte de Dieu, de choses qui sont au-delà du naturel, surnaturelles. Après, du XVIe siècle jusqu'à maintenant, c'est ce qu'on appelle le relativisme culturel et avec ce qu'on appelle l'éthique républicaine. On va regarder un peu plus rapidement, un peu plus en détail ce que c'est. Maintenant, on a une éthique basée sur l'individu et une éthique basée sur les personnes, basée sur les gens. La question qu'on va se poser maintenant, c'est est-ce qu'on a des nouvelles méta-éthiques qui sont apparues au XXIe siècle, qui est le siècle dans lequel nous vivons.

 

 Regardons un peu la notion de méta-éthique super naturelle. C'est ce qu'on appelle une éthique aristocratique en Grèce. Elle est fondée sur trois choses. Les lois sont des lois hétéronormées. Ce sont les lois qui proviennent des dieux, les lois de Moïse, etc. qui nous sont données par les dieux. On a vu la stèle avec le dieu qui donnait la liste de lois à Hammourabi. C'est très important de comprendre qu'à l'origine, dans le cosmos grec, le cosmos est parfait parce qu'il a été créé par les dieux. Comme le cosmos est parfait, il faut que les humains essayent de refaire ce qu'il y avait à l'origine parce qu'à l'origine, c'était parfait.

 

 C'est ça l'origine de la tradition. Pourquoi il faut refaire ce qui a été fait précédemment ? Parce qu'à l'origine, c'était nickel. C'était parfait, c'était fait par les dieux. Donc, si mon papa est bouché, il faut que moi-même, je sois bouché pour remplacer mon papa et je ne suis pas censé faire autre chose. Sinon, c'est ce qu'on appelle l'éducation et c'est l'étymologie ex ducere. Je vous laisse regarder ça, de quoi il s'agit. C'est très subversif, l'éducation.

 

 L'éthique est ici. En fait, elle est hiérarchique. Les fermiers ne peuvent pas devenir des seigneurs. Le fils du seigneur sera forcément le seigneur parce qu'on refait ce qui s'est passé précédemment. De manière intéressante, lorsqu'il y a des pièces du puzzle du cosmos parfaitement ajustées qui sortent de l'ajustement, quand on a un humain qui vole, qui tue, etc., des animaux qui volent, ils sortent de l'ajustement.

 

 Où est-ce qu'on les amène ? On les amène devant la justice. L'objet de la justice, c'est de réajuster les gens au cosmos. C'est ça l'étymologie. Il y a une pièce du puzzle qui est partie, on la ramène. La justice, on vous réajuste. Ça fonctionne aussi avec des animaux. Il y a eu des célèbres procès d'animaux dans le passé. Ça, c'était la première éthique. Une nouvelle éthique s'est rajoutée à partir du moment où on a développé un peu la science. La science s'est développée notamment avec Newton.

 

 Newton a fait un truc super bizarre, c'est qu'il a créé une loi. Normalement, c'est les dieux qui créent les lois. Mais les lois des dieux, on se rend compte qu'elles sont spécifiques à un groupe d'humains. C'est-à-dire que l'éthique en France va être différente de l'éthique en Angleterre, qui va être différente de l'éthique en Afrique, l'éthique en Chine, etc. Les lois qui vont nous permettre d'interagir de manière sans conflit, ça ne va pas être les mêmes suivant l'endroit où on se trouve. Donc c'est des éthiques locales, localisées. Mais quand c'est la science, Newton, ça fonctionne partout. Si c'est un Africain qui vous jette un caillou, la trajectoire va être parabolique.

 

 Si c'est un Chinois, si c'est un chimpanzé qui vous jette un caillou, le caillou va avoir la même trajectoire. Donc là, ce sont des lois qui sont maintenant universelles. C'est ça qui va définir la science. C'est que les lois scientifiques fonctionnent partout, ne sont pas spécifiques à un groupe d'humains, ne sont pas spécifiques à une localisation.

Donc ils se sont dit, c'est bizarre, les lois faites par les humains, déjà on est capable d'en faire, et ensuite elles sont meilleures que les lois traditionnelles, que les lois des dieux. En fait, ce qui s'est passé, c'est que ce truc-là a cassé la notion de loi divine qui était forcément au-dessus de tout, puisque nous on est capable d'en faire, qu'elle soit meilleure. Et deuxièmement, ça a cassé aussi la tradition, pour une autre raison, qui est liée au christianisme, et qui est liée à la parabole des talents.

 

 Mais je vois le temps qui passe, et on n'aura pas le temps d'en parler ici. Donc en fait, ce qui s'est passé, c'est que la deuxième éthique, qui est l'éthique républicaine, elle a supprimé la notion de Dieu, qui n'était plus là pour fabriquer les lois, donc on n'est plus hétéronome, on devient autonome, la notion de tradition, via l'éducation, parce qu'en fait, via l'éducation, je vais en parler en deux mots, ex ducere, c'est en dehors d'eux, épiler c'est sortir les poils, effeuiller c'est enlever les feuilles, donc c'est en dehors d'eux. Et ducere, le duc, la conduite, c'est la direction. Et le duc, il est censé vous dire où vous devez aller, ce que vous devez faire. Et éduquer, c'est ex ducere, c'est sortir une personne de la voie qui était la sienne. Je suis ingénieur, tu seras ingénieur mon fils, je suis docteur, tu seras docteur mon fils, et si le fils n'est pas bon en maths, il va aller à l'école, et puis à l'école, il aura l'opportunité d'être éduqué, c'est-à-dire que finalement, peut-être qu'il va faire de la philo, peut-être qu'il va faire de la musique, ou il va faire autre chose, et voilà, il est sorti de sa voie.

 

 Donc c'est ça l'éducation. Mais en fait, il est resté la notion d'hiérarchie. Alors la notion d'hiérarchie, ça c'est le fait que, dans toutes ces éthiques-là, les premières et les deuxièmes éthiques, la hiérarchie c'était d'abord les inanimés, après il y a les animaux, non-humains, les handicapés c'est à peu près au même niveau, on ne sait pas trop quoi en faire,

 

 Hitler il est passé au four, et puis après il y a les enfants, les femmes, les hommes, et Dieu. Donc c'est ça la grande hiérarchie de la première éthique. La deuxième éthique, on supprime Dieu, mais il y a encore toute la hiérarchie. Et ça, la troisième qui est arrivée par la suite, et bien en fait c'est le respect de l'individu et le respect de la personne. Alors le respect de la personne, c'est arrivé justement en France, comme très souvent, les révolutions. Donc 68, révolution étudiante contre la hiérarchie totale des professeurs, des mandarins de l'université, et ça a une résonance avec les Etats-Unis, parce que les Etats-Unis ça a été avec la guerre du Vietnam.

 

 La guerre du Vietnam, 70, les Américains ont dit, mais pourquoi est-ce que moi je devrais aller donner ma vie au Vietnam, les gens je ne les connais pas là-bas, je n’ai rien à y faire là-bas, en fait c'est l'Etat, la hiérarchie qui me dit vous allez au Vietnam et vous allez mourir au Vietnam parce que je vous demande d'y aller. Les Américains, les gens ils ont dit, mais pourquoi est-ce que j'irais mourir là-bas ? Il n'y a aucune raison. Donc en fait, la seule raison d'aller mourir au Vietnam, c'était la hiérarchie. Donc c'est ça qui a fait cette révolution qu'il y a eu en même temps en France et aux Etats-Unis, et donc ça s'est vu avec, bien sûr, toutes les choses, et on se rend compte que tout date des années 68, des années 70, etc. Donc voilà, aux Etats-Unis, mon fils a été tué au Vietnam, pourquoi ?

 En bas, à Balergy-Mgolis, le peuple veut le pouvoir, donc arrêt de la hiérarchie. Et puis, voilà, la série Le prisonnier, 1967, je ne suis pas un numéro, je suis un homme libre. Donc cette revendication de la liberté et la revendication d'exister en tant que personne indépendante et indépendamment de la hiérarchie. Alors ce qu'il y a, cette troisième éthique, en fait avant la personne devait le respect et donner sa vie à la hiérarchie et donc aux institutions et ce qui est découlé de ça, ça a été une inversion du truc où maintenant, ce sont les institutions qui sont à notre service. Là, récemment, aux Etats-Unis, il y avait une personne qui était en train de se faire arrêter par la police, mais injustement, qui dit aux policiers, ben non, écoutez, c'est vous qui travaillez pour moi, c'est moi qui vous paye, c'est moi qui paye la police, vous êtes à mon service, d'accord ?

 

 Ce n’est pas moi qui dois respecter ce que vous demandez, c'est le contraire. Vous voyez, c'est vraiment une inversion de la notion de hiérarchie et maintenant, ce sont les humains, c'est la hiérarchie, c'est les institutions qui sont là pour servir les humains qui composent la société.

 

 Donc, alors, il y avait tout plein de choses à l'époque, avec, bien sûr, la cage aux folles, village people, etc. Avec des paroles, alors de manière intéressante, I am what I am, il y a eu deux versions. La première version, village people 78, les gens ont le droit d'être juste qui ils sont, les gens ont le droit de partager tout leur amour, les gens ont le droit de partager juste ce qu'ils peuvent donner, le droit à leur volonté libre. Ils ont le droit de vivre avec qui ils veulent, 78. Ils ont le droit de vivre là où ils veulent de manière heureuse et personne n'a le droit de choisir mon amour pour moi, je suis né libre. Ça dit tout. Et puis après, version Gloria Gaynor, voilà, il faut une vie complète pour être la meilleure personne qu'on peut être. Nous n'avons pas le temps ou le droit de juger, de nous juger les uns les autres. Je suis qui je suis ou je suis ce que je suis.

 

 Je ne veux pas qu'on me félicite et je ne veux pas de pitié. Je fais ma propre musique. Pour certains, c'est du bruit, mais moi, je trouve que ma musique, elle me plaît bien, elle est belle. Je suis qui je suis et je n'ai pas besoin d'excuses, c'est moi qui joue mon propre jeu, mon propre jeu de cartes, c'est moi qui dis ce que j'en fais, c'est ma vie. Vous voyez que c'est vraiment fondamental de cette troisième éthique.

 

 Alors cette troisième éthique, eh bien en fait, on se rend compte que l'objet de cette troisième éthique c'est de casser la hiérarchie. Donc casser la hiérarchie, maintenant, eh bien, il faut respecter les gens et typiquement, ça passe par le mariage gay, le mariage homosexuel, les endroits où s’est accepté, ça veut dire que, alors dans les endroits hiérarchiques, on dit, ben non, la loi c'est un homme marié avec une femme, mais si les institutions doivent respecter les gens, ben un homme veut épouser un autre homme, pourquoi pas, respectons leur choix. Alors, ce qui est vu comme étant la décadence dans les premières et deuxièmes éthiques, Et bien en fait, dans la troisième éthique, c'est vu comme étant le respect des genres. Donc dans les premières, deuxièmes éthiques hiérarchiques, on a la notion d'uniforme qu'on voit ici en Angleterre. Et puis là, en 2014, l'Europe a élu Conchita Wurst comme étant meilleure chanteuse de l'Eurovision.

 Donc voilà, vous voyez complètement l'évolution des mœurs. Cette personne-là n'est plus jugée sur son apparence, sur qui elle veut être, mais sur ce qu'elle fait, sur sa chanson, etc. Et c'est comme ça qu'elle a été élue. Donc maintenant, regardons ces notions de méta-éthique. Et en fait, il y a un moyen intéressant de la regarder, c'est via le prisme du ce qu'on appelle le sacrifice. Le sacrifice, c'est ce pour quoi vous êtes prêt à donner votre vie. Et alors, si on regarde l'éthique numéro un, pour qui est-ce que vous êtes prêt à donner votre vie ? Typiquement, c'est pour la religion, parce que c'est l'éthique de Dieu. Donc, la dévotion, mais aussi donner sa vie. Alors là, il y avait un événement qui était en 1963, qui a choqué toute l'Amérique. C'était un bouddhiste qui s'est immolé par le feu contre les catholiques romains. Et ce qui était très intéressant, c'est le commentaire qui a été fait par les bouddhistes de ce truc-là. Ce n'était pas un suicide, c'était un acte dévotionnel de pratique incarnée. C'était le mot qui a été utilisé, un acte dévotionnel de pratique incarnée. Ce n'est pas un suicide. Il a donné sa vie pour son groupe, pour son dieu, pour...

 

 Alors, il n'y a pas de dieu en plus. Un bouddhiste, il n'y a pas de dieu. Donc, vous voyez bien que c'est vraiment une notion de religion sans dieu. Donc, c'est très intéressant de voir ce qui était là. Et là, on est complètement dans la première éthique. Alors, la deuxième éthique, c'est quoi ? Eh bien, c'est le respect de la hiérarchie. Vous êtes capables de donner votre vie pour le Vietnam, pour... Pour vous dire à quel point ça a évolué, je pense que... Attention, il va y avoir un grand éclat de rire dans la salle. Dans la salle, combien de personnes sont prêtes à donner leur vie pour Emmanuel Macron ? Peu. Peu de personnes sont prêtes à donner leur vie pour Emmanuel Macron. Eh bien, de manière très intéressante, ça, c'est ce qu'on appelle l'éthique républicaine.

 

 La république, res publica, la chose publique, qui doit être au-dessus des personnes. Eh bien, quand la chose publique doit être au-dessus des personnes, ça nous a donné, il y a deux semaines, un... Donald Trump, qui, lors des élections, je crois que c'était en Iowa, où il a fait un temps absolument épouvantable, avec moins 30, moins 40 degrés. Eh bien, qu'est-ce qu'il a dit ? Il a dit à ses supporters que ça vaut le coup d'aller voter pour lui dans le froid, même s'ils sont malades comme des chiens et même s'ils meurent après avoir mis leur bulletin de volte. C'est la définition mourir pour son chef. C'est la définition de l'éthique numéro 2 républicaine. C'est ça, la république. Res publica, c'est plus important. Votre vie est au service de votre institution. Votre vie est au service du groupe. Même si vous mourez après, c'est important de voter pour moi, qui suis bien sûr votre chef. C'est la république, exactement ça. Alors, du coup, la troisième éthique, pour qui est-ce que vous êtes capable de donner votre vie ? Est-ce que les humains en France sont capables de donner leur vie pour quelque chose, pour quoi, etc. ? Est-ce qu'on fait un sondage que quelqu'un est capable de donner sa vie pour quoi ? Pour une personne, pour l'autre, pour ses enfants, pour sa famille, etc. ? Donc, vous voyez qu'on n'est plus prêt. Maintenant, on ne va plus donner notre vie en France pour Dieu. On ne va plus donner notre vie pour Macron ou pour les institutions parce que votre chef a dit va mourir là-bas. On n'y va pas. Non, c'est fini, ça. Mais par contre, ben voilà. Alors du coup, j'ai ça. C'était un papier Zerugo magazine, etc. Mother's love and sacrifice for her child is supreme. L'amour de la mère et son sacrifice pour son enfant est suprême. Et ça, c'était là c'était la photo qui allait avec. Donc là, on est complètement dans la troisième éthique. On respecte les individus et on respecte plus du tout l'institution. Enfin, c'est l'inverse. L'institution, maintenant, est au service des individus. Bon, est-ce qu'il y a quelque chose de nouveau dans le 21e siècle ?

 

 Parce que là, pour l'instant, c'est les trois éthiques. Alors attention, elles existent toujours. Il y a toujours des gens qui croient en Dieu actuellement en France. Il y a toujours des gens qui croient dans une institution et dans un chef suprême et que c'est important. Et puis, il y a des gens qui croient. Les trois éthiques cohabitent. Ce sont des éthiques qui s'ajoutent les unes les autres. Alors, maintenant, je vous ferai remarquer qu'il y a des ordinateurs qui sont partout, qui sont interconnectés. Il y a des informations numériques qui sont associées à pratiquement tout le monde. Il y a des réseaux sociaux qui sont présents partout. Alors maintenant, l'éthique que je vais proposer, donc là, maintenant, on va arriver dans mon travail de recherche, c'est est-ce qu'on a une nouvelle éthique qui serait l'éthique de la délocalisation ? Alors, c'est très intéressant la notion d'adresse. C'est la suivante. C'est que maintenant, vous êtes d'accord qu'on est tous. On a tous un smartphone attaché à nous. Donc, nous sommes augmentés de cette manière-là. Les satellites, les constellations satellites font que partout où on est dans le monde, on est localisé. On a accès à Internet. On a accès. Voilà, quand il y a un trou, on n'est vraiment pas content.

 

 Quand on prend le train et qu'on arrive à choler des fois des endroits qui ne sont pas bien, qui ne sont pas bien pavés d'un point de vue Internet. On est là à pester. Voilà, tous les objets sont communicants, interagissent. Les données sont toutes collectées par les sociétés. C'est ce qu'on appelle Internet of Things, l'Internet des choses. Et donc, en fait, la notion de nouvelle éthique, pour moi, elle est délocalisée, délocalisée dans le sens où les trois premières éthiques, donc l'éthique des dieux aristocratiques, l'éthique républicaine et l'éthique démocratique, en fait, elles sont localisées dans le sens où les lois en France ne sont pas les mêmes que les lois en Angleterre, que ne sont pas les mêmes que les lois en Allemagne.

 

 Les lois en France ne sont pas les mêmes que les lois en Alsace. Je vis en Alsace. Enfin, je vivais jusqu'à la semaine prochaine. Et en Alsace, il n'y a pas de loi 1905 parce que la loi en Alsace, en 1905, l'Alsace était allemande. Donc, ce n'est pas passé. Donc, en Alsace, il y a une loi d'association qui est une loi 1906. Les associations ont le droit de faire des bénéfices. Je ne sais pas à qui ça peut intéresser les gens, mais vous aurez le droit de faire des bénéfices si vous fondez une association en Alsace, mais pas en France. Les lois ne sont pas les mêmes. Mais les lois sont donc attachées à un endroit. Eh bien, en fait, cette notion, c'est la notion d'adresse qui comporte trois choses. C'est ad directus. Alors premièrement, quand je vous dis j'habite à Strasbourg, vous savez où je suis, grosso modo dans l'est de la France, au nord d'ici. Vous êtes capable de me localiser. C'est la localisation géographique. Après, dans directus, il y a la notion de rectus et le droit. Vous savez à quel droit je vais répondre si vous faites affaire avec moi. Attention, il est alsacien et donc ce n'est pas les mêmes lois en Alsace qu'en France. Donc, quand je vais faire des affaires, il faut savoir à qui on a affaire parce que moi, je ne peux pas sortir de mon droit alsacien. Alors bon, il y a le concordat. Il y a des trucs comme ça. Ce n'est pas la même chose. Donc, quand on fait des affaires entre eux, il faut connaître la loi de l'autre. Et la dernière chose que porte une adresse, eh bien, c'est rectus. Directus vient de rectus, qui est la loi. Le roi, ça donne votre environnement politique. Est-ce que vous êtes dans un royaume ? Est-ce que vous êtes dans une démocratie ? Dans une dictature ? Dans une autocratie ? Dans une... etc. Tout ce que vous voulez. Donc, ça dit quel est votre environnement politique. Ça, c'est les trois choses qui sont liées à une adresse.

 

 Maintenant, mon adresse à moi, c'est [email protected]. Bon, pierrecollet at gmail.com. J'habite où ? C'est quoi les lois que je dois suivre ? Et c'est quoi mon régime politique ? Est-ce qu'il y a une démocratie ? Monarchie ? Monarchie constitutionnelle ? Enfin, tout ce que je veux. Je ne sais plus rien de ça. Maintenant, on arrive dans une nouvelle ère où, quand il n'y a plus d'adresse, on se retrouve à l'époque du Moyen-Âge. Et à l'époque du Moyen-Âge, il y avait des villes. Je reprends ça de Michel Sark qui avait tout compris. Dans les villes, c'était le pouce du seigneur de la ville. Le pied, c'était le pied du seigneur de la ville. Quand vous changez de ville, les marchands s'adaptaient aux nouvelles longueurs, aux nouvelles dimensions. Donc, il y avait la loi du seigneur local de la ville. Enfin, tout était géré par le seigneur local. Et entre deux villes, que faisaient les bourgeois ? Ils couraient très vite parce qu'ils étaient dans la forêt. Et dans la forêt, c'est la loi de qui ? Il n'y a pas de loi.

 

 Mais en fait, ce n'est pas vrai parce que des zones de non-loi et de non-droit émergent de nouvelles lois. Et donc, il y avait dans la forêt en Angleterre, dans la forêt de Sherwood, un mec qui s'appelait Robin Hood, Robin des Bois. Et qui c'est Robin des Bois ? C'est bizarre parce qu'à cette époque-là, qui sont les humains et les hommes qui portent des robes ? Normalement, les robes, c'est les femmes. Mais en fait, Robin avait une robe. Les gens qui ont des robes, c'est des magistrats, c'est des juges, etc. Donc, ça veut dire que quand vous êtes dans ma forêt à Sherwood, vous suivez ma loi de Robin. C'est moi qui ai la robe et c'est moi qui dis que c'est les riches qui donnent aux pauvres. Et donc, il a défini ses propres lois. C'était marrant parce que l'usurpateur, c'était Jean Santerre. Donc, c'est Jean Santerre qui n'avait pas de terre. En anglais, c'est intéressant parce qu'il s'appelle Robin Hood. Et le Hood, c'est quoi ? C'est la capuche. En France, on a un ordre, c'est l'ordre des capucins. C'est quoi les capucins ? Le capuce, etc.

 

 C'est ce qu'il y a au-dessus de la tête. Et qui c'est qui ont une capuche ? C'est des religieux. Et les religieux, c'est eux qui disent l'éthique. C'est eux qui disent comment on doit se comporter les uns avec les autres. Et donc, Robin Hood, ça veut dire que quand on est dans la forêt de Sherwood, on doit suivre les lois de Robin et puis on doit se comporter de manière religieuse à la manière dont Robin dit qu'on doit se comporter. C'est l'éthique de Robin qui fonctionne. On se rend compte que des entités, des nouvelles lois, etc. émergent des zones de non-droit, émergent de la forêt. Et bien, qu'est-ce qu'il y a qui émerge de la forêt en ce moment ? Actuellement, on a des entités qui sont non localisées, qui s'appellent Google, Amazon, Uber, Airbnb, Instagram, Meta, etc. Et qu'est-ce qui émerge ? La première chose qui doit émerger quand on a des nouvelles entités qui doivent interagir, échanger, etc. Ah bah tiens, c'est des nouvelles valeurs. Les nouvelles valeurs, ça s'appelle les blockchains. Et les blockchains, ça permet de faire quoi ? Tiens, ça permet de faire de l'argent. Bitcoin, quel est l'état ? Bitcoin dépend de quel état ? Est-ce que Bitcoin, c'est américain ? Est-ce que c'est africain ? Est-ce que c'est chinois ? Est-ce que c'est japonais ? Non, Bitcoin est hors-sol. Ça n'existe de nulle part. Mais c'est une monnaie d'échange. Mieux que ça, il y a le Dogecoin, etc. Donc on voit qu'il y a des monnaies qui émergent. De l'art non-fongible, le Nyan cat qui est ici, les pixels qui sont là, cette superbe création, cette œuvre d'art a été vendue. 580 000 dollars à quelqu'un qui a acheté ça. 580 000 dollars, c'est un NFT, un des premiers. Et donc on se rend compte que finalement, on arrive dans une méta-éthique qui est l'éthique de la globalisation, moi j'appelle ça de la dislocation.

 Parce qu'il n'y a plus de localisation, on n'est plus attaché à un endroit. Alors c'est là où il se passe, il y a des notaires dans la salle. Les notaires sont super importants parce que les notaires sont ceux qui sont capables de prendre ces entités, de les enraciner à l'endroit où l'étude de notaire se trouve. A faire que l'entreprise qui est ralliée va s'enraciner à un endroit où il y a des règles qui existent. Mais sans ça, l'entité est hors sol et ne répond absolument à aucune loi. Alors la preuve, c'est que le 22 janvier 2024, c'est pour ça que je mets à jour mes transparents, le 22 janvier c'était il y a peu de temps, le gouvernement de la Flandre essaye de forcer TikTok et Youtube à partager leurs revenus.

 

 Pourquoi est-ce que TikTok paierait des impôts en France ? Bah non, TikTok, nous on est désolé, on n'est pas français. On n'est pas belge, on n'est pas machin, il n'y a pas de raison qu'on paye des impôts chez vous.

 

Et puis c'est pareil pour Uber, c'est pareil pour tous ces trucs-là, ils ne sont pas localisés. En n'ayant pas localisé, ils ne suivent pas. Quelle loi vous suivez ? Bah pas les lois françaises. De toute façon, vous n'avez pas de raison, je ne suis pas français. Vous payez des impôts à qui ? Bah pas en France non plus. Donc vous voyez que c'est vraiment une notion de nouvelles entités qui vont interagir sans localisation. Donc ça pour moi, c'est un nouveau truc qui n'existait pas avant.

 

 Et à tel point que, alors ça c'est un petit peu plus vieux, donc 4 février 2022, Carrefour a acheté 36 hectares de je ne sais pas quoi, dans Sanbao. Sanbao, c'est un espace virtuel, et ils ont payé les 36 hectares 300 000 euros. Et ensuite, ils s'en sont servis, en mai 2022, ils ont fait leur première session de recrutement dans le Métavers. Donc c'était ici. Il y a des gens qui ont fait des entrevues, etc. dans le Méta, chacun était chez soi, devant son ordi, voire avec un casque virtuel. Il y avait des interviewers qui étaient avec un casque virtuel chez Carrefour, ou peut-être pas. Peut-être qu'ils étaient en Inde, ou peut-être qu'ils étaient ailleurs, parce que ça coûte moins cher. Et donc, il y a eu des recrutements qui se sont faits, de manière complètement virtuelle, dans un espace virtuel. Mais par contre, ils ont quand même payé 300 000 balles pour avoir 36 hectares, dans ce monde complètement virtuel.

 

 En 2022, il y a le premier Métavers, le collège Métavers en France. Donc c'est un master. Il y a des licences et 3 masters. Il y a un master en finance, blockchain et méta-État. Le deuxième master, c'est en art non-fongible, conception d'art digital. Et le troisième, c'est en développement de données, conception de monde virtuel, gestion de ces trucs-là. Donc vous voyez que ça commence à devenir sacrément de plus en plus réel, des choses qui sont complètement virtuelles. Et donc, je vous présente un humain augmenté, ça c'est les lunettes d'Apple qui sont sorties il y a 3 jours, quelque chose comme ça, qui vous permettent d'être de vive dans votre monde virtuel. Avec des problèmes, il y a des gens qui conduisent des Tesla, et pendant que les gens sont dans la Tesla qui conduit toute seule, ils ont leur casque de réalité virtuelle, ils ont leur casque de méta. Si vous regardez sur les infos, c'est hier, c'est absolument en ce moment,

 

 Les États se demandent, est-ce qu'on peut conduire des Tesla en ayant ce masque sur la figure ? C'est ça la question qui est posée, et qui est une vraie question. Donc, pour moi c'est une nouvelle éthique, c'est une nouvelle manière, c'est la dislocation, on vit pour quoi ? On vit pour une deuxième vie virtuelle, en espérant qu'elle sera meilleure que la première, est-ce que c'est l'égocratie, pas d'intérêt contre d'autres humains ? C'est des vraies questions pour moi.

 

 Alors maintenant, on a parlé de l'IA, est-ce que l'IA modifie l'interaction entre les êtres humains ? Est-ce que l'IA pourrait amener à une éthique version 5 ? Que j'ai appelée ASICS, en anglais ça passe bien, ce n’est pas SX, c'est ASICS. Alors, jusqu'à l'IA, en fait, l'éthique c'était la manière dont les humains interagissaient entre un humain et un autre humain, et bien l'ASICS ça serait comment deux humains interagissent par l'intermédiaire d'une IA. Est-ce que ça existe déjà ça ?

 

 Écoutez, si vous allez faire un prêt à votre banque, c'est pas, en fait, je vais vous donner un secret, c'est pas votre banquier qui va vous accorder le prêt ou pas, c'est qu'en fait, le banquier vous dit, ah oui, monsieur Collé, c'est un très bon client, etc., on vous accorde le prêt, mais en fait c'est l'ordinateur qui a dit avant, et bien oui, il a toujours payé ses factures, il a une grosse voiture parce qu'à chaque fois qu'il va prendre de l'essence, votre banquier sait qu'à chaque fois que vous allez chez Carrefour pour les factures d'essence, il regarde le prix que vous mettez.

 

 Et donc si vous mettez de l'essence 20 euros par 20 euros, ça c'est un mec qui est bizarre, il n'a pas beaucoup de fric, il met de l'essence quand il peut, et tout ça, ça rajoute des indicateurs qui sont dans l'IA qui disent, ça c'est un mec bizarre, il met de l'essence 20 euros par 20 euros, 10 euros par 10 euros, ce n’est pas normal. Donc en fait il y a plein d'indicateurs comme ça dans la science des données qui servent à savoir si vous êtes bankable ou pas, mais c'est pareil dans les assurances. Les assurances, est-ce qu'on va vous assurer ou pas ?

 

 Ah oui, mais vous avez eu le cancer ? Oui, mais il est fini mon cancer. Ah d'accord, mais vous avez quand même eu le cancer. Et puis bien entendu, ça vous le savez. Et ça maintenant, ce sont toutes des IA, mais ça, ça fait 20 ans que ça existe, ça fait 20 ans que c'est l'IA qui décide pour vous de ce que vous allez pouvoir faire ou de ce que vous n'allez pas pouvoir faire. Donc là on est vraiment dans la notion que si oui ou non, vous pouvez avoir votre prêt ou vous pouvez avoir votre assurance, mais en fait, entre deux, c'est l'IA qui décide. Bon, avec des excès pour nous qui sont en Chine avec des pénalités suivantes. Et maintenant, est-ce que du coup nous devons changer notre comportement en tant qu'être humain en sachant qu'on va se faire évaluer par une IA ? Donc actuellement, on vient de sortir le 19 décembre 2023, une information.

 

 Maintenant, quand vous verrez une voiture, alors je crois qu'il y avait déjà le truc pour une Renault qui avait des feux bleus pour montrer qu'elle était électrique, là maintenant ça va être différent. Maintenant, quand une voiture a un feu bleu qui est allumé, ça veut dire qu'elle est conduite de manière autonome.

C'est pour prévenir les autres humains que, attention, cette voiture-là est conduite de manière autonome, elle est conduite par une machine, elle n'est plus conduite par un être humain. Donc ça, ça va vous prévenir. Comment est-ce que vous allez vous comporter ? Est-ce qu'il va falloir que vous soyez un peu à distance de cette voiture-là ? Est-ce que vous allez avoir confiance en elle ? On va apprendre à interagir avec des machines. Là, quand c'est allumé bleu, c'est une machine qui est au volant. Le 27 mai 2022, il y a une étudiante qui a été accusée de triche par un algorithme parce qu'elle faisait une composition devant son ordinateur dans le centre d'examen imposant que la caméra de l'ordinateur soit sur elle et la fille a regardé trop devant l'ordinateur et l'ordinateur a dit cette personne-là a une antisèche et en fait, elle est en train de copier sur un texte donc l'ordinateur a dit cette personne-là triche. C'est l'ordinateur qui a accusé l'étudiante de tricher. Elle avait 17 ans. La question qui a été posée est-ce que le fait de regarder ailleurs que sur son écran signifiait qu'elle trichait et donc elle a été trichée, elle a eu zéro parce qu'elle a été accusée injustement ou justement, on ne sait pas, par l'IA d'avoir triché. C'est l'IA qui a décidé. De manière intéressante aussi, je vous ramène plein de choses, mai 2022, il y a maintenant, quand vous envoyez un CV à une grosse boîte, ce n'est pas des humains qui lisent le CV. Votre CV est interprété par une IA. Donc arrive à des nouvelles directives sur comment faire des CV de manière à vous faire sélectionner pour une interview.

 

 Donc Hilke Schellmann qui est le chef d'une boîte qui recrute en utilisant des robots qui sélectionnent les applications. Artificial Intelligence, Job Application Screen, Robot Recruteurs. Donc ce sont des recruteurs robots maintenant qui étudient votre machin. Voilà les directives qu'ils donnent aux étudiants. Donc plutôt que de faire un CV qui sorte de l'ordinaire, faites un CV résumé en anglais c'est un CV. Faites un CV qui soit lisible par une machine. Ne mettez pas d'images. Ne mettez pas de caractères spéciaux comme des E ou alors des tildes. Utilisez le template, la forme de CV la plus commune. Utilisez des phrases petites, précises, déclaratives et quantitatives.

 

 C'est Yann Siegel, le directeur de la plateforme de job Zip Recruiter. Donnez les licences. C'est aux humains de s'adapter à l'IA. Si vous voulez être recruté, rendez-vous par une IA. Faites ce qu'il faut de manière que l'IA vous recrute. C'est l'IA qui vous recrute maintenant. Vous voyez qu'on est en train de changer. L'éthique c'était humain à humain. Maintenant il faut tenir compte de ces trucs-là. Un truc très récent, 4 janvier 2024, dans la loi californienne, il y a maintenant des voitures qui sont autonomes et la voiture se gare n'importe comment.

 

 Qui doit avoir le PV ? Il y a une loi où il y a une voiture qui est autonome et qui dépasse une limite de vitesse. Dans l'état actuel, en Californie, les PV ne peuvent être donnés seulement s'il y a un vrai conducteur qui est dans la voiture. Même en France, si vous faites un excès de vitesse, vous pouvez dire que c'est votre grand-mère qui a 90 ans qui a fait son excès de vitesse. Mais vous êtes bien d'accord que c'est la personne qui conduit qui doit être pénalisée. Ce n'est pas la voiture. Et donc si c'est la personne qui conduit, les points en moins, on les donne à qui ?

 

 On ne va pas les donner à la voiture, parce que la voiture n'a pas le permis. C'est un vrai problème. C'est un problème actuel. Il y a une bagnole qui a fait un excès de vitesse qui s'est mal garé, à qui on enlève les points. Le fabricant, il s'en fout, il n'a pas les points. Mais oui, ce n'est pas le cas. Donc ils sont en train de se poser des questions. Maintenant, il y a des choses encore plus surprenantes qui apparaissent. Il y a du cyber kidnapping. Le cyber kidnapping, vous allez le voir, c'est le 2 janvier 2024. C'est un Chinois aux Etats-Unis qui s'est auto-kidnappé.

 

 Oui, attention, ça va devenir de plus en plus surréaliste comme truc. Il a été vu avec un équipement de camping. Et donc, ayant été vu par un équipement de camping, il y a des gens mal intentionnés qui ont imité sa voix et qui ont dit à ses parents je suis en danger dans tel endroit, etc. Et en fait, j'ai été kidnappé et il faut me donner 80 000 dollars pour que je sois libéré de l'endroit où on me retient prisonnier. Et à l'étudiant chinois, ils l'ont forcé à se déclarer comme kidnappé, sans quoi il aurait un impact sur sa famille qui est en Chine, etc. Donc ils ont pris les deux. Ils l'ont forcé à se déclarer comme kidnappé. Il a pris une vidéo expliquant qu'il était kidnappé, ce qui n'était pas du tout le cas, mais c'était pour sauver sa famille qui était en Chine.

 

 Et donc l'idée, c'est que ça a été fait par l'utilisation de l'intelligence artificielle pour se faire passer pour la voix de personnes que vous aimez et les convaincre de vous payer une rançon. Parce qu'en fait, le chinois, il y a eu des vidéos qu'il n'a pas dites et en fait, la vidéo existe quand même. Donc en fait, il a réussi à convaincre ses parents que c'est un truc complètement surréaliste. Donc cyber kidnapping, ça existe. Et les deux se font avoir. Les deux côtés se font avoir par des IA. Il y a eu un viol dans le métavers. Vous savez, le métavers, ce truc complètement n'existe plus.

 

 Donc ça, encore une fois, 2 janvier, BBC News. La police est en train d'essayer de comprendre ce que c'est qu'un assaut virtuel sexuel sur l'avatar d'une fille. Alors, l'incident s'est produit dans un jeu de réalité virtuelle. L'impact de l'attaque sur l'avatar de cette jeune fille a été augmenté à cause de la nature immersive de l'expérience de réalité virtuelle. Donc en se souvenant de l'expérience, mademoiselle Patel a dit qu'elle a été entourée par 3 ou 4 avatars mâles, enfin, qu'est-ce que je veux dire, masculins, avec des avatars représentant des masculins qui ont commencé à l'araser sexuellement d'un point de vue verbal et ensuite de commencer à la toucher et à toucher son avatar.

 

 Donc ça, c'est l'endroit où on arrive. Et puis plus récemment, vous avez peut-être entendu parler de Taylor Swift qui a été avec des vidéos complètement fakes d'elle se masturbant sur internet, ce qui est complètement faux, mais il y a eu des vidéos qui ont été complètement recréées par IA. Tiens, vous vous rappelez celle-là ? Maintenant, je vous annonce qu'il y a des influenceurs qui sont des IA. Je vous représente Lil Miquela. Elle a des millions de suiveurs, donc elle gagne énormément d'argent, plus que vous, moi et n'importe qui dans cette salle. Enfin, ce n'est pas elle qui gagne de l'argent. Qui c'est qui gagne de l'argent ?

 

 Ce sont les personnes qui la fabriquent. Il y a deux ingénieurs qui ont fabriqué Lil Miquela et Lil Miquela a tellement de succès dans ses chansons, puisque vous avez vu qu'elles sont bien, maintenant, à chaque fois qu'elle change le soutien-gorge, la boîte qui a fait le soutien, le soutien-gorge virtuel, mais d'une marque réelle, vend dix fois plus de soutien-gorge, etc.

 

 Alors, maintenant, ça, ça pose pour moi des vrais problèmes, parce que en fait, Lil Miquela, par son existence complètement virtuelle, elle finance ses ingénieurs qui la fabriquent, qui achètent les meilleurs ordinateurs possibles, parce que c'est via ses contrats qu'il se paye. Donc, si vous gagnez, je ne sais pas, moi, cent mille dollars par mois, vous n'avez pas envie de l'arrêter, Lil Miquela, parce que c'est votre revenu et puis c'est ce qui fait que vous roulez en grosse voiture et que vous êtes super heureux. Donc, en fait, qui c'est Lil Miquela ? Eh bien, elle a des employés, c'est les employés qui la créent, elle n'existe pas, elle est complète, c'est rien du tout, c'est un avatar, c'est des pixels.

 

 C'est des pixels qui sont créés par des ingénieurs qui, finalement, sont ses employés, parce que c'est elle qui les rémunère. Et, en même temps, elle a des millions de followers, il y a des millions de personnes qui la suivent et à chaque fois qu'elle fait un truc, virtuellement, il y a des millions de personnes qui font la même chose. Donc, la question, qui contrôle qui ? Est-ce que c'est vraiment les ingénieurs qui la contrôlent ? Parce qu'en fait, c'est quand même elle qui la paye, donc c'est elle qui les contrôle. Les ingénieurs ne vont pas l'arrêter. Et puis, en même temps, elle influence des millions de personnes. Donc, est-ce que ça a besoin d'être une IA forte ?

 

 Est-ce que l'IA forte arrive un jour ? Est-ce que l'IA va être plus forte que les humains ? En fait, c'est nous qui nous créons notre propre IA. Là, c'est des humains, d'un côté, on a des humains de l'autre, et tous, de manière très heureuse, nous nous créons une personne qui nous contrôle, qui n'existe pas. Nous nous créons un avatar, un truc... Il n'y a pas besoin de conscience. L'île Miquela n'est pas consciente, elle est consciente de rien du tout. C'est une image. C'est un truc qui est complètement virtuel, mais qui est créé par des humains. Donc, en fait, on se rend compte que ce qui est le plus gros problème dans l'IA, c'est les humains.

 

 C'est nous qui nous créons notre propre... notre propre chose qui va nous contrôler. Et on est très heureux de le faire, l'île Miquela. Bon, mais ça, c'était en 2016. En 2016, c'était quand même, il y a combien ? 6, 7, 13... 7 ans. Et depuis 7 ans, les choses ont évolué. Donc, bon... Alors après, est-ce qu'on vit pour quoi ? Alors après, on se rend compte que les gens sont capables de mourir pour des causes, maintenant. Donc là, il y a eu encore un bouddhiste qui s'est... avec une auto-immolation, mais pour là, pour le climat. Donc, là, il y a un champion de kickboxing qui a eu un petit virus. C'était le COVID-19. Il se dit, non, je ne vais pas me vacciner pour un petit virus comme ça. Le mec, il ne croit pas dans le COVID-19. Finalement, il est passé. Donc, cette personne-là est morte du fait d'avoir pensé que le COVID était une histoire pour faire de l'argent, pour je ne sais pas quoi. Donc, il n'a pas voulu croire à ça. Donc, il est passé. Donc, on se rend compte que maintenant, on peut donner sa vie à des causes, à des choses qui sont virtuelles et des choses qui sont délocalisées.

 

 Le climat, il y a des activistes qui sont un peu partout et vous pouvez donner votre vie pour ça. Alors maintenant, on arrive à la fin de la conférence parce que là, maintenant, on arrive avec l'IA générative. L'IA générative, ça date d'un an environ. Tout ce qui est chat GPT, les modèles à large langage module, etc. Et là, je reviens sur l'évangile de Saint Jean, qui commence en grec, parce qu'il a été écrit en grec, mais je vais vous le faire en latin et puis éventuellement en anglais, voire en français.

 

Donc, les trois premières phrases, les trois premiers vers de l'évangile de Saint Jean, c'est « Au commencement était le Verbe, et le Verbe était auprès de Dieu, et le Verbe était Dieu. » Donc, si on veut savoir ce que c'est que Dieu, c'est simple, regardez Saint Jean, et Saint Jean, il vous dit « En fait, Dieu, c'est le Verbe, le Verbe était Dieu, et au départ était le Verbe. » Alors, c'est intéressant, parce qu'on peut imaginer que, finalement, tout comme les humains se créent leurs influenceurs IA, alors qu'il n'existe pas les influenceurs IA, et bien, quelque part, on peut voir le fait que c'est en priant qu'on crée Dieu.

 

 C'est le Verbe, c'est les mots qui créent Dieu, parce que Dieu, c'est le Verbe. C'est écrit là, noir sur blanc, voilà, noir sur marron. C'est l'évangile de Saint Jean. Le Verbe, c'est Dieu. Dieu, c'est le Verbe. C'est exactement pareil. Or, je vous ferai remarquer que, depuis un certain temps, il y a des trucs comme ça qui existent. Et voilà la routine de dix minutes qui explique comment elle se maquille, d'accord ? Parce qu'elle a de l'acné, donc là, elle explique comment elle traite son acné, avec, bien sûr, des... Voilà. Et elle a bien noté avant exactement de quel produit il s'agissait, etc., etc., d'accord ?

 Donc, elle a tout plein de centaines de milliers de followers qui adorent son visage et la manière dont... Voilà, donc voilà la crème, ses longues, etc., donc elle dit bien exactement de quoi il s'agit, puis après, elle le met dessus. Et puis après, c'est absolument merveilleux, parce que, si vous allez un petit peu plus loin, son visage devient absolument parfait et parfaitement lisse et vraiment superbe, parce que cette personne n'existe pas. Cette personne est un avatar complet. C'est la même chose, mais c'est l'île Miquela, version actuelle. L'île Miquela, on voyait qu'elle n'était pas exacte. Ça, cette personne n'existe pas. Donc, elle peut... Alors, il faut qu'elle fasse attention, parce qu'elle est capable de s'enlever un œil, elle est capable de s'enlever la bouche si elle veut, si elle met son truc sur la bouche, il y a la bouche qui disparaît.

 

Ce truc-là n'existe pas du tout. Et ce qu'il y a de bien, c'est que la parole, maintenant, est créée par Chat GPT. Donc, ce qu'elle est en train de dire, la manière dont elle présente les choses, ce n'est pas un humain qui a écrit ça, c'est la parole. Tiens, la parole, c'est Dieu. Je vous rappelle Saint Jean. Dieu est la parole, la parole est Dieu. Le verbe, pardon, le gosse, c'est le verbe. Bon, et alors, maintenant qu'on a des choses comme ça, c'est une chose, OK ? Eh bien, maintenant, on a, après, des gens qui ont essayé ce qu'elle dit. Donc, je vous présente Kylie Boyle, qui a testé la routine d'Alix. Voilà, Kylie Boyle. Donc, on voit qu'elle a une peau bien pourrie, donc c'est la fan de celle-là. Et elle a changé la beauté sur TikTok, etc. Voilà. Donc, voilà celle-là.

 

 Et tout le monde l'adore. Voilà, et donc, elle explique comment elle-même va tester la routine d'Alix. Etc., etc. Elle a commencé. Donc, la plupart de ses vidéos, elle a ça, donc elle essaie de l'imiter, elle essaie de faire pareil. C'est ça, il y a une influenceuse, elle est en train de l'influencer, etc. Voilà, donc, elle essaie le truc. Alors, j'ai une mauvaise nouvelle pour vous, parce que cette personne-là, c'est une IA aussi. Donc, elle n'existe pas non plus. Donc, elle démarre d'un état, etc.

 

 Et puis après, bien sûr, elle est absolument merveilleuse avec tous les produits de beauté qui existent. Et donc, vous voyez, elle fait tout ça. Ceci est complètement, ça n'existe pas, ce n’est rien. C'est terrible. Et donc, voilà, vous avez Toolify.ai, d'accord. Et donc, c'est là où vous avez l'ensemble des High Revenue AIs. Donc, tous les IA à haut revenu, avec leur ranking, leur catégorie. Donc, elle en fait partie, Kylie Boyle, elle fait partie des IA à haut revenu. Et donc là, ce sont les Best AI Websites et les outils d'IA.

 

Donc là, vous pouvez fabriquer le vôtre. Vous avez des produits que vous voulez mettre en valeur. Vous les contactez, vous leur filez du fric, bien sûr, parce que c'est de la pub. Et puis, ils vous fabriquent une IA qui va se maquiller avec vos produits. Donc, si vous avez, je ne sais pas, des produits de beauté, vous pouvez faire vendre vos produits de beauté par des IA comme ça, qui le feront parfaitement bien, parce qu'à la fin, le résultat est garanti. De toute façon, il n'y a plus de bouton, il n'y a plus rien du tout. Ça n'existe pas.

 

 Bon. Alors, on pourrait se dire, des influenceurs comme ça, ok, éventuellement, une marge de la population qui est prête à se faire influencer par ça, pourquoi pas. Mais maintenant, en fait, ce qui existe aussi, c'est un truc qui s'appelle des chaînes de news. Il y a des chaînes de news partout. Il y a Fox News, il y a plein de CNews, des trucs comme ça. Donc, voilà. Est-ce qu'on peut mettre le son un peu plus haut ?

 

 Voilà. Donc, elle parle en grec, elle parle en philippin, elle parle toutes les langues. Cette personne n'existe pas. Et c'est la nouvelle journaliste d'une chaîne qui s'appelle Channel 1.ai. Channel 1.ai. C'est le nouveau, voilà. Donc ça, c'est leur ensemble de journalistes qui sont tous faux, qui n'existent pas. Et ils disent, par contre, ce que c'est. Ce ne sont pas des fakes news. Nous, donc, les ordinateurs écrivent les histoires, mais les faits sont vrais. Nous vous garantissons que les faits sur lesquels nous allons... sont vrais.

 Et ça, c'est ce qu'ils disent. Parce qu'une fois que vous voyez qu'ils existent comme ça, comment est-ce qu'on sait si ce qu'ils relatent est vrai ou pas ? Donc ça, c'est déjà embêtant pour les journalistes. Il y a un journaliste qui m'avait interviewé à West France. Il me dit, qui c'est qui est menacé ? Je dis, vous, regardez. Donc voilà, les journalistes de Channel 1.ai, ça va commencer en mars ou avril. Donc c'est une vraie chaîne de news. Alors ça, ils se sont engagés à noter avec un truc comme ça quand c'est une image qui est générée par l'IA.

 Mais eux disent, non, non, nous, les faits qu'on présente ne sont pas des fakes news, ce sont des faits réels. Nous ne nous faisons que le récit. Et nous vous présentons ça de manière humaine, de manière que ce soit plus agréable pour vous. Voilà. Donc ça, c'est aujourd'hui. Etc. Alors après, c'est bien, l'IA peut vous parler. Mais l'IA peut vous écouter aussi. Et il y a un gros marché qui est en train de se développer aux Etats-Unis. C'est tous les psychologues. Qui sont des psychologues IA. Et la première cible des psychologues IA, c'est les enfants.

 

 Dans les écoles. Parce qu'il y a beaucoup d'enfants dans les écoles qui ont des troubles du comportement, etc. Donc comme il n'y a pas suffisamment de psychologues dans les écoles. Et bien maintenant, officiellement, il y a tout plein de sites. Et l'enfant qui a des troubles du comportement, et bien il est engagé. On lui suggère qu'il aille sur ces sites. Et où il y a un chatbot. Donc il y a un chat GPT qui va parler avec lui pour essayer de l'apaiser. Et maintenant, c'est l'IA qui joue le rôle de psychologue. Et qui va aider les enfants à aller mieux.

 

 Encore une fois, c'est aujourd'hui. Ce n'est pas le futur. Donc AI powered mental health chatbot for kids are revolutionizing how children receive support and guidance for their emotional well-being. Donc en français. Les chatbots de santé mentale qui fonctionnent grâce à l'IA pour les enfants révolutionnent la manière dont les enfants reçoivent de l'aide et un guide pour leur bien-être émotionnel. Donc ces chatbots innovants amènent des espaces sûrs et confidentiels.

 

 Parce que bien entendu, il n'y a personne qui regarde. Si vous êtes sur WhatsApp, si vous êtes sur tiktok, instagram, machin, vous avez signé un truc à la fin qui dit que toutes les données, toutes les photos que vous mettez sur instagram appartiennent à instagram. Donc en fait, c'est ce qu'on appelle les spywares. Ça vous étudie pour essayer d'améliorer leurs interfaces, leurs machins, etc.

 

 Tous les informaticiens dont je fais partie, on n'est pas sur instagram, on n'est pas sur machin, on n'est sur aucun truc comme ça. Parce que c'est des machins qui vous pompent. De toute façon, si c'est gratuit, c'est vous le produit. Donc ça c'est un truc dont il faut absolument vous souvenir. Si vous avez un machin qui est gratuit, il n'y a rien qui est gratuit dans le monde, ça veut dire que c'est vous qui êtes en train de vous faire exploiter. Et puis après, il y a tout plein de choses qui sont en train d'arriver maintenant.

 

 Donc maintenant, l'éthique V6, pour qui est-ce qu'on va vivre ? Est-ce qu'on va vivre pour Alex Hurl, Kayleigh Boyle ? Parce que finalement, c'est des influenceurs. Des influenceurs, il y en a eu depuis tout temps. Il y a 2000 ans, il y a un mec qui s'appelait Jésus. Maintenant, il a un certain nombre de millions d'influenceurs. Il a influencé pas mal de millions de personnes, de milliards de personnes. Mais sincèrement, il lui a fallu... Donc maintenant, les influenceurs, c'est... Donc il y a eu Mahomet, maintenant ça s'appelle Kim Kardashian.

 

 Et son premier million de followers, elle l'a eu beaucoup plus vite que Jésus. Et elle est en train de se refaire dessus. Et ce sont les gens qui, maintenant, vont guider le monde. Donc Kim Kardashian, ça va, elle est encore humaine. Elle est humaine, mais maintenant sont en train de déferler des influenceurs IA, dont le logos, dont ce qu'ils disent, est écrit par l'IA. Et l'IA vous dit de faire quoi ? Il y a un mec qui s'appelait Hitler. Avec son logos, il a réussi à faire de l'Allemagne de 1930, qui était le pays le plus évolué, avec des philosophes, des médecins incroyables, des scientifiques, Einstein, des trucs... C'était le pays le plus évolué. Il a réussi à prendre ces gens-là, les entourer autour de son logos, de sa parole, et leur faire brûler des juifs, leur faire faire des horreurs, des trucs absolument incroyables ! Ce que je veux dire, c'est quoi ? Et en fait, vous voyez la puissance de la voix, la puissance de la parole. Et la puissance de la parole, maintenant, c'est l'IA qui l'a.

 

 Donc réfléchissez à ça. Maintenant, je compte sur vous et l'échange. Vous voyez, j'ai fait 1h41, il m'a dépassé de 10 minutes. Je compte sur l'échange maintenant, avec vous, pour essayer de m'égayer un peu la soirée. Applaudissements. J'espère que vous trouverez des choses positives sur l'IA, pour que je puisse rajouter ça dans mes transparents, parce que pour l'instant... Pour toutes les technologies, le feu, le métal, la vapeur, on trouve des côtés positifs, des côtés négatifs. Mais en fait, là, vous voyez que maintenant...

 

Je suis en train de terminer, mais j'ai l'impression que c'est terminé. En fait, maintenant, vous voyez que les humains doivent apprendre à les utiliser. La bombe atomique, ça peut aussi faire de l'énergie. Les rayons X, ça sert à faire des radios, ça sert à soigner des cancers. Il y a plein de choses. Quand on a une nouvelle technologie, il faut apprendre à s'en servir. Et là, le mot-clé, là-dedans, c'est le mot apprendre. Et d'où vient l'apprentissage ? Tiens, ça vient de l'éducation, on a déjà un peu parlé d'ailleurs. Ça commence à faire dévoyer. Très subversif, l'éducation. Mais voilà, c'est l'éducation.

 

 Et donc, l'éducation, il y a éducation. Le problème, c'est que moi, je suis prof. J'ai des centaines de personnes, d'étudiants. Et maintenant, les étudiants, en fait, ils disent, mais ça sert à quoi d'apprendre ce que vous dites ? Parce que ce que vous dites, c'est sur Internet. Donc, si ce que vous dites est sur Internet, ça sert à quoi que je mette dans ma tête ? Sachant que ma tête, maintenant, elle est dans ma poche.

 

 Et si je veux savoir quelque chose, je demande à Siri. Je demande à ChatGPT. ChatGPT me répond. Et puis, même ChatGPT, probablement qu'il est meilleur que vous. ChatGPT, c'est une IA. Donc, c'est ça aussi le risque d'une IA. C'est qu'on peut avoir des gens qui prennent des IA pour Dieu. Parce que les IA, maintenant, font tout mieux que les humains, etc. Donc, la réponse qui est donnée par une IA, forcément, elle va être meilleure que la réponse qui est donnée par un humain. Mais le problème, c'est que les gens ne savent pas comment fonctionne ChatGPT. ChatGPT, ça dit n'importe quoi. Mais ça le dit bien. En fait, c'est ça le truc. ChatGPT, ça dit n'importe quoi, mais ça le dit super bien.

 

 Et ça le dit de manière convaincante. Et donc, on demande une question. Il vous donne un truc. Ah ouais, ça a l'air super raisonnable. Mais si vous-même, vous n'êtes plus éduqué, si vous n'avez plus de connaissances, parce que vous ne voyez plus l'intérêt d'avoir des connaissances, comment est-ce que vous allez être capable de dire si ce que vous dit l'IA, c'est du lard ou du cochon ?

 

 Vous n'avez plus de connaissances qui vous sont des connaissances propres. À chaque fois que vous avez besoin de savoir quelque chose, vous le demandez à l'IA. L'IA vous dit un truc. Comment vous pouvez faire la part du vrai et du faux ? La science, c'est pareil. En fait, pour moi, pourquoi apprendre quand tout maintenant... Les voitures. Les voitures conduisent toutes seules. Le jour où les assurances vont déterminer, avec des millions de kilomètres, que le nombre d'accidents au million de kilomètres quand c'est une voiture conduite de manière autonome est inférieur au nombre d'accidents par million de kilomètres quand c'est conduit par un humain qui est bourré, qui est trop fatigué, qui s'endort au volant, etc. Les compagnies d'assurances vont dire « Vous voulez conduire votre voiture vous-même ?

 

 Très bien, plus 10% ! » C'est la voiture qui conduit. Et puis au bout d'un moment, quand il y a vraiment trop d'accidents, non, vous ne conduisez pas votre voiture vous-même. Les humains causent trop d'accidents. Vous voulez conduire votre voiture, vous allez sur un circuit, vous faites des tours sur un circuit, et dans la ville, là où il y a d'autres personnes, c'est la voiture qui conduit toute seule.

 

 Parce que statistiquement, il y a des accidents. Mais statistiquement, il y en a beaucoup moins quand c'est une IA qui conduit que quand c'est un humain. Donc non, les humains ne conduisent plus. Et on va perdre un certain nombre de savoir-faire qu'on va déléguer à l'IA, et c'est l'IA qui va savoir tout faire. Et nous, on ne va plus savoir rien faire. Et c'est ça le gros problème, c'est que j'ai peur qu'on perde la classe moyenne de l'éducation, parce qu'il y a toujours des gens intéressés.

 

 Des gens, des cerveaux, des Einstein, il y en aura toujours de ces gens-là. Donc il y a toujours une élite qui va exister, mais avant, alors effectivement, il y a l'inverse de l'élite qui est actuellement en France. Il y a des gens qui sont illettrés, qui n'arrivent pas à lire, qui n'arrivent pas à compter. Il y a des gens qui sont en déshérence d'un point de vue scolaire, qui ont des gros problèmes.

 

 Mais ces gens-là, quand même, sont minoritaires en France. Il y a une énorme majorité de gens qui savent lire, qui savent faire tout plein de choses, qui sont utiles à la société, etc. Mais ces gens-là, maintenant, avec l'IA, l'IA va tout faire mieux qu'eux, et va tout savoir mieux qu'eux. Ces gens-là n'auront plus d'intérêt à apprendre, de faire quoi que ce soit. Donc moi, j'ai ma grande crainte, c'est que toute la classe moyenne de l'éducation disparaisse, parce que l'IA fait bien, fait aussi mieux.

 

 On appuie sur un bouton, on a le résultat. Le truc le fait tout seul. Faire votre café, vous appuyez sur un bouton, le café est fait. Les maisons, maintenant, on va avoir des imprimantes à maison, ça existe. Vous mettez du béton, et puis le machin vous chie une maison. Ben oui, mais ça sert à quoi de savoir monter des parpaings, maintenant ? Et puis dans peu de temps, une maison en parpaing apparent, parce qu'on va faire des parpaings apparents, parce que ça a été monté à la main, il faut le montrer.

 

 Les maisons en pierre apparentes, autrefois, les pierres n'étaient pas apparentes, on mettait un enduit pour protéger les pierres et pour éviter que les murs se délitent. Toutes les maisons en pierre, elles étaient enduites. Maintenant, on enlève l'enduit pour montrer, regardez, on a une maison en pierre qui a été montée à la main. Ma prédiction, c'est que bientôt, on aura des maisons en parpaing apparent, et ça sera le grand luxe, comparé aux trucs qui vont être faits automatiques. Et voilà, c'est ça le problème.

 

 En fait, la seule solution pour moi d'arriver, c'est d'arriver à démarrer une boucle de rétroaction positive. C'est un effet Larsen sur l'éducation, mais le problème, c'est qu'on perd notre éducation, parce que le jour où les cancers seront mieux détectés par les IA que par les humains, les docteurs ne vont plus détecter les cancers du sein sur les radios, parce que les IA le font mieux, donc ils ne vont plus savoir le faire. Et le jour où c'est un truc un peu bizarre, les docteurs ne savent pas, parce qu'ils demandent à l'IA, mais l'IA ne sait pas non plus.

 

 On va perdre tout notre information, mais même à un très haut niveau, médecins, radiologues, etc. Pourquoi être radiologue, si le machin fait mieux que vous ? Donc l'éducation, et maintenant il faut savoir utiliser cette IA. Comment l'utiliser pour qu'elle ne nous trompe pas ? Donc c'est quand même encore une notion d'éducation, mais ça va être à nous de savoir utiliser ce nouveau truc, cette nouvelle éthique, ce machin qui fait des machins mieux que nous, mais pas toujours.

 

 Dans quelles conditions, est-ce que ça fait mieux que nous ? Dans quelles conditions, ça fait moins bien ? Vous voyez que maintenant, c'est un nouveau savoir-faire qui va apparaître. Comment se servir de ChatGPT pour avoir des bonnes notes à l'école ? Comment se servir de ChatGPT pour faire un bel article dans le journal ? Comment savoir se servir de ces trucs-là, jusqu'au moment où c'est ChatGPT qui va vous remplacer complètement ?

 

 Et voilà. Peut-être qu'on peut essayer de développer des trucs. Grâce au Ludylab, grâce à Seraph, on va pouvoir essayer de diffuser l'éducation. Je vais rester derrière le scientifique, tel qu'il est décrit par Claude Lévi-Strauss. C'est très pratique. Claude Lévi-Strauss avait dit qu'un scientifique n'est pas une personne qui donne les bonnes réponses, c'est la personne qui pose les bonnes questions. Voilà. Oui, c'est important parce que les réponses doivent être sociétales. C'est la société qui doit dire comment elle veut utiliser ou pas, comment est-ce qu'elle veut être guidée ou pas par l'IA, etc.

 

 Et ce n'est pas à nous, scientifiques, d'apporter la réponse. C'est à vous de savoir, en tant que société, comment vous voulez être gouvernés, par qui, comment, par quoi, ou est-ce que vous refusez ça, et qui va... Voilà. C'est vous.

 Qui est la première question ?

 Allez, qui se dévoue ?

 

 Vous avez bien compris. Je m'appelle Sergio. J'étais souvent présent sur vos images. Je vous remercie. Ce matin, j'ai interrogé CHAT-GPT version 3.5 et j'ai posé la question est-ce que Pierre Collet est un expert en IA ? Et donc, CHAT-GPT m'a répondu je n'ai pas d'informations récentes sur Pierre Collet. Pour obtenir des informations actualisées sur son expertise en IA, je vous recommande de vérifier ses publications, son profil académique ou professionnel. Alors, sachant que tout seul, ce qui est enfantin, j'avais recueilli beaucoup d'infos sur vous, je voudrais bien savoir qu'est-ce que ça vous inspire ? Non, mais je vais vous passer celui-là en attendant. Ce qui est dommage, c'est que CHAT-GPT n'a pas invité à venir à la soirée du Cera parce que ça aurait pu compléter.

 

 Absolument.

 

 Alors déjà, je suis très heureux d'être invisible à CHAT-GPT parce qu'effectivement, je ne suis pas sur Instagram, je ne suis pas sur Twitter. Maintenant, ça s'appelle X. Je suis pas sur TikTok.

 Aucun information qui sait ce que c'est que l'informatique, la science de l'information n'est sur ces trucs-là parce que, encore une fois, c'est ce que je vous dis, ça vous pompe tout et ça monte tout en épingle. Ça peut faire des fausses vidéos de vous, ça peut faire n'importe quoi. Pour vivre heureux, vivons cachés. Je suis très heureux de passer sous le radar de CHAT-GPT. J'ai bien fait mon job. Je suis très heureux de ça. Deuxièmement, CHAT-GPT a bien répondu. Si vous voulez savoir qui je suis, allez avec vos petits doigts faire votre recherche vous-même. Vous allez me trouver sur ResearchCade, vous allez me trouver sur Google Scholar, Google machin, vous allez trouver les papiers que j'ai écrits qui ont été validés par d'autres humains scientifiques.

 

Tiens, à quand est-ce qu'on aura des conférences où les relecteurs, les gens qui vont sélectionner vos papiers, seront des IA ?

 

Pour l'instant, je ne connais pas encore, mais un de ces jours, ça va arriver où la qualité d'un papier va être jugée par l'IA aussi. Voilà. Donc, non, il a fait une super bonne réponse. Allez voir par vous-même. Et deuxièmement, je ne connais pas CHAT-GPT. Je suis très heureux d'être inconnu de CHAT-GPT.

 

 

 Une autre question ? Voilà.

 

 Donc, Antoine de Froissart, j'avais une question sur est-ce que c'est possible de sécuriser, en fait, les informations ? D'essayer d'aller, par exemple, aujourd'hui, qu'est-ce qu'on peut trouver de plus, entre guillemets, sécurisé dans le monde de la data ? On va dire, on parle de Blockchain ou des choses comme ça. Est-ce que c'est possible d'aller, par exemple, dans le monde de la data, d'essayer d'aller sécuriser les informations ? Est-ce que c'est possible d'aller derrière sécuriser des informations par le biais de blockchain ou par le biais de choses comme ça qui pourraient, éventuellement, venir donner le ton sur ce qui est réel, entre guillemets, de ce qui est inventé par une IA ?

 

 Alors, la notion de savoir, effectivement, les informations qui vont être sécurisées, est-ce qu'elles sont vraies ou pas, ça, ça dépend de la personne qui les a sécurisées. Donc, il faut savoir si elles sont vraies ou pas. Ensuite, la notion de la sécurisation en elle-même, en fait, tout est fait avec le chiffrement et le chiffrement, ce qu'on appelle le cryptage, mais on ne dit pas le cryptage, c'est le chiffrement, normalement. Et donc, en fait, ce truc-là, maintenant, il y a les ordinateurs quantiques et lorsque l'informatique quantique sera enfin fonctionnelle, sans trop de bruit, etc., le problème, c'est que les ordinateurs quantiques, c'est un gros truc qui va arriver un de ces jours. Pour l'instant, on est encore loin parce que les ordinateurs quantiques, ils font du bruit, c'est-à-dire qu'ils font des trucs qui sont inutilisables mais on avance, on avance peu à peu, on essaie de réduire le bruit. Actuellement, je dirige des thèses sur l'informatique quantique où il s'agit de réduire le bruit des portes quantiques pour arriver à essayer d'avoir un résultat utilisable de ce truc-là. Donc, ces machins-là vont casser le chiffrage. Après, c'est quelque chose qui est, pour l'instant, complètement inviolable qui est lié au papier EPR d'Einstein 1935, c'est de stocker un très peu d'informations sur des particules intriquées en superposition quantique. Et donc, l'avantage d'avoir des particules en superposition quantique, c'est que si vous recevez des particules intriquées mais qui sont effondrées, quelqu'un les a vues. Donc, vous avez une garantie physique par la physique quantique que l'information n'a été lue par personne. Mais, pour l'instant, on est incapable de transmettre un fichier de, je ne sais pas combien, un mégaoctet de manière quantique. Donc, pour l'instant, il y a des clés quantiques. Il y a une boîte qui s'appelle l'idée quantique qui existe depuis 15 ans en Suisse, qui verrouille toutes les élections en Suisse, qui fait toutes les transactions financières sont maintenant verrouillées et qui permettent aux particules superposées et intriquées qu'on reçoit de manière intriquée et qu'on sait qu'elles n'ont pas été violées. Mais, elles servent de clé à du chiffrage parce qu'on arrive à transmettre que quelques octets. Donc, on a juste la clé dont on sait qu'elle n'a pas été cassée mais maintenant, les données chiffrées, si on arrive à trouver la factorisation, finalement, on sera capable d'ouvrir et on sera encore sécurisé. C'est ça qui fait peur aux banques et à tout ça. C'est pour ça qu'ils travaillent beaucoup sur toute l'informatique quantique. C'est parce que le futur de l'informatique quantique, ça sera capable de casser les chiffrages mais, pour l'instant, elle est peut-être dans... Alors, la vitesse à laquelle ça va actuellement c'est peut-être dans 10-20 ans mais sachant que les choses vont toujours plus vite que ce qu'on pense, ça peut être dans 5 ans mais pour l'instant, ce n'est pas encore à l'horizon de 5 ans. C'est encore stable pendant 5 ans. Peut-être, probablement, plus mais on ne sait pas.

Une autre question ? Merci.           

Jean-Louis Néraud, vous nous avez présenté des influenceurs qui sont des avatars, en fait. Mais, à un moment donné, qui a détecté que c’était des avatars et qui a détecté que c'était des influenceurs et qui a détecté que c'était des influenceurs et qui a détecté que c'était des avatars et, à partir du moment où ça a été détecté, pourquoi le réseau qui est connecté à ces influenceurs n'est pas mis au courant et qu'il y a des gens qui continuent à aller dessus ?

 

On va voir, on va voir. C'est juste une question de temps. On va y arriver. Merci, parce que, du coup, c'est vous qui faites du sport. Alors, déjà, ce n'est pas des avatars. Ce qu'on appelle les avatars, c'est une image de vous artificielle, à distance. Donc, c'est un humain qui a un avatar ailleurs, que ça vous permet d'être chez Carrefour, vous faire embaucher ou pas, par votre avatar. Maintenant, les avatars ne sont pas des influenceurs. Ils ne sont pas des influenceurs. Ils ne sont pas des influenceurs. Maintenant, les influenceurs que vous avez là sont créés. Il n'y a pas d'humain qui est derrière. Leur logos, ce qu'il dit, n'est pas fait par un des humains. Et pourquoi est-ce que les gens les suivent ? Et bien, c'est parce que ce sont des belles filles avec des beaux visages, avec des beaux trucs comme ça. Et c'est juste ça qui attire. C'est comme les lumières qui attirent les papillons. Et bien, en fait, même si les personnes... Alors, oui et non. C'est-à-dire que c'est plus vicieux que ça. Parce que, j'ai quand même mis, c'est-à-dire que c'est plus vieux que ça. Donc, vous allez voir sur un site qui est là, sur Vanity Fair. Donc, l'endroit où tous les gens sérieux vont. Donc, vous cliquez dessus. Ça, c'est aujourd'hui. Enfin, c'est le 23 octobre 2023. Qui est Alix Earle, la nouvelle IT girl ? Alors, ils le disent quand même. Ils disent que c'est une IT girl. Mais si vous savez lire, ce que ça veut dire, c'est que c'est une fille de IT, c'est Information Technology, de la technologie de l'information. Et alors là, vous avez sa présentation. Elle raconte son quotidien à Miami et elle envoûte les internautes. Mais oui, mais c'est ça, elle l'envoûte, elle a la parole. C'est ça l'énorme problème. Donc, on vous la présente. Alix Earle, à New York, le 7 septembre 2023. C'est pas vrai, elle n'existe pas. Donc, elle n'a pas pu être à New York. Encore une fois, c'est n'importe quoi. C'est la sensation du moment. Alors, attendez, je vais essayer de vous l'agrandir. La reine de la Gen Z, qui n'existe pas, a sans doute connu l'ascension la plus rapide du TikTok. Dans ses vidéos, « Get Ready With Me », devenue virale sur les réseaux sociaux, se livre ouvertement sur son acné qu'il sticke, son anxiété, ou encore ses relations amoureuses qu'elle juste désastreuses. Rapidement, l'influenceuse a atteint le statut de « IT Girl », décrochant des contrats avec des marques spéciales telles que Tarte, je ne sais pas si c'est une marque, Tarte, Benefit, Rare Beauty, et collaborant avec des célébrités comme Selena Gomez, les influx, voilà, à lire aussi, dans ça, c'est un des trucs, voilà, les influx voleurs. « Le directeur d'une entreprise d'une construction routière située dans New Jersey, son père, Thomas Earl, qui en est le PDG, a fait des gros titres à la suite. » Tout ça, c'est n'importe quoi, mais quand vous avez une gamine, des gens qui lisent ça, ce que je veux dire, alors ça, c'est probablement aussi écrit par de l'IA, mais quand vous avez une gamine qui lise ça, ce que je veux dire, alors ça, c'est probablement aussi écrit par de l'IA, mais quand vous avez une gamine qui lise ça, c'est probablement aussi écrit par de l'IA, mais quand vous avez Il y a près de quinze ans, plusieurs médias avaient affirmé que son père, donc il, trompait sa femme de l'époque, Alissa, avec Alisha Dupré, qui a travaillé au sein de l'agence d'escorte, donc des escortes, vous savez ce que c'est, VIP, un pro score, cette dernière avait défrayé la chronique après avoir été engagée en tant qu'escorte pour un client dont il ignorait. Ce n'est que quelle... mais il y a des gens qui lisent ça et qui boivent ça, qui sont envoûtés par ça.

 

 C'est le logos dont je vous parlais. Ça me prend les gens. Ça fait une histoire. Elle est diplômée de l'université de Miami, bien sûr. Sur son compte TikTok, elle a partagé son quotidien d'étudiante en mai 2023. Elle obtient son diplôme... Il y a quatre ans, j'ai pleuré quand j'ai appris que j'étais acceptée dans l'école de mes rêves. Son podcast fait fureur. C'est... ça fait peur. Moi j'ai peur quand je vois ça. Je suis atterré. Je ne sais pas quoi. Je n'ai pas de réponse. Pourquoi est-ce que des gens vont voir ça ? Bah si, parce qu'on lit ça et on a l'impression que c'est vrai. Et ça fait rêver. Voilà, refaire le monde. Merci. Est-ce qu'il y a d'autres questions ? Vous vous apercevez bien sûr que ces storytellings n'ont aucun rapport avec éventuellement des personnes qui auraient pu exister et qui sont vivantes. Vous n'avez jamais entendu ça quelque part.

 

Je vous passe la parole. Ah pardon.

 

 Pour aller dans le sens de ce que vous dites, moi je vois à travers l'IA un nouveau terrain de jeu pour les conflits mondiaux entre des nations, entre des populations, entre des ethnies, entre...

 

Les chaînes d'information qu'ils font déjà bien, oui.

 

Merci.

 

 Oui, donc tout ce qui est conflits mondiaux, tout ce qui est machin, vous pouvez imaginer... Il y a eu des vidéos fake de Zelensky qui disaient « Rendez vos armes », etc. « C'est la Russie qui nous contrôle. » Alors maintenant, ce que vous voyez, c'est quoi qui est vrai ? Et encore une fois, tout est ramené sur le jugement, sur le jugement personnel. Mais si on a démissionné devant l'éducation, parce que c'est difficile d'apprendre, c'est difficile de comprendre, il faut travailler, etc. Et on démissionne parce que l'IA le fait tellement mieux, on demande à Syrie, on demande à n'importe quoi qui vous donne les réponses. Eh bien le jour où vous sachiez faire la part entre le vrai et le faux, sur quoi vous allez vous baser ? Vous n'avez plus de connaissances. Vous allez demander à l'IA de savoir si c'est vrai ou si c'est faux. Mais c'est l'IA qui vous dit des conneries. Enfin voilà, on perd tout notre enracinement.

 

Allez, je passe là, voilà.

 

 Merci.

 

 Jean-Louis Clédé, alors ce n'est pas vraiment une question, mais justement, je pensais, apparemment l'IA aujourd'hui est capable, une personne qui a 17 ans et une qui a 90 ans, est capable de détecter si c'est la même personne. Donc ça pose aussi des gros problèmes au point de vue criminalité, parce que dans les tribunaux, qui est-ce qui va donner le verdict ?

 

 Est-ce que ça va être l'IA ou le procureur, justement, qui va être contraint par l'IA ? Parce que l'IA peut faire des erreurs, en fait.

 

 Alors, depuis trois ans maintenant, en France, le Parlement a voté une loi comme quoi, pour des différents allant jusqu'à 2 000 euros, l'IA pouvait faire un prêtri pour le juge, et d'ailleurs faire des prêts, des propositions de pénalité ou pas, parce que vous savez que les tribunaux sont engorgés par des centaines de cas, et tous les petits cas, je crois qu'en France, c'est jusqu'à 2 000 euros. Il y a un autre pays où c'était jusqu'à 5 000 euros. Donc maintenant, il a été accepté, validé par les députés, et donc le Parlement français, que jusqu'à 2 000 euros, une IA puisse aider les juges. Aider les juges. Alors là aussi, le gros problème qu'il y a, c'est que lorsque le juge se fait aider par l'IA en disant que c'est cette personne-là qui a tort, donc on va proposer 500 euros de je ne sais pas quoi, de pénalité, etc. Quand le juge se rend compte que ça marche super bien les 100 premières fois, après, la 101ème fois, il a confiance. Donc après, il va regarder de moins en moins. C'est l'IA qui a fait le job. L'IA fait bien son job. Jusqu'au jour où l'IA fait une erreur. Mais là, la personne sur laquelle ça tombe, ça va être un gros problème. Et ça va être ça, maintenant, le problème, c'est de perdre... C'est ce que je disais. Les médecins vont perdre... Les radiologues vont perdre leur expérience, parce qu'ils vont confier ça de plus en plus aux IA. Les juges vont compléter ça de plus en plus aux IA. En fait, on risque de tout déléguer de plus en plus à l'IA. Et le jour où on a vraiment besoin de faire les choses, on ne sait plus les faire. Et c'est ça qui m'inquiète. Mais je vous avais donné une mission au départ, c'était de trouver des choses positives. Je vous rappelle votre mission. Donc je vous écoute sur une chose positive que l'IA pourrait apporter. Je ne sais pas si ce sera positif ou négatif. Je pense qu'elle pourrait apporter beaucoup de positifs. Oui, bien sûr. Sur la santé, sur plein de choses, justement. Je pense même que c'est extrêmement limite de la part d'un grand professeur comme vous de ne présenter que cette version-là. C'est la limite pour moi, pas de l'escroquerie, parce que je ne me permettrais pas, mais de la mauvaise foi quand même. Ce que je voudrais vous poser comme question, qu'est-ce que vous pensez de l'European IA Act ? Alors, je ne connais pas. Ce n'est pas mon domaine, donc je ne connais pas du tout. Est-ce que vous pouvez nous dire de quoi il s'agit ? C'est justement ce que l'Europe essaie de mettre en place pour réguler l'IA.

 

 Bon, sur la première partie de votre question, en fait, bien sûr, l'IA a tout plein de côtés positifs. C'est comme les couteaux, ça sert à couper la viande. Les voitures, ça sert à se déplacer, mais ça peut tuer des gens. Les machins, il y a tout plein, tout plein de côtés positifs. Voilà, ne serait-ce qu'en santé, pour soigner des cancers. C'est énorme. Et là, je ne peux pas... Non, mais c'est bien évidemment que tout ça, ça existe. Et que, voilà, peut-être que, par exemple, la fusion nucléaire, l'IA pourra intervenir pour arriver à trouver des solutions qui vont faire que les tokamaks vont fonctionner. On pourra pouvoir nous apporter de l'énergie de manière illimitée, sans pollution, sans CO2. Oui, bien sûr. Donc, il y a des millions de choses merveilleuses à apporter à l'être humain. Donc, oui, je vais brosser un portrait très, très négatif de l'IA, parce que je pense que c'est ça qui m'inquiète, moi. Bon. Ça nous inquiète tous. Je pense qu'il faut quand même voir l'autre côté. Absolument. Mais voilà, c'est pour ça. Et je vous remercie. Merci, vous voyez que vous avez... Absolument.

 

 Non, l'IA a bien sûr tout plein de choses. L'IA a bien sûr tout plein de choses à apporter. Et encore une fois, le jour où, en conduisant les voitures, ça va économiser des milliers de morts, eh bien, l'IA aura apporté de faire que des milliers de personnes vont vivre alors qu'elles auraient subi un accident si ça n'avait été conduit pas. Donc, bien sûr, tout ça, c'est... Mais vous voyez que c'est à double tranchant. Il y a autour du Premier ministre, qui a lancé tout un parterre de chercheurs, d'étudiants, qui travaillent là-dessus. Pour moi, le problème, ce n'est pas l'IA, c'est la régulation. C'est la régulation et c'est les humains. Parce que, ça, c'est ce que je vous ai dit dans l'avatar qui est là, la première, celle de 2016, elle n'existe pas, c'est les humains qui l'ont créée et c'est les humains qui sont heureux de la suivre. Donc, encore une fois, le problème est humain. C'est nous qui nous créons, et ça, je l'ai dit, c'est nous qui nous créons le bâton pour nous faire battre et si on est heureux de la forme du bâton, parce qu'il est beau, parce qu'il est rose,  parce qu'il est... etc.

 

 Ben, après, il ne faut pas se peindre qu'il nous tape dessus. Mais, donc, il faut absolument réguler et il faut comprendre comment réguler ça et c'est ça qu'il faut absolument faire en ce moment. L'IA n'est créée que par nous, que par les humains et nous sommes très heureux de ce qu'elle fait. Et c'est à nous de savoir ce qu'elle fait. Et, encore une fois, elle apporte tellement de bénéfices qu'on ne va pas dire qu'on va l'interrompre. Mais, regardez, c'est la même chose sur le climat. Le fait d'avoir de l'énergie bon marché extraite des sous-sols, c'est ce qui a permis à toute la société occidentale sans ça, ben, on est avant, donc, l'anthropocène. C'est le moment qui a été défini comme étant la date du brevet de la machine à vapeur par James Watt. Parce que c'est à partir de la machine à vapeur qu'on a eu besoin de charbon. Et le charbon, l'a extrait du sous-sol. Donc, avant, on était dans une structure où, en fait, on coupait du bois pour se chauffer dans la cheminée. Et puis, tout ce qu'on faisait était renouvelable. Les voitures étaient étirées par des chevaux. Les bœufs qui tournaient la terre, ils étaient renouvelables. Tout était renouvelable. C'est Jean-Marc Joncovici qui montre ça de manière très explicite. Jusqu'à il y a 200 ans, tout ce qu'on faisait était complètement renouvelable. En fait, le changement climatique créé par le fait d'avoir sorti de l'énergie fossile du dessous de la terre pour le remettre maintenant dans l'air et dans l'atmosphère, on a fait ça en 200 ans. Et là, encore une fois, il y a vraiment de quoi être inquiet. Parce qu'en 2023, il y a eu une bifurcation. En mars 2023, il y a eu une bifurcation au niveau de la température des océans. Et ça, on a fait ça de nous-mêmes. Et on est très heureux. On est très heureux d'avoir une voiture et de se déplacer ici. Vous êtes tous venus, ou une grande majorité, en voiture. Et en faisant ça, vous avez aggravé le problème de la planète. Mais vous êtes très heureux de venir ici. Et c'est agréable. Donc, en fait, c'est le même lien qu'on a avec l'IA. L'IA va nous permettre de faire des choses merveilleuses, nous transporter, nous faire des choses merveilleuses. Mais il y a une grosse contrepartie. Et est-ce qu'on est prêt pour la contrepartie, tout comme est-ce que nous sommes prêts pour le changement climatique qui arrive, qui est la contrepartie du confort que l'énergie fossile nous apporte ? C'est pareil. Visiblement, c'est une question de préparation de l'être humain. Je vous passe le mot. Totalement. Mais c'est vrai. Oui. Merci, merci. Je vais vous poser une question un peu provoque. Moi, je fais partie des gens qui pensent que l'intelligence artificielle n'existe pas et que le terme est dangereux. Pourquoi le terme est dangereux ? Parce qu'il est générateur de fantasmes et qui évite de réfléchir. Je préfère, et vous l'avez évoqué dans un certain nombre de cas positifs, le terme d'intelligence augmentée. Et à partir de ce moment-là, on arrive à réfléchir. Parce que pour moi, dans l'histoire de l'humanité, il n'y a que deux révolutions techniques et qui répondent à deux fois la même logique.

 La roue, qui a permis de décupler la force de l'homme et de l'animal, et l'informatique, au sens large du terme, qui a permis de décupler sa capacité de calcul, de mémoire, vous l'avez évoqué. A partir du moment où l'on parle d'intelligence, on génère tous les fantasmes et on évite de réfléchir. Parce que dans plein d'exemples que vous avez donnés, ce sont des choses qui existent depuis mille ans. Sauf que l'informatique, les influenceurs, vous l'avez évoqué, toutes ces choses-là, ce sont des choses qui existent. Sauf que ça va beaucoup plus vite et qu'à partir du moment où l'on parle d'intelligence, on ne réfléchit plus. Est-ce qu'un des moyens d'en sortir, c'est de changer les termes, d'éviter les termes marketing et de réfléchir au sujet, ce que c'est au fond, ce que ça apporte, qu'est-ce qui est bon, qu'est-ce qui n'est pas bon ?

 

 Sur l'intelligence, est-ce que l'intelligence est réellement artificielle ?

 

Je pense qu'elle l'est à partir des années 2000, pour la raison suivante, c'est que depuis les années 2000, les ordinateurs sont capables de créer des nouvelles lois, des nouvelles équations, que les humains ne connaissaient pas. De ce côté-là, ils sont devenus autonomes. Il y a un exemple qui est très connu, c'est de la NASA, l'exemple ST-5, où maintenant on fabrique des microsatellites et les microsatellites analysent la magnétosphère, le champ magnétique terrestre, et il faut qu'ils renvoient sur Terre leurs mesures.

 

 Comment les satellites renvoient sur Terre leurs mesures ?

 

 Avec des ondes électromagnétiques, des ondes radio. Mais quand on a un microsatellite qui est comme ça, il n'a pas beaucoup d'énergie, il n'a pas beaucoup de puissance, et donc sa radio, qui lui sert à renvoyer les résultats sur Terre, c'est quelques micro-watts, c'est rien du tout. C'est posé la question, si on fait comme Spoutnik, et qu'on a une antenne omnidirectionnelle, l'information transmise par la radio va se perdre dans tout l'univers, et la Terre aussi, donc l'idée c'est d'arriver à faire une antenne qui soit capable de focaliser l'énergie des micro-watts qu'on a, par exemple pour aller viser un radiotélescope qui est sur Terre. On ne va pas éclairer plus, pas éclairer moins, on va essayer d'avoir exactement le radiotélescope. Sur les modèles d'antennes qu'il y avait à l'époque, il fallait faire des antennes qui faisaient 10 mètres de long, alors qu'on fait un petit CubeSat comme ça, une antenne de 10 mètres de long pour arriver à focaliser le truc, avec des paraboles qui faisaient 2 mètres de diamètre, et en fait il n'y avait aucun moyen d'avoir une antenne qui soit capable de focaliser un rayon de données suffisamment bien. Donc on a demandé, et là c'était en évolution artificielle, il y a, je ne sais plus, c'était à la NASA, 1000 ordinateurs qui ont travaillé pendant 3 semaines, et ils ont trouvé un modèle d'antenne qui ne ressemble à rien, qui est des espèces de trombones qui sont comme ça, c'est tout petit, on le branche dans une chambre anéchoïque dans le modèle du satellite, et pompe, on a exactement ce truc là. Avant que les ordinateurs trouvent ce modèle d'antenne, les humains ne savaient pas qu'on pouvait faire des antennes comme ça, l'antenne lui-même est un système complexe, les brins interagissent entre eux pour arriver à faire exactement le truc, et donc c'était marrant parce que la NASA a fait toujours des petites vidéos à la fin, et ils ont dit, nous avons fabriqué le système ST5 de constellation de satellite, avec pour la première fois une technologie non humaine envoyée dans l'espace.

 

 Pourquoi c'est une technologie non humaine ?

 

 C'est que premièrement, on ne savait pas que c'était possible de le faire, deuxièmement, maintenant qu'on analyse avec les équations de Maxwell, on retrouve effectivement ce qui se passe, avec les simulateurs, on voit exactement que ça le fait, mais on n'est toujours pas capable de le faire. Donc si on veut en refaire une nouvelle, pour des nouvelles caractéristiques, on demande à l'ordinateur, s'il te plaît, est-ce que tu peux m'en faire une avec ces caractéristiques-là, parce qu'on sait que tu peux le faire, mais on ne sait pas le faire nous-mêmes. Là maintenant, on arrive dans un moment où l'ordinateur a été capable de créer des choses que les humains ne savaient pas faire. Donc là, pour moi, non. La notion d'intelligence artificielle est validée par le fait qu'un ordinateur a trouvé des choses que nous, avec notre intelligence humaine, on n'était pas capable de faire. Donc non, pour moi, je pense que la notion d'intelligence artificielle... À partir du moment où les ordinateurs deviennent autonomes, autonomes, qu'ils sont capables de fabriquer des propres lois, des propres choses auxquelles nous, on n'avait pas accès et qu'on ne s'est toujours pas maîtrisé, bah non, il est autonome, le truc. Il sait faire des choses nouvelles. Donc pour moi, non, ça valide l'utilisation du terme intelligence artificielle. Alors après, si c'est pour nous, bien sûr, on est l'homme augmenté. Je suis augmenté par mon téléphone de partout, bien sûr, mais quand mon téléphone est capable de faire... Et maintenant, le téléphone, enfin, il est capable d'inventer de nouvelles choses que les humains ne sont pas capables de faire. Alors après, voilà, le mot intelligence artificielle ou pas, je ne sais pas, mais... Je suis très heureux d'avoir le GPS, mais qui est le résultat d'Einstein, la Relativité Générale, etc. Mais quand même, la technologie, le GPS qui me permet de venir ici en allant de je ne sais pas où, je n'ai pas besoin de savoir où je suis. Imaginez le nombre de millions de litres d'essence qui ont été économisés, le temps, le nombre d'heures. Parce qu'avant, moi, je date d'une époque où il y avait Descartes et donc, quand il y avait Descartes, on se plantait, on ne savait pas où c'était, on demandait, on a perdu combien de temps, d'énergie, etc. Le GPS a été une invention miraculeuse de ce côté-là. D'ailleurs, il y a quelques années, il y a eu les inventeurs des LED blanches qui ont un prix Nobel. Prix Nobel pour inventer des LED blanches parce que ça consomme 10 fois moins d'énergie, 20 fois moins d'énergie que des lampes à incandescence comme ça. Donc là, encore une fois, un jour, une IA va inventer un truc comme ça, va permettre de diminuer l'empreinte énergétique de l'humain, va améliorer. Donc oui, l'IA, plein de choses positives à apporter. Je suis d'accord avec vous, il y a plein de choses positives. Et c'était l'objet de ce truc-là.

 

Pardon ?

 

 Est-ce qu'on est dans l'IA général ?

 

 Non, on n'est pas dans l'IA général. Encore une fois, c'est nous qui la fabriquons, c'est nous qui...

 Donc il n'y a pas de risque de l'IA général ?

 

 Si, le risque, il est humain. Le risque de l'IA général est humain. Parce que c'est nous qui fabriquons...

 

 Le risque de se faire manipuler par ces machins-là, ce que j'ai présenté, c'est nous qui le voulons bien. C'est nous qui voulons nous faire influencer par ces trucs-là. L'IA général, bien sûr que si, les ordinateurs sont sensibles. Si l'ordinateur, je le fais surchauffer, il va s'arrêter et puis il va redémarrer. Ben oui, il est sensible. Et donc, ça avait demandé à...

 

 Comment il s'appelle ?

 

 Jean-Claude Amessenne, qui était directeur du comité d'éthique de l'INSERM, se dit, ben voilà, maintenant, les robots, ils ont des capteurs, ils ont des yeux, ça s'appelle les caméras, ils ont des oreilles, ça s'appelle des micros, ils ont des capteurs de température, ces trucs-là sont sensibles. Ces trucs-là apprennent, est-ce que j'ai le droit de donner un coup de pied à un ordinateur ? Jusqu'où, si je dis que je n’ai pas le droit de donner un coup de pied à un chien, parce qu'il est sensible, ça va lui... L'ordinateur aussi, il est sensible, il a ses capteurs, je suis capable de le casser, voilà, est-ce qu'on doit étendre... Maintenant, on donne l'éthique, on va donner des exemples des existences au fleuve Amazon, d'ailleurs, qui est en train de s'assécher, on va donner des existences à la forêt amazonienne, etc., en leur donnant des législations pour la protéger, en disant que la forêt amazonienne a un droit, on les utilise, on les personnifie, ces entités-là. Un jour, pourquoi pas personnifier des robots, définir une éthique sur comment bien interagir avec les robots, parce qu'éventuellement, les robots pourraient se révolter aussi, à force de leur donner des coups de pied, s'ils se rendent compte que les lois d'Asimov, elles sont là, un robot doit se préserver, c'est la troisième loi, sauf si, ça va à l'encontre de la deuxième loi qui doit obéir aux êtres humains, sauf si ça va à l'encontre de la première loi où un robot ne doit pas faire de mal à un humain, d'accord, mais la troisième loi, un robot doit se préserver. Les robots étant sensibles, ayant des capteurs, ils sauront s'ils vont éviter les coups, ils vont éviter les trucs. Non, non, c'est des entités sensibles.

 

Juste peut-être une chose, est-ce qu'il y a la différence entre l'IA générative et l'IA générale dont on vient de parler, Hervé, parce que je ne suis pas sûr que tout le monde se soit calé là-dessus.

 

 Alors, une IA générale, ça serait une IA qui serait en fait, ça revient à l'exemple que j'ai donné sur le fait de voler, ça serait une IA qui aurait une intelligence de forme humaine. Ça serait un peu ça, qu'il soit capable de discuter avec vous autour d'une tasse de thé, c'était le fameux test de Turing. Tiens, le test de Turing, est-ce que vous êtes capable de chatter dans une fenêtre sans être capable de savoir que la chose qui est derrière vous est une IA ou est un humain ? C'était ça, le test de Turing. Bah, maintenant, avec ChatGPT, à mon avis, vous êtes capable de discuter avec un... Ce n’est pas loin, on est en train d'y arriver. Donc ça, c'était le fameux test de Turing pour savoir si un ordinateur pouvait être déclaré comme intelligent. Là, à mon avis, on n'est vraiment pas loin.

 

 Ensuite, en fait, c'est ça, l'IA générale, je pense que c'est lié à une IA humaine. C'est un truc qui serait similaire à une IA d'un être humain. Encore une fois, mais est-ce que c'est pertinent ? Si on cherchait toujours à voler comme des avions, on battrait encore des ailes et ça ne marcherait pas. D'accord ? Donc on fait ça différemment. Pour moi, l'IA générale, c'est vraiment un truc qui est mal défini, c'est mal cadré comme truc. Après, l'IA générative. Alors ça, c'est très important pour que vous compreniez toutes et tous que ChatGPT ne sait pas ce qu'il dit. En fait, ChatGPT, dans son apprentissage, élabore un réseau de proximité entre des termes à partir de milliards de pages web. Sur des milliards de pages web, c'était l'exemple que j'avais donné dans l'interview de West France, associé au mot réseau, vous allez avoir le mot télécommunication, vous allez avoir le mot réseau d'anciens élèves, vous allez avoir le mot réseau... Vous avez plein de mots qui sont associés au mot réseau. Carotte, ce n'est pas associé au mot réseau. Donc en fait, quand vous tapez une phrase qui commence et qui se termine par le mot réseau, ChatGPT ne vous mettra pas le mot navet derrière parce que les réseaux de navet, les réseaux de machin, ça n'existe pas, les réseaux de pommes de terre, ça existe, les réseaux de navet ? En tout cas, ce n'est quand même pas majoritaire. Et donc en fait, ce que fait ChatGPT, c'est qu'il utilise les mots précédents et vous lui demandez, quand vous posez une question à ChatGPT, vous lui demandez qu'est-ce qu'avec les mots précédents tu mettrais après ? Et en fait, ChatGPT, en ayant analysé des milliards de pages web, va dire, après cette succession de mots, le plus probable, c'est celui-là. Et du coup, il a écrit ce mot-là. Donc une fois qu'il a écrit ce mot-là, il recommence avec le mot qu'il a lui-même écrit et donc après, il va dire, maintenant que j'ai écrit celui-là, ça c'est celui-là. Et en fait, il part dans ses délires dans le sens où il ajoute des choses qui sont toujours plus probables mais c'est lui-même qui ajoute des choses. Et comme c'est très probable, c'est très bien écrit parce que c'est très probable et à la fin, on tombe dedans parce qu'on se dit, ça fait sens qu'il y ait là complètement un truc artificiel et qu'il sorte parce qu'en fait, il ne sait pas ce qu'il dit et il ne fait que rajouter le mot qui serait le plus probable en suivant la séquence précédente. Donc, ça n’a ni queue ni tête. Il y a très longtemps, il y avait des jeux de cadavres exquis où en fait, on prend des gens et puis on commence une phrase et puis après, tiens, toi tu dis le mot le suivant et puis toi le mot le suivant, etc. Ça fait des phrases qui n’ont ni queue ni tête. C'est ça que fait l'IA des milliards d'interconnexions précédentes pour trouver quel est le mot le plus probable. Et ça sonne bien. Ça sonne super bien mais ça ne sait pas ce que ça dit. Donc jamais, il ne faut jamais faire confiance à ce que vous dites chaque GPT, ça peut être du n'importe quoi. Et après, c'est à vous de savoir ou pas si ce que chaque GPT vous dit est bon ou pas. Si vous n'avez plus la culture pour le faire, ce n'est pas facile. Oui, donc on va être challengé régulièrement par chaque GPT si on veut savoir ce qu'il y a dedans. Voilà.

 

 Je crois qu'il y a une autre question.

 

 Ah ben voilà. Oui, moi, je voulais vous demander un petit peu en guise de conclusion qui est autre question mais pas privée. Le CERA a publié il y a quelque temps un livre qui s'appelle L'avenir c'est demain où un certain nombre de gens se sont exprimés sur 2035. Au vu de ce qu'on vient d'entendre ce soir, qu'est-ce qu'on pourrait attendre depuis le début de l'année de Pierre Collet comme avenir rêvé intégrant positivement l'intelligence artificielle ?

 

 Merci pour la belle question. Alors, déjà, sur le futur de l'IA, moi je pense qu'effectivement l'IA a très bonne chose à apporter parce que ça pourrait débloquer un certain nombre de situations comme je disais sur l'énergie, sur des nouveaux modes de fusion nucléaire etc. Il y a tout plein de choses que l'IA peut apporter. Le grand danger c'est justement de modifier l'éthique humaine et de modifier la manière dont on doit se comporter avec cette IA parce que déjà, encore une fois, maintenant vous allez avoir une voiture avec des feux bleus, vous savez qu'elle est conduite par un truc, comment est-ce que ça va se comporter ? Est-ce que ça ne va pas aller à gauche, à droite ? Donc en fait, vous avez vu que les CV, il faut déjà les écrire de manière à être sélectionnés par une IA et donc, voilà pour moi, là c'est la donne qui est en train de changer, c'est qu’avant c'était, on échangeait humain avec cailloux, humain avec animaux, humain avec humain. Maintenant, il y a un nouveau truc qui existe, qui est inanimé, qui ne respire pas, qui est autonome, qui fabrique ses propres lois et il y a une nouvelle entité avec laquelle il faut apprendre. Donc moi maintenant, ce que j'essaie de faire c'est d'essayer de comprendre ce truc-là et faire que tous les projets en IA qui sortent de chez mes étudiants, etc. intègrent une phase d'éthique. Alors, d'une phase d'éthique, c'est-à-dire, le problème c'est que les scientifiques n'ont peu fait d'études en philosophie et ne connaissent pas les différentes éthiques. Il y a tout plein d'éthiques qui ont été développées au cours des âges et typiquement, en France et en Allemagne, on suit une éthique kantienne, c'est Kant qui a été la personne qui a œuvré pour la déclaration des droits de l'homme et typiquement, dans l'espace anglo-saxon, c'est une éthique conséquentialiste qui est utilisée où ce qui va être important, ça va être la notion d'intérêt. Tout est basé sur l'intérêt. Là où, par exemple, en éthique franco-allemande, tout est basé sur le désintérêt. Si vous allez vous occuper d'un petit vieux ou d'une petite vieille en espérant qu'elle va vous mettre sur son héritage, en France, ça s'appelle captation d'héritage et vous allez vous faire réajuster vite fait par les juges, etc. Dans les pays anglo-saxons, non, c'est normal, vous avez travaillé pour cette personne, vous l'avez aidée en fin de vie, c'est normal qu'elle vous pose sur son héritage parce que vous l'avez fait les choses par intérêt. C'est normal de faire les choses par intérêt et toutes les éthiques anglo-saxonnes fonctionnent sur l'intérêt, le maximum de l'intérêt global par rapport à l'accès privé. Ils essayent de faire des additions pour savoir, quand vous faites une action, est-ce que ça va bénéficier à tous ou pas en termes d'argent, en termes d'intérêt. Nous, on fonctionne vraiment à l'opposé de ce truc-là. Donc, maintenant, quand on fabrique une IA, l'IA qu'on fabrique, doit-elle agir de manière intéressée pour apporter de l'argent à celui qui est derrière ou à la société qui est derrière qui l'a mise en œuvre ou est-ce que l'IA doit fonctionner de manière désintéressée pour bénéficier à la personne, etc. Il y a un certain temps, il y avait un médicament, je ne sais plus, ça devait être de l'insuline ou quelque chose, il y a un Américain qui a récupéré le brevet et qui a récupéré la boîte qui faisait de l'insuline et il a monté le prix de l'insuline par 10. Ça veut dire que tous les diabétiques, soit ils étaient obligés de payer pour survivre, ou alors sinon, ils mouraient. Donc, je ne sais plus, il me semble que c'est de l'insuline, mais c'est peut-être de l'insuline, mais c'est quelque chose de quoi des patients dépendaient pour vivre et il n'y avait qu'eux qui le fabriquaient. Donc, comme il n'y avait qu'eux qui le fabriquaient, ils pouvaient mettre ça à 1 000 dollars l'injection et ils n'avaient rien d'autre à faire. Et une IA pourrait se rendre compte de ça et pourrait artificiellement augmenter les prix pour maximiser l'intérêt de la boîte qui l'a fabriquée. Donc, quelle est l'éthique qui va être mise en œuvre par l'IA qu'on fabrique ? L'IA doit-elle travailler pour la boîte, travailler pour l'humain, travailler pour quoi ? Et ça, c'est super important. Quand vous avez une Tesla ou une Toyota qui va rouler, quels sont les principes éthiques que la Tesla va mettre en œuvre quand elle a un choix à faire qui va impliquer que de toute façon, il y a un accident ? Si, normalement, une voiture autonome, quand elle conduit, elle va prendre des décisions infiniment plus fondées que les vôtres.

 

 Moi, quand je tourne et puis il y a de la lumière, il y a le soleil qui est face à moi, j'ai des piétons qui sont là et j'arrive trop vite parce que j'ai roulé trop vite, parce que je ne sais pas quoi, enfin bref. Et là, je dois faire un choix. En un dixième de seconde, il faut que je sache est-ce que je tourne à gauche, à droite ? En un dixième de seconde, je n'ai pas le temps de comprendre. Mais par contre, si c'est une voiture autonome qui roule, elle, en un dixième de seconde, en un millième de seconde, elle est capable de faire référence à toute une série de décisions qui ont été prises par un comité d'éthique et elle va appliquer trois mois de réflexion d'un comité d'éthique en un millième de seconde. Donc, la voiture va avoir une action infiniment plus éthique qu'un conducteur qui va être ébloui et qui ne va pas savoir-faire et qui va faire n'importe quoi. Mais alors maintenant, l'éthique qui a été proposée, qui est le résultat d'un think-tank de trois mois de réflexion d'un comité d'éthique chez Tesla, est-ce que ça va être la même éthique que l'éthique chez Toyota ? Sachant que les Toyota sont des Japonais, les Tesla, c'est des Américains, le comité d'éthique de Renault, ça va être des Français, le comité d'éthique de Mercedes, ça va être des Allemands. Tiens, on retourne dans l'éthique localisée. Les différentes populations, l'éthique en Chine n'est pas la même que l'éthique en Russie, qui n'est pas la même que l'éthique en France, en Inde, etc. Tous les groupes humains ont leur éthique différente. Quand vous allez conduire une voiture autonome chinoise, enfin, quand la voiture autonome chinoise va vous conduire, quelle éthique va-t-elle suivre ? C'est intéressant de savoir parce que c'est elle qui vous conduit. Et elle va prendre des décisions. Et ces décisions vont être drivées par un comité d'éthique qui aura été à Shanghai, qui aura été je ne sais pas où. Donc il faut réfléchir. Quand on fait de l'IA, l'IA prend des décisions. L'IA est autonome. L'IA fait des choses. Ces choses, il faut absolument ouvrir et dire quels sont les choix qui vont présider aux actions de l'IA et les comprendre. C'est ce que j'essaie. C'est ce que je vais essayer de faire moi. C'est de comprendre, d'aller de plus en plus. Cela fait environ 10 ans que je fais de la philo. Ce n'est pas beaucoup. Je fais de plus en plus de philo, etc. pour essayer de comprendre ce que je fais et de comprendre ce que je vais mettre en œuvre dans les IA que je développe ou que mes étudiants ou que mes équipes développent.

CR réalisé par Martin BOURASSEAU

Je revis la rencontre