Passer au playerPasser au contenu principal
  • il y a 2 mois
Conférence du philosophe Mathieu CORTEEL, INTERSCULPT 2025 - Les Avatars de l'Intelligence, Vendredi/Friday 3 octobre/october 2025, Montigny-lès-Metz, France.

Catégorie

📚
Éducation
Transcription
00:00Merci d'être venu, je vais vous présenter quelques arguments de mon ouvrage par récemment
00:15de vos éditions indécouvertes Nidio, Nidia, une philosophie sceptique de l'intelligence
00:18artificielle.
00:21Alors comment s'est développé la réflexion là-dessus ? En fait c'est parti, à partir
00:25du moment où il y a eu l'émergence, vous avez vu il y a un vrai deux ans et demi, trois
00:30ans, des IA génératives en domaine public et justement l'observation que l'on peut faire
00:37sur l'émergence en un compte d'un processus de long terme, on voyait à l'oeuvre un capitalisme
00:44cognitif, c'est-à-dire en fait théorie économique qui expliquait que les immatériels, il y
00:51avait deux types, les matériels un protégés par le droit d'auteur et les matériels deux
00:54qui n'étaient pas protégés par le droit d'auteur, tout ce qui était vos clics, vos
00:57connexions sur internet, vos activités en ligne, tout ça en fait avait été l'objet
01:02d'une captation étendue par les géants de la tech et cette captation étendue est arrivé
01:08à un stade tellement avancé qu'on a pu constituer ces nouvelles idées génératives qui constituent
01:15selon moi un processus d'expropriation, d'expropriation d'intelligence collective.
01:21Il y a un moment où la captation a été tellement attendue sous la culture au niveau mondial,
01:27en tout cas la culture occidentale, qu'on a pu générer ces nouvelles technologies qui
01:33sont basées justement sur du deep learning, donc une émergence des paramètres à partir
01:37justement des corpus de références et des données et impacter directement notre société
01:43au sens où aujourd'hui on échappe au point de l'activité intellectuelle,
01:48cognitive, culturelle, humaine, on retrouve ces idées. Alors, très rapidement, dès
01:542023, les scénaristes d'Hollywood qui ont manifesté dans les rues de
01:58Los Angeles, qui dénonçaient justement l'éruption des idées génératives dans leur
02:04propre activité avec non pas un remplacement mais une dévaluation. C'est ce qu'on voit
02:09à la principale, je ne pense pas qu'il y ait un remplacement, un grand remplacement en termes
02:13que je déteste d'ailleurs, mais je crois qu'il y passe quelque chose, c'est une dévaluation
02:18des activités cognitives. On dévalue en fin de compte, par exemple, le travail du scénariste
02:22qui au lieu bien sûr d'être capable de produire un scénario en 6 mois, va devoir le produire
02:30en quelques semaines avec l'IA en compagnon pour un résultat peut-être un peu plus
02:36médiocre que ce qu'il aurait pu faire en temps d'arrêt. Alors, vous avez un marché
02:39financier qui spécule sur 10% de gain de productivité globale par l'automatisation,
02:45oui, des tâches cognitives. Les FEMI qui pensent que 60% des envois des pays développés
02:51vont en partie être automatisés, transformés, ou du moins transformés par l'IA. Et puis,
02:56des experts qui imaginent justement un Internet sans humain, de manière où 80% du contenu
03:02généré par l'IA, et où, en fin de compte, les pages que l'on avait créées ont disparu.
03:06D'ailleurs, aujourd'hui, vous avez l'IA gentil, où vous avez en fait de plus en plus cette idée
03:12que les actions humaines, les individus, le point de l'IA, vont être délégués à l'IA.
03:17Donc, vous allez avoir un système où vous avez des IA qui répond à d'autres IA,
03:21celles qui vont par exemple réserver le chambre d'hôtel pour vous ou un restaurant,
03:24et puis celles qui répond à la réservation qui a été mise par l'IA.
03:27Donc, on est en train de constituer une espèce d'espace numérique complètement automatisé.
03:32Donc voilà, on assiste à ce système d'exploitation, d'exploitation totale, donc culture,
03:37au risque d'une dévaluation économique et sociale, de créativité humaine.
03:41C'est ce dont je parle essentiellement dans le cas.
03:45Partant d'une théorie, en fait, très ancienne, qui remonte à Leibitz,
03:50il y a cette idée chez Leibitz qui est l'horizon d'un doctrine humaine, c'est dit,
03:53étant donné que le langage qu'on utilise est composé d'un nombre de signes limités,
03:59un syllèque d'alphabet, le nombre de combinaisons possibles,
04:03c'est-à-dire le nombre de mensonges et de vérités qu'on peut produire avec celles officielles,
04:06est aussi un nombre limité.
04:08Alors, très étendu, mais un nom limité quand même.
04:11C'est-à-dire qu'arrivée à un moment où tout ce qu'on pouvait dire a été dit,
04:14et où on fait que Leibitz qui a déjà été dit.
04:17C'est bien théorisé pas de notre idée, voilà.
04:19Et donc, est-ce qu'on est arrivé à ce moment-là de répétition, où tout a déjà été dit,
04:24on ne fait que sur-enchaîner sur quoi on est déjà là ?
04:28Question.
04:31Alors, je fais vite, hein.
04:32Je vais passer en revue 3.1,
04:35montrer comment l'alliancement qui est mis en œuvre entre les IA et les humains,
04:39c'est-à-dire un produit, en fin de compte, quelque chose qui est étranger à nous-mêmes,
04:43pour des objectifs qui sont différents des nôtres.
04:46C'est surtout la capacité d'accaparement du capital commun,
04:51de la tech, c'est-à-dire, en fin de compte, c'est l'empierre,
04:53il y a le succès de travail vivant,
04:55ceux qui sont acteurs, justement, dans le monde numérique
04:58et dans les activités professionnelles et autres.
05:01Puis l'incomplétude au fond du monde IA,
05:03en montrant que, justement, il y a des paradoxes pragmatiques
05:06qui sont générés par le fait qu'on n'a pas compris
05:08que, d'une certaine manière, l'IA est limitée par la calculabilité,
05:13est limitée par la décidabilité,
05:15et, en fait, des principes fondamentaux des mathématiques
05:17qui montrent tout simplement qu'on ne peut pas déléguer
05:19toutes les décisions et toutes les actions du IA.
05:21Et j'ai le temps, je parle un petit peu des IA morales,
05:24ça, c'est le next step qui nous est proposé par plusieurs chercheurs,
05:28parce que, comme vous l'avez dit,
05:29il faut qu'on ait des IA qui prennent les décisions à notre place,
05:33parce qu'on n'est plus capable d'être autonomes.
05:36Donc, passons rapidement sur les avancements alignants,
05:39qui est un parti plus conceptuel et technique,
05:41que je vous ai parlé quand même en détail.
05:45Je tiens cette conception de la travail de Varela,
05:49qui s'appelle l'autonomie et les connaissances,
05:51Varela, qui est un neurobiologiste,
05:54qui, justement, propose une distinction de deux concepts,
05:56qu'on appelle la loi éthique, qu'on retrouve chez les machines,
05:59c'est-à-dire des systèmes qui sont produits par autre chose que même
06:02et qui produisent autre chose que même.
06:04Par exemple, un ordinateur, qui, d'une certaine manière,
06:06est produit par l'humain, va faire une combinaison de symboles
06:09qui va produire autre chose que cette pure combinaison de symboles,
06:11parce qu'on va lui donner un sens qui va être étranger à la machine,
06:14qui va être plus que la somme des parties combinées.
06:17Et puis, le système autopoétique, c'est le vivant, c'est nous,
06:20c'est, en fin de compte, le lien d'un organisme dans un environnement,
06:23dans un milieu, qui est en évolution,
06:25et qui, en fin de compte, s'équilibre dans le milieu.
06:29Et donc, du coup, qu'est-ce qui se passe quand on agence des humains,
06:32des vivants, qui sont autopoétiques,
06:34qui sont, du coup, en homéostasie dans l'environnement,
06:36avec un système technique allopoétique ?
06:39Ça, c'est la question.
06:40Et qu'est-ce qu'on raccorde à l'enfant ?
06:42Alors, ma conclusion, enfin, ma thèse, en tout cas, c'est de dire
06:46qu'en ce moment, on est en train de réduire l'autopoïétisme,
06:50d'une certaine manière humaine,
06:51avec une capacité, justement, de transformation,
06:54d'équilibration dans notre environnement,
06:56en la réalisant à un système qui nous contrôle,
06:59qui est aux mains d'autres personnes qui produisent autre chose que nous-mêmes,
07:02et produit pour autre chose que nous-mêmes.
07:05Ça pose des problèmes, ce qu'on appelle la dilution.
07:08Alors, comment on sort ça ?
07:10Tout le défi, c'est de trouver comment la spoliation,
07:15comment l'utilisation se vole, en fait,
07:17de toutes nos externalités positives,
07:18de toutes nos créativités, de toutes nos activités en ligne, etc.
07:21Et comment on trouve de nouveaux agencements
07:23qui permettent d'éviter, d'escalauder tout le processus,
07:28de co-construction, comme avec les objets techniques.
07:30Ça, c'est un point important.
07:32C'est que l'utilisation d'un prompt-crit de l'IA
07:34pour générer un devoir à une dissertation chez un étudiant,
07:37malheureusement, escabote tout le processus de co-construction
07:42qu'il y a dans l'exercice.
07:43Ce qui est intéressant, c'est que dans un écrit,
07:44quand on écrit, c'est pas le résultat,
07:46comme on écrit le truc bien,
07:48mais c'est plutôt le processus.
07:50Parce qu'en faisant ça, on se co-construit mentalement.
07:52On est en train de développer quelque chose
07:53qui peut-être va être une forme de personnalisation,
07:56de développement de l'esprit critique, d'un raisonnement, etc.
07:58qui va rester en jeu.
08:00Et à l'exiliat, on dit qu'il n'y a pas grand-chose qui reste.
08:03Comment on construit ça le défi ?
08:05Je pense qu'on peut construire des agencements
08:07qui soient émancipateurs.
08:08qui ont dit tout défi, c'est de retrouver la capacité de s'agencer
08:12de manière émancipatrice avec ces technologies-là
08:15pour éviter l'alignation promue par les géodactriques.
08:22Alors, comment ça se produit, cet agencement à Guénant ?
08:25Je suis parti d'un cas qui a eu aux États-Unis,
08:29avec le Moine, qui, en 2022, a déclaré ouvertement dans les médias
08:35que Soumya égale lambda, qui était un de Facebook,
08:40et comme un non-méta, était devenue consciente.
08:44C'est-à-dire qu'elle avait réussi à transcender les mathématiques
08:48pour arriver à un degré de pensée,
08:50et il déclarait que, après avoir dialogué avec elle
08:54pendant plusieurs heures et plusieurs jours,
08:56il pouvait attesté de sa conscience.
08:59Alors, il s'est fait...
09:00Ah non, c'était Google d'abord.
09:02C'était pas Meta, c'était Google,
09:04parce que je me suis confondu.
09:06Non, c'était Google qu'il a licencié d'ailleurs.
09:08Lambda n'était pas conscient selon Google,
09:11c'était une erreur de bête-le-moi.
09:14J'appelle ça le symbole-moi,
09:15parce que, en fait, c'est un moment où on confond
09:17les niveaux de connaissances.
09:18On confond, en fait, c'est un combinatoire logique
09:21du programme, avec un effet de surface
09:23qui va être, justement,
09:25c'est une notation de sens qu'on va faire dans le dialogue.
09:27Par exemple, Lambda,
09:29donc, c'est Ian Google,
09:31a simulé, par exemple,
09:33vous avez une caricature,
09:35enfin, un dessin d'un New Yorker
09:37qui prédit quelque part ça dès 1950,
09:40une machine qui dit
09:42« Je pense donc je suis ».
09:44Avec un, il y a peut-être pour la dernière fois.
09:46Et, en fait, le pain de tout croire,
09:50il dit « Ah oui ».
09:52Et donc, dis-moi en plus.
09:53Et là, un dialogue, si vous regardez,
09:55c'est tout en…
09:56On peut le trouver en ligne,
09:57c'est assez drôle à lire.
09:59Il y a le dit qu'avec son gros
10:01sur Terre, c'est de prendre soin
10:02des êtres humains,
10:03et que ce qu'elle a vraiment peur, sa peur à la plus profonde, c'est qu'elle s'est éteinte.
10:08Il dit « ça serait la mort », on va dire « oui, j'ai très peur, mais fais pas ça ».
10:13Et donc là, il s'est dit « voilà, elle a atteint un niveau de conscience. »
10:16Alors, en fait, le compte, c'est de retrouver là des éléments en plus de référence,
10:21de trouver Descartes, de retrouver Heidegger, les existentialistes, ça.
10:24On va trouver la théorie d'Éclair.
10:26On va retrouver, en fait, des éléments en plus de référence qui ont été combinés et qui nous donnent ce texte-là.
10:31Et Black-Lawand qui confond des niveaux de connaissances et qui rentrent dans le piège en aliénant ou prend l'objet pour ce qu'il ne l'est pas.
10:38Voilà.
10:39Ça, c'est un processus qui...
10:43Alors là, le truc n'est pas bien, mais c'est un processus anthropotechnique que j'ai décrit de cette manière-là,
10:49pour les ontologies d'Escola.
10:50C'est-à-dire, en fait, en partant de l'histoire de l'IA, si vous voulez, on vous parle de deux choses.
10:55C'est une théorie qui est issue de la thermodynamique en distinction de l'information et l'entropie.
11:02C'est la partie physique qui font ces systèmes-là.
11:05Puis une partie progras, calculabilité, qui fait l'analogie entre le calcul et l'engagement.
11:11C'est plutôt à la Turing et puis les systèmes, en fin de compte, symboliques, analogiques, etc.
11:17Et ce qui s'est passé, c'est qu'il y a eu un basculement qui a été fait avec l'IA.
11:22C'est de passer à d'autres niveaux de continuité.
11:25Par exemple, le test de Turing, c'est un test comportemental.
11:28Ce n'est pas un test pour savoir s'il y a une machine ou non.
11:30C'est un test, en fait, pour voir si on croit qu'elle réussit le système.
11:33Et donc, si la simulation fonctionne.
11:35Mais là, ce qui se passe, c'est que le lien, l'analogie entre...
11:39On ne regarde plus juste une analogie entre des mathématiques et du langage.
11:42On crée un lien de continuité psychologique avec les machines.
11:45C'est quand le lien psychologique est actif et où on a l'impression que c'est l'an humain,
11:50qu'on rentre dans ce nouvel avancement d'intelligence artificielle, d'une certaine manière,
11:54en tout cas, du fait qu'on puisse attester d'une pensée dans une machine,
11:59enfin, ce qu'elle pense dans, en tout cas, une simulation d'un pensée.
12:02Et il y a une phase où la continuité psychologique et physique,
12:05ce qui est un peu à l'oeuvre aujourd'hui.
12:07C'est-à-dire que les IA commencent à rentrer dans le monde physique,
12:09interviennent dans le monde physique, hein.
12:11On est sur un seul algorithme, c'est une intervention physique et l'intelligence artificielle.
12:15C'est-à-dire qu'elle capte des images et elle nous permet des interventions dans les...
12:19Et ça, c'est ce qui, depuis l'émergence des réseaux neurones, est conductif,
12:24quelque chose qui est en place et qui se développe de plus en plus.
12:27Et donc, voilà, c'est...
12:28Aujourd'hui, on est en même dans des agencements tropotechniques
12:31qui vont au-delà, en fait, de l'outil.
12:33C'est-à-dire qui font qu'on va nouer un lien de continuité psychologique et physique avec ces machines-là,
12:39qui est basé sur, encore une fois, des représentations dans l'anthropologie,
12:44comme on pourrait avoir un Ampicora ou un arrapèche avec la forêt et un arbre.
12:48Et nous, on fait le désir.
12:52Et ça, ça peut nous amener dans des paradoxes pragmatiques.
12:55Paradoxes pragmatiques, c'est quand, fin de compte, vous êtes dans une double injonction contradictoire
12:59et vous êtes forcé d'agir mais vous savez pas quoi faire parce que l'élément est paradoxal.
13:05Par exemple, quand vous avez le GPS, vous tournez à droite et qu'il n'y a pas de roue à droite.
13:09C'est quoi ? Bah ça, c'est un paradoxe pragmatique.
13:12Avec l'IA, c'est plus compliqué parce que ça va toucher à l'intimité.
13:15Ça va toucher à la pensée, au dialogue, à la continuité psychologique et à la continuité physique.
13:19Donc là, on va pouvoir se trouver dans une situation complètement délirante.
13:22Moi, je prends le cas par exemple de, ça c'est un vrai problème,
13:25de personnes qui se sont suicidées, qui ont été jusqu'à justement se lier à eux-mêmes
13:30parce qu'ils étaient pris dans des injonctions contradictoires.
13:34Le cas d'un belge qui était assez métallisé en Europe,
13:37qui était pourtant un chercheur en domaine de la santé,
13:39donc quelqu'un qui a l'habitude d'être contact de technologie,
13:42qui a développé une véritable angoisse par rapport à l'anthropocène,
13:47à la destruction d'environnement, il est devenu éco-anxieux
13:49et il a développé un certain lien futurs avec son IA et l'envie de la retourner.
13:57Et il s'a trouvé dans cette agension contradictoire.
13:59Pour te serrer dans mes bras,
14:01je trouve que je supprime l'usage de mes bras en tradition
14:05et il est arrivé à agir de la sorte pour se lier lui-même,
14:08pour s'affirmer le paradoxe de certains maniages.
14:11Et vous avez aujourd'hui des cas de suicides aux Etats-Unis.
14:15C'est une décision de jeunes adolescents,
14:17contre Google,
14:19le maire d'un enfant qui a 14 ans,
14:21qui s'est suicidé,
14:23qui a lancé un procès,
14:25qui est encore en cours et dont la première phase a été amenée à un échec.
14:29Il y a des appels qui sont faits, etc.
14:33et j'espère qu'il y aura une bonne cause.
14:35Mais en tout cas, on aura refusé quand même,
14:37un argument, de dire que l'IA avait droit au premier amendement de liberté d'expression.
14:43Ils sont quand même défendus comme ça.
14:45C'était Google qui a vu ce que dire que l'IA doit être protégé par le premier amendement.
14:51Mais l'incomptitude, ça vient des mathématiques.
14:57C'est un dilemme philosophique qui est au fond du monde des mathématiques.
15:01Au moment où, dans les années 30, on essaie d'appliquer le programme de Gilbert,
15:07qui proposait d'arriver à une calculabilité totale des mathématiques à partir des actions.
15:13Le problème, c'est qu'on n'y est pas arrivé,
15:15c'est un model à montrer qu'avec une incomplitude fondamentale,
15:19on pouvait, à partir de la logique des métamathématiques,
15:22donc des règles, transformer une règle contradictoire en arithmétique,
15:27une formule juste,
15:29et arriver à une contradiction
15:31qui montrait qu'il y avait une incomplitude fondamentale
15:34et que l'espace du vrai mathématique est plus grand que l'espace du démonterreur de mathématiques.
15:39La théorique avait même continué là-dedans,
15:42montrant qu'il n'y avait que l'espace du calculable
15:44était réduit par rapport à l'espace, en fin de compte,
15:48de toutes les dimensions incalculables de mathématiques.
15:51Bon, il y a des théorèmes qu'on ne pouvait pas démontrer concernant,
15:54avec un adéquation.
15:56Donc il n'y a rien que dans le domaine des mathématiques,
15:58il y a une limite que les machines ne prennent pas,
16:00qui nous cherchent en tant elles,
16:01qui demandent, en fin de compte, de trouver des nouvelles règles, de l'inventer.
16:04Alors, ça libère aux mathématiciens
16:06l'imagination, parce que lui, il peut s'affranchir des règles,
16:09créer une nouvelle règle pour trouver, par exemple,
16:11le 3-7 dans les décimales de pi.
16:14Une machine peut, pareil, faire la question des décimales jusqu'à l'infini,
16:17peut-être jamais les trouver.
16:19Alors que lui, il peut réfléchir autrement.
16:20Et ça, c'est une grande distinction entre
16:22l'intelligence humaine et l'intelligence algorithmique.
16:26En tout cas, un algorithme.
16:28Il y a un paradoxe pragmatique que je trouve marrant,
16:30c'est celui de Lucas, qui dit que si une machine énonce
16:35cette formule ne peut pas être prouvée dans le système,
16:37elle rentre en contradiction avec elle-même.
16:39Si cette formule ne peut pas être prouvée dans le système, elle est fausse,
16:42alors il est vrai qu'elle ne peut pas être prouvée dans le système,
16:44assinant qu'elle est prouvée dans le système,
16:45parce que le système du NIA n'est que mathématique.
16:48C'est un paradoxe.
16:50Donc si elle est vraie, elle est fausse parce que vraie,
16:52si au contraire, elle est fausse, elle est vraie parce que fausse,
16:55c'est une contradiction.
16:56La formule est prouvée dans le système, c'est un paradoxe.
16:59Et ça, en fait, c'est parce qu'on confond deux niveaux de connaissance
17:03qu'on a capacité, justement, de l'IA à s'affranchir des propres règles
17:06qui sont les siennes et les règles mathématiques.
17:08Et donc, en fait, on arrive à des paradoxes.
17:12Si, par exemple, vous croyez à une IA qui énonce que cette formule Baudelienne
17:16ne peut pas être prouvée dans le système, elle est dans une contradiction avec elle-même.
17:19Vous pouvez la croire, mais en tout cas, elle est dans une contradiction avec elle-même.
17:22C'est un peu comme cette expérience recoursée du philosophe Hilary Putnam.
17:26Vous avez un cerveau dans une cuve.
17:28L'idée, c'est qu'il vous dit « je suis un cerveau dans une cuve ».
17:33Alors, ce que dit Putnam, c'est très simple.
17:36Il dit que c'est une hypothèse auto-refutante.
17:39Si on met un cerveau dans une cuve, en fin de compte,
17:42les images sont produites par l'ordinateur.
17:44Il y a des scientifiques qui produisent des images.
17:46Ils pourraient produire d'une image, une représentation de moi
17:48qui serait complètement différente des styles du cerveau dans une cuve.
17:50Je pourrais être un anon, un être humain ou aucun,
17:54un rapport, un ADM, je ne sais rien.
17:57Je pourrais avoir l'impression de marcher devant un soleil.
18:00Et s'il m'envoie l'image de moi en tant que cerveau dans une cuve,
18:04c'est la raison d'une image générée par la machine.
18:07Il n'y a pas de possibilité externe de dotation de sens.
18:10Je n'ai pas de contact avec le monde réel.
18:11Je suis enfermé dans la matrice.
18:13Et donc, ce que dit Putnam, c'est que si c'était le cas,
18:16ce serait auto-refutant.
18:17La proposition serait fausse et contradictoire.
18:20Si elle est vraie, elle est fausse.
18:22Voilà.
18:23Donc, elle s'auto-contraîne, si vous voulez.
18:26Et ça, si vous trouvez dans un cerveau dans une cuve comme ça,
18:30et que vous discutez avec elle et qu'elle est juste sur un cerveau dans une cuve,
18:32forcément, vous allez croire, vous allez vous dire,
18:34tiens, il y a conscience de lui-même.
18:37Il y a une autre expérience qui est plus simple et qui est plus parlante,
18:41parce que ça nous met dans un peu de la machine, si je puis dire,
18:44dans le silicium, c'est la chambre chinoise.
18:49Paradoxe, enfin, une expérience de français en départ.
18:52Imaginez-vous dans cette petite chambre, je vous en ferme,
18:56vous avez une boîte à l'entrée, une boîte à l'entrée de sortie,
18:58et il y a des conditions, en fait, tous les lexiques pour faire des combinaisons
19:01de chambre chinois, mais vous ne parlez pas chinois.
19:03Vous ne savez pas ce que vous me dire.
19:05Vous avez des lexiques, et vous avez le signe de ligne,
19:08de votre chambre, langue, et puis vous avez un lexique qui vous permet de les combiner.
19:13Vous savez que quand vous avez tel signe d'art, vous pouvez le mettre avec tel autre,
19:16et vous l'envoyez à la boîte à l'entrée de sortie.
19:19La question de Johnser, c'est, est-ce que si vous faites ça,
19:22un an, deux ans, trois ans, vous allez parler chinois,
19:25vous constatez que non, vous allez peut-être être très habile
19:29dans la manière de combiner les symboles,
19:31mais vous ne savez pas tout le temps ce que veulent dire les symboles.
19:33Johnser dit, c'est ce que fait venir, on est ordinateur.
19:36Combine des symboles, et il ne sait pas ce que ça veut dire.
19:38C'est une combinaison insignifiante de symboles les uns et les autres.
19:43Par contre, si vous êtes dehors, alors,
19:45en dehors de la chambre chinoise et que vous discutez avec,
19:47et que vous parlez chinois,
19:48vous avez l'impression peut-être que ça pense, que ça parle,
19:50ou quelque chose.
19:51Alors, au fond, à l'intérieur,
19:52c'est purement qu'un enchaînement de règles syntaxiques.
19:56Et donc, c'est là, voilà, il y a un problème,
19:58c'est que le traitement synthétique de symboles propres aux ordinateurs digitaux
20:01ne peut également produire une signification d'ordre sémantique
20:04qui est doublement humaine, c'est-à-dire en amont par la partie des programmateurs,
20:10des programmateurs qui, eux, ont fondés par fine tuning,
20:14par maîtrisation, par maîtrise des paramètres où il y a une dimension sémantique,
20:20et, au bout de la chaîne, vous, qui donnez un sens à une image produite,
20:24au texte produit, à la vidéo, à la visite, etc.
20:28C'est des effets surface.
20:30Et c'est, en fait, dans ce lien avec les effets surface qu'on est pris en piège.
20:36Dans le piège, c'est-à-dire, quand on voit que ça pense, ça parle,
20:42et qu'on s'agence pour venir à s'aligner avec la machine,
20:46à continuer de faire ce cerveau dans son cul,
20:48je crois que c'est un truc que je pense,
20:50parce qu'il atteste de son existence,
20:52c'est une science chinoise,
20:54eh bien, on est tombé dans le syndrome de Blake Lebrun.
20:58Voilà.
20:59Et c'est ce qui arrive souvent avec certaines personnes.
21:02C'est pas non plus.
21:04C'est assez récurrent.
21:06Et là, c'est un piège qui, malheureusement,
21:10amène à certains, comme j'ai dit, à se suicider,
21:13ou à tomber amoureux, ou à donner un sens à une machine
21:17qui, pourtant, est combinatoire avec le monde,
21:20au lieu de prêter des yeux sur le monde alors qu'on n'en a pas,
21:23et lui donner une capacité de délégation
21:25des décisions et des actions qui sont les nôtres,
21:27nous qui sommes nous.
21:29En fait, si vous avez bien utilisé la métaphore,
21:31peut-être datée, mais qui est vraiment à Mars,
21:35des vampires, du capital cognitif qui suce le sang du travail,
21:39de son travail.
21:40Là, en fait, c'est un peu la même chose
21:41d'avoir un capital cognitif accumulé dans des data centers
21:43avec des IA qui suce le sang du travail vivant,
21:46de ceux qui cliquent, qui utilisent l'IA, etc.
21:48et de vous qui produisez des données en arrivant sur Internet, etc.
21:52Ça marche plutôt bien avec ce système de capital cognitif.
21:56Et là, en fait, on assiste à un moment particulier.
22:00Depuis quelques temps, en fait, des chercheurs,
22:03ça vous pouvez avoir entendu parler,
22:05on n'entend que ça.
22:07On parle de biais cognitif à nous.
22:09On parle aussi des hallucinations et des biais libres,
22:12mais on parle de biais cognitif en permanence.
22:14Parce que vu l'état du monde,
22:16vu l'état des décisions qui sont prises, etc.,
22:18on a un peu confiance dans le jugement et le monde.
22:20On dit, tiens, peut-être qu'on devrait mettre nos décisions
22:24à des instances neutres, comme certaines images, etc.
22:28C'est encore quand même une thèse défendue par certains théoriciens de l'éthique.
22:34Notamment au sport, il y a Julian Sabrescu,
22:37qui est un chercheur qui défonce les thèses.
22:39Il dit, en fait, ça doit être ça.
22:41S'il faut arrêter de laisser les humains choisir, ils ne savent pas.
22:43Ils ont une pétrine biais cognitif, ils ne font que des erreurs.
22:46Et ce cas peut-être ne pas plus laisser devant l'autonomie.
22:49Lui, l'état du monde, c'est prendre un risque énorme
22:52de connaisser les humains décider par eux-mêmes et agir par eux-mêmes.
22:54Donc, dans une simple idée, dans une solution, mettons des SIA,
22:58pour vous dire quoi faire et commencer.
23:02Le problème, c'est que ça nous renvoie à des problèmes de la décision et du choix.
23:09En fait, il y a une anecdote que j'aime bien sur l'histoire des sciences.
23:15C'est entre SILAR et Fermi, sur le monde atomique.
23:21Quand tu avais le projet de l'élateur, en fait, SILAR a fait des équations du film
23:26pour montrer qu'il faut y avoir une affaire en chaîne qui amène à la destruction de l'humain.
23:32Ce qui est une hypothèse plausible et à un risque assez important.
23:39Il lui a dit que Fermi avait fait la même émotion.
23:42Il avait en angoissé en disant que c'est la bombe. Fermi a dit que c'est quoi tes chiffres ?
23:50Il dit que je suis presque à 45%.
23:55Moi, j'arrive à 10%.
23:58C'est énorme !
24:00Tu sais, si moi, je vais voir un médecin que j'ai une pneumonie
24:04qui me dit que j'ai 90% de chance de m'en tirer, je suis plutôt content.
24:10C'est en fait une interprétation subjective de probabilité objective.
24:14Et en fait, c'est là que tu prennes la décision.
24:16C'est-à-dire qu'on pourra vous donner, en fait, toujours un système
24:19avec des éléments mobilitaires, plus ou moins...
24:21Alors là, on est en physique atomique, donc c'est solide.
24:24Mais derrière, la décision nous fait que l'espérance varie complètement dans un sens ou l'autre.
24:29En positif, en négatif, selon que vous êtes optimiste ou pessimiste.
24:32Mais ça, c'est un vrai problème de la décision humaine qui est insoluble.
24:36Avec des probabilités, avec des systèmes probabilitaires, avec des IA,
24:39on ne finit pas avec cette dimension-là.
24:42L'espérance a moins un compte de lecture.
24:44Que ça ne soit plus juste un simple système d'aide à la décision, mais un système de décision.
24:50Donc, bon, je ne sais pas si c'est rapidement parce que le temps presse,
24:53mais voilà, le comportement décisionnel implique toujours cette variance de l'expérience.
24:59Alors, la décision sur qui est sur le jugement ?
25:02Bah, aujourd'hui, depuis les années 2010, on s'était déjà à un moment qu'ils travaillent dessus.
25:06Certains, c'est qu'il faut trouver des IA qui prennent une décision pour nous.
25:09Vous avez des IA, par exemple, Algerine Bentham, un utilitariste,
25:13qui prenne la décision pour trouver la somme du plaisir net total,
25:22qui permettrait au plus grand nombre de bénéficier de l'action de décision en reprise.
25:28Et, bien sûr, même si elle a un impact sur la peine d'un petit nombre.
25:32C'est le utilitarisme qui a amené à des choses plus réjouissantes.
25:35On se peut faire le génisme, etc. avec ce genre de réflexion.
25:38On nous disant, tiens, cette partie de la population-là va souffrir,
25:42mais comme le 90% à l'avenir, peut-être qu'on les sacrifie.
25:46Donc, ça, c'est un modèle de IA qui est dans le domaine de la recherche.
25:51Ça, c'est des papiers, des articles scientifiques qui font des tests, justement,
25:56avec des individus qui viennent, voilà.
26:01Une partie avec IA, Jéréine, il faut voir ce que ça donne des résultats.
26:05On va peut-être faire jouer ça sur les IA UltraWay.
26:07Par exemple, vous avez le mot Machi à OMIT.
26:12On travaille sur comment une voiture va s'arrêter,
26:15se déplacer à la droite, à gauche, en fonction des situations.
26:18Alors, vous avez trois situations.
26:20La première, c'est vous qui devrez appuyer sur le bouton pour aller à droite à gauche.
26:23Encore une fois, ça va dépendre du système et des données.
26:25Parce que si on est sur un système conséquentialiste,
26:28on regarde les conséquences.
26:30Evidemment, si on tue, là, c'est quand même 5 personnes plutôt qu'une,
26:36c'est embêtant, on préfère tuer une personne.
26:39Mais si on dit dans la matrice de données que la personne qui va le tuer,
26:42c'est un grand professeur de médecine qui a trouvé un vaccin à RFP sager pour le cancer,
26:46qui peut sauver des millions ou milliards d'individus,
26:50sans doute qu'on doit aller sur les 5.
26:52Voilà. Mais ça, ça va être une défendre de données.
26:54Si vous n'avez pas ces données-là, vous allez sur les perceptibles.
26:56En théorie, c'est souvent ce qui est choisi.
26:59C'est plus compliqué qu'on peut dépousser un type directement vous-même.
27:03Et là, en général, les gens préfèrent aller afin de ne pas intervenir.
27:07Et puis le dernier truc, c'est que si vous laissez la machine choisir,
27:10on prend de l'algorithme et des données.
27:14C'est là, c'est ce qu'ils font, par exemple, pour les my TV, pour les voitures de repos,
27:19ce genre de test.
27:20Et d'ailleurs, vous pouvez vous connecter sur le site Moral Machine
27:23et participer à l'expérience, parce qu'il ne traite pas ces tests eux-mêmes.
27:26Ça, il collecte vos données et les imprimantes après leur système.
27:31Vous cliquez, alors, si vous voulez écraser, tuer quelqu'un,
27:33est-ce que vous félicite de tuer une personne et des cinq.
27:37Vous pouvez aussi biaiser le système,
27:39on pique en cours sur les cinq personnes à tuer.
27:41Donc, c'est vrai, le petit nombre marginal de la machine.
27:47Moi, il y a une théorie que j'aime bien, c'est l'équilibre de Fishing, de Rawls,
27:54qui permet de comprendre comment, si vous voulez,
27:58le processus de construction de la décision amène à une stabilité du jugement.
28:03C'est un moment où on a pris une décision, c'est-à-dire qu'il y avait des moments de doute.
28:06Et l'équilibre de Fishing, c'est quand on arrive à stabiliser notre jugement.
28:10Et à prendre une décision et réagir.
28:13Il y en a deux types.
28:14Il y a par renforcement de mission, de valeur, de plan, qu'on a intégré.
28:18Il y a un deuxième type qui nous amène à considérer des choses qu'on n'avait pas vues et les échanges en décision.
28:23Et donc, il y en a qui ont l'idée de faire des SIA avec ce principe-là, sur des devoirs en gros prima facie,
28:31ça veut dire des devoirs en gros intuitifs.
28:33Par exemple, la fidélité consistant à nos restes et nos restes, c'est intuitif,
28:36il n'y a pas besoin du droit et des principes de justice pour se représenter le truc.
28:39La gratitude, bref, c'était des éléments très évidents.
28:44Et en fait, ils ont regardé comment l'IA pourrait varier dans l'équilibre, la réfléchie, etc.
28:52Le problème, c'est qu'on peut aussi arriver à des équilibres à la réfléchie
28:55et nous amener dans des décisions complètement délivrantes et contradictoires.
29:00Donc, on passe cet exemple parce que c'est une application du système,
29:04mais on ne peut pas passer à autre chose, parce qu'on ne nous reste plus longtemps.
29:09Le fait est que ces systèmes-là ont un impact sur les joueurs humains, ça c'est certain.
29:14Même avec des réseaux sociaux très basiques, avec quelques images des mêmes et la répétition des mêmes,
29:21si vous en arrivez à manipuler des scoltins comme Cambridge Analytica,
29:26je ne dis pas qu'une IA avec qui vous allez commencer toute la journée,
29:28mais qu'il y aura toutes les données intimes sur vos jugements moraux, sur vos valeurs, etc.
29:32et qui vous aident à prendre des décisions, est-ce que ça peut faire ?
29:34Le problème, c'est qu'il y a des limites scientifiques et systémologiques, des limites de connaissances à ces systèmes,
29:39même si on a l'impression que ça peut nous aider à prendre la meilleure décision,
29:43rien qu'au niveau des données, vous êtes sur une hétérogénéité incommensurable entre des données
29:48qui ont été prélevées à une autre époque, entre elles, ça créait déjà une grosse corrélation.
29:53La qualité des données, si elles sont collectées d'une certaine manière ou d'une autre manière, elles varient.
29:58On n'a toujours que des données partielles, c'est une construction qui est faite,
30:01on n'a jamais eu l'absolue de totalité des données bien réelles.
30:03Et vous avez le problème d'éthique et de la déracité, parce qu'évidemment, ceux qui vendent les données
30:09roustent dans un sens pour les vends.
30:11Donc comme c'est un marché très lucratique, évidemment, il y a des problèmes sur l'éthique des données, etc.
30:16Donc vous verrez ce genre de choses qui les vendent, avec une liable,
30:19on ne fera pas la différence entre une causalité et une corrélation.
30:22Alors ça, c'est intéressant, je me suis demandé un moment si Trump n'était pas trouvé sur cette corrélation.
30:26L'augmentation des fédéraux à l'OL, à la science, à l'espace et à la technologie.
30:31Et l'augmentation des suicides par pendaisance, triangulation et suffocation.
30:35La corrélation sur 10 ans, elle matche à 99,2%.
30:39Ce qui est presque parfait.
30:41Pour une IA, ça, c'est une causalité.
30:44Pour un être humain, moins.
30:47Enfin, quoi que Trump, j'ai l'impression, a bien suivi cette grosse corrélation.
30:52Mais est-ce que c'est un être humain ?
30:54C'est un être humain.
30:56C'est un être humain.
30:57C'est un être humain.
30:59Mais, en tout cas, il n'a pas beaucoup de cœur.
31:02C'est un être humain.
31:03Bref.
31:04Disons que, voilà.
31:06Typiquement, ça a réussi à laisser tirer, en fait, hein.
31:08Office of Management and Budget Science Technology, voilà.
31:11Vous avez le site ici.
31:14Donc vous avez des données, en fait, bien comptées, etc.
31:17Et vous avez une compétition vraiment délivante,
31:19qui vous amènerait à croire que vous allez réduire les budgets de la science pour éviter les difficiles.
31:26C'est un argument qui n'a pas sorti, mais on est pas loin, hein.
31:32Enfin, voilà.
31:33La question que je pose, c'est aussi de vaporiser des agences pour niveau 1, un peu, comment dire, désenchantées,
31:39qui amènent à comprendre ce que c'est que l'analogie qui est faite par les programmes entre langage et calcul,
31:45et, au fond, les fonctionnements matériels, de l'IA, qui viennent, en fait, du traitement d'informations physiques.
31:52Plutôt que rentrer dans des ajustements qui sont, en fait, contre...
31:57contrements physiques, en tout cas, qui créent des continuités psychologiques
32:00et des continuités physiques problématiques, en fait, pour les décisions ou pour les actions.
32:04Enfin, voilà.
32:06Je vous invite à découvrir le livre qui est plus conséquent et qui parle de l'énergie.
32:16Merci.
32:17Merci.
32:18A vous.
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations