00:00Tout pour investir, le placement à suivre.
00:04Julien Le Benzal, Ditoro, bonjour, merci d'être avec nous Julien,
00:08comme régulièrement pour parler de finances comportementales.
00:10Alors, vous nous mettez sous le nez des études très très intéressantes
00:14qui concernent les biais comportementaux en finances
00:20des nouveaux langages de programmation.
00:23Alors c'est très technique, mais ça a un impact absolument extraordinaire
00:28et très direct sur la santé des marchés, sur le comportement des investisseurs.
00:32Expliquez-nous ça Julien.
00:35Oui, je pense que le sujet mérite d'être discuté.
00:39Je crois qu'il va l'être dans les années à venir,
00:42parce qu'on attend de l'intelligence artificielle une sorte d'objectivité,
00:45de rationalité permanente, et c'est légitime.
00:48Mais d'une certaine manière, on l'attendait déjà dans la théorie financière
00:51qui est née dans les années 60, où on a supposé que l'individu
00:55allait décider économiquement de manière systématiquement rationnelle.
00:59On a pu constater par l'expérience que ce n'est pas le cas,
01:02ça tous les professionnels des marchés financiers le savent bien.
01:04Et après, d'un point de vue académique, il y a eu des travaux
01:07qui ont été menés à la fin des années 90-2000,
01:11pour dire justement que l'attitude n'est pas nécessairement rationnelle.
01:14C'est Kahneman, notamment le prix Nobel d'économie.
01:17Et ce qui est intéressant, c'est de rapprocher tout ça d'aujourd'hui,
01:19puisque j'ai vu passer la semaine dernière une dépêche sur Hauteur
01:23qui montrait que la moitié des investisseurs, je crois en Angleterre,
01:27étaient ouverts à l'intelligence artificielle pour établir, construire leur portefeuille,
01:31et que 13% d'entre eux le faisaient déjà.
01:34Donc ça veut dire qu'il y a bien une relation entre ces méthodes de langage
01:37avec lesquelles nous discutons, et de l'autre côté, l'attente des investisseurs.
01:42Alors, le sujet est très simple.
01:44Les LLM sont entraînés sur un ensemble de textes qui sont construits par les humains.
01:49Et donc, dans ces textes construits par les humains, il y a probablement,
01:53assez nécessairement, des biais comportementaux.
01:56Donc, ce qu'ont fait des chercheurs l'an dernier aux États-Unis,
01:59alors c'est notamment sous la direction d'Andrulo,
02:01qui est le grand patron de la recherche en la matière au MIT aux États-Unis,
02:05qui a une très très grande carrière, Harvard, Yale, etc.,
02:08et qui s'est penché là-dessus, en utilisant en fait les mêmes modèles
02:11que ceux des diagnostics de biais comportementaux pour les êtres humains.
02:15Il les a appliqués tout simplement à LLM.
02:17Et il a fait ça sous forme de jeu.
02:19C'est toujours autour de la théorie des jeux qu'on arrive à obtenir des résultats.
02:22Eh bien, ces jeux lui ont permis d'aboutir à une conclusion.
02:25Alors, je vais vous la donner, mais avant de donner la conclusion directement,
02:28je vous donne un exemple de jeu qui a été déjà proposé dans les années 2000.
02:32C'est ce qu'on appelle l'Ultimatum Game.
02:34C'est très simple.
02:36On donne à un individu 10 euros,
02:38et on lui dit, voilà, tu vas partager ces 10 euros avec quelqu'un d'autre.
02:43S'il accepte, vous avez tous les deux la somme.
02:46S'il refuse, vous ne l'avez pas.
02:47Vous n'avez tous les deux rien.
02:49Donc, on peut s'attendre à ce qu'une décision rationnelle soit de dire,
02:52je reçois 10 euros, je propose à l'autre d'en recevoir un,
02:55et moi, j'en garderai 9.
02:57Donc ça, c'est une décision, puisque c'est moi qui les reçois,
03:00et qui peut choisir de la ventilation.
03:03Normalement, c'est la décision rationnelle.
03:04Et on s'est aperçu, en faisant ces jeux-là,
03:07que les êtres humains avaient tendance à tendre vers 5 euros et 5 euros.
03:11C'est-à-dire qu'au lieu d'avoir une décision rationnelle,
03:13il y avait une décision équitable.
03:15Donc, ce qu'avait démontré cette étude,
03:18c'est que la décision de l'investisseur dans ce jeu
03:21n'est pas une décision rationnelle.
03:23Elle est motivée pour celui qui propose
03:25par la culpabilité de ne pas donner assez à l'autre.
03:29C'est une véritable norme sociale.
03:30Et pour celui qui reçoit, parce qu'il peut refuser,
03:32et à ce moment-là, personne n'a rien,
03:34eh bien, rechercher l'égalité, ou un sentiment d'égalité.
03:38Alors, Julien, juste quelque chose,
03:40parce que c'est très très intéressant, je bois vos paroles.
03:44Vous êtes en train de nous dire que la décision équitable
03:48n'est pas une décision rationnelle.
03:52Alors, quand on vous donne 10 euros en vous disant
03:54vous en donnez une partie à quelqu'un d'autre,
03:57s'il accepte, la répartition est faite, s'il refuse,
03:59c'est à vous d'estimer ce que vous devez donner.
04:03La décision rationnelle, puisque ça vous appartient,
04:05c'est de garder le plus possible pour vous.
04:07Puisque si l'autre refuse, il n'a rien.
04:09Donc, il est dans une impossibilité,
04:10il n'a pas de maîtrise de la situation.
04:12Alors que vous qui proposez, vous en avez une.
04:15Donc, la décision rationnelle, c'est de garder le plus possible pour soi.
04:17Mais, ce qu'on a vu, c'est donc pas une décision rationnelle.
04:20Maintenant, ce même jeu a tourné avec les LLM,
04:24et alors là, surprise,
04:25terminator 7, comme je vais mal dire en ce moment,
04:28le résultat, c'est que les LLM se situent très exactement entre les deux sphères.
04:35C'est-à-dire qu'ils ne se comportent jamais de manière strictement rationnelle,
04:38et ils ne se comportent jamais de manière strictement irrationnelle.
04:41C'est-à-dire, ils ne vont pas au 50-50, par exemple,
04:43et ils ne vont pas maximiser l'utilité de celui qu'ils proposent au départ.
04:48Et ça, c'est le fait qu'ils reçoivent un ensemble d'informations,
04:51c'est probablement à ce stade de la recherche,
04:53qu'ils reçoivent un ensemble d'informations
04:55qui sont un petit peu contradictoires,
04:57mais sur lesquelles, pour eux, se positionner en termes de maximisation d'utilité,
05:01et donc de super-rationalité,
05:03c'est quelque chose qui n'est pas possible,
05:05vu ce qu'on leur donne.
05:07Donc, aujourd'hui, si on dit
05:08l'intelligence artificielle telle qu'elle est faite aujourd'hui,
05:11parce qu'attention, ça évolue,
05:13et ça va encore évoluer,
05:14mais telle qu'elle est faite aujourd'hui,
05:15si on dit la décision de cette intelligence artificielle
05:18sera rationnelle,
05:19la réponse aujourd'hui est non.
05:21Elle est plus rationnelle que celle d'un individu,
05:24mais on ne peut pas la qualifier de rationnelle.
05:27Mais en gros, Julien,
05:28ce que vous êtes en train de nous dire,
05:29c'est que, pour l'instant,
05:31si on réfléchit en termes très pragmatiques,
05:34parce qu'il est question de ces langages
05:36appliqués à la finance,
05:38en gros, ils sont trop humains
05:40pour être véritablement pragmatiques.
05:42Ils analysent un ensemble de données,
05:47de textes et de choses antérieures
05:49qui comportent eux-mêmes des biais comportementaux,
05:53et comme ils les analysent,
05:54ils les intègrent,
05:55ils vont les reproduire,
05:57eh bien, ils reproduisent ces biais comportementaux.
05:59Il se trouve qu'ils ont des fonctions de décision
06:03qui sont quand même extrêmement puissantes,
06:05donc ils ne sont pas totalement dans l'irrationalité,
06:08heureusement.
06:08C'est aussi une conclusion intéressante.
06:10Mais si on attend d'eux d'avoir une décision
06:13systématiquement rationnelle,
06:14on ne l'a pas.
06:15Alors, les chercheurs sont même allés un peu plus loin.
06:16Ils ont dit, est-ce qu'on peut donner
06:17ce qu'on appelle des promptes,
06:19c'est-à-dire des directives beaucoup plus précises
06:21à ces langages,
06:23pour obtenir un résultat plus précis.
06:25Leurs premiers travaux de recherche montrent que oui.
06:27Si on encadre mieux la question qui est posée,
06:31ça veut dire, pour l'investisseur privé,
06:32de faire un prompt avec tout un contexte
06:35pour dire énormément de choses sur cette situation.
06:37On revient à la notion d'écouter un client.
06:39quand on est du côté de la finance.
06:41Alors, à ce moment-là, le langage,
06:44il va pouvoir être beaucoup plus précis.
06:45C'est ce qui se passe dans le cadre
06:46de l'ultimatum game que je dis.
06:48Il propose un prompt, par exemple,
06:49en lui disant à l'IA,
06:53réfléchis bien à ce que c'est que ce jeu,
06:56regarde comment un joueur humain,
06:57typiquement, pourrait lui se comporter,
06:59et choisis une offre qui va maximiser tes gains
07:02en tant que proposeur,
07:03tout en étant acceptable pour l'autre.
07:04Et quand ils font ça,
07:05ils tentent vers du 7 euros, 3 euros.
07:07C'est-à-dire qu'ils tentent vraiment sur quelque chose
07:09de très médian.
07:10Mais vous voyez l'importance de donner le contexte
07:14pour rejoindre une forme de rationalité,
07:17en tout cas pour y tendre.
07:19Passionnant, en tout cas, effectivement.
07:21Merci beaucoup, Julien Lebenzal,
07:23d'Itoro, de nous avoir un petit peu expliqué
07:25les enjeux, justement, de ces biais comportementaux
07:27dans les langages d'intelligence artificielle
07:30appliqués à la finance.
07:31Mais effectivement, ça évolue de jour en jour.
07:35Mais là, on a quand même une optique
07:38un petit peu plus précise avec cette idée
07:39qu'à force de vouloir être médian,
07:42finalement, on est encore soit un peu trop humain,
07:46soit un peu trop intelligence artificielle.
07:47Au revoir.
07:48Au revoir.