00:00 reconnaissons peut-être maintenant la cause du chaos qui règne au sein d'OpenAI.
00:02 On comprend mieux pourquoi le conseil d'administration de la startup était si effrayé.
00:06 Le monde ne sera peut-être plus jamais le même.
00:07 Selon le média Reuters, plusieurs chercheurs d'OpenAI ont écrit avant le fiasco de la semaine dernière
00:12 une lettre au conseil d'administration pour avertir de l'existence d'une puissante découverte en matière d'intelligence artificielle
00:17 qui, selon eux, pourrait menacer l'humanité.
00:19 Il s'agit d'un projet appelé Q*STAR qu'OpenAI a reconnu en interne.
00:22 Mais alors qu'est-ce que Q*STAR ?
00:23 Eh bien nous ne le savons pas encore, mais les spéculations indiquent qu'il pourrait s'agir d'une AGI,
00:27 une intelligence artificielle générale, c'est-à-dire une super-intelligence qui surpasse les humains dans la plupart des tâches à valeur économique.
00:33 Cette technologie serait si puissante qu'Elon Musk lui-même a déclaré qu'il pense que l'argent ne sera plus pertinent au moment où elle viendra.
00:39 Tout cela pourrait également expliquer pourquoi l'un des membres du conseil d'administration a déclaré la semaine dernière
00:43 que la destruction de l'entreprise au profit de l'humanité était une option envisageable.
00:47 Aujourd'hui, de nombreuses personnes très intelligentes pensent que l'AGI est impossible ou qu'elle ne se produira pas avant plusieurs décennies.
00:52 Pourtant, en parallèle, de nombreux chercheurs en intelligence artificielle comme Karpathy, Carmack, etc.,
00:57 ont déclaré que nous en sommes beaucoup plus proches que les gens ne le pensent.
01:00 Et vous, qu'en pensez-vous ? Partagez vos réflexions en commentaire.
Comments