Passer au playerPasser au contenu principal
  • il y a 10 minutes
Majid Haddouchi a fondé Glot, une solution qui traduit et sous-titre instantanément les échanges lors de réunions ou d’événements multilingues grâce à l’intelligence artificielle.

Catégorie

🗞
News
Transcription
00:05On termine cette édition avec une jeune pousse à découvrir et aujourd'hui elle est incarnée par
00:10Majid Adouchi. Bonjour Majid. Bonjour Delphine. Vous êtes le fondateur de Glott, une plateforme
00:15qui fournit une traduction et puis des sous-titres en temps réel pour des événements ou des réunions
00:20publiques. Comment ça fonctionne exactement ? Concrètement c'est très simple, côté organisateur,
00:26la session de traduction se crée en cinq minutes. Ensuite le QR code est partagé auprès des
00:34participants. Donc eux vont simplement scanner le QR code, ils vont sélectionner leur langue et ils
00:39vont directement accéder à la session de traduction. Donc en fait Glott c'est une solution qui est
00:43destinée aux événements multilingues, donc conférences, séminaires. Mais quel outil, quelle
00:47technologie vous utilisez ? Alors on a un modèle open source qu'on a modelé, qu'on a peaufiné justement
00:54pour pouvoir s'adapter au secteur événementiel. C'est quel modèle open source que vous utilisez ?
00:59Alors on est parti sur un modèle de méta pour commencer et ensuite on a rajouté des briques
01:03supplémentaires pour justement s'adapter, réduire la latence, essayer d'apporter une certaine
01:08accessibilité à certains profils. Je sais pas vous d'ailleurs Delphine si vous avez déjà décroché
01:14dans des événements ? J'ai déjà, je vais vous dire plutôt que j'ai déjà assisté à un événement
01:19qu'utilisait une technologie, j'espère que c'était la vôtre, pour faire de la traduction en temps réel.
01:23Eh bien justement, alors je ne sais pas si c'était la nôtre, mais il faut savoir
01:27que dans une grande partie des événements, il y a un public, une audience en fait qui
01:31soit décroche, soit n'a pas accès complètement aux événements. Soit à cause de la langue
01:35ou soit à cause de certains troubles, par exemple auditifs. Il faut savoir par exemple
01:41qu'en Europe il y a une personne sur cinq qui vit avec un trouble auditif et donc justement
01:46Glotte résout ce problème-là. Avec le sous-titrage ?
01:49Avec le sous-titrage, donc c'est de la traduction simultanée.
01:51C'est inclusif.
01:53Exactement. Donc traduction simultanée, sous-titrage sur le smartphone des participants et on fait
01:57aussi de la projection de sous-titrage sur grand écran.
02:00Après il y a un vrai défi pour que ce soit pertinent parce qu'aujourd'hui, je vous le disais,
02:04j'ai assisté à un événement qui était comme ça traduit en temps réel. Il y a des mots
02:09qui ne fonctionnent pas, des terminologies un peu spécifiques qui ne sont pas forcément
02:12compris. Sur les sous-titrages aussi on le voit parfois dans le discours du président de la République.
02:16Vous avez vu, il y a des choses un peu bizarres. Donc il y a du travail. Vous, comment est
02:21-ce
02:21que vous travaillez pour améliorer ce modèle ?
02:23Alors justement, l'intelligence artificielle nous permet de proposer des choses assez
02:27intéressantes, notamment sur la plateforme Glotte. Les organisateurs ont la possibilité
02:31de rentrer des glossaires, donc des glossaires métiers ou des noms propres qui permettent
02:35de fiabiliser la traduction. Et donc là, on s'assure que l'audience, que ce soit dans
02:41n'importe quelle langue, d'ailleurs on couvre des dizaines de langues, on s'est même engouffré
02:45sur des langues très peu répandues dans le monde, notamment en Afrique, et ce qui
02:49permet à un public qui n'avait pas accès aux événements de pouvoir, pour la première
02:53fois, comprendre complètement un discours ou une prise de parole.
02:58Donc ça c'est votre différenciation, je dirais, peut-être par rapport à ce qui peut
03:01exister d'autre sur le marché ?
03:03Oui. Alors il n'y a pas beaucoup d'acteurs qui proposent ce type de solution.
03:07Quand on voit dans les événements, il faut savoir qu'en région parisienne, chaque année,
03:11il y a plus de 100 000 événements d'entreprises institutionnelles qui sont organisés, avec
03:14plus de 15 millions de participants. Et il faut savoir que dans chacun d'eux, une partie
03:18de l'audience décroche. C'est là où justement, nous, on va proposer une solution qui va permettre
03:23aux malentendants, aux sourds, aux profils atypiques de pouvoir complètement avoir accès
03:29à ce type d'événement. Donc ça a été un travail de longue haleine, beaucoup de travail,
03:33beaucoup de R&D.
03:34Et qui sont vos clients ? Est-ce que vous avez des premiers chiffres peut-être à nous
03:37communiquer sur la diffusion de l'outil ?
03:39Alors, on va annoncer notre lancement commercial à VivaTech, puisqu'on fait partie des lauréats
03:46du programme Impact Builders 2026.
03:49Félicitations.
03:50Merci beaucoup. Donc on sera mis à l'honneur avec 10 autres startups. Et donc à ce moment-là,
03:57on va annoncer notre lancement commercial. Mais depuis quelques semaines, on travaille
04:01avec quelques clients, notamment une aréna, un palais des congrès, plusieurs acteurs, dont
04:08le Paris Saint-Germain. Et ça représente à peu près 100 000 participants jusqu'à présent.
04:13Ok. Donc c'est pas des petits clients.
04:15C'est des clients assez intéressants pour nous. On aimerait pouvoir démocratiser l'interprétation
04:21parce que c'est quand même quelque chose qui est...
04:23Et vous travaillez avec des interprètes ?
04:25Alors justement, on est sur de l'intelligence artificielle. On a vocation à aller sur
04:30des sentiers qui étaient jusqu'à présent inaccessibles, ou en tout cas où les interprètes
04:35n'étaient pas présents. Je vais citer par exemple des événements de 50, 100, 200, 300
04:43participants. Là où justement les grands événements proposent ce type de solution. Donc on a
04:49vocation à démocratiser l'interprétation.
04:51Et vous avez fait partie du leadership programme de DiversiDays. C'est d'ailleurs par DiversiDays
04:56l'association que vous êtes arrivée sur ce plateau.
04:58Exactement. Qu'est-ce que vous en retenez ?
05:00Superbe aventure. En tout cas, DiversiDays, moi, ça m'a permis de structurer mon projet, de pouvoir
05:08apprendre à mieux prospecter, à travailler mon financement, mon prévisionnel, etc. Donc c'est
05:14énormément d'informations qui sont très utiles.
05:15Vous avez affiné votre produit aussi ?
05:17Exactement. Au fil du temps, on rencontre pas mal d'acteurs. J'ai rencontré des associations,
05:22j'ai rencontré des personnes qui m'ont dit, ou même des prospects au départ, qui sont devenus des
05:27clients aujourd'hui, qui m'ont dit « Écoute, Magide, ça serait bien que ça devienne comme ça.
05:31Moi, voilà mon besoin. Moi, j'ai besoin du dark mode parce que j'ai pas envie que le
05:35téléphone dérange le voisin d'à côté. » Donc c'est plein de paramètres comme ça qu'on a pris
05:41en
05:41considération et qui nous a permis de proposer ce qui est glotte aujourd'hui.
05:46Merci beaucoup, Magide Hadouchi, de nous avoir fait découvrir Glotte, dont vous êtes le
05:51fondateur. Merci à tous de nous avoir suivis. C'était Smartech, votre émission sur le
05:55numérique, l'innovation où on fait beaucoup de découvertes et de débats. Ça se passe sur
06:00la chaîne Bsmart. À très bientôt.
Commentaires

Recommandations