Passer au playerPasser au contenu principal
  • il y a 4 mois
Avocate internationale et éthicienne, Ana Catarina de Alencar explore les grands enjeux juridiques, éthiques et sociétaux de l’intelligence artificielle. Entre régulation européenne, gouvernance des technologies et impacts sur nos relations humaines, elle appelle à repenser notre rapport aux machines. Une réflexion à la croisée du droit, de la philosophie et de l’innovation.

Catégorie

🗞
News
Transcription
00:00...
00:00Nous sommes au Tech Show Paris et nous partons à la rencontre tout de suite d'Anna-Katharina Desalincar,
00:12qui est avocate spécialiste en gouvernance et conformité de l'intelligence artificielle.
00:17Elle est également éthicienne au sein d'une organisation basée à San Francisco.
00:21Je vais l'interroger sur ce qu'elle pense de l'EA Acte ici en Europe.
00:25Anna-Katharina, une question pour la juriste.
00:27Quel regard vous portez aujourd'hui sur l'EA Acte, ce règlement européen qui s'impose en Europe sur l'IA ?
00:34Donc, l'EA Acte va changer la scène pour les entreprises et aussi pour la société.
00:39C'est la législation qui va révolutionner la façon de traiter l'IA d'une manière plus éthique et en compliance
00:47avec les principes légaux et les principes de dignité humaine et aussi les droits fondamentaux ici en Europe.
00:53C'est une législation tellement importante qui va ramener des obligations aux entreprises,
00:58mais aussi la possibilité d'avoir une réglementation qui donne aussi le pouvoir au sujet de l'utilisation de l'IA.
01:06Quand on parle d'obligations pour les entreprises, il y a deux types d'entreprises.
01:10J'ai envie de dire, il y a les organisations qui fabriquent ces intelligences artificielles
01:14et puis il y a celles qui les implémentent dans leur process quotidien et qui font travailler maintenant les métiers avec.
01:23Les obligations pour les deux côtés vous semblent pertinentes, parfois trop contraignantes ?
01:30Elles sont très pertinentes et aussi je pense qu'il faut s'anticiper à les réglementations.
01:35On sait qu'on a beaucoup d'obligations pour les entreprises qui utilisent l'IA, qui développent l'IA,
01:40qui vont venir dans le futur, mais les UAA Act, c'est déjà en place.
01:45Et pour ça, il faut se préparer en termes de gouvernance et compliance.
01:48Je pense qu'il faut que les entreprises commencent à réfléchir sur ça.
01:52Donc c'est qui intègre ces...
01:53Oui, qui intègre les UAA Act dans les programmes de gouvernance.
01:56Par exemple, il faut commencer déjà à cartographier les IAA que les entreprises utilisent,
02:02aussi qui offrent l'user, et aussi mettre en place des mesures pour mitiguer les risques,
02:08aussi les transformations culturelles pour éduquer les employés dans ces sujets-là.
02:12Et aussi, la plus importante partie, c'est d'évaluer les risques,
02:16parce que les UAA Act, c'est une réglementation qui a une approche sur les risques.
02:21Donc il y a les risques minimaux, il y a les risques limités,
02:24mais aussi les systèmes qui sont totalement bannis de l'Union européenne et les hauts risques.
02:29Il faut évaluer et mettre en place des mesures de mitigation.
02:32Donc ça, j'ai envie de dire, ce serait la première chose par laquelle il faut commencer, c'est ça ?
02:35Exact.
02:36Mais comment est-ce qu'on les évalue, ces risques ?
02:38Donc, selon les UAA Act, on a plusieurs niveaux de risques, là.
02:43Et pour ça, il faut faire une cartographie des systèmes qu'on utilise.
02:47Et après, il faut regarder dans la législation quels sont les risques particuliers dont on parle.
02:53Il y a plusieurs méthodologies maintenant, et les autorités de protection des données personnelles
02:59et aussi des UAA Office offrent beaucoup de matériaux et aussi des guidances
03:06pour les entreprises qui veulent commencer à faire ce travail.
03:09Donc aujourd'hui, on a tous les outils finalement pour se préparer.
03:12Exactement. Il faut commencer parce qu'un programme d'IA qui s'est bien mis en place
03:18prend temps et prend aussi temps pour faire la transformation culturelle et éducationnelle aux gens.
03:24Merci beaucoup.
03:25Merci.
03:26Merci.
03:27Merci.
Commentaires

Recommandations