Le piège juridique de l'IA

Par Théo Leblanc, expert en IA

Depuis l’arrivée de ChatGPT le 30 novembre 2022, toutes les entreprises n’ont plus qu’un mot à la bouche : IA. Il faut de l’IA partout, sur le site internet, dans les présentations aux clients, dans les mails, les meetings, n’importe quel endroit où on peut la caser. Et à raison : des études du MIT montrent que l’utilisation de l’IA augmente la productivité d’entre 10 et 40% selon l’emploi.  Pourtant, une chose que les entreprises oublient souvent avec les nouvelles technologies, c’est la loi. Sauf que quand elle vient toquer à la porte pour réclamer des comptes, il est souvent trop tard, et ça peut coûter très cher. Explorons aujourd’hui le piège juridique de l’IA, et ses implications sur tout l’écosystème entrepreneurial. 

La situation actuelle : le Far West... mais pas que 

D’un point de vue extérieur, le domaine de l’IA ressemble à un Far West moderne ; vu la rapidité d’évolution de cette technologie, les entreprises semblent croire que c’est un espace sans règles, où tout est possible tant que l’argent est là pour suivre. Problème : ce n’est qu’une vision partielle de la réalité. Certes, les développements technologiques prennent souvent de l’avance sur le cadre juridique, mais plusieurs régulations, bien que dispersées et encore insuffisantes, encadrent déjà ce domaine. Le Règlement général sur la protection des données (RGPD), par exemple, impose déjà des règles strictes sur la collecte et le traitement des données, limitant les pratiques invasives ou abusives de certains systèmes d’IA.  La propriété intellectuelle intervient également pour protéger les créations humaines vis-à-vis des contenus générés par des IA, posant de nombreux défis quant à l’attribution des droits et aux critères de protection. Certes, le consommateur n’aura jamais de risque de plagiat en utilisant une IA ne respectant pas la propriété intellectuelle, comme le garantissent les premières jurisprudences sur le sujet, mais les entreprises intégrant ou développant des modèles sont bien concernées et en risque.
Bien que certaines questions restent en suspens, il est faux de penser que l’IA se développe dans un vide juridique total. 

La réponse des instances avec l’IA Act : Pourquoi et quelles nouveautés ? 

Les régulations existantes ne suffisent plus à couvrir les risques spécifiques de l’IA. Les biais algorithmiques, l’autonomie croissante des systèmes et les atteintes potentielles aux droits fondamentaux nécessitent une réponse claire et robuste. Face à ces enjeux complexes de l’IA, l’Union européenne a pris l’initiative de proposer un cadre juridique spécifique : l’IA Act. Ce texte, en voie de finalisation, vise à instaurer des normes unifiées pour l’IA, classant les systèmes selon leur niveau de risque et définissant des exigences strictes pour chaque catégorie. L’IA Act introduit une responsabilité accrue  pour les développeurs et les utilisateurs d’IA dans des domaines critiques, tout en offrant plus de transparence et de protection pour les utilisateurs finaux. En établissant des normes spécifiques et en renforçant les obligations de diligence, l’UE souhaite offrir un modèle de régulation qui protège à la fois les consommateurs et la compétitivité de ses entreprises sur un marché mondial. 

L’approche à adopter pour toute utilisation d’IA 

Devant ce cadre naissant, l’approche pour utiliser l’IA en toute conformité doit être basée sur une vigilance et une éthique accrues. Toute entreprise ou acteur souhaitant intégrer l’IA dans ses processus doit adopter des pratiques proactives de conformité, incluant une évaluation des risques, la transparence envers les utilisateurs et une documentation détaillée des processus IA. Cela signifie s’assurer que chaque système d’IA respecte les principes de non-discrimination, de confidentialité et de responsabilité. 

 Adopter l’IA ne devrait pas se faire au détriment des droits fondamentaux. Au contraire, une utilisation encadrée et responsable de l’IA permet à chacun de bénéficier de ses avancées sans tomber dans le piège d’un développement non régulé, source de risques multiples pour les utilisateurs comme pour les entreprises elles-mêmes. 

En cas d’inquiétude à propos de son respect des lois dans l’utilisation ou le développement d’une IA, il est nécessaire de se faire accompagner par des professionnels du droit formés sur la question de l’IA pour régulariser sa situation, rentrer dans les clous de la loi et assurer une éthique irréprochable auprès de ses utilisateurs. 

Lire plus