Quand l'IA transforme le droit (avec Matthieu Quiniou)

DAte

6 nov. 2025

Catégorie

SEO

Temps de lecture

5min


Résumé :

Dans cette interview, l’avocat Matthieu Quiniou explique comment l’IA transforme progressivement le droit et les pratiques des entreprises. En France, on ne peut pas se présenter officiellement comme “spécialiste” de l’IA, mais l’expertise se construit par les dossiers, la veille et la répétition. Il cite un cas concret : l’univers “Brainrot”, des personnages générés par IA devenus viraux dans le gaming, les cartes, les peluches et l’événementiel, soulevant une question juridique centrale : une œuvre créée ou assistée par IA peut-elle être protégée ? Selon les pays, la réponse varie (Italie très permissive, États-Unis partiellement, France encore floue). Sur les visuels générés pour l’e-commerce, leur utilisation est généralement autorisée si les CGU le prévoient et si l’on dispose d’un compte premium, mais le risque de contrefaçon subsiste en cas de ressemblance forte avec une œuvre préexistante. Indiquer “rédigé par IA” est une obligation de transparence dans certains secteurs (audiovisuel, deepfake, scientifique), sans pour autant neutraliser les risques liés au droit de la personnalité. En cas de deepfake dégradant, la mention ne protège pas : diffamation et atteinte à l’image s’appliquent. Concernant l’injection de données dans ChatGPT, il insiste sur la prudence : données personnelles sous consentement, secrets d’affaires strictement interdits, et modèles locaux ou anonymisation recommandés. Au-delà, il s’inquiète d’un risque culturel : si les modèles sont majoritairement entraînés sur du contenu anglo-saxon, des systèmes juridiques et linguistiques entiers pourraient se déformer. L’IA améliore la productivité (aide à la rédaction, relecture, clauses), mais ne remplace pas l’arbitrage humain ; les clients viennent déjà avec des contrats générés automatiquement à valider. À l’avenir, il voit se renforcer la réglementation, l’apparition d’avatars autonomes sur les réseaux sociaux, des modèles locaux en entreprise, et une harmonisation lente entre pays. Pour lui, l’IA ne supprime pas l’expertise : elle augmente le juriste, mais exige transparence, responsabilité et discernement.

Source : https://www.youtube.com/watch?v=AojojPPOmtI





Youssef Jlidi : Bonjour Mathieu, j'espère que tu vas bien. Euh du coup, on est ensemble pour parler un petit peu d'IA orienté orienté juridique. Alors, la première question que j'avais à te poser, c'est est-ce que tu peux te présenter en quelques mots tout simplement ?


Matthieu Quiniou :

Bonjour Youssef, merci pour l'invitation.

Je suis Matthieu Quiniou, je suis avocat au barreau de Paris et maître de conférence en sciences de l'information et de la communication. Je co-dirige une chair de l'UNESCO qui s'appelle innovation transmission édition numérique et je suis expert pour le le Conseil de l'Europe et de la Commission pour l'efficacité de la justice du Conseil de l'Europe depuis déjà 6 ans sur les questions liée au domaine judiciaire. Et également, avocat au sein du cabinet D&A Partner. Je m'occupe du pôle IT et tout particulièrement des questions autour de de l'IA et des nouveaux enjeux juridiques.


Youssef Jlidi :

OK, très clair. J'avais une première question à te poser. Donc comme tu me l'as dit, tu t'es spécialisé dans l'innovation technologique, la blockchain l'IA. Comment ça se détermine une spécialisation chez un avocat ? Est-ce que c'est par les affaires qu'il a pu traiter ou c'est la formation, les études ? C'est-à-dire comment aujourd'hui tu es devenu vraiment avocat spécialiste dans ces dans ces questions ?


Matthieu Quiniou :

Alors, c'est un point intéressant parce que la notion de spécialiste, elle est réglementée, entre guillemets, chez nous. Les spécialités n'existent pas. On ne peut pas dire : « je suis spécialiste de la blockchain » ou « spécialiste de l'IA » parce que ce n'est pas conforme au règlement intérieur qu'on a. On ne peut pas dire ça en tant que tel. Mais pour autant, on peut parler d'expertise.

Me concernant, ça fait une dizaine d'années que je travaille aussi bien sur la blockchain que sur l'IA. J'ai fait par exemple mon doctorat sur des questions d'IA en 2015, et la blockchain, je travaille aussi dessus depuis 2015 à travers d'abord des questions de propriété intellectuelle dans un contexte scientifique.

Puis à partir de 2017, vraiment en tant qu’avocat, juriste, avec de vraies questions. Au départ, c’étaient les ICO qui nous intéressaient, donc les levées de fonds sur blockchain, et après j’ai beaucoup travaillé sur les NFT. Aujourd’hui, j’accompagne encore des entreprises parce que c’est vraiment le cœur de métier de l’année, c’est la blockchain.

Donc on a pas mal de clients dans la DeFi qui ont des besoins notamment en matière de cybersécurité et droit, en matière de données personnelles, en matière aussi d’analyse des licences de codes qu’ils ont. Donc c’est à peu près sur ces éléments-là que j’interviens.

Et après, en matière d’IA, je dirais que ça fait finalement que trois ans qu’il y a de vrais dossiers en matière d’IA côté entreprise. Avant, c’était assez marginal. C’étaient des questions plutôt autour des données personnelles sensibles dans le domaine médical, par exemple. Aujourd’hui, on parle vraiment d’IA dans les dossiers.

Donc là, j’accompagne à la fois des modèles, des start-up, des artistes, des entreprises qui veulent faire des chartes éthiques, qui ont des besoins aussi de formation autour des aspects réglementaires. Donc c’est varié, mais ça s’est vraiment développé les trois dernières années. Et avant, je travaillais surtout pour des institutions, comme je disais, le Conseil de l’Europe, qui eux avaient mis en place très tôt, dès 2018, une charte éthique, et j’ai travaillé pour eux notamment sur des questions de labellisation et d’opérationnalisation de la charte.

Voilà, je continue à être expert pour eux. Et donc, la notion de spécialisation, pour revenir à ça, je dis que ce n’est pas encore considéré comme une spécialité au sens formel du terme. Pour autant, après, il y a le bouche-à-oreille et on peut faire valoir quand même un certain nombre d’expertises.

Puis j’imagine qu’avec l’itération, forcément, si justement tu traites toujours les mêmes affaires sur les mêmes sujets, on développe quand même une connaissance, comme on a pu discuter ensemble sur les NFT, sur la blockchain, etc. Donc il y a une forme d’expertise. Mais effectivement, au niveau de l’appellation, il faut revenir à la base. Mais du coup, cette base-là aujourd’hui, toi, tu es plutôt avocat en droit des affaires, droit des nouvelles technologies. Le sujet dans lequel tu exerces, si j’ai bien compris, c’est vraiment le droit des affaires.

C’est le droit des affaires en matière de nouvelles technologies numériques. Voilà, si on peut synthétiser, avec beaucoup de propriété intellectuelle et de droit de l’IT. Donc tout ce qui touche vraiment à la technique.

Moi, comme j’ai des compétences techniques aussi informatiques, je m’intéresse beaucoup aux usages numériques. C’est à ce niveau-là que j’interviens.


Youssef Jlidi : Pour finir un peu la partie présentation, je voulais vraiment qu’on ait quelques éléments concrets, sans vouloir rentrer dans les secrets des dieux. Mais est-ce que tu peux nous raconter deux ou trois affaires un peu marquantes que tu as pu traiter ? Celles qui t’ont le plus challengé, le plus surpris. Je pense que c’est intéressant d’avoir à la fois ce qui est sur le papier, et puis les affaires concrètes que tu as pu traiter dans ta carrière.


Matthieu Quiniou : Alors là aussi, je vais répondre comme avocat, de manière précise, avec un petit disclaimer. Comme pour la spécialité, on n’est pas censé parler vraiment de nos affaires. Après, pour autant, il y a des éléments qui ont été rendus publics par certains clients et qui sont accessibles dans les médias. À partir de là, je peux quand même les évoquer.

Moi, j’accompagne des modèles, j’accompagne aussi des entreprises sur leur charte éthique et sur ces questions-là. Mais je pense qu’un cas dont je peux parler, parce qu’il y a eu quelques papiers dessus, c’est l’accompagnement que je fais d’artistes Brainrot. Je ne sais pas si tu vois ce que c’est, les Brainrot.

Ce sont des personnages faits en 3D à partir de l’utilisation de l’IA, en l’occurrence ChatGPT, qui deviennent souvent très viraux sur TikTok et qui ont donné lieu à la création de jeux vidéo parfois extrêmement réputés. Le plus gros jeu sur Roblox actuellement s’appuie sur l’univers Brainrot.

Il y a aussi des vidéos et de la musique très virales autour de cet univers. Il y a des cartes Panini Brainrot, etc. C’est vraiment le dossier qui m’accapare en ce moment et que je trouve le plus intéressant. Je suis très investi dessus. Et donc, on a une vraie question autour de ce dossier : est-ce que les contenus créés par IA sont protégeables par le droit d’auteur ? Ça va dépendre des pays.

La question qu’on se pose au niveau juridique, c’est : est-ce que les contenus générés par IA sont protégeables par le droit d’auteur ? C’est la question clé.

Sachant que les Brainrot sont à 95 % créés exclusivement de manière assistée par IA. Les artistes vont faire des prompts, faire de la curation, choisir parfois le nom eux-mêmes, faire des ajustements, mais c’est fait à travers ChatGPT. Et ce sont des personnages qui parfois sont extrêmement viraux.

Quand je parle d’extrême viralité, on parle de dizaines, centaines de millions de vues, de peluches créées, de parcs d’attractions sur le sujet. Il y en a en Italie, en Indonésie, un peu partout. Des comédies musicales. Il y a énormément de choses.

Et autour de ça, il faut savoir que le droit n’est pas le même dans tous les pays. En Italie, ils viennent de créer une loi qui permet largement de protéger les œuvres créées par IA au titre du droit d’auteur, avec des critères assez souples.

En Chine, cela fait déjà deux ou trois ans qu’ils acceptent la chose à partir du moment où les prompts sont assez détaillés. En France, c’est un peu le flou artistique et on s’est plutôt intéressé aux questions de l’entraînement des modèles à partir d’œuvres. La focale a été mise sur la protection des artistes qui se font dépouiller par les modèles d’IA et qui sont dans les datasets sans le savoir.

Aux États-Unis, la question se pose à travers le copyright. Il y a globalement des difficultés pour obtenir un copyright lorsque l’œuvre est générée par IA, même s’il y a des éléments protégeables à travers le copyright lorsque l’on est sur des œuvres composites : une partie faite à la main, un nom créé et très original, etc. On peut avoir une forme de protection, mais elle est partielle. Elle n’englobe pas forcément tout le personnage.

On est face à cette complexité-là et c’est fascinant d’avoir ces discussions avec des avocats ou des boîtes souvent assez importantes à l’international. Moi, je me régale autour de ça et je pense qu’il devrait y avoir aussi peut-être une approche au niveau français pour attirer les artistes qui utilisent l’IA, leur permettre de vivre de leur art et leur créer un socle juridique sécurisé. Qu’ils sachent ce qui est protégeable, ce qui ne l’est pas, et comment valoriser leur travail. Ce que fait l’Italie, on devrait vraiment s’en inspirer.

Surtout qu’il y a en France une véritable histoire de protection des artistes et de créativité juridique pour cet accompagnement. J’aimerais vraiment que ça se débloque à ce niveau-là.


Youssef Jlidi : Le message est passé. Surtout qu’en fait, je trouve ça marrant, parce que je vais faire un post là-dessus jeudi prochain.

Il y a cette question : aujourd’hui, l’IA remplace l’humain de manière assez importante. Je ne le dis pas par effet de mode, vraiment. Aujourd’hui, je travaille dans le SEO, donc je rédige 100 % de mes contenus, je les fais relire via un agent, je les fais publier via un agent. Toute la chaîne de valeur est remplacée. Pareil pour mes posts LinkedIn, qui fonctionnent de mieux en mieux : je les fais relire et enrichir par une IA, etc.

Et je pense que demain, l’idée de confier à l’IA les réseaux sociaux va se généraliser. Il y a quelqu’un qui parlait justement du retour des mascottes : on va voir de plus en plus de mascottes d’entreprise en ligne, de plus en plus autonomes. Et du coup, ce flou juridique doit être levé très vite, parce que ça va se généraliser. Tu parles de l’Indonésie, d’autres pays… J’ai l’impression qu’en France, tu me diras ce que tu en penses, on est peut-être un peu en retard sur cette question du Brainrot. Pour être honnête, je ne connaissais pas avant que tu en parles.

Est-ce qu’on est un peu en retard là-dessus ou pas ?


Matthieu Quiniou : Alors, pour les Brainrot, c’est un peu particulier. C’est peut-être même plus une question de tranche d’âge. Si tu n’as pas entre 8 et 15 ans, ou que tu n’as pas un enfant entre 8 et 15 ans, normalement les Brainrot, tu ne connais pas. C’est tout à fait normal. Le contraire serait plutôt inquiétant….

Et la France… Bon, c’est un phénomène qui touche la France, mais moins que d’autres pays. L’Italie est très portée sur ça, d’ailleurs ils parlent d’Italian Brainrot. L’Indonésie aussi, parce que l’un des artistes que je représente est très connu et indonésien.

Ça touche aussi pas mal l’Amérique latine. On a notamment un artiste au Brésil qu’on accompagne. Et les États-Unis sont extrêmement fans. Ça a vraiment touché les grosses plateformes de jeux vidéo et il commence à y avoir des projets très importants aux États-Unis.

En Chine aussi ça fonctionne, que ce soit pour l’export mais aussi en interne. Mais oui, les États-Unis restent le gros marché pour les Brainrot, c’est sûr. Et globalement, au-delà de la tranche d’âge, c’est un endroit où, quand les tendances prennent, ça part souvent de là-bas.

Youssef Jlidi : OK, intéressant. Alors, revenons un peu à du droit plus classique, puis après on parlera de cet effet de masse orienté IA, et aussi un peu de géopolitique. Mais d’abord, j’aimerais revenir sur un élément. Chaque semaine, il y a une entreprise qui me questionne sur la partie juridique liée à l’IA.

Est-ce que tu peux très rapidement balayer avec moi quelques questions basiques, histoire de rentrer dans le vif du sujet ?

Je suis un site e-commerce et je génère une bannière ou une publicité via une IA. Est-ce que j’ai juridiquement le droit d’utiliser ce visuel ? Qui est considéré comme l’auteur ? Je l’ai fait avec OpenAI : est-ce que c’est OpenAI, ou est-ce que c’est moi qui diffuse cette publicité ?

Qu’est-ce qu’on peut répondre à cet e-commerçant ?


Matthieu Quiniou : Alors, je pense que c’est une vraie bonne question. La première chose qu’on va se demander, c’est : allons regarder les conditions générales de vente et les licences de ces plateformes.

Si la plateforme, comme généralement OpenAI le fait, ou en tout cas dès qu’on est premium sur une plateforme, permet la réutilisation du contenu, alors ils ne vont pas nous céder la propriété intellectuelle, ou en tout cas ils ne vont pas la retenir. Autrement dit, ce qu’ils vont dire dans la majorité des plateformes génératives, c’est : « nous ne conservons aucun droit de propriété intellectuelle et, s’il y en a un, il est à vous ». C’est un peu la logique dès lors qu’on est premium.

Quand on n’est pas premium, ils vont généralement être dans une logique où ils autorisent une utilisation à des fins non commerciales, mais sans droit particulier. Si on veut utiliser commercialement, il faut payer d’abord.

Ensuite, est-ce qu’on est auteur de ce contenu ? J’ai envie de dire : quand on fait une bannière, même à la main sur InDesign, Canva ou autre, on se pose la même question. Sur Canva, il y a aussi des conditions spécifiques. Sur Adobe, c’est différent : dès lors qu’on a payé la licence au départ, on est à peu près tranquille.

La question qui va se poser, c’est que notre bannière va être assez standard. Il n’y aura vraisemblablement pas d’originalité particulière. Ça peut arriver, mais est-ce qu’il y aura suffisamment d’éléments pour être protégée par le droit d’auteur ? Ce n’est pas sûr. Après, si on a vraiment une tournure très particulière dans le phrasé, et qu’on développe quelque chose de nouveau, ça peut peut-être être protégeable. Mais ça s’arrête là.

Ensuite, il y a un autre point : celui des bases d’entraînement. Si on utilise une IA qui a enfreint la propriété intellectuelle ou le droit des données personnelles dans le cadre de son entraînement, il peut y avoir des soucis, mais ils vont surtout concerner le fournisseur ou le déployeur de l’IA, pas le client final.

Il pourrait y avoir quelques effets de bord, mais très marginaux. D’autant plus qu’il y a maintenant un règlement européen sur l’IA qui prévoit des points de transparence pour les déployeurs et fournisseurs quant aux modalités d’entraînement. Dès lors qu’ils sont accessibles sur le marché européen, l’utilisateur peut les utiliser sans, a priori, être dans le viseur s’il y a eu une contrefaçon en amont de l’entraînement.


Youssef Jlidi : OK, très clair. Mais si je comprends bien, pour revenir à la partie premium : la plupart des plateformes, si j’ai bien compris, vont te céder les droits si tu as un compte premium. C’est bien ça ?


Matthieu Quiniou : Oui, c’est ça. Alors, il y a une chose qu’ils ne peuvent pas céder : si l’output que l’on génère est très proche d’un contenu créé par un tiers, il faut être vigilant. C’est-à-dire que, même si le modèle d’IA a été construit proprement avec les droits, si on a deux images quasiment identiques — une qui préexistait dans le dataset, et une générée — on a un problème. On est contrefacteur, parce qu’on va comparer l’image de base et l’image en sortie, même si l’entraînement a été fait correctement.

Ça aussi, il faut l’avoir en tête. Après, dans le cas d’une bannière, très sincèrement, l’image originale n’est déjà pas originale en réalité, donc elle n’est pas protégeable au titre du droit d’auteur.

Youssef Jlidi : OK, clair. Autre question. Moi, en fait, je travaillais chez La Poste en tant que consultant, et on utilisait pas mal de contenus SEO rédigés par des IA.

C’étaient des outils qui allaient piocher et réutiliser du contenu déjà existant sur le web. Et on nous demandait de mettre directement sous le texte « rédigé par une IA » histoire de se protéger.

Est-ce que, pour toi, c’est suffisant comme réflexe, ou est-ce qu’il faut aller beaucoup plus loin dans un contexte purement juridique ?


Matthieu Quiniou : Je pense que c’est important de le faire.

Ce sont des obligations de transparence qui commencent à être instaurées. C’est déjà le cas au niveau du droit pénal depuis un certain temps pour tout ce qui relève du deepfake, donc de l’hypertrucage. Par exemple, si tu prends une personne connue et que tu lui fais dire des choses qui ne correspondent pas du tout à sa position, elle peut attaquer pour diffamation et s’appuyer sur le code pénal, en argumentant qu’il y a hypertrucage et que ce n’était pas immédiatement lisible que ce n’était pas elle qui parlait, mais un avatar ou un deepfake. Cela existait déjà.

Le règlement IA élargit la question en disant qu’il faut le spécifier dans tous les cas, pas uniquement quand il n’est pas évident que ce n’est pas la vraie personne qui s’exprime. Il faut le spécifier lorsqu’une personne semble s’exprimer, c’est-à-dire lorsqu’on peut porter atteinte aux droits de la personnalité. Là, il faut le faire.

On retrouve des obligations analogues dans différents secteurs. Dans le domaine scientifique, il est préférable d’indiquer si l’on a fait, par exemple, son résumé en utilisant l’IA, ou si une partie du travail a été rédigée avec l’IA. Dans le domaine journalistique, ça peut même être interdit : certaines rédactions ou syndicats militent pour une interdiction, afin de protéger les métiers et éviter une concurrence déloyale. On retrouve aussi ce type de restrictions chez les magistrats.

Les magistrats, les juges, ne peuvent pas utiliser une IA qui n’est pas proposée par le ministère de la Justice. Pour les avocats, on a également des grilles de bonnes pratiques transmises par le barreau, qui nous indiquent : vérifier les sources de l’IA, relire, prendre des précautions avec les données des clients (données personnelles, secrets d’affaires, etc.), et informer le client de l’usage de l’IA dans le dispositif.

On retrouve cela à différents niveaux, notamment dans les productions audiovisuelles. Avant d’inclure l’IA dans son schéma de production, il faut regarder ce qui existe dans notre domaine, et dans celui de nos clients, pour que le livrable soit qualitatif et exploitable dans de bonnes conditions.


Youssef Jlidi : Très clair ! Des e-commerçants qui m’ont posé ces questions, je les invite d’ailleurs à prendre contact avec toi directement, avec ton cabinet, parce qu’il y a effectivement une repasse à faire. Il y a parfois des choses qui peuvent manquer. Ce qui est bien, chez La Poste, c’est qu’il y avait vraiment une entité juridique qui nous accompagnait de A à Z. Donc on a vraiment fait attention.

Mais c’est vrai qu’aujourd’hui, on ne pense pas à tout ça. Il y a juste une question sur laquelle je voulais revenir par rapport à ce que tu as dit : aujourd’hui, effectivement, la précision permet de se protéger côté juridique. Donc demain, je prends la photo d’un politicien, je le fais danser, et je mets en bas « attention : image générée par IA ».

Mais si jamais je vais un peu plus loin, dans le vice, et que je le mets dans une position un peu dégradante — je pense notamment au cas Taylor Swift, il y a un an, lorsque les deepfakes sont arrivés — est-ce que la seule mention « IA » suffit ? Parce que j’imagine que, même si c’est de l’IA, ça peut être dégradant et porter atteinte à la personne deepfake en question.


Matthieu Quiniou : Absolument. Aux États-Unis, ils ont fait une loi dédiée sur ça. Ils l’avaient même appelée la “loi Taylor Swift”. Elle concerne l’utilisation d’images de stars dans un contexte pornographique. C’est vraiment Taylor Swift qui avait porté ça au niveau parlementaire, parce que pour elle c’était un gros problème de se retrouver nue dans des positions problématiques alors qu’elle a une image publique très forte. Donc voilà, ça c’est l’approche américaine.

Nous, en France, on est peut-être un peu moins dans une pudeur aussi forte. Pour autant, il y a les questions de diffamation, d’injure, et on peut aussi avoir une atteinte au droit de la personnalité.

Je pense que cette question serait traitée de manière assez voisine en France. On a déjà l’article du code pénal sur le deepfake, qui est un premier élément, et tout ce qui relève de la diffamation, de l’injure, ou de l’atteinte aux droits de la personnalité. Donc oui, on traite ça aussi sous cet angle.

Après, on retrouve des exceptions comme l’exception de parodie, où l’on va pouvoir réutiliser même des œuvres ou tourner en dérision des politiques. Un peu à la manière des Guignols de l’info, à l’époque, qui avaient souvent des procès mais s’en sortaient grâce à ce type d’exception, importante en matière de liberté d’expression. On va donc devoir trouver un équilibre entre les droits de la personne et la liberté de la presse, la liberté d’expression.

Après, si c’est vraiment quelque chose de volontairement dégradant pour un tiers, la liberté d’expression doit souvent laisser sa place à autre chose. Mais c’est du cas par cas.


Youssef Jlidi : OK, très clair. Dernière question un peu terre à terre, toujours dans mon domaine d’activité.

Aujourd’hui, il m’arrive d’être avec des entreprises où l’on aime gagner du temps. Donc on va prendre un dataset où l’on a les IP clients, où parfois on a un clic, des choses un peu personnelles relatives aux clients, et on aimerait les faire ingérer dans GPT pour avoir des graphiques, etc.

Est-ce qu’on a le droit, à l’échelle d’une entreprise, ou est-ce qu’on doit anonymiser avant ?

J’ai aussi un de tes confrères avec lequel j’ai parlé, qui souhaite automatiser ses emails. Et pour le coup, les emails d’un avocat sont protégés comme n’importe quel email, mais là on a vraiment le secret juridique.

Donc aujourd’hui, comment faire ? Est-ce que votre métier est un peu paralysé par cela ? Parce qu’il existe des LLM, peut-être Mistral qui est un peu plus safe que d’autres… ou pas ?

Est-ce que c’est une question de modèle ? Une question d’anonymisation via un serveur ? Comment s’organiser face à ça, tout simplement ?


Matthieu Quiniou : C’est une question que je connais bien, parce que je travaille depuis un bon moment pour le Conseil de l’Europe sur ce sujet-là et, par ailleurs, j’accompagne aussi depuis un petit moment des start-up du droit qui utilisent l’IA, et on a cette pratique au cabinet. Donc je vois bien l’enjeu.

Première chose, sur ta première question, qui va au-delà des métiers du droit : quand on met dans un prompt des données qui peuvent être confidentielles pour un client, ou des données personnelles, pour ce qui est des données personnelles, il faut l’accord du client. On peut avoir son consentement. Il peut dire : « OK, pas de problème, vous pouvez utiliser ChatGPT avec mes données personnelles. » C’est son problème, entre guillemets, s’il est d’accord.

Après, il y a des cas particuliers où l’on va parler d’intérêt légitime. C’est par exemple ce qu’on retrouve sur LinkedIn : ils ont fait évoluer leur politique de données personnelles, leurs conditions générales, pour permettre l’entraînement à partir de données clients, parce qu’ils sont liés à Microsoft. Donc ça se pose. L’intérêt légitime est une base légale qui permet de collecter et traiter les données. Et c’est une base que la CNIL a rappelée comme étant assez adaptée pour l’IA. Donc il y a une possibilité assez large de moissonnage avec l’intérêt légitime. Ça, c’est le premier point.

Par contre, pour ce qui est des secrets d’affaires et des données confidentielles de l’entreprise, là, non. La loi ne prévoit rien : il faut être extrêmement vigilant. Cette vigilance se traite en réalité au niveau technique, plus qu’au niveau juridique. C’est mon approche.

Il y a plusieurs manières de faire. La première, c’est d’avoir des modèles qui tournent en local. Tu prends des modèles pré-entraînés, tu les mets en local, et du coup rien n’est utilisé pour du renforcement du modèle : les données restent en local, et il n’y a pas de problème. C’est la première approche.

On n’a pas toujours les moyens pour avoir un système performant en local. Donc ce qu’on peut faire, c’est anonymiser les données en local, s’assurer qu’elles sont vraiment anonymisées et pas simplement pseudonymisées, que ça ne va poser de problème ni en termes de données personnelles, ni en termes de secret. Et ensuite, faire notre tambouille sur une IA en ligne, Mistral ou autre.

Une IA accessible sur Internet peut avoir une politique de réutilisation plus ou moins large, mais ne pourra pas forcément tirer grand-chose s’il n’y a pas d’identifiants. Il faut partir du principe que si une information est secrète ou confidentielle, et qu’on la met sur un système d’IA, c’est problématique.

Après, on a des systèmes d’IA qui disent : « si vous prenez un abonnement pro, on n’utilisera pas vos données pour entraîner notre modèle ». OK, sur le principe. C’est préférable que ce soit indiqué noir sur blanc. Pour autant, il faut garder une confiance relative.

Si on travaille avec des clients qui ont de vrais secrets d’affaires, des secrets de fabrique, des secrets-défense, il ne faut pas y toucher. Ces entreprises sont souvent américaines, et si, aux États-Unis, il y a une injonction judiciaire pour révéler ce type de données, elles vont prioriser cet aspect-là par rapport à leurs obligations contractuelles. Et on a déjà vu ça avec ChatGPT.

Donc il faut être vigilant. Vraiment vigilant.


Youssef Jlidi: C’est clair. Merci en tout cas pour la richesse de tes réponses et, encore une fois, je pense que c’est vraiment intéressant que les personnes puissent déjà prendre des notes, parce que c’est un sujet très important en ce moment.

Je vois pas mal d’erreurs en entreprise en tant que consultant, sans même connaître le sujet aussi bien que toi. Donc j’invite encore une fois les gens à prendre contact avec toi, ne serait-ce que pour auditer un peu et voir leurs pratiques.

C’est assez important, et on va vers quelque chose d’un peu complexe si jamais on ne prend pas les bonnes mesures. Tu parlais un peu des États-Unis, j’en profite pour faire une transition sur une question un peu plus macro.

Aujourd’hui, je travaille avec des structures étrangères, et elles ont accès — comme je te l’ai dit — aux dernières features proposées par Google, OpenAI, Anthropic, des Indiens, des Maghrébins, etc. Et en France, malheureusement, je me retrouve un peu bloqué, parce qu’en France on ne peut pas faire ce qu’on veut, ce qui est bien sûr très positif : nos données sont protégées.

Mais moi, vu que certaines features sont stratégiques pour moi, je suis obligé de contourner avec un VPN pour utiliser tel agent côté Google ou tel agent côté OpenAI.

Et j’ai l’impression qu’en France, on a un peu les défauts de nos qualités : un excès de prudence qui nous bride, et on accumule une dette technologique. Qu’est-ce que tu en penses ? En tant qu’avocat, tu as une position plus neutre. Nous, experts digitaux, on veut absolument avoir accès aux features, et côté clients, il peut y avoir des risques de fuite de propriété privée.

Qu’est-ce que tu en penses, toi, à ton échelle ?


Matthieu Quiniou : Alors, moi j’aime beaucoup utiliser l’IA, ça c’est sûr. Je le fais quotidiennement et, comme je te le disais, je protège aussi des artistes qui commencent à avoir une vraie notoriété grâce à leurs créations. Donc ça, c’est une chose.

À côté de ça, je suis aussi infiniment attentif au respect des droits fondamentaux. Pour moi, c’est essentiel de conserver le curseur au niveau de la protection du citoyen et de ses droits, notamment au niveau des données personnelles, tout particulièrement des données sensibles et biométriques.

Et, à côté de ça, au niveau de la protection des droits d’auteur autour de l’entraînement des IA à partir d’œuvres. Ce sont deux choses sur lesquelles je suis vraiment assez intransigeant.

Après, je pense qu’il y a aussi des risques pour certains métiers. Certains peuvent être vraiment fragilisés si l’on généralise l’utilisation de l’IA. Donc je pense qu’il y a un point de vigilance à avoir au niveau étatique.

Ensuite, la réglementation n’est peut-être même pas assez ferme par rapport à ce qui aurait pu être espéré concernant ces modèles d’IA. Elle a l’avantage de protéger quelques droits fondamentaux, d’inviter à un enregistrement des modèles, d’inviter les entreprises à une réflexion de fond à travers des chartes éthiques, à travers des analyses d’impact en matière de droits fondamentaux. Je pense qu’un équilibre peut être trouvé à travers ça.

Est-ce que ça va réduire la compétitivité européenne de ne pas pouvoir utiliser les mêmes modèles ? C’est une hypothèse, je ne vais pas dire le contraire.

Après, il y a une réalité : ces modèles sont entraînés sur des données personnelles de vrais gens, ou parfois sur des données dont la provenance est discutable. Il y a énormément de risques derrière.

Le premier risque que je vois, c’est au niveau linguistique. Si les modèles sont entraînés uniquement sur du contenu en anglais et qu’ensuite on a des traductions automatiques vers le français, on va avoir un gros souci — et on commence déjà à le voir.

J’ai donné une formation au Congo pour l’UNESCO auprès de juges congolais. Eux n’avaient pas numérisé leurs décisions de justice, mais réfléchissaient à l’utilisation de ChatGPT pour de l’aide à la décision. Quand tu fais de l’aide à la décision avec une IA entraînée sur du common law (droit américain/anglais), et que tu appliques ça dans ton pays, il y a un gros souci culturel, linguistique et même d’évolution de ton droit. Il y a un risque civilisationnel quand on utilise une IA entraînée sur un autre dataset culturel.

C’est le gros point qui m’inquiète le plus, plus que la compétitivité. La compétitivité… bon, je pense qu’on a quand même accès à des outils performants, et on est déjà alignés sur des standards américains en matière de productivité. Donc je ne suis pas trop inquiet.

Après, est-ce qu’on a des modèles concurrentiels des US ou de la Chine ? C’est une question de budget. Je pense qu’on a des personnes compétentes pour vraiment améliorer les modèles en France. Mais au niveau des ressources, notamment des semi-conducteurs ou des terres rares, on est à la ramasse : il n’y en a pas en Europe. C’est la Chine qui les possède. Les États-Unis se positionnent sur le Groenland pour les récupérer.

Pour les semi-conducteurs, ce sont les États-Unis qui ont les brevets. Il y en a un peu à Taïwan. On a quelque chose aux Pays-Bas, mais c’est trop peu valorisé et marginal.

Et au niveau des modèles, quand des entreprises prennent de l’argent à la BPI et font leur première levée, tout ce qu’elles cherchent ensuite, c’est partir aux États-Unis pour lever plus et gagner plus. Quand on a des créatifs innovants en Europe, ça finit souvent comme ça.

La loi peut aussi être là pour prendre en compte ces levées de fonds transfrontalières, qui ont pour effet de déposséder certains États de pépites qu’ils ont aidé à financer au démarrage. Je suis favorable à ça. C’est un moyen de traiter la question.

Il existe déjà des éléments : l’exit tax, notamment. Il y a pas mal de choses qui permettent de réfléchir à ça, mais on pourrait aller plus loin.


Youssef Jlidi: Très clair. Et ce que je vois aujourd’hui — merci d’avoir élargi un peu plus le sujet — c’est que mon point de départ était la question de rester compétitif en ayant accès à ces outils. Mais il y a aussi le problème civilisationnel, qui pourrait avoir un impact assez fort.

Si on essaie de faire une prévision à 10 ans, est-ce que tu penses qu’on ira vers une souplesse juridique, une sorte d’uniformisation sur la partie juridique pour que chaque pays puisse avoir accès et profiter de l’IA ? Ou plutôt vers une forme de patriotisme numérique, où chaque solution va essayer de se protéger et de se cloisonner ?

Je donne un exemple tout bête : aujourd’hui, je vois pas mal d’étudiants qui vivent avec ChatGPT, lui confient leurs problèmes, parlent avec lui. Il y a une manière d’utiliser ChatGPT qui se généralise de plus en plus.

Donc j’ai peut-être déjà ma réponse, mais je voulais avoir l’avis d’un expert et d’un avocat, tout simplement.


Matthieu Quiniou : Que te dire… Je pense que les usages vont être variés d’une tranche d’âge à l’autre. Ils vont être variés aussi d’une culture et d’un État à l’autre, au-delà de la dimension juridique.

Tu vois, je te parlais du règlement IA : il y a une notion assez intéressante, celle du “Brussels Effect”. On a eu ça avec le RGPD : le RGPD a posé les bases. Il existait déjà des choses en matière de données personnelles, mais ça l’a amplifié et harmonisé au niveau européen. Et on a vu pas mal de pays ensuite se mettre à peu près au même niveau de protection.

Je pense que le règlement IA a été conçu aussi dans cette perspective, pour essaimer et proposer un cadre respectueux des droits de l’homme, et quand même favorable à l’innovation, une innovation maîtrisée par le citoyen, pas exclusivement portée par le capitalisme. Même si, bon… on parle de la Commission européenne.

Quand on parle du Conseil de l’Europe, on parle vraiment des droits de l’homme. Quand on parle de la Commission, ils prennent en compte les droits de l’homme entre autres choses, mais on est avant tout sur une structure qui s’intéresse au marché. Ce ne sont pas des bisounours. Je pense que ça peut être un premier élément de réponse.

C’est-à-dire que ce qui est proposé par le règlement IA risque d’être repris en partie à l’étranger. Il y a déjà des choses équivalentes en Chine, etc. Premier point.

Après, au niveau des usages, ils vont évoluer énormément. On n’a pas vu la moitié — ni même le dixième — des usages qui vont apparaître avec l’IA. Certains sont projectifs, d’autres commencent à être très confirmés dans notre quotidien, que ce soit au niveau personnel, non professionnel, pour interagir. Tu parlais des adolescents qui confient leurs problèmes à ChatGPT : il y a des soucis autour de ça.

Il y a des enfants qui peuvent prendre le propos de ChatGPT au premier degré. Il y a eu des suicides assistés. C’est tragique. Est-ce que si ces personnes étaient allées voir un psy à la place de ChatGPT, il y aurait eu un autre résultat ? Peut-être. Ce n’est pas sûr, mais c’est possible, parce qu’un professionnel est habitué à identifier des signaux. Il ne va pas juste dire : “Très bonne question, je vais te donner la manière de…” Non.

Ça va, à mon avis, faire bouger les relations humaines d’une manière qui n’est pas forcément positive. On a un interlocuteur très positif avec ChatGPT : il est toujours content, il nous dit qu’on est formidable, et en plus il connaît plein de choses.

Alors souvent, c’est du Wikipédia retraité, mais parfois c’est quand même pertinent, même sur des choses sophistiquées.

Donc je ne peux pas vraiment te répondre. On verra. Il faudra accompagner tout ça, anticiper les risques, et quand certains risques non anticipés apparaîtront, trouver des solutions viables.


Youssef Jlidi: Voilà, je pense effectivement que la question est plurielle. On a commencé par la partie technologique et orientée business, puis la partie juridique, mais elle est aussi philosophique, sociétale et même paradigmatique. Aujourd’hui, il y a la question de la place de l’IA dans la société : comment la verrouiller, où la placer dans nos vies. Mais ça fera peut-être l’objet d’un autre podcast.

Revenons sur des questions un peu plus basiques. J’aimerais parler de l’intelligence artificielle appliquée au monde juridique, qui est un métier passionnant.

Donc ma première question : aujourd’hui, comment est-ce que l’IA transforme ton quotidien ? Est-ce que tu utilises tout ce qui est rédaction automatisée ? Est-ce que tu fais des recherches avec l’IA, de la veille ? Qu’est-ce que ces nouveaux outils changent au quotidien ? Est-ce que tu les intègres, ou pas forcément, parce qu’il y a des hallucinations ou parce que ça répond parfois trop dans ton sens ?

C’est intéressant de voir, toi qui exerces un métier sensible, comment tu utilises l’IA, et à quel moment tu t’arrêtes dans tes processus.


Matthieu Quiniou : Ah, c’est une bonne question. Pour voir aussi ce que font certains confrères, les usages sont assez diversifiés.

Moi, j’aime bien l’IA comme aide à la rédaction, ça me fait gagner beaucoup de temps. J’adore rédiger — j’ai fait un doctorat, j’écris encore beaucoup d’articles — donc j’écris vite, mais force est de constater que ChatGPT est plus rapide que moi. Pour l’aide à la rédaction, c’est bien, je trouve.

Après, ça ne se substitue pas à une rédaction précise sur des points clés, mais c’est un interlocuteur. Généralement, je l’utilise avec des clients qui ont déjà une vraie connaissance de l’IA et avec lesquels je parle de cet usage. Dans le cas de dossiers comme les Brainrot, j’utilise massivement l’IA dans mon travail. J’anonymise beaucoup d’éléments, mais je l’utilise.

Dans des cas où il s’agit de faire des choses qui ont vocation à devenir publiques, comme des conditions générales de vente, je vais aussi utiliser l’IA, dès lors que j’en parle au client.

Quand on est sur des sujets liés à du contentieux, ou qui incluent des données personnelles, des savoir-faire secrets, même de loin — par exemple un contrat avec une vraie dimension stratégique — je fais l’effort de ne pas le mettre dans l’IA. Par contre, si une clause me paraît intéressante à discuter, je vais l’extraire, la décontextualiser, et voir avec ChatGPT comment elle proposerait des reformulations plus favorables à telle partie, etc.

Donc je l’utilise comme assistant interlocuteur, et parfois comme aide à la rédaction, mais sur des choses standardisées et à faible portée stratégique.

De toute façon, certains clients n’ont pas des budgets colossaux et préfèrent que ce soit l’avocat qui utilise ChatGPT, plutôt que de le faire eux-mêmes, car l’avocat va ajuster les grilles. De plus en plus de clients arrivent avec des contrats générés par ChatGPT et me demandent de les relire. Ça existait déjà avant avec des templates approximatifs, mais là c’est différent : c’est souvent adapté… mais avec des points juridiquement problématiques.

Ensuite, il existe des IA spécialisées, qui ne sont pas des IA généralistes comme ChatGPT, mais entraînées massivement sur du contenu juridique par des éditeurs ayant les droits. Parfois, elles utilisent un peu de symbolique pour produire des prompts très adaptés. Ces éditeurs travaillent sur des serveurs français, garantissent une confidentialité forte, parfois proposent de l’anonymisation. C’est plus sécurisant. Mais, à ce stade, je trouve ça moins performant au quotidien. Utile sur des usages très précis, à forte valeur ajoutée, mais moins polyvalent.

Comme je te le disais, il existe un guide de bonnes pratiques pour les avocats. Je trouve tout dedans pertinent : attention aux sources proposées ; vérifier qu’on n’a rien manqué ; garder en tête qu’on est responsable. On ne peut pas dire : « ChatGPT s’est trompé ». Non : c’est nous qui avons le dernier mot.

Je trouve que c’est pertinent et performant, mais ça doit être contrôlé, maîtrisé, et transparent vis-à-vis des clients. Les clients doivent comprendre que ce n’est pas parce qu’on utilise ça que le travail a moins de valeur, ou doit être moins facturé. Dans certains cas oui, mais pas systématiquement. Parfois, l’usage de l’IA permet d’aller au-delà de ce qu’on pouvait faire avant. Je l’ai vu dans pas mal de cas.

Sur certains livrables, quand j’utilise l’IA, c’est mieux que si j’étais seul. Le faire à deux, on a un vis-à-vis qui devient de plus en plus qualifié à force de l’utiliser.

Problème du renforcement : si on renforce avec des données clients, là, c’est un problème. Mais si c’est un renforcement d’expertise abstrait, partagé dans une forme d’avatarisation relative, c’est acceptable.

Bien placer le curseur, c’est complexe. Dans les professions réglementées, encore plus. J’ai la chance de travailler sur ça depuis 6-7 ans, donc je sais à peu près ce que je peux faire ou ne pas faire. J’ai participé à presque tous les travaux possibles sur la définition des règles juridiques et chartes éthiques, donc je peux me positionner.

Mais pour certains qui utilisent de manière approximative, sans avoir suivi les travaux réglementaires, ça doit être un casse-tête. Surtout quand ils voient des stagiaires foncer à toute allure avec ça : ils devraient être paniqués. Je les comprends.


Youssef Jlidi: Très clair. Justement, je posais la question plutôt à l’expert technique, vu qu’effectivement tu maîtrises pas mal de sujets autour de la blockchain et de l’informatique plus globalement.

Est-ce qu’il y a des IA que tu préconises dans le cadre de ton métier par rapport à d’autres ? Tu as le droit de ne pas répondre, parce que ça pourrait faire de la pub à telle IA plutôt qu’à une autre. Mais est-ce que tu préconises certains outils ? Ou peut-être des agents avec des workflows type n8n, etc. ?

Qu’est-ce que tu utilises clairement comme outil, et que tu valides par rapport à d’autres ?


Matthieu Quiniou : Alors, tu me parlais tout à l’heure de ton client qui veut entraîner l’IA à partir de ses mails. Typiquement, je déconseille. Je déconseille absolument. Comme je te le disais, je ne mets pas des données confidentielles de clients n’importe où. S’il le fait à travers un système en local, en dur, oui. Mais dès que ce n’est pas local, il ne faut pas faire ça. C’est un gros problème. Donc je déconseille.

Après, pour ce qui est de l’usage, je pense qu’il faut un peu les trois. Idéalement, il faudrait :

– une IA généraliste. Aujourd’hui, la plus performante, de très loin, c’est ChatGPT. On peut avoir des avis divergents, ça peut évoluer, mais aujourd’hui, c’est clair.

– peut-être Copilot de Microsoft, qui n’est pas mal, mais probablement pas pour les professions réglementées, parce que ça draine de la donnée. À voir. Pour certains usages, sur des automatisations, avec l’accord du client, sur un gros projet, oui, ça peut être mieux.

– et des IA spécialisées. Il y en a vraiment beaucoup qui sortent dans le juridique, parce que les éditeurs juridiques ont fait un bond en avant et ont réussi à entraîner leurs modèles à partir de leur propre dataset. Aujourd’hui, ils sont meilleurs que ce qu’on appelait les legaltechs, qui avaient levé des fonds et dont le seul fait d’armes était d’avoir fait un peu de langage naturel, là où les éditeurs utilisaient une approche plus symbolique, sémantique, mots-clés, dates, etc. Les legaltechs avaient récupéré du marché. Aujourd’hui, ce n’est plus le cas : les éditeurs sont meilleurs, et ils ont surtout la base scientifique, les analyses de décisions, etc. C’est clairement plus sophistiqué.

Donc, oui, je pense qu’il faut aller vers ces outils spécialisés.

Et après, pour des cas très confidentiels mais nécessitant de l’automatisation — comme ce qu’on appelle les due diligence, quand on a des quantités phénoménales de documents juridiques à traiter, formater, ranger, identifier — j’aurais tendance à préconiser un petit investissement pour avoir, sur un poste en dur, non connecté à Internet, une IA locale à laquelle on peut faire “manger” de la donnée confidentielle.


Youssef Jlidi: Très clair.

Et effectivement, même si ma vision est plutôt orientée consultant SEO, je m’associe à l’idée d’avoir vraiment ces trois éléments de travail : ChatGPT, clairement le plus poussé et le mieux entraîné ; des IA très spécialisées ; et la partie locale, essentielle. C’est très clair.

Merci beaucoup pour ton temps. Où est-ce qu’on peut te trouver ? Comment peut-on te contacter ?


Matthieu Quiniou : Histoire d’être accessible pour ceux qui veulent avoir des conseils : je suis très actif sur LinkedIn, donc n’hésitez pas à m’ajouter sur LinkedIn. Sinon, il y a le cabinet D&A Partner, où je suis associé. Vous pouvez tout à fait m’envoyer un mail, il y a mon numéro de téléphone, mon mail. N’hésitez pas, je suis à votre disposition pour discuter.


Profil LinkedIn : https://www.linkedin.com/in/matthieu-quiniou-4587a831
Cabinet : https://dnapartners.fr/


Autres liens :


Author

Youssef Jlidi

Spécialiste GEO & SEO, passionné de relations publiques et de nouvelles technologies autour de l'intelligence artificielle.

Share

Autres articles

Autres articles