Skip to content Skip to footer

MINUSCULE TRAITÉ SUR L’INTELLIGENCE ARTIFICIELLE NEWSLETTER #10

NEWLETTER #10

OU COMMENT DÉFINIR, C'EST PRÉVENIR…

Si la notion d’intelligence artificielle apparaît dès le milieu des années 1950, elle est, depuis quelques années, au cœur des débats et a acquis une notoriété telle qu’il n’est déjà plus envisageable de penser un avenir sans y avoir recours. Oui, vous non plus 😎.
 
Et pour cause, l’augmentation de la puissance de calcul, le développement de nouveaux algorithmes, et l’accès à une quantité colossale de données ont contribué à la développer à tel point qu’elle est aujourd’hui perçue comme une révolution comparable à l’industrialisation ou à l’avènement de l’internet.
 
Et tout comme ces deux derniers l’ont été à leur époque, les enjeux et défis qu’elle soulève se révèlent aussi prodigieux que déroutants pour les plus optimistes, menaçants pour les plus pessimistes.  
 
La fascination et les craintes suscitées par l’IA sont davantage renforcées par la manière dont elle est présentée. De fait, le vocabulaire employé pour la décrire lui confère déjà des caractéristiques humaines : déjà, elle menace notre idée de la conscience si chère à notre conception d’être.
 
Face à ces débats éthiques, s’établissent peu à peu des réponses juridiques nécessaires à la construction d’un cadre dont les limites permettraient de prévenir les scénarios catastrophes. À ce titre, l’approche réglementaire européenne, bien que précurseure, n’est que le début d’une longue réflexion sur l’encadrement de l’IA et se mesure, ou se heurte, à la réglementation ou les postures adoptées par d’autres pays.

Prêts pour une petite présentation ? Vous voulez en savoir plus ? C’est parti ! 👉

Texte alternatif (alt text) recommandé : Modèle de cerveau humain sous cloche en verre — symbole de l’intelligence artificielle, de la pensée et de la régulation juridique des systèmes autonomes.

✔️ Alors l’IA, au fond, qu’est-ce que c’est ?

On peut définir ce qu’elle fait : elle permet à des systèmes techniques, grâce à des systèmes informatiques, des données et des algorithmes, de percevoir leur environnement, gérer leurs perceptions, résoudre des problèmes et entreprendre des actions pour atteindre un but précis.

On sait ce qu’elle n’est pas : contrairement à ce que nom indiquerait, elle n’est pas (encore) intelligente au sens humain. L’apprentissage d’une machine ne relève pas du raisonnement, ni de l’intelligence, il est purement calculatoire, même si elle peut être générative, en ce sens qu’elle est capable de produire des contenus nouveaux. C’est en analysant un nombre colossal de données qu’une IA va déterminer et généraliser un modèle purement mathématique afin de résoudre un problème précis. Bref, les IA sont aujourd’hui conçues de manière à simuler l’intelligence humaine sans l’égaler. Aujourd’hui, oui mais demain ?

On appréhende ce qu’elle peut ou pourrait être : le professeur à l’Université de Darlana, Arend HINTZE, propose de classer l’intelligence artificielle en quatre catégories (voir la présentation complète ici) :

Les machines réactives : elles exécutent des tâches spécifiques pour lesquelles elles ont été programmées (exemple : les logiciels d’échec).

La mémoire illimitée : elle exploite une petite quantité de mémoire, afin de lui permettre, quand elle reconnaît une situation, d’utiliser son expérience et prendre des nouvelles décisions dans un temps réduit (exemple : les voitures autonomes).  

La théorie de l’esprit : elles sont capables de former des représentations du monde, notamment en comprenant les émotions et en appréhendant de manière intuitive ses propres objectifs comparé aux objectifs potentiels d’autres entités au sein d’un même environnement (exemple : certains robots qui ne sont pas encore commercialisés).

Une forme de conscience de soi : elle se révèle capable de former des représentations d’elle-même et serait dotée d’une conscience (cette IA, largement représentée par le 7ème art, n’existe pas encore).

Face à ce constat, la question éthique et, nécessairement, juridique, est désormais de savoir comment en proposer une catégorisation (encore 🤓) pour tenter d’en minimiser les risques et en optimiser les bénéfices.

 

✔️ L’intelligence artificielle : la définition juridique, une classification des risques

Comme d’habitude, on aime bien revenir à la base :

Selon la CNIL, l’intelligence artificielle est un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies
Le règlement européen sur l’IA (ou AI Act) entré en vigueur le 01 août 2024, (dont nous vous avons d’ores et déjà parlé ici ⭐️), la définit comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». Étonnant, non ?
 
Comme à son habitude, l’Union européenne, par l’IA ACT, première législation générale au monde sur l’intelligence artificielle, s’est positionnée à l’avant-garde de la régulation de l’intelligence artificielle avec pour objectif de créer un environnement de confiance au sein duquel les innovations peuvent prospérer tout en garantissant la protection des droits fondamentaux et des valeurs européennes.
 
Il vise à encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux, points qui ne sont pas sans rappeler le doux règlement général sur la protection des données (RGPD).
 
Il propose une classification des systèmes d’IA en quatre catégories de risques :
 
⇨ Les systèmes d’IA présentant des risques dits « inacceptables », et strictement interdits, tels que les systèmes de manipulation comportementale ou les systèmes de notation sociale.
 
⇨ Ceux à hauts risques, ou à risque élevés, limitativement définis, comme les IA utilisées dans des contextes critiques (santé, sécurité, justice), sont soumis à des obligations strictes de conformité, comprenant des évaluations rigoureuses avant leur mise sur le marché, la transparence, la documentation et la supervision humaine.
 
⇨ Enfin, les systèmes d’IA à risques limités ou minimaux, soumis à des exigences moindres, se concentrant essentiellement sur des obligations d’information des utilisateurs et de transparence.  À ce titre, la Commission européenne a adopté des codes de bonnes pratiques pour les modèles d’IA à usage général (dits « GPAI ») en juillet et août 2025 afin de clarifier, notamment, les obligations de transparence.
 
Le futur du droit en matière d’IA passera inévitablement par une redéfinition des concepts juridiques traditionnels, tels que la responsabilité et la personnalité juridique.  Par ailleurs, la société devra répondre à des défis éthiques et sociaux majeurs.
 

✔️ Et qu’est-ce que cela m’apporte ?

À comprendre davantage ce que vous avez entre les mains. Oui, on vous a déjà vu interroger votre IA préférée sur des questions les plus diverses. Vous ne pouvez, désormais, imaginer que le droit ne considère pas l’enjeu de vos nouvelles habitudes comme des questions sur lesquelles des bases et des réglementations doivent être édictées, adaptées, renforcées.
 
À philosopher. Si l’IA s’apparente désormais ou un jour à un être doté de conscience, qu’est ce qui fera de nous des êtres humains qui se différencient des machines ?
 
À signer votre premier roman : l’IA c’est bien pratique, ça écrit tout ce qu’on lui demande… et d’ailleurs, à votre avis, nous en sommes-nous servis pour rédiger cette newsletter ?
 
Allez, ce n’est naturellement pas tout, … Nous vous dévoilerons vite tous les méandres houleux de cette réglementation en constante évolution, alors d’ici là restez créatifs (ou connectés, c’est selon) ⭐️ !


Des questions ? Des remarques ?
Échangez avec nous sur www.novartavocats.com 👇🏿

Aline DOSDAT & Shiness guitard