You are currently viewing Les modèles d’IA à usage général : le RIA incite-t-il à des conceptions différentes ?

La réglementation empêche l’innovation. C’est ce qu’essayent de nous faire croire les entreprises et les figures mondialement médiatisées. Le moratoire « Stop the Clock », appuyé par des entreprises de l’EU AI Champions Initiative, vient confirmer cette volonté d’éradiquer tout cadre réglementaire, peu importe si celui-ci prévoit des mesures venant favoriser l’innovation (cf. bacs à sable règlementaires).


La puissance de calcul comme référence


Le point fort de la réglementation est de baser l’étreinte réglementaire sur la puissance de calcul (soit > 10²³). Concrètement, il s’agit du volume d’opérations en virgule flottante mobilisées lors de l’entraînement. De plus, la finalité de la conception du système n’est pas importante si celui-ci peut possiblement être réutilisé.

 

Si la puissance venait à dépasser le seuil des 10²⁵ FLOPS, le système est dit à risque systémique. Résultat : une charge réglementaire bien plus importante, telle que des tests continus et une cybersécurité renforcée.

 

Quelques exceptions existent. Lorsque le modèle est publié en open source, celui-ci est majoritairement exempté s’il n’y a pas de monétisation ou de collecte de données personnelles.

 

L’objectif est aussi celui de la transparence algorithmique et ce, afin de contrer du mieux possible la nature de « boîte noire » de ces modèles. Les fournisseurs devront ainsi remplir des formulaires comprenant toutes les informations techniques du modèle, telles que leur architecture, les spécifications de conception, les modalités input/output, les processus d’entraînement ou encore les données utilisées.

L’objectif est que cette transparence permette aux déployeurs d’intégrer les modèles de manière éclairée et sécurisée, car chaque modèle d’IA diffère dans son entraînement et donc dans son fonctionnement.

 

Lorsque l’on parle de SIAG, le premier usage décrié est celui de son utilisation à des fins de plagiat. Là aussi, l’AI Act entend réagir à ce problème qui s’amplifie. Les fournisseurs de SIAG devront disposer d’un document unique qui décrit précisément la conformité générale au droit d’auteur.

 

Désormais, il sera aussi interdit de contourner les paywalls, les mesures techniques de protection ou encore les opt-out qui permettent à un utilisateur de choisir une porte de sortie sur le traitement de ses données personnelles par exemple.

 

De manière générale, la réglementation en vigueur aborde à 360 degrés les problèmes qui découlent directement ou indirectement de l’utilisation de l’intelligence artificielle. Une réglementation qui incarnera peut-être une nouvelle ère dans la conception des modèles d’intelligence artificielle.


Vers une open « sourcisation » des modèles ?


Une récente étude publiée le 22 avril 2025 par McKinsey déclare que de plus en plus d’organisations qui déploient de l’IAG se tournent vers des solutions d’IA en open source pour construire leurs projets technologiques.

 

Suite au tsunami provoqué par DeepSeek en publiant ses modèles entièrement ouverts, d’autres entreprises ont suivi le pas. Le représentant d’OpenAI (malgré une dénomination un peu à l’inverse de sa pratique), Sam Altman, déclara que l’entreprise fut « du mauvais côté de l’histoire » en matière d’open source et qu’il fallait imaginer une stratégie open source différente.

 

Effectivement, OpenAI annonce le 6 août 2025 deux modèles open-weight : GPT-OSS-120B et GPT-OSS-20B.

 

L’open-weight est donc un premier pas vers la destination finale que représente l’open source. Des modèles dont la sécurité n’a pas été évincée du budget de conception. Les modèles sont soumis à des mécanismes avancés de filtrage et de post-formation pour réduire au maximum les risques liés à la disposition publique. Des experts ont même pu challenger les modèles fine-tunés intentionnellement de manière malveillante pour repérer les potentielles failles.

 

À l’heure actuelle, il est difficile de dire si, du côté des fournisseurs, la réglementation européenne est l’une des raisons pour lesquelles ces derniers se tournent vers des modèles davantage en open source.

 

Malgré tout, ces derniers sont de plus en plus tentés de rééquilibrer l’offre entre les modèles propriétaires puissants et les alternatives open source.

 

Quoi qu’il en soit, le RIA incite largement à repenser la manière dont les modèles doivent être conçus, en desserrant son étreinte réglementaire sur les modèles qui font preuve d’une réelle transparence algorithmique : les modèles en open source.

 


Théo Bartzen

Etudiant Master 2 Droit de l’économie numérique

 

 

Sources :

IA en open source : de quoi parle-t-on vraiment ?

mckinsey-technology-trends-outlook-2025.pdf

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.