You are currently viewing L’AI Act de l’Union européenne : quel impact sur les startups ?
Photo by Carl Campbell on Unsplash

Il est souvent dit que la technologie évolue plus vite que le droit. Conscients de l’impact de la technologie sur les citoyens de l’UE, les régulateurs européens ont pris plus au sérieux le contrôle des entreprises technologiques au cours des dernières années. Même s’ils ont généralement les grandes entreprises technologiques à l’esprit lorsqu’ils créent de nouvelles règles, il arrive de plus en plus souvent que ces nouvelles politiques et règles touchent également les start-ups et petites entreprises du secteur technologique.

Les nouvelles législations ont généralement un impact sur les startups de deux manières. Premièrement, elles unifient et clarifient les règles existantes sur les marchés des 27 Etats membres, ce qui permet aux entreprises de se développer et de pénétrer plus facilement dans de nouvelles zones géographiques. De plus, elles créent souvent des conditions de concurrence équitables pour les petits acteurs du marché, car les réglementations de Bruxelles ont tendance à cibler les grandes entreprises technologiques.

D’un autre côté, les nouvelles législations impliquent également plus d’obligations de conformité, ce qui nécessite généralement beaucoup de ressources humaines et financières – ce que les startups et les petites entreprises n’ont parfois pas.

Création des nouvelles règles pour le développement et l’utilisation de l’IA

Le règlement européen sur l’intelligence artificielle (AI Act) crée de nouvelles règles pour le développement et l’utilisation de produits et services basés sur l’IA. En résumé, l’AI Act classe les systèmes d’IA selon une approche fondée sur le risque, allant d’un risque inacceptable à un risque minimal, et s’applique aux fournisseurs et utilisateurs d’IA, quelle que soit leur taille. Elle est également mise en œuvre par les États membres.

Dans le détail, le nouveau texte européen vise à harmoniser les règles relatives à l’IA en Europe, afin de garantir que seuls des systèmes d’IA sûrs et dignes de confiance entrent sur le marché. La nouvelle législation pourrait interdire certaines utilisations de la technologie (par exemple la manipulation, l’exploitation et le « scoring social »), contrôler l’utilisation de la reconnaissance faciale dans les lieux publics et établir des règles strictes pour les applications d’IA « à haut risque ».

Les législateurs envisagent également de créer une définition de l’IA et d’établir des lignes directrices pour implémentation de l’IA – un « espace sûr » réglementaire où les innovateurs peuvent tester leurs solutions sans conséquences juridiques.

Quel impact sur les startups ?

Afin de distinguer les applications d’IA dangereuses des applications banales, la Commission a proposé une taxonomie des risques. Les entreprises doivent évaluer soigneusement à quelle catégorie de risque elles appartiennent et s’il existe un risque de croisement futur.

Selon cette taxonomie, près de 35 % de tous les secteurs de l’UE (en valeur), soit 3,4 milliards d’euros d’activité économique, devraient appartenir à la catégorie « à haut risque » – ce qui veut dire que ces entreprises devront faire face à la plus grande charge administrative et de conformité. Cela inclut les services de construction de startups comme l’identification biométrique et la catégorisation des individus, les évaluations de solvabilité, le recrutement et les évaluations de performance, ainsi que les composants de sécurité des infrastructures critiques comme la fourniture de services publics, les domaines d’activité qui ne sont pas strictement réservés aux grandes entreprises.

Une récente enquête menée auprès de plus de 100 start-ups d’IA et de 15 sociétés de financement en capital (VC) dans l’UE a mis en lumière les problèmes potentiels soulevés par la réglementation européenne sur l’IA, notamment les suivants:

  • les obligations imposées aux systèmes d’IA à haut risque (et à leurs fournisseurs) sont considérées comme un « défi important en termes de complexité technique et organisationnelle et de coût de mise en conformité ». Environ la moitié des startups s’attendent à ce que les coûts de mise en conformité soient de l’ordre de ceux prévus par l’UE (160 000 à 330 000 euros), mais 19 % s’attendent à des coûts plus élevés
  • Certaines startups d’IA (16%) envisageront d’arrêter de développer l’IA ou de se délocaliser en dehors de l’UE (cependant, la réglementation européenne sur l’IA concerne les systèmes d’IA qui sont mis sur le marché de l’UE ou mis en service sur ce marché, elle n’est donc pas limitée aux organisations situées dans l’UE)
  • 50 % des startups interrogées craignent que la loi sur l’IA ne « ralentisse l’innovation en matière d’IA en Europe »
  • la plupart des sociétés de financement (VC) s’attendent à ce que la réglementation sur l’IA réduise la compétitivité des start-ups européennes dans le domaine de l’IA, et à ce que les sociétés de financement en capital modifient la destination et la nature de leurs investissements.

En 2022, l’UE a publié sa toute première feuille de route politique pour les startups dans le cadre de l’agenda européen de l’innovation – et avec toutes les évolutions récentes de la politique technologique, cette vision pourrait devenir une réalité en 2023.

 

Sources :