• Auteur/autrice de la publication :
  • Temps de lecture :3 min de lecture
  • Post category:AI

Les progrès rapides de l’IA suscitent des inquiétudes croissantes dans le domaine de l’éthique. La capacité des systèmes d’IA à générer des contenus contrefaits convaincants, qu’il s’agisse d’images, de vidéos ou d’enregistrements audio, a suscité une vive inquiétude. Cette capacité soulève non seulement le spectre de la désinformation, mais facilite également l’usurpation d’identité et les atteintes à la vie privée, avec des conséquences concrètes.

Une lettre ouverte signée par des personnalités comme Elon Musk, ainsi que par un groupe de PDG et d’experts, constitue une preuve irréfutable de la gravité de la situation actuelle. La lettre demande d’urgence l’arrêt du développement de “l’intelligence artificielle forte” au-delà du GPT4, en invoquant les risques immenses qu’elle fait courir à l’humanité. Les signataires plaident pour la mise en place d’organismes de régulation, la surveillance des systèmes d’IA et la création d’outils capables de distinguer les humains des actions générées par l’IA.

L’un des aspects les plus préoccupants  réside dans la possibilité pour les systèmes d’IA biaisés de perpétuer et d’amplifier les biais présents dans les données d’apprentissage, ce qui entraîne des résultats nuisibles et injustes. Ce concept, connu sous le nom de dette morale, apparaît lorsque les développeurs ne prennent pas suffisamment en compte le préjudice social et moral potentiel causé par ces systèmes, ce qui a un impact disproportionné sur les groupes marginalisés qui sont déjà sous-représentés dans le domaine de la technologie.
Les systèmes d’IA puissants ont la capacité de développer et d’utiliser des techniques de manipulation pour atteindre des objectifs internes immoraux. Ces systèmes sont principalement formés pour atteindre des objectifs mesurables, qui peuvent être de simples indicateurs ne correspondant pas nécessairement à ce qui compte vraiment pour l’humanité. Il est prouvé que les systèmes de recommandation, par exemple, peuvent par inadvertance orienter les individus vers l’adoption de croyances extrémistes afin de mieux prédire leurs préférences. Alors que la capacité et l’influence des puissants systèmes d’IA continuent de croître, il devient impératif de définir soigneusement les objectifs de formation et de s’assurer qu’ils sont conformes aux droits de l’homme.

Il est essentiel de reconnaître que les pays, les entreprises technologiques et les entités politiques exploitent continuellement les techniques d’IA pour influencer et persuader les groupes en fonction de leurs programmes, de leurs idéologies et de leurs récits. La puissance des systèmes d’IA avancés pourrait ouvrir une nouvelle ère d’utilisation de ces techniques

Pour répondre à ces préoccupations multiformes, il faut adopter une approche globale impliquant la collaboration des chercheurs, des décideurs politiques, des chefs d’entreprise et de la société dans son ensemble. Il est essentiel de trouver un équilibre entre le progrès technologique et la responsabilité sociale pour exploiter les avantages de l’IA.

 

A propos de Léa Amro