IAG : potentialités radicales et réarmement éthique

Date : Tags : ,

En août 2025, Sam Atman déclarait qu'OpenAI était à la recherche d'une IA « générale », capable de surpasser l'être humain dans la plupart des missions, en apprenant continuellement, de façon autonome et souple, en assimilant rapidement de nouveaux sujets et réutilisant ses acquis dans n'importe quel contexte : une avancée majeure par rapport aux IA génératives.

Franchir cette étape radicale dans la recherche permettrait aux IA d'avancer par elles‑mêmes, avec le risque qu'elles nourrissent un agenda autonome. De cette hypothèse résultent nombre de conjectures :  suppressions massives d'emplois, pertes du rôle décisionnel des humains.

Dans L'Anti‑Œdipe (1972), Deleuze et Guattari pensent un modèle de vie et de technique qui dépasse la logique binaire vitalisme/mécanisme, en insistant sur l'hétérogénéité, la multiplicité et l'inscription sociale des « machines désirantes » : les unités structurelles de l'humain et de la machine sont intrinsèquement liées, chacune prolongeant l'autre.

En 1958, les mathématiciens John von Neumann et Stanislaw Ulam développent la théorie de la singularité technologique : un jalon à partir duquel le progrès ne serait plus l'œuvre que de systèmes d'intelligence artificielle qui s'auto‑amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement dans une « explosion d'intelligence », débouchant sur une superintelligence qui dépasserait qualitativement de loin les capacités humaines. Le chercheur Ray Kurzweil estime que l'homme fusionnera ainsi avec la machine en 2045, évènement qu'il appelle la Singularité.

Comment, alors, aller vers des IAG conservant une responsabilité, et quelle responsabilité ?

Isaac Asimov pose les trois célèbres lois de la robotique dans Cercles Vicieux (1942), selon lesquelles un robot ne peut porter atteinte à un être humain, doit obéir aux ordres donnés par les êtres humains tout en protégeant sa propre existence, dans la mesure où ces lois n'entrent pas en contradiction entre elles. Asimov ajoute une Loi Zéro en 1986, qui estime qu'un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée. Mais comment s'assurer que la machine respectera ces principes, une fois paramétrés ?

Certains sont justement de l'avis de limiter l'avancée des recherches le temps de consolider certaines sécurités, comme le témoigne la lettre ouverte d'Elon Musk en 2023, appelant à une pause qui servirait à mettre au point de meilleures mesures de protection pour ces logiciels, considérés comme un "risque pour l'humanité".

À cet effet, le chercheur Stuart Russel développe dans Human Compatible (2019) plusieurs principes concernant les machines et leur rapport à l'humain : ces dernières ayant pour seul objectif de maximiser les préférences humaines, elles ne sont initialement pas sûres de la nature de ces préférences, ainsi, il n'y a que le comportement humain qui peut réellement percer les motivations humaines.

Le collectif d'entreprises Impact AI est déjà engagé pour une « IA responsable », et a établi un « guide pour une IA digne de confiance » qui repose sur quatre registres : transparence, développement durable et bien‑être, gouvernance des données, dignité.

A l'avenir, les IA générales seraient instruites pour servir les objectifs humains, s'inscriraient durablement dans une perspective productive, positive, qui n'impliquerait que peu d'émotions, propres aux humains.

Une étude du Centre pour la Gouvernance de l'IA de 2023 propose 50 pratiques à mettre en place pour une gouvernance éthique et sécurisée de l'IAG (avec des spécificités IAG par rapport aux IA génératives), dont les plus importantes sont :

  • Évaluation des risques avant le déploiement (pre‑deployment risk assessments) ;
  • Évaluation des capacités dangereuses (dangerous capabilities evaluations) des modèles ;
  • Audits de modèles par des tiers (third‑party model audits) ;
  • Restrictions de sécurité sur l'usage des modèles après leur déploiement ;
  • Red teaming (tests adversaires externes). 

Ces mesures reçoivent un taux d'approbation unanime de la part des experts interrogés (98 %), laissant entendre une prise en main par les pouvoirs publics à l'avenir.

Les États souhaitent d'ailleurs exercer un certain contrôle sur l'IA à terme ; bien qu'il y ait une course entre les puissances, on trouve des propositions de gouvernance différentes : le Mémorandum américain (National Security Memorandum on Artificial Intelligence), l'AI Act de 2024 de l'Union Européenne, ou encore le Plan Global de Gouvernance de l'Intelligence Artificielle introduit par la Chine en 2025.

À l'échelle d'une entreprise, à l'instar d'un État, il est donc envisageable d'édicter des règles pour l'IAG, avec un réarmement éthique, et les moyens sont mobilisés dans cette optique : correctement guidée, une IAG contribuerait ensuite à la stratégie de l'organisation : améliorer l'anticipation de crises et de marchés émergents, ou le développement de technologies, molécules, prototypes nouveaux. Les progrès des IAG permettront à certaines missions d'être automatisées, avec prévision de risques, pénuries, et fluctuations. Par ailleurs, la formation et le transfert de compétences au sein d'une entreprise pourraient être centralisées et faciles d'accès.

Si l'IAG peut devenir un partenaire stratégique et co‑pilote des activités nécessaire, son utilisation doit être orientée vers le but défini au préalable ; préparer les fondamentaux techniques au sein de son entreprise, investir dans les compétences humaines, instaurer une gouvernance éthique, et garder une vision prospective, c'est cette préparation progressive qui apportera aux entreprises une acculturation souple à l'IA générale et un avantage compétitif durable.

 

Félix Thomas

Consultant « Tendances »

Groupe Les Temps Nouveaux

À lire également