Intelligences artificielles : les 10 recommandations de l’institut AI Now

(Image de couverture : Visualisation d'un rêve de DeepMind, l'une des IA de Google)

 

Les intelligences artificielles (IA) entrent progressivement dans notre quotidien alors même que la définition de la notion reste incertaine. Alors que l”informatisation a permis à l’Homme de résoudre des problèmes complexes par le biais de programmes capables de traiter un nombre considérable de données. L’intelligence artificielle va plus loin, puisque à présent, c’est la machine elle-même qui est capable de créer, d’inventer des programmes afin d’anticiper ou de résoudre des problèmes.

Les espoirs sont immenses, les inquiétudes également, notamment d’un point de vue éthique.

A ce sujet, l’institut AI Now, un centre de recherche lié à NYU, l’Université de New York, a publié en octobre son rapport annuel sur l’IA. Dans ce rapport, l’institut émet des recommandations détaillées afin de faire face aux défis éthiques et normatifs de l’intelligence artificielle pour nos institutions et relations sociales, économiques et politiques.

 

Voici les intitulés des 10 recommandations. Le rapport est disponible, en anglais uniquement, sur le site de l’institut. (Cf: sources)

 

  1. Les administrations, en particulier les administrations en charge de la justice, de la santé, du social et de l’éducation ne doivent plus utiliser d’IA dites “Black Box” (article en note de bas de page) ni de systèmes algorithmiques n’ayant effectué en amont un audit technique public.
  2. Avant de publier un système d’IA, les entreprises doivent sortir des versions d’essais et ce afin d’éviter que des erreurs de configuration de l’IA (problème d’architecture du système, des données d’entraînement, de l’algorithme) ne soient amplifier lors d’une publication plus large.
  3. Après publication d’un système d’IA, les entreprises doivent continuer de suivre son fonctionnement dans des contextes différents.
  4. Il doit y avoir plus de recherches scientifiques et de politiques publiques sur l’utilisation des systèmes d’IA au travail, y compris lors du processus d’embauche et dans les ressources humaines.
  5. Il faut développer des standards afin de suivre la provenance, le développement et l’usage des “training datasets” et ce, tout au long de la vie de ces données.
  6. Les recherches concernant les biais et comment les atténuer ne doivent pas être seulement aborder d’un point de vue technique.
  7. Des standards forts doivent être développés dans les plus brefs délais afin d’étudier et comprendre les usages des IA “in the wild”.
  8. Les entreprises, les universités, et les autres parties prenantes du domaine de l’IA doivent publier des données sur la participation, dans la recherche et le développement des IA, des femmes, des minorités et des autres groupes marginalisés.
  9. L’industrie de l’IA doit se rapprocher d’experts dans d’autres domaines que l’informatique et l’ingénierie et également s’assurer d’avoir un pouvoir décisionnel.
  10. Les codes d’éthiques que l’on voit se développer dans le domaine de l’IA doivent s’accompagner d’organes et de mécanismes de surveillances ayant un pouvoir réel.

Sources

 

Site Internet de l’institut AI Now

Rapport complet de l’institut AI Now

Article de synthèse publié sur Medium

Entretien avec Gilles Babinet sur le site de l’Institut Montaigne

Article sur les IA Black Box, Nature.com