Gérer les risques
Aujourd'hui et demain

Cyberprévention

Intelligence artificielle : la Cnil tire la sonnette d’alarme

La Commission Nationale de l'Informatique et des Libertés vient de publier un rapport qui s’interroge sur la "moralité" des algorithmes de l’intelligence artificielle.

Isaac Asimov, Pierre Bordage, Dan Simmons… Nombreux sont les grands auteurs de science-fiction qui se sont escrimés depuis des décennies à dénoncer les dangers de l’intelligence artificielle (IA) et le risque qu’elle prenne le dessus sur l’humanité. Aujourd’hui, la réalité semble dépasser la fiction et c’est au tour de la Commission Nationale de l’Informatique et des Libertés (Cnil), chargée de veiller sur les libertés numériques des Français, d’entrer en guerre. Et ce, en publiant un rapport dont le titre ne peut prêter à confusion : « Comment permettre à l’Homme de garder la main ». Dans ce rapport volumineux (75 pages), la Commission rassemble un an de débats avec des experts et des entreprises. Objectif : mettre en garde contre les débordements de l’IA, qui, si elle semble inéluctable, ne devrait être développée que sous certaines conditions d’éthique.

Des recommandations basées sur une meilleure éthique
Principal objectif de cette nouvelle croisade, la Cnil entend remettre de la morale dans les algorithmes en prenant en compte des valeurs telles que la « loyauté » et la « vigilance ». Pour cela, elle fait six propositions parmi lesquelles : former à « l’éthique informatique » les professionnels, les concepteurs de logiciels et aussi les citoyens. Il s’agit ensuite de rendre les algorithmes « compréhensibles » sachant que certains d’entre eux sont utilisés, par exemple, pour octroyer des crédits bancaires. Or ils ne sont pas compris par les banquiers eux-mêmes. Autre recommandation, développer une plateforme nationale d’audit des algorithmes.

Gare aux débordements de l’IA
Si 52 % des Français se sentent déjà mal à l’aise face aux algorithmes selon un sondage IFOP commandé par la Cnil, ce n’est pas sans raison. Rappelons-nous les débordements de certains programmes devenus racistes ou homophobes du fait d’avoir été alimentés par de mauvaises informations. En réaction à cela, la Cnil espère que l’on puisse un jour empêcher certains “biais” d’engendrer de la “mauvaise intelligence artificielle”.

Ségolène Kahn

Commentez

Participez à la discussion


The reCAPTCHA verification period has expired. Please reload the page.