La Cnil veut la création d’un gendarme de l’intelligence artificielle

Isabelle Falque-Pierrotin, présidente de la Cnil

La Cnil souhaite que l’homme garde la main face à l’intelligence artificielle. Elle vient de remettre son rapport issu de la consultation de 3000 participants entre janvier et octobre 2017.

Création d’une plateforme d’audit

Sa proposition principale est la création d’une autorité de contrôle des algorithmes, baptisée « plateforme d’audit des algorithmes ». De plus, la Cnil veut multiplier les instances en charge de faire entrer le sens de l’éthique chez toutes les parties prenantes, entre concepteurs, entreprises et société civile. La Cnil souhaite également contrer l’effet boîte noire de l’I.A. et faire en sorte que l’I.A. soit loyale vis à vis des individus et des communautés.

Au passage, l »usage du terme de communauté par la Cnil apparaît étonnant dans une société française qui apparaît menacée de fragmentation voire d’implosion face à des revendications multiples tant politiques que commerciales, sociétales, morales ou religieuses. La Cnil ouvre la voie à chaque groupe d’intérêt pour s’opposer à un algorithme s’il estime qu’il nuit à ses intérêts.

Isabelle Falque-Pierrotin, présidente de la Cnil, a présenté ce rapport de synthèse du débat public sur les enjeux éthiques des algorithmes et de l’intelligence artificielle le 15 décembre en présence de Mounir Mahjoubi, secrétaire d’Etat chargé du Numérique.

L’algorithme doit être loyal à titre personnel et pour des communautés

Le rapport de la Cnil souhaite un modèle français de gouvernance éthique de l’intelligence artificielle. Il demande l’affirmation de deux principes fondateurs : la loyauté et la vigilance. Tout algorithme doit être loyal envers ses utilisateurs, non seulement à titre personnel et citoyen mais également collectif.

Cette loyauté collective concernerait des communautés ou de grands intérêts collectifs dont l’existence pourrait être directement affectée. En matière de vigilance, la Cnil veut organiser un questionnement régulier à l’égard de l’I.A. Des comités d’éthique doivent assurer un dialogue systématique et continu entre les différentes parties-prenantes : les concepteurs, les entreprises et les citoyens.

Six propositions

La Cnil émet 6 recommandations. La principale est de constituer une plateforme nationale d’audit des algorithmes. De plus, il s’agit de former à l’éthique tous les acteurs de la « chaîne algorithmique », les concepteurs, les professionnels et les citoyens). La Cnil veut rendre les systèmes algorithmiques compréhensibles afin que chaque humain comprenne les ressorts de la machine. La Cnil demande que le design des systèmes algorithmiques contre l’effet « boîte noire » ;


Le Cnil veut encourager la recherche sur l’I.A. éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général. Elle veut renforcer la fonction éthique au sein des entreprises, par exemple en élaborant des comités d’éthique, en diffusant de bonnes pratiques sectorielles ou en révisant les chartes de déontologie.

L’homme ne doit pas croire que les algorithmes savent mieux que lui

La Cnil identifie plusieurs risques soulevés par l’IA, pour lesquels elle souhaite que des solutions soient trouvées. Elle craint tout d’abord une perte d’autonomie de l’homme face à l’autonomie des machines. Les algorithmes sont souvent jugés infaillibles et « neutres », la Cnil craint une confiance excessive et la tentation pour chacun de ne pas exercer pleinement ses responsabilités.

La Cnil pointe également les biais, les discriminations et les exclusions dus aux algorithmes et à l’intelligence artificielle. Ces phénomènes sont parfois volontaires mais le plus souvent inconscients et difficilement repérables, estime-t-elle. Elle souhaite que l’on trouve une réponse à cette question.

L’intérêt collectif et la personnalisation

Il faut préserver l’intérêt collectif et la mutualisation des risques

La Cnil craint aussi la personnalisation permise par l’I.A. La segmentation et le profilage apporteront des bénéfices pour l’individu, mais la Cnil estime qu’ils vont tout autant affecter des logiques collectives essentielles à la vie en société, telles que le pluralisme démocratique et culturel, et la mutualisation du risque.

Autre point, l’I.A. nécessite d’importantes quantités de données à des fins d’apprentissage. La Cnil s’interroge sur la manière de développer l’I.A. tout en protégeant impérativement les libertés individuelles. La Cnil s’interroge sur la manière de sélectionner de manière pertinente les données qui vont nourrir les algorithmes.

Que faire face aux humains qui aiment des robots ?

Enfin, la Cnil entre dans un débat philosophique sur la spécificité humaine face à l’autonomie des machines ainsi que face aux formes d’hybridation entre humains et machines. Comment réagir face aux robots humanoïdes, susceptibles d’engendrer un attachement affectif chez l’homme ?

Les champs d’exploration des algorithmes et de l’intelligence artificielle abordés par le rapport concernent les médias, la vie publique et politique, l’éducation, la culture, la santé, la justice, la sécurité et la défense, la banque et la finance, l’emploi et le recrutement.

Une réaction sur “La Cnil veut la création d’un gendarme de l’intelligence artificielle” :

  1. Gaudin de Lagrange

    On rit !! Après la « taxe sur les robots » voila lA éthique et les algorithmes soumis à contrôle !!!! Les membres de la CNIL ont ils une idée de ce dont ils parlent ? Quant à la RGPD, au secours !!!

    Heureusement, dans Intelligence artificielle il y a « artificiel », Cela nous change.

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *