IA et éthique des professionnels du chiffre

2018-11-12T10:07:09+00:00 9 novembre 2018|Catégories : ANALYSE|Mots-clés : , , , , , |

Selon Stephen HAWKING, « parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l’histoire humaine. Malheureusement, il pourrait aussi s’agir du dernier, à moins que nous apprenions à éviter les risques ».
Mais qu’est-ce au juste que l’intelligence artificielle ? Pour Frédéric Bardolle, membre de Data For Good et d’Algotransparency, « elle repose sur des algorithmes et plus précisément sur du machine learning, c’est à dire des algorithmes qu’on « nourrit » avec des données et à partir desquelles ils vont apprendre, extraire des données, puis prédire certaines choses »¹.

SOMMAIRE

Partager l’article

CATEGORIES

RSS Diigo

Si les professionnels de la comptabilité utilisent depuis bien longtemps des algorithmes pour automatiser leurs processus, leur perfectionnement, leur complexification et leur extension progressive à toutes les tâches comptables – voire celles de conseil – posent la question de leur maitrise effective. En effet, dans un proche avenir, sera-t-on toujours en mesure de comprendre, d’expliquer, voire de redresser les résultats obtenus ? Question qui nous ramène à celle de la déontologie. Le professionnel comptable se doit d’être et de paraitre indépendant dans l’exercice de son activité. Conservera-t-il les moyens de le rester vis-à-vis du robot comptable et ceux qui l’ont programmé ? En somme, comment garder la maîtrise de son art ?

Les prémices : les lois sur les robots

Dès les années 40, l’auteur de science-fiction Isaac ASIMOV avait formulé des lois visant à encadrer le développement de la robotique :

  • Première loi : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;
  • Deuxième loi : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • Troisième loi : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Plus tard, une quatrième loi sera rajoutée. Baptisée loi zéro, elle dispose qu’un

« robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée ».

L’extension à l’éthique des algorithmes

L’action d’un robot n’est pas autonome. Elle résulte de la mise en œuvre d’algorithmes alimentés par des données. Le robot ne peut donc constituer cet écran opaque entre l’humanité et celui qui l’a programmé. Ce dernier doit garder la maitrise et donc la responsabilité des causes et de leurs effets (causalité) en s’astreignant à une éthique. Reste à en partager les principes.

C’est ainsi, que dans la continuité des lois d’Asimov, les initiatives foisonnent pour tenter de définir une éthique des algorithmes, adressée à ceux qui les conçoivent. C’est notamment le cas des GAFAM qui, avec d’autres grands acteurs, se sont unis pour créer une plateforme « Partnership on AI » qui vise à définir les meilleures pratiques autour de l’intelligence artificielle². Leurs travaux sont articulés autour des six thématiques clefs :

  1. Sécurité : les outils d’IA doivent être sûrs et fiables dans la mesure où ils sont destinés à compléter ou remplacer la prise de décision humaine.
  2. Équitabilité, transparence et responsabilité : les données utilisées par l’IA étant issues de base de données, il convient d’être vigilant quant à la possibilité d’hypothèses cachées, de données erronées conduisant à des raisonnements biaisés (volontairement ou non). Il est donc nécessaire de développer des méthodes visant à détecter et corriger ces anomalies afin qu’elles ne se répliquent pas.
  3. Effets sur le travail et l’économie : les progrès de l’IA ayant un impact sur la répartition des emplois actuels, les recherches du groupe de travail visent à minimiser ces perturbations en veillant à ce que les fruits des progrès soient partagés.
  4. Collaboration utilisateurs et IA : il est nécessaire de faciliter les échanges entre l’Homme et l’IA afin d’améliorer la compréhension et la confiance des systèmes d’IA et de les adapter au mieux aux besoins.
  5. Influences sociales et sociétales de l’IA : s’assurer que l’IA ne soit pas détournée de son objectif initial.
  6. Promotion de l’intérêt général : l’IA offre un grand potentiel dans les domaines tels que l’éducation, le logement, la santé… Dès lors, il est important de favoriser des partenariats publics privés pour catalyser les efforts pour relever les défis les plus pressants.

En janvier 2017, une conférence organisée par le « Future of Life Institute » (FLI), association cherchant notamment à diminuer les risques de l’intelligence artificielle, a occasionné la publication d’un guide dans lequel sont détaillés 23 principes – dits principes d’« Asilomar » – visant à encadrer le développement de l’IA. Il est le fruit d’un travail de collaboration entre des scientifiques spécialisés dans l’IA ou la robotique et d’autres parties prenantes telle que « Partnership on AI ».³»

Vers un serment d’Hippocrate pour les datas scientists ?

Avancée supplémentaire, la communauté de datas scientists et de développeurs Datas for good propose depuis juin 2018 un serment d’Hippocrate, avec pour objectif

« d’éveiller la conscience éthique des data scientists, en informant les parties prenantes sur (…) l’utilisation des données, en assurant que les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitime, en respectant la vie privée et la dignité humaine et en assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».

N’est-ce pas là la manifestation d’un corps professionnel en voie de constitution ?

Un enjeu spécifique pour les professionnels du chiffre ?

L’IA touche aussi bien les modes de production que de communication et de formation. Pour ne citer que quelques exemples, retenons que la dématérialisation des factures permet de générer automatiquement un brouillard d’écriture via l’OCR, le recours à des logiciels de data mining favorisant, quant à elle, l’analyse d’importantes bases de données au premier rang desquelles figure le FEC…

Ainsi, l’IA permet à la profession de déléguer des tâches, des raisonnements et des décisions de plus en plus complexes et critiques à des machines. Dans ces conditions, à côté de l’augmentation de sa puissance d’agir permise par la technique, n’est-ce pas aussi l’autonomie et le libre arbitre du professionnel qui s’en trouvent érodés ?

Rappelons que le professionnel se doit d’éviter toute situation qui l’exposerait à des influences susceptibles de porter atteinte à son indépendance (jusqu’à son impartialité pour le commissaire aux comptes). Pour cela, il fonde ses conclusions et ses jugements sur une analyse objective de l’ensemble des données dont il a connaissance, sans préjugé ni parti pris.

Or, une grande partie des considérations éthiques soulevées par l’IA tiennent à l’opacité de ces technologies. En dépit de leur performance accrue, il est souvent très difficile d’expliquer les décisions. Pour les professionnels souhaitant s’en emparer au plus vite, une des premières difficultés est de comprendre son fonctionnement, de remonter la piste d’audit. En d’autres termes, d’ouvrir la « boîte noire » afin de comprendre la causalité d’un résultat pour en déduire sa compatibilité avec sa propre éthique.

Dès lors, comment forger son opinion à partir d’une technologie que l’on serait incapable d’expliquer ? Les professionnels resteront-ils compétents pour recourir à l’IA dans le cadre de leur mission ?

Comment conserver son indépendance, son jugement professionnel face à une machine capable d’analyser l’exhaustivité des flux d’une entreprise ?

De plus, le prestige et la confiance accordés à des machines jugées souvent infaillibles ne risquent-ils pas de générer la tentation de se décharger entièrement – et les yeux fermés – sur elles ?

Afin de ne pas perdre son essence « éthique » qui en fait l’une de ses principales valeurs ajoutées, la profession ne pourra pas faire l’économie d’une profonde réflexion, en écho que celles que mènent les professionnels de l’IA. Mais également d’autres professions comme celles de médecins ou encore d’avocats.

Une démarche d’autant plus essentielle que l’humanité, inquiète, réclame toujours plus de transparence. Tout est question de confiance.

Notes

⁶ Voir note 1
⁷ L’impartialité pouvant se définir comme l’indépendance non seulement en fait, mais également en apparence.

Nos articles récents

L’intelligence artificielle au service des professions du chiffre

15 mars 2019|

Un exemple de classification automatique pour les experts-comptables

5 mars 2019|

Un exemple de détection d’anomalies

22 février 2019|

Data science pour les experts-comptables : voici un exemple concret

8 février 2019|

Imprimer cet article

Laisser un commentaire