Le commissaire aux comptes à l’ère de la donnée numérique

2020-07-20T09:48:01+00:00 17 juillet 2020|Catégories : MÉMOIRE DU FUTUR|Mots-clés : , |

En créant la rubrique « mémoire du futur », le Lab50 a souhaité mettre en valeur et encourager les experts-comptables mémorialistes qui ont choisi d’approfondir un thème lié à l’intelligence artificielle. Et ainsi de mettre à disposition de la profession leurs travaux et œuvrer au bénéfice de tous. N’hésitez pas à les encourager en leur faisant part de vos retours d’expérience, le cas échéant.

SOMMAIRE

Partager l’article

CATEGORIES

Louis-Noel Lorandon
Louis-Noel LorandonExpert-comptable stagiaire
Titre du mémoire :
« Le commissaire aux comptes à l’ère de la donnée numérique – Proposition d’un guide pour la réalisation de sondages à l’aide d’un outil d’analyse de données. »
Lab50 : Pouvez-vous vous présenter ?

Expert-comptable stagiaire au sein d’un cabinet régional de commissariat aux comptes, je rédige actuellement mon mémoire. Auparavant, j’ai évolué dans un cabinet international et plus précisément dans le département « expertise-comptable »  où j’ai assisté au déploiement d’outils orientés vers la digitalisation et la dématérialisation.

Pourquoi avoir choisi ce sujet ?

À travers mes lectures personnelles sur l’analyse de données, j’ai constaté que la digitalisation des petites et moyennes entreprises n’était qu’à ses balbutiements.

Le cœur de cette transformation est la « data ». Elle est le carburant de toutes les nouvelles technologies (intelligence artificielle, blockchain) qui impactent notre société. De plus, sa manipulation nécessite des outils spécifiques indispensables à son extraction, à sa visualisation et enfin à son analyse.

Les entreprises vont devoir incontestablement être accompagnées vers cette transformation. Le commissaire aux comptes est une véritable partie prenante de cette transformation en raison de ses connaissances des process de l’entreprise. Cependant, une récente réforme ne permettra plus à certaines entreprises de bénéficier de l’analyse du commissaire aux comptes.

De plus, force est de constater que les données utilisables dans la mission d’audit sont de plus en plus volumineuses, variées et que les outils et méthodes à notre disposition ne sont pas suffisamment armés pour faire face à toutes ces données.

Plus précisément, pourquoi l’utilisation du sondage ?

De nombreux textes légaux et normatifs font référence à l’utilisation de sondages. Ces derniers constituent une technique inhérente à la mission d’audit. Cette technique est utilisée par tous les auditeurs au cours de leurs missions.

Dans cet environnement numérique et digital, le commissaire aux comptes va devoir s’approprier des techniques de sondages plus « scientifiques », notamment l’échantillonnage statistique. Cette technique, certes connue, n’est pas démocratisée.

De plus, le commissaire aux comptes va devoir aller plus loin pour identifier et extraire des éléments suspects dans ce volume de données. Le recours à la data analytics, au datamining couplé à celui du FEC rend ces identifications et extractions réalisables.

Cependant, toutes ces techniques nécessitent l’utilisation d’outils d’analyse de données et l’acquisition de réflexes dans la manipulation de ces données.

Comment acquérir ces réflexes ?
Schéma méthodologie analyse de données

Ces réflexes sont acquis grâce à une méthodologie d’utilisation de l’analyse de données en audit. Cette méthodologie a été construite à partir de mes lectures personnelles, d’échanges et de mes expériences lors des missions. Cette méthodologie synthétisée ci-dessous se déroule en 4 étapes :

  1. Planification de l’analyse de données

En fonction de la démarche d’audit (prise de connaissance de l’entité, réalisation des procédures d’audit…), l’auditeur doit déterminer la population à analyser, sélectionner les fonctions, commandes, tableaux ou graphiques pertinents.

  1. L’accès et la préparation des données

À travers une check list (cartographie du SI ? données immédiatement disponibles ? données historisées ? …) l’auditeur s’assure de l’accessibilité des données.

À partir de cette étape, il doit garantir l’intégrité et la confidentialité des données tout au long de ses travaux.

La manipulation des données se réalise en deux étapes : le nettoyage des données (elles sont en effet rarement exploitables en l’état) et le modelage des données (l’auditeur structure les données pour ses travaux).

  1. La vérification et la fiabilité des données

Certains facteurs, regroupés en trois familles (nature des données, format des données, caractère spatio-temporel des données), peuvent altérer la fiabilité et la pertinence des données. Face à chaque facteur identifié, l’auditeur doit entreprendre une démarche particulière pour éviter tout écueil.

  1. L’évaluation et la documentation des travaux

Tout au long de l’audit, l’auditeur doit faire preuve d’un esprit critique. Lorsqu’il conclut sur ses travaux réalisés grâce à l’analyse de données, cet esprit critique doit permettre, à la fois de valider les résultats obtenus et de s’interroger sur l’efficience de la méthode utilisée.

Enfin, la documentation des travaux fait partie de l’ADN des auditeurs. Cependant, l’utilisation de l’analyse de données ne doit pas remettre en cause cette documentation. Ainsi, la feuille de travail doit recenser différentes informations (source des données, …) et l’historisation des actions (réalisée par certains outils d’analyse de données) rend reproductible les travaux réalisés.

Quelles seraient, selon vous et à ce stade de vos réflexions, les progrès à faire au sein de la profession ? Quels sont les freins ?

Le sondage réalisé auprès de la profession met en évidence le constat suivant : le second outil le plus utilisé, après le logiciel pour la démarche d’audit, est Excel.

Ce logiciel reste très intuitif et pratique grâce l’installation d’addon, comme SMARTFEC. Ce dernier, développé par la CNCC, est un formidable outil. Cependant, il reste prisonnier des capacités du tableur. De plus, la garantie de l’intégrité des données et l’historisation des travaux y sont absentes.

Selon moi, SMARTFEC est une première étape que nous devons dépasser en intégrant plus de « datavisualisation » et plus « d’analytics ». Cette évolution sera rendue possible grâce à la création d’une communauté d’utilisateurs comme on peut le voir avec Power BI. Tous ces éléments réunis permettront de construire un outil capable de faire face au futur environnement de travail du commissaire aux comptes.

Enfin, je considère qu’un commissaire aux comptes à l’aise avec la manipulation de la data saura facilement intégrer d’autres technologies dans sa démarche d’audit.

Comment, ceux qui liront cette interview, pourraient vous aider à progresser dans vos travaux ?

J’invite les lecteurs de cette interview à me communiquer les résultats de leurs travaux, leurs réflexions, remarques sur ce sujet et les éventuelles techniques qu’ils ont pu déployer. Enfin, je porte une attention toute particulière aux développements des éditeurs de logiciels traitant de ce sujet tout à fait passionnant.

Vous souhaitez nous soumettre le sujet de votre mémoire IA, blockchain, data et rejoindre la communauté « Mémoire du futur » ?
Ecrivez-nous à hello@lelab50.fr

Nos articles récents

Le commissaire aux comptes à l’ère de la donnée numérique

17 juillet 2020|

Méthodologie d’implantation d’un Chatbot comme outil d’appropriation de l’IA

18 octobre 2019|

L’utilisation de l’IA par l’expert-comptable

12 juillet 2019|

L’expert comptable : un être humain face à l’intelligence artificielle

21 juin 2019|

Imprimer cet article

Laisser un commentaire

Email
Twitter
LinkedIn