Essayer IDEA

L’intelligence artificielle et l’auditeur : êtes-vous prêt ?

Par Deniz Appelbaum et Jeffery Sorenson

 

De nombreuses entreprises adoptent les applications d’intelligence artificielle (IA) ou envisagent de les mettre en œuvre dans les processus d’entreprise relatifs aux renseignements des états financiers. Cela signifie que les auditeurs pourront bientôt être obligés de comprendre les effets des processus d’IA sur la substance à la base de cette information financière. 

 

Au moins 55 sociétés ouvertes signalent maintenant les applications d’IA comme un nouveau risque dans leurs rapports annuels destinés aux actionnaires (Yerak et Shumsky, 2019), dont les auditeurs doivent maintenant tenir compte dans le processus général d’évaluation des risques. Ces entreprises communiquent leur inquiétude que les applications d’IA puissent accroître les risques éthiques, liés à l’information, à la réputation, financiers, liés aux décisions, d’exécution, réglementaires et juridiques pour leurs entreprises. 1

 

Il faudrait d’une part réaliser un audit technique de l’application, qui permettrait à l’auditeur de comprendre et d’expliquer comment l’IA arrive à ses prédictions et résultats, et d’autre part procéder à une évaluation de l’exhaustivité, de la neutralité et de l’absence d’erreurs et de partis pris. Comment un auditeur peut-il garder sa « place à la table » lorsqu’il doit faire face au défi de comprendre cette technologie complexe ? 

 

Il se peut que les applications d’IA qui utilisent des systèmes fondés sur des règles ne posent pas de problèmes majeurs à l’audit, car ils peuvent être plus compréhensibles en tant qu’intelligence artificielle explicable. Mais l’IA de type boîte noire, comme un réseau neuronal, où le processus de la machine n’est pas compréhensible par les humains, poserait un grand défi aux auditeurs et aux comptables2. L’auditeur ne pourrait ainsi pas examiner et vérifier les décisions internes, dont celles ayant des conséquences éthiques, faites par l’IA, l’audit d’une boîte noire serait donc automatiquement considéré comme un risque élevé. 

 

Il faut noter que le milieu de la recherche universitaire sur l’IA doit encore développer une interface qui peut expliquer de manière simultanée et réaliste la manière dont une application d’IA de type boîte noire parvient à ses décisions lors du traitement des données. 

 

Qu’est-ce l’IA ?

 

Deux des plus grands esprits du domaine de la recherche sur l’IA, Stuart Russell et Peter Norvig, définissent l’IA comme les « agents intelligents » ou les dispositifs qui ont conscience de leur environnement et qui prennent des mesures qui optimisent leurs chances d’atteindre leurs objectifs (Russell et Norvig, 2010). 3

 

L’IA possède le potentiel pour intégrer les connaissances humaines (compétences et règles) et les appliquer à des ensembles de données gigantesques, en évitant les faiblesses humaines que sont l’inattention, les partis pris et la fatigue. L’utilisation de l’IA dans de nombreux secteurs d’activité se multiplie en raison de l’existence des données volumineuses et de la puissance de l’informatique quantique.

 

Heureusement pour l’auditeur individuel, les avancées des technologies de l’information, couplées à l’abondance de données électroniques, ont suscité un regain d’intérêt pour les applications d’IA dans l’audit et la comptabilité. De nombreux exemples montrent l’intérêt accru qu’ont les cabinets comptables et les services d’audit interne d’exploiter la puissance de l’IA. 

 

Les cabinets comptables investissent massivement dans le développement de systèmes d’IA, allant de l’automatisation des processus (p. ex., l’automatisation robotisée des processus [ARP]), à l’analyse des contrats, en passant par la reconnaissance d’image (au moyen de drones)4. Deloitte et EY emploient le traitement du langage naturel (TLN) dans leurs services fiscaux pour accélérer le tri de milliers de documents juridiques5. L’utilisation des algorithmes d’apprentissage machine pour détecter les observations aberrantes et les enregistrements frauduleux fait partie des applications d’IA préférées des cabinets comptables. 

 

Conséquences pour les auditeurs internes

 

En ce qui concerne les auditeurs internes, le simple fait que l’Institute of Internal Auditors (IIA) ait publié un cadre d’audit de l’IA est révélateur de la prolifération croissante des systèmes d’IA utilisés par les auditeurs internes6.

 

Afin de comprendre comment les entreprises testent et mettent en œuvre l’IA, Deloitte interroge tous les ans les dirigeants familiers de l’IA dans plusieurs secteurs d’activité (Deloitte, 2018). L’analyse de Deloitte révèle ce qui suit : 

 

  • Les adopteurs précoces augmentent le nombre de projets d’IA en raison du rendement élevé de l’investissement.
  • Les entreprises doivent améliorer la gestion des risques et du changement concernant ces investissements en matière d’IA.
  • Le personnel des TI doit posséder le bon mélange de talent et d’expertise technique pour accélérer l’adoption de l’IA. 

 

Tous les secteurs profitent d’un bon rendement de l’investissement, certains enregistrant un rendement supérieur et des coûts d’investissement variables (Deloitte, 2018, p. 6). L’IA est utilisée dans de nombreuses industries pour :

 

  • améliorer les produits et services actuels;
  • optimiser les processus internes;
  • prendre de meilleures décisions;
  • optimiser les opérations externes;
  • recueillir et appliquer les rares connaissances;
  • rechercher de nouveaux marchés (Deloitte, 2018). 

 

Les utilisations déclarées dans le sondage comprennent notamment l’automatisation des TI, le contrôle de la qualité, la cybersécurité, l’analyse prédictive, le service à la clientèle, la gestion du risque, l’aide à la décision et les prévisions (Deloitte, 2018, p. 19). Les dirigeants interrogés pensent que les cyberrisques, les risques stratégiques, juridiques, réglementaires et éthiques de l’IA ont le potentiel d’avoir des conséquences importantes, directes et indirectes, sur les états financiers (Deloitte, 2018, p. 9 à 13). 

 

Cette inquiétude concernant l’IA et les risques qui y sont associés apparaît dans un nombre croissant de rapports annuels (Yerak et Shumsky, 2019), de zéro à 55 apparitions dans les deux dernières années. Les industries exprimant le plus d’inquiétudes quant aux risques liés à l’IA sont les secteurs de la technologie, des médias et de la communication, de l’assurance et de la finance. Dans son dernier rapport annuel, Microsoft fait ces commentaires au sujet du risque lié à l’IA :

 

« Les problèmes liés à l’utilisation de l’IA dans nos offres peuvent nuire à la réputation ou déclencher une responsabilité. Nous intégrons l’IA dans de nombreuses offres et nous prévoyons que cet élément de notre activité se développe. Nous imaginons un avenir dans lequel l’IA intégrée dans nos appareils, nos applications et le nuage aide nos clients à être plus productifs au travail et dans leur vie personnelle. Comme pour de nombreuses innovations de rupture, l’IA présente des risques et des défis qui peuvent influer sur son adoption, et par conséquent sur nos activités. Les algorithmes de l’IA peuvent présenter un défaut. Les ensembles de données peuvent être insuffisants ou contenir des renseignements biaisés. Les pratiques inappropriées ou controversées de Microsoft ou d’autres concernant les données peuvent compromettre l’acceptation de solutions d’IA. Ces défaillances peuvent miner les décisions, les prévisions ou les analyses que produisent les applications d’IA, nous exposant ainsi à un préjudice concurrentiel, à la responsabilité civile et à des atteintes à la marque ou à la réputation. Certains scénarios d’IA soulèvent des questions éthiques. Si nous activons ou offrons des solutions d’IA qui sont controversées en raison de leur effet sur les droits de la personne, la confidentialité, l’emploi ou d’autres questions sociales, nous pouvons subir des atteintes à la marque ou à la réputation. » (Microsoft, 2018, p. 28) 

 

La communication de Microsoft est révélatrice de l’anxiété d’une entreprise lors de l’incorporation des technologies d’IA. La manière dont l’IA conçoit ses actions et ses pensées dépend de la technique et est l’une des raisons pour lesquelles Microsoft et d’autres entreprises sont inquiètes. Bien que l’IA soit fondamentalement définie comme des agents intelligents qui ont conscience de leur environnement et prennent des mesures qui optimisent leurs chances d’atteindre leurs objectifs (Russell et Norvig, 2010), plus précisément, elle est composée de systèmes experts et fondés sur des règles, sur l’apprentissage machine et les réseaux neuronaux. La complexité et l’intelligibilité de ces techniques varient beaucoup. 

 

Les plus compréhensibles sont les systèmes fondés sur des règles et les systèmes experts qui sont programmés pour exécuter un comportement normatif, des règles et une expertise. Les méthodologies complexes sont les techniques d’apprentissage machine. L’apprentissage machine est un sous-ensemble de l’IA, dans le sens où il s’appuie sur les statistiques, les habitudes et les inférences à apprendre, au lieu d’obéir à des règles données, comme celles qu’on trouve dans les systèmes experts ou fondés sur des règles. 

 

La forme la plus complexe de l’apprentissage machine est le réseau neuronal, un cadre qui associe de nombreuses approches d’apprentissage machine afin de reproduire les processus de la pensée humaine. Les réseaux neuronaux apprennent à partir de données complexes indépendamment de règles ou d’une expertise, de manière exploratoire, et ils ne sont pas compréhensibles par les humains. 

 

Ce blogue est extrait d’un nouveau livre blanc de Caseware, Keeping Your Seat at the Table in the Age of AI (garder sa place à la table à l’ère de l’IA). Téléchargez votre copie GRATUITE (en anglais) dès aujourd’hui.

 

 

1 Consulter https://www.scu.edu/ethics-in-technology-practice/

2 Consulter https://www.darpa.mil/program/explainable-artificial-intelligence 

3 Cette partie de discussion sur « Qu’est-ce que l’IA ? » est très influencée par le contenu du premier chapitre du travail majeur de Russell et Norvig, Artificial Intelligence: A Modern Approach 3e édition, Pearson.

4 https://economia.icaew.com/news/january-2019/pwc-uses-drone-in-audit-for-first-time

5 https://www.forbes.com/sites/adelynzhou/2017/11/14/ey-deloitte-and-pwc-embrace-artificial-intelligence-for-tax-and-accounting/#24f0239f3498

6 https://na.theiia.org/periodicals/Public%20Documents/GPI-Artificial-Intelligence-Part-II.pdf