L’intelligence artificielle : le nouveau manager expert ?

20140519_145757

 

L’année 2017 a été celle de la profusion d’articles et d’ouvrages de réflexions sur les progrès de l’intelligence artificielle. Les bouleversements induits par les avancées technologiques font bouger les repères et complexifient nos organisations. Cette tendance lourde ne se résume pas à une problématique de remplacements d’emplois par des robots. Depuis la révolution industrielle, nos sociétés sont en mutation permanente avec un phénomène de destruction-création d’emplois. Mais avec l’AI, une autre lame de fond se profile à l’horizon. C’est la génération massive de données de mesure sur nos vies quotidiennes et ses conséquence en termes de respect de la vie privée ; c’est également la perspective de bonds en consommation d’énergie pour stocker et gérer ces big data et enfin, c’est la question plus générale de l’autonomie du sujet dans un univers régi de plus en plus par des automatismes.

Un rapport récent de la CNIL (Commission Nationale de l’informatique et des libertés) intitulé « Les enjeux éthiques des algorithmes et de l’intelligence artificielle » essaye de faire le point sur la question en avançant 6 recommandations (Les Echos du 19 décembre 2017 – article de Benoît Georges) pour sensibiliser concepteurs (tous les acteurs maillons de la « chaîne algorithmique ») et utilisateurs (nous tous) au besoin important de clarté. Car il s’agit de ne pas sombrer dans le syndrome de la « boîte noire » selon lequel on sait qualifier les données entrantes et sortantes mais on ne sait pas rendre compte de ce qui se passe à l’intérieur, c’est-à-dire du processus conduisant au résultat observé. Ce qui confronte l’utilisateur à la question de la visée éthique qui sous-tend l’utilisation du service offert. A la différence d’une machine qui rend un service ou transforme une matière, l’intelligence artificielle est basée sur des algorithmes complexes qui ne sont pas naturellement compréhensibles et encore moins observables. Ils génèrent un certain résultat selon l’intention de son concepteur qui est ou n’est pas explicite.

 

D’ou la recommandation du CNIL de poser les bases d’une formation à l’éthique qui encourage toutes les parties à rendre compréhensible les intentions des nouveaux produits et services rendus possibles par l’IA.

 

En termes de management, la multiplication d’interfaces homme-machines ou les progrès de l’apprentissage automatique (machine learning) vont, par exemple, conduire à multiplier les situations de délégation de prises de décisions de plus en plus complexe. Nous l’avons vécu avec la généralisation des GPS. Nous avons développé des habitudes consistant à déléguer au programme le ou les choix d’itinéraire et à se laisser guider dans une posture de subordination de la pensée qui nous fait parfois perdre tout sens de l’orientation ou du positionnement.

Selon quels repères éthiques, allons-nous pouvoir déterminer le niveau de délégation auquel nous pouvons aller sans porter atteinte à l’autonomie et à la dignité de la personne ? Ayant tous un goût prononcé pour la rapidité et l’efficacité des décisions que nous prenons, il est à craindre que nous préférions laisser à l’IA le soin de décider pour nous ou de nous orienter sur des questions essentielles de recrutement, reconnaissance au travail, gestion des relations interpersonnelles. Avec, à la clé la tentation de diluer un peu plus notre part de responsabilité dans une décision qui touche le coeur de nos missions.

Le second champ de réflexion portera sur la qualité de nos rapports interpersonnels. Nous avons renforcé nos espaces d’individualité avec tous les nouveau outils numériques accessibles au point que l’on pointe maintenant des problèmes d’addiction, notamment aux réseaux sociaux, avec des effets sur le cerveau proche de la cigarette par exemple (lire dans les Echos du 20 décembre 2017, l’article d’Anaïs Mouton « l‘addiction aux réseaux sociaux, nouveau fléau de santé publique »). Nos points de vigilance seront alors dans notre capacité à savoir garder des liens interpersonnels bien réels et pas que virtuels ou à distance, dans la préservation d’un degré d’autonomie par rapport aux outils numériques, à commencer par le smartphone (no mobile phobia) et enfin dans la préservation de nos facultés à mémoriser ( » j’ai zappé « ), ) à raisonner ( » j’ai buggé « ) ou à résoudre de nouveaux problèmes ( » je suis paumé « ).

Comprenons-nous bien : le CNIL ne dit pas que, demain, seuls ceux qui sauront écrire des algorithmes survivront. Il nous invite à réfléchir pour trouver « comment permettre à l’homme de garder la main ? » En langage d’équitation, nous pourrions reformuler en disant: comment tenir notre sujet (l’IA) en « rennes courtes ». Peut-être en commençant par nous demander simplement ce que nous voulons comme monde de demain.

Joyeuses fêtes et à l’année prochaine !