Acceptabilité sociale, intelligence artificielle, Google, dossiers médicaux

►  Tous les articles

Acceptabilité sociale, intelligence artificielle, Google, dossiers médicaux

Les groupes de pression, toujours à l’affût du moindre projet de développement, toujours à brandir l’acceptabilité sociale, n’ont jamais, avec l’intelligence artificielle, utilisé cette méthode et ne l’utiliseront peut-être même jamais.

Il y a là un phénomène intéressant à plus d’un égard. Lorsque les GAFA développent en catimini ou au grand jour des algorithmes d’intelligence artificielle à partir de données publiques ou privées, lesquels algorithmes auront forcément des impacts sur plusieurs activités économiques et sur la vie en général, aucun groupe de pression ne se lève pour faire obstacle à ce type de développement. Pourquoi ?

Du point de vue des sciences naturelles et sociales, l’étude de la notion de « risque » est traditionnellement liée aux menaces et impacts potentiels générés par de multiples événements d’origine naturelle. Cependant, depuis trois décennies, un champ d’analyse des risques liés à l’insertion et au développement d’événements technologiques a émergé, fournissant ainsi des éléments d’analyse pertinents pour réfléchir à la relation complexe entre société et environnement, à une époque où le progrès technoscientifique représente simultanément l’émergence d’une « société du risque ». La notion de risque technologique prend donc de l’importance pour les analyses sociologiques contemporaines, d’où la nécessité d’en approfondir le sens, de reconnaître les multiples propositions conceptuelles avancées à cet égard et de caractériser les perspectives à partir desquelles des progrès peuvent être réalisés dans son étude.

Cela étant précisé, qu’est-ce qui peut bien faire en sorte que l’annonce d’un développement de projet minier ou de l’installation d’un parc d’éoliennes puissent tant faire brandir le spectre de l’acceptabilité sociale ? En fait, la première partie de la réponse est simple : tout projet qui nous touche de près provoque des réactions immédiates, alors que tout projet qui a une portée plus globale — trop diffus et moins simple à saisir — exigerait la mobilisation de trop de groupes de pression aux objectifs trop différenciés pour lever le bâton de l’acceptabilité sociale.

Par exemple, le fait que Google ait passé en catimini un accord avec plus de cent cinquante hôpitaux et cinquante maisons de personnes âgées aux États-Unis ne fera que l’objet d’une indignation sur les réseaux sociaux, tout en faisant le bonheur des médias de masse qui se targueront de faire du journalisme d’enquête et de dévoiler ainsi au grand jour les mauvaises pratiques des GAFA, pour se terminer quelque part sous la forme d’une obscure motion dans un quelconque gouvernement qui se dira préoccupé par la situation. Et pourtant, cet accord conclu avec Google prévoit le transfert de dossiers médicaux complets — identité des patients, diagnostics, résultats d’examens, antécédents — dans le but de développer, grâce à l’analyse des données et à l’aide de l’intelligence artificielle (IA), des outils permettant de suggérer aux médecins des examens complémentaires, des prestations supplémentaires ou des traitements, voire d’identifier des anomalies dans le parcours de soins.

De là, la seconde partie de la réponse est plus complexe. En fait, qui peut être contre le fait de dépister plus rapidement les maladies dégénératives ? De plus, comme les algorithmes d’intelligence artificielle disposent de cette capacité à mieux repérer des schémas récurrents que ne saurait le faire l’œil averti d’un médecin, il devient dès lors impossible de brandir le spectre de l’acceptabilité sociale. Par exemple, la chose ne pose aucun problème à une équipe de chercheurs de l’Université Concordia pour déceler, avec l’aide d’algorithmes d’intelligence artificielle, l’anorexie auprès d’internautes qui publient des messages sur les réseaux sociaux — cette percée permettrait de surveiller ce que les personnes atteintes d’un trouble mental disent sur le web et de les diriger vers les ressources appropriées. Encore là, qui peut être contre le fait d’agir en aval pour sauver la vie de quelqu’un ? Personne.

En résumé, étant donné que l’intelligence artificielle joue sur cette double ambiguïté — local vs global + problèmes vs solutions —, les GAFA et les chercheurs seront autorisés à expérimenter ce qu’ils veulent bien expérimenter en matière de développement technologique, et surtout en matière d’intelligence artificielle.

© Pierre Fraser (Ph. D., sociologue), 2019

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.