Cette semaine dans notre veille du lundi c’est un article du site Viuz qui a retenu notre attention : “Intelligence artificielle et marketing : pourquoi on doit se poser des questions d’éthique”, par Volha Litvinets, Head of Search Marketing chez Fairmarkit et doctorante en philosophie.
Son constat est simple : "L'accès à l'information n'a jamais été aussi facile [...] Les innovations technologiques nous concernent tous, en permettant de simplifier nos actions quotidiennes, aussi bien intellectuelles que routinières. L’IA et son écosystème technique entrainent dans le même temps des craintes, des risques éthiques et des enjeux qu’il ne faut pas taire."
Et sa démonstration, implacable.
IA et éthique
La question de l'Intelligence Artificielle et de l'éthique est tout sauf nouvelle, et se pose depuis depuis que l'IA relevait de la science-fiction. Pour en savoir plus sur cette vaste question, vous pouvez vous référer à l'entrée wikipedia "Éthique de l'intelligence artificielle", qui distingue la roboéthique (éthique humaine pour guider la conception, la construction et l'utilisation des êtres artificiellement intelligents) et l'éthique des machines, préoccupée par le comportement moral des agents moraux artificiels.
Pas nouvelle, donc, mais d'autant plus cruciale que la robotisation se démocratise à une vitesse incroyable. Nous ne parlons bien évidemment pas de véritables robots humanoïdes, mais de l'intelligence artificielle que l'on retrouve dans des secteurs aussi divers que les banques, les transports en commun ou les administrations : chatbots à droite, chatbots à gauche, avec plus ou moins de succès.
Vohla note avec justesse que "ce n'est pas de l'IA que l'on doit avoir peur, mais de son utilisation". Ainsi les couacs de l'IA derrière Google, dont les algorithmes ont pu être interprétés comme racistes ou antisémites. Ou le chatbot de Microsoft, qui a dû être envoyé en révision après avoir commencé à proférer des tweets racistes, antisémites, sexistes, orduriers... Le facteur humain ici est responsable - le bot de Microsoft, Tay, destiné à apprendre de ses interactions avec les humains, a été la cible de trolls en tout genre, mais reste que Microsoft aurait sans doute dû préalablement réfléchir aux usages qui pouvaient en être faits.
Paradoxe de la vie privée et de la confidentialité des données
Le rapport State of the Internet Q4 2018 fait état de 40% des internautes français convaincus que leurs données sont utilisées à "mauvais escient", ou tout du moins inquiets de l'usage qui en est fait.
Paradoxalement, l'usage des assistants vocaux (Alexa, Siri, Google Home et consorts ne fait qu'augmenter), avec 60% des utilisateurs le plaçant dans leur cuisine. Ces "assistants" connaissent un nombre impressionnant de choses à votre sujet, voire au sujet de votre famille : votre voix, celle de vos enfants, vos habitudes de vie, l'historique de vos recherches...
Depuis mai 2018 et le RGPD (Règlement général sur la protection des données), les marques se doivent d'être plus transparentes et responsables. C'est un avancement majeur, mais la quantité de données privées accessibles, et potentiellement déchiffrables et exploitables, reste conséquente.
Et si nous ne sommes pas la Chine, qui a transformé un épisode de la série Black Mirror en réalité (article intéressant de Business Insider à ce sujet), il est important (et urgent) de s'interroger sur le rôle de l'homme dans l'écosystème technologique.
Nous sommes tous concernés par les innovations technologiques permettant de simplifier nos actions quotidiennes aussi bien intellectuelles que routinières. Cependant, l’intelligence artificielle entraîne des craintes, des risques d’éthiques et des enjeux qu’il ne faut pas taire.
Nous citerons ici directement l'auteure de l'article : "Günther Anders a défendu naguère avec brio une conception de l'obsolescence de l’homme, et montré comment l’humain finit par être exclu du processus technique. L’homme devient dans le même temps une sorte d’appendice du phénomène de la publicité omniprésente dans l’univers de la consommation de masse. [...] L’idée de la fin de l'histoire et du dernier homme développée plus récemment par Francis Fukuyama souligne les dangers de l’ère prospère de la consommation généralisée, provoquée par le triomphe de la technologie, et qui entraîne la possible destruction de l’humain par le développement des biotechniques. Loin de perfectionner la nature humaine, celles-ci conduisent à la création d’une « post-humanité » effrayante."
Effrayante en effet.
Et le marketing là-dedans ?
Le marketing n'est évidemment pas en reste dans l'utilisation de l'intelligence artificielle. D'après Volha Litvinets, "Les technologies de L’IA déjà implémentées dans le marketing et la publicité devenue de plus en plus omniprésente et imperceptible rétrécissent sans cesse l’espace d’une supposée liberté de choix de l’individu consommateur."
En tant qu'êtres humains, nous célébrons notre liberté, notre capacité à juger, faire des choix, prendre des décisions de façon autonome et libre. Or, les technologies de l'IA, surtout lorsqu'elles sont au service du marketing et de la publicité, semblent aller vers un contrôle exacerbé de l'IA sur les individus.
Fort heureusement, Volha note que les sociétés de marketing digital comprennent de plus en plus l'importance du développement durable et cherchent maintenant à créer de la valeur. Dans ce contexte, est-on en droit d'espérer que celles engagées dans la montée en puissance de l'IA sauront également intégrer ce principe ?
Les philosophes nous aident ici à nous poser les bonnes questions. Ainsi, "Google, Apple, Facebook, Microsoft consultent et recrutent déjà des philosophes pour mettre au point un processus interne d'évaluation éthique de la recherche. Twitter s'appuie sur aussi l'expertise de philosophes, de psychologues et d'avocats dans le cadre de son Conseil de sécurité et de confiance."
Cependant, pour l'auteure, le développement de l'IA et de ses usages doit également faire l'objet d'une régulation externes, et des règlementations nationales ou internationales doivent venir participer à l'effort de régulation éthique du domaine de l'IA.
En travaillant ensemble, les philosophes, les techniciens, les data ingénieurs, les marketeurs, les programmeurs sont capables de fonder des conditions pour créer des valeurs et développer des industries en respectant le principe du développement durable.