Dans mon dernier post, je vous présentais différentes utilisations concrètes de l’IA mais j’ai passé sous silence la plus discutable, controversée, inquiétante, révolutionnaire, voire humaine, de ses applications : l’utilisation de robots pour collaborer avec les humains sur les zones de combat.
L’armée américaine a annoncé vendredi 7 septembre débloquer un budget de 2 milliards de dollars sur 5 ans pour développer un programme d’Intelligence Artificielle destiné à aider les militaires sur le terrain. La DARPA (Defense Advanced Research Projects Agency), l’agence de recherche de l’armée des Etats-Unis, va tenter d’humaniser des systèmes automatisés : « La Darpa envisage un futur dans lequel les machines sont bien plus que de simples outils exécutant des règles programmées par des humains (…). Les machines que la Darpa envisage fonctionneront plus comme des collègues que comme des outils ».* Le programme intitulé AI Next a pour finalité de développer une IA capable de prendre des décisions et de les expliquer : « voir comment les machines pourraient acquérir des capacités de communication et de raisonnement de type humain, avec la possibilité de reconnaître et s’adapter à de nouvelles situations ».**
Comme l’expliquait synthétiquement un article du Wall Street Journal : AI can’ reason why (abonnement requis), aujourd’hui, un algorithme de Deep Learning ne sait pas décrire le processus qui conduit à un résultat donné. Les questions telles que « Pourquoi tel événement s’est produit » ou « Que serait-il arrivé si… » restent des « constructions humaines » que n’adressent pas les programmes d’apprentissage actuels.
Or, pour accepter l’intervention de robots sur des sujets aussi sensibles que des interventions militaires et/ou accepter leurs applications dans notre quotidien, il est impératif de faire confiance aux processus de prise de décision qui conduisent les systèmes d’IA.
Mais si la condition est nécessaire, elle n’est certainement pas suffisante.
Pour preuve, les levées de bouclier des chercheurs craignant une possible course à l’armement, ou, plus récemment, la prise de position des salariés de Google, pourtant généralement très solidaires de leur entreprise, contre la collaboration avec le Pentagone pour une analyse des images fournies par les drones militaires. La réaction a été telle que Google a non seulement annoncé la fin du projet mais s’est également engagé à respecter sept principes éthiques pour éviter, si possible, que l’IA ne détruise l’humanité :
- être bénéfique à la société,
- éviter les injustices,
- être conçue et testée de façon à garantir la sécurité,
- être à l’écoute du public,
- respecter la vie privée,
- se conformer à des standards d’excellence scientifique,
- n’être disponible que pour des cas d’usage qui sont en accord avec ces principes.
Conviction profonde ou déclaration d’intention ?
En attendant, avec ou sans Google, éthiques ou non, les recherches et les investissements en IA se multiplient avec en perspectives de profondes transformations sociales et sociétales (et militaires).
*Source : Le Monde Pixels du 10 septembre 2018
** Source : Nextinpact.com du 10 septembre 2018