La Poste, 30 ans d’Intelligence Artificielle

La Poste, 30 ans d’Intelligence Artificielle

jackmac34 / Pixabay

Les métiers traditionnels de La Poste sont bien connus et, en particulier, la distribution de courriers et colis. Pourtant, ce n’est pas son unique activité, loin de là (et compte tenu du nombre important de domaines où elle intervient, de la mobilité à la modernisation de l’action publique en passant par le recyclage, il est difficile de tout lister). Ainsi, au fil des années, le groupe La Poste fait évoluer son modèle économique, son image et son périmètre d’intervention. Ainsi, elle est présente sur des salons où l’innovation est mise en avant tels Vivatech ou le CES de Las Vegas.

Cependant, son intérêt pour les « nouvelles technologies » et les approches innovantes est dans son ADN depuis longtemps. Ainsi, par exemple, elle cherchait déjà à exploiter l’Intelligence Artificielle dans les années 90 pour son usage interne !

Dans un appel d’offres publié en juin 1900, La Poste recherchait un prestataire pour le « Développement d’un système expert pour l’aide aux fonctions de support fonctionnel dans la gestion du personnel de La Poste« . Le Cahier des charges est ici : Cahier des charges La Poste SE1990

En 1990, les contraintes matérielles étaient fortes et (pour les plus jeunes, je le rappelle) il n’y avait pas Internet tel que nous le connaissons actuellement. L’application devait donc fonctionner sur des postes isolés ou, au mieux, connectés à un mainframe (ouh la !) de type DPS 8000. Les caractéristiques d’un PC pour un tel projet exigeaient un code particulièrement optimisé : PCAT sous DOS, 640 Ko de mémoire vive (oui oui !), 20 Méga de disque.

La démarche pour concevoir un tel Système Expert passe alors nécessairement par la modélisation de règles à partir du savoir d’un ou plusieurs spécialistes pour constituer une base de règles synthétique et pertinente et la consolidation d’une base de faits décrivant le mode de fonctionnement du ou des services du personnel. La capacité mémoire d’un PC (640Ko) et la capacité disque (20Mo) ne permet pas de disposer sur un poste donné de grosses quantités de données. Il faut donc un travail en amont particulièrement efficace pour modéliser l’expérience humaine.

Dans le cas du système demandé par La Poste, celle-ci avait déjà pré-identifié plus de 600 règles décrivant le fonctionnement du service. La complexité pressentie du système est contournée dans le cahier des charges par la demande de disposer, en parallèle de chaque règle, de son explication en « clair ». Le cahier des charges est d’ailleurs particulièrement précis sur ce point puisqu’il attend que le fonctionnement du système soit aussi fourni sous forme de pseudo-code.

Dans ce système, il n’est donc pas attendu de mécanisme auto-apprenant puisque les règles sont définies par un expert qui fournit son expérience. Il est probable que, si un produit équivalent était demandé aujourd’hui, il pourrait y avoir une phase d’apprentissage semi-automatique ou supervisée avec des « règles » générées par le système sur la base de l’analyse de plusieurs expertises. L’idéal alors serait sans doute de « suivre » le fonctionnement d’un expert pour que le système comprenne comment il procède afin de modéliser son comportement.

Mais il n’est pas certain que cela fonctionne sur un PC avec si peu de mémoire 🙂

Fermer le menu