Dans les décennies à venir, l’intelligence artificielle (IA) devrait bouleverser, dans les décennies à venir, le fonctionnement de notre économie et plus largement de la société. Ce constat avait, il y a un an, conduit l’Union européenne et ses États membres à s’engager sur un plan prévoyant la mobilisation d’investissements privés et publics à hauteur de 20 Md€ sur 10 ans. L’objectif étant de permettre à l’Europe de combler une partie de son retard sur un secteur aujourd’hui dominé par les États-Unis et l’Asie.
Une approche éthique
Mais les retombées économiques du secteur de l’IA ne sont pas l’unique sujet de préoccupation de l’Union européenne. La Commission rappelle ainsi qu’elle « fait naître de nouveaux enjeux pour l’avenir du travail et soulève des questions d’ordre juridique et éthique ». Raison pour laquelle, en 2018, elle a chargé un groupe d’experts indépendants issus du monde universitaire, de la société civile et de l’industrie de définir un certain nombre de principes éthiques qui sont destinés à encadrer le développement des outils d’IA en Europe. Ces principes, au nombre de 7, ont récemment été rendus publics. Leur respect devrait permettre l’avènement d’une IA « digne de confiance ». Ces principes sont les suivants :
- les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine ;
- une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA ;
- il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires ;
- la traçabilité des systèmes d’IA doit être assurée ;
- les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie ;
- les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique ;
- il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.
Au-delà de l’Europe
Si ces principes ont vocation à « s’appliquer » en Europe, ils pourraient également être adoptés par d’autres pays. C’est du moins l’ambition de la Commission qui, a cette fin, « renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20 ».
© Les Echos Publishing - 2019