L’intelligence artificielle (IA) bientôt clairement règlementée ? Mis mars, une cinquantaine de pays ont adopté une version provisoire d’un traité international des droits de l’Homme sur cette technologie en plein essor. Le texte interdit aux algorithmes de nuire à la liberté d’expression, de discriminer des individus et de violer la vie privée.
Depuis le lancement de ChatGPT en novembre 2022, l’intelligence artificielle est devenue incontournable dans nos vies. Cette technologie est désormais présente partout, dans l’industrie, le commerce, la santé, l’agriculture, les médias, la défense, etc. Si elle a de nombreux atouts, l’IA représente aussi un grand danger en l’absence d’un cadre réglementaire.
Passer des régulations nationales à une réglementation internationale sur l’IA
Pour réguler l’intelligence artificielle, l’Union européenne a récemment adopté l’AI Act. Les Etats Unis et la Chine planchent également sur des textes contraignants. Mais, comme on peut le constater, il s’agit d’initiatives individuelles. Or il faut un accord qui implique tout le monde afin d’obtenir des résultats satisfaisants. C’est dans cet objectif qu’une cinquantaine de pays a adopté mi-mars un traité international des droits de l’Homme de l’IA, après deux ans de réflexion.
Défense de saboter la démocratie et les droits de l’Homme fondamentaux
Parmi les auteurs de ce texte on trouve les États-Unis, le Canada, le Japon et les membres de l’UE. Le traité vise globalement à prévenir les risques liés à l’intelligence artificielle en établissant des normes éthiques internationales pour les développeurs comme OpenAI ou Mistral. Il stipule que cette technologie ne doit pas être utilisée pour saper la démocratie, violer les droits de l’Homme fondamentaux (liberté d’expression, de réunion, etc.) et porter atteinte à la dignité humaine (torture, traitements cruels, inhumains ou dégradants).
Interdiction pour l’IA de discriminer les personnes sur la base de leurs différences
L’intelligence artificielle ne doit pas, non plus, servir à discriminer les individus ou les groupes sur la base de leur religion, de leur race, de leur sexe, de leur orientation sexuelle, de leur handicap ou de tout autre facteur. En outre, elle doit protéger le droit des individus à la vie privée et interdire la collecte et l’utilisation illégales de données personnelles. Par ailleurs, le traité exige des développeurs plus de transparence et leur impute la responsabilité des dommages causés par leurs systèmes.
L’épineuse question des secteurs privé et de la défense
Quelques points du traité de 10 pages ont fait l’objet d’âpres discussions. Principalement la question de son applicabilité au secteur privé, aujourd’hui un acteur clé du développement de l’intelligence artificielle. Il a été finalement décidé de laisser aux États signataires le choix d’instaurer ou non les règles aux entreprises. Il y a eu aussi un achoppement au niveau de la défense. Les différentes parties ont simplement recommandé que les IA utilisées à des fins militaires s’alignent sur le droit international.
Prochaine réunion en mai pour un texte final
Ces derniers points ont suscité l’opposition des organisations non gouvernementales. Celles-ci peuvent espérer un durcissement de certaines règles lors de la prochaine réunion en mai pour l’adoption de la version finale du traité international des droits de l’Homme de l’IA. Après cette étape, le texte nécessitera la ratification de chaque pays engagé dans la démarche. Parmi les autres signataires figurent l’Australie, le Mexique, le Costa Rica et l’Argentine.