L’éthique et la poursuite de l’intelligence artificielle (IA)

- - AI & ML

L’intelligence artificielle est peut-être la technologie la plus discutée ces dernières années. Le buzz est sans fin lorsqu’il s’agit de sujets couvrant l’apprentissage machine et l’analyse de données, les voitures autonomes et autres développements de l’IA. La plupart d’entre elles sont basées sur la technologie d’apprentissage machine qui donne au système la capacité d’étudier une situation et de faire sa propre évaluation sur les possibilités de parvenir à une solution finale. L’exemple souvent cité concerne le passage des institutions bancaires à l’IA pour le traitement des demandes de prêt. Or, dans le système conventionnel, un agent de prêt bancaire aurait étudié la demande, vérifié les titres de compétences et les antécédents financiers du demandeur et aurait ensuite décidé d’approuver ou de rejeter le prêt. La machine prend maintenant la décision, et le pire scénario dans cet exemple est que la personne qui a demandé le prêt appelle la banque pour vérifier pourquoi la demande de prêt a été rejetée et que la personne de la banque ne le saurait même pas.

Des cas comme celui-ci ont mis la question au centre de l’attention : Quelles sont les implications éthiques de l’intelligence artificielle et de ses applications ?

Les préjugés sont une préoccupation majeure

Une autre question clé citée par les participants au débat sur l’éthique est la partialité de l’apprentissage machine. Des études ont bien démontré les problèmes de biais dans les données et les algorithmes d’IA. La meilleure façon de les expliquer est d’utiliser des situations de la vie réelle vécues par les personnes concernées. Lorsqu’une machine à IA décide qu’une personne en particulier ne peut pas obtenir un permis de conduire, par exemple, la base sur laquelle la machine est arrivée à cette décision sera sujette à caution. Quels intrants ont été mis à la disposition de la machine pour prendre cette décision ? Combien de personnes ont été impliquées dès le début dans l’écriture des algorithmes qui ont permis à la machine d’apprendre un modèle et de les superposer ensuite à leur propre performance pendant le test ?

Et il peut y avoir beaucoup d’autres questions de ce genre qui doivent être abordées dans d’autres domaines également.

Il y a aussi la question de l’utilisation de l’IA par les gouvernements pour recueillir des données ou pour espionner le public et les entreprises sans qu’ils sachent ce qui se passe.

La technologie de l’IA et la guerre

Parmi les doutes sur la perspective éthique associée à l’intelligence artificielle figure l’idée que les armements soient équipés de cette technologie, ce qui rend les guerres de plus en plus souvent menées par des machines ou lorsque les humains ne sont pas exposés à la ligne de tir. Il pourrait devenir un chaos complètement gratuit pour tous sur le front de bataille, un peu sur le modèle des intrigues populaires de science-fiction. Une telle action insensée est-elle justifiée, alors que l’idée même que les humains s’entretuent est remise en question pour des raisons morales ?

Réalisation et solutions

Le bon côté de cette situation autrement déprimante est qu’il y a un réveil général sur ce débat concernant les valeurs éthiques contre l’utilisation de l’intelligence artificielle. En 2017, Microsoft a suggéré que, tout comme il existe la Convention de Genève sur l’engagement militaire, une Convention de Genève numérique pourrait être élaborée avec un protocole universel acceptable pour tous les pays du monde. Il semble y avoir un certain consensus parmi de nombreuses entreprises – en particulier celles qui sont basées dans la Silicon Valley – sur le fait que quelle que soit la technologie qu’elles inventent et développent en utilisant l’intelligence artificielle et d’autres outils connexes, elle restera sûre et ne portera pas atteinte aux intérêts du public dans son ensemble. Cela signifie essentiellement qu’ils suivront des pratiques éthiques lors de la prise en charge de l’IA. Ce pourrait être un très bon début, à condition que le public ait également confiance dans les utilisations de l’IA. Il y a des chercheurs qui s’engagent à faire en sorte que les concepteurs de la technologie s’engagent à rester du bon côté de l’éthique ; l’une de ces suggestions est un code d’éthique de l’IA semblable au serment hypocrite prêté par les professionnels médicaux.

Quelques situations bizarres avec l’IA

Sur une note un peu plus légère, certains expliquent que lorsque les voitures autonomes deviendront la norme et qu’en cas d’accident, la personne à poursuivre en premier sera vous-même, le propriétaire du véhicule, bien que vous n’ayez eu aucun rôle à jouer dans le déroulement de l’accident. Il y a d’autres situations bizarres de ce genre, créées par l’utilisation indiscriminée de l’IA.

Cela étant dit, il faut une approche équilibrée de toute technologie. L’être humain devrait avoir le contrôle ultime de l’utilisation, de la mauvaise utilisation et de l’abus de la technologie afin que la responsabilité ultime puisse être fixée pour tout excès.

Tags:
Charles Claraz

Charles Claraz