Comment un institut tente de déterminer une éthique pour l’intelligence artificielle (IA)

éthique Intelligence Artificielle IA
 
Donner une attention permanente aux dilemmes éthiques inhérents à la technologie émergente de l’intelligence artificielle, est une condition indispensable selon le « Future of Life Institute » (l’Institut pour l’avenir de la vie) pour continuer à travailler sur la question et y consacrer un développement croissant. C’est ce qui ressort de l’intervention de l’institut à la 31ème conférence de l’AAAI (Association for the Advancement of Artificial Intelligence) sur l’intelligence artificielle, qui se tient du 4 au 9 février, à San Francisco, aux Etats-Unis.
 
A l’heure où pour la première fois dans le monde, une intelligence artificielle vient de battre les quatre meilleurs joueurs mondiaux de poker lors du tournois Texas Hold’em, il est plus qu’urgent de se poser la question. Reste à déterminer quel type d’éthique et sur quelle base
 

Une éthique indispensable selon l’« Institut pour l’avenir de la vie »

 
Le message est principalement à destination des universités : il faut intensifier les efforts pour éduquer les étudiants sur l’éthique de l’IA, les sensibiliser aux questions morales entourant la technologie, en bref, former dès aujourd’hui les bonnes pratiques dans la prochaine génération d’ingénieurs…
 
Au fur et à mesure que les capacités des nouveaux systèmes d’IA augmentent, grandissent aussi, en effet, les craintes que cette technologie ne soit utilisée pour exploiter la vie privée des gens ou qu’elle ne se développe au détriment de son utilisateur ou des autres humains. Les robots sont particulièrement inquiétants dans le sens où ces machines physiques appliquent des décisions algorithmiques à leur environnement. Et les programmeurs humains ne peuvent pas prendre en compte tous leurs choix possibles…
 

« Avec l’intelligence artificielle, nous invoquons un démon » Elon Musk

 
Ben Kuipers, professeur d’informatique et de génie à l’Université du Michigan prend comme exemple le film « Robot & Frank », sorti en 2012, où le robot se met à mentir et enfreint la loi pour atteindre ses objectifs. Il a parlé aussi de « Fantasia », le beau film d’animation des studios Disney, lorsque la magie commandée par le jeune apprenti Mickey commence à lui échapper et finit par le submerger…
 
Pour concevoir des robots qui soient dignes de confiance, une base solide dans l’ingénierie ne suffit pas – une philosophie est nécessaire, une déontologie et une éthique.
 
Car ces technologies sont si puissantes qu’elles « changent réellement la société », selon les mots d’Illah Nourbakhsh, professeur de robotique à l’Université Carnegie Mellon et amènent à des dilemmes réels, aux enjeux multiples. Par exemple, si la robotique augmente la productivité d’une usine et augmente le PIB d’une nation, elle détruit aussi des emplois et creuse l’écart entre les pauvres et les riches.
 

Les « 23 principes d’Asilomar » : un développement responsable de l’IA ?

 
Le « Future of Life Institute » est cette association de volontaires qui cherche « à diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’intelligence artificielle (IA) ». Elle a été fondée, il y a trois ans, par des figures bien connues telles que le cosmologiste Stephen Hawking… L’un de ses membres, l’entrepreneur Elon Musk, patron de Tesla et Space-X, lui a fait un don de 10 millions de dollars en 2015, « pour financer un programme mondial de recherche visant à ce que l’intelligence artificielle reste bénéfique pour l’humanité ».
 
Il y a quelques semaines, à la conférence d’Asilomar, l’Institut ainsi que d’autres chercheurs et experts de l’IA et de la robotique ont élaboré 23 grands « principes », dans la perspective de prévenir les dérives potentielles – une première depuis les fameuses trois lois de la robotique, formulées, en 1942, par l’écrivain de science-fiction, Isaac Asimov…
 
Ils ont compilé des dizaines de rapports importants issus des milieux universitaires et gouvernementaux, pour faire émerger ces principes de base, dont l’objectif est d’encadrer le développement de l’intelligence artificielle. Sécurité, transparence, responsabilité, vie privée… mais aussi des notions de bien commun et de prospérité partagée, au bénéfice de toute l’humanité sans oublier les idéaux de la dignité humaine, des droits, des libertés et de la diversité culturelle…
 
Des beaux mots qui font très « âge d’or ». Elon Musk avait prévenu qu’avec l’intelligence artificielle, on invoquait un démon. Leurs efforts pour la circonvenir l’orientent, néanmoins, dans une certaine perspective.
 

Clémentine Jallais