Dans une interview donnée à The Independant, l’éminent directeur de recherche du département de Mathématiques appliquées et de Physique théorique de Cambridge, Stephen Hawking, revient sur les risques immenses que représente l’intelligence artificielle.
Il part d’un constat : les machines sont déjà plus performantes que les hommes et la recherche sur l’intelligence artificielle se développe très rapidement. Les faits sont là, les machines réfléchissent plus vite que les hommes, jouent mieux, conduisent mieux, elles sont capables de prendre des décisions financières plus performantes, et de concevoir des systèmes d’armes qui décideront eux-mêmes de leurs buts, et que les hommes bientôt ne comprendront plus. Bref, comme naguère dans la science-fiction, le meilleur et le pire. Mais ce n’est plus H. G. Wells ni Stephen King qui parle, c’est Hawking, rien d’un littérateur, et il déplore que personne n’évalue sérieusement les conséquences d’une telle chose.
« Réussir à créer une intelligence artificielle aura été l’événement le plus important de l’histoire de l’humanité » affirme-t-il avant d’ajouter : « malheureusement il pourrait être le dernier, à moins que nous cherchions à en éviter les risques ». Mais très rares sont les études sérieuses faites sur ces conséquences, et pourtant cette création qui pourrait dépasser l’homme mérite prudence.
Ceci lui inspire la comparaison suivante : « Si une civilisation extraterrestre supérieure nous affirmait qu’elle arrivait sur Terre dans dix ans, nous ne lui répondrions surement pas : Ok, prévenez quand vous serez là ». Et d’ajouter : « C’est pourtant plus ou moins ce qui se passe avec l’intelligence artificielle ».