C’est ce qu’il a dit à ses employés de Neuralink : l’Intelligence Artificielle est un « risque fondamental pour l’existence de la civilisation humaine » : il y a 5 à 10 % de chances pour que l’humanité survive à une volonté d’anéantissement de l’IA.
Comme beaucoup de ses pairs, Musk préconise une réglementation sérieuse et ce, le plus rapidement possible. Il faut en maîtriser les points, instaurer une éthique, avant que tout incident n’arrive. Après, il sera trop tard… C’est, pour lui, une question de vie ou de mort.
Improbable ? Certes la peur est un outil puissant. Mais on peut évoquer, en l’occurrence, ces super-armes artificiellement intelligentes qui sont en train d’être développées, comme les robots de combat automatisés annoncés par Kalashnikov Group : cette IA de guerre entièrement automatisée basée sur la technologie de réseau neuronal ne se cantonnera pas seulement à la programmation qui lui a été dédiée, mais apprendra aussi de ses expériences.
Où arrêter l’expérience, justement ?
Et est-ce qu’Elon Musk le sait lui-même ? ! Sa société Neuralink est en train de mettre au point de nouvelles interfaces homme-machines à implanter dans le cerveau…