Les Mystères du Temps


Apocalypse atomique ou IA Apocalypse?

ÉDITORIAL

English Español
décembre 2024


Apocalypse atomique ou IA Apocalypse?

Voici la nouvelle AI Safety Clock, générée par l’IMD Business School de Lausanne, qui mesure les dangers à venir de l’intelligence artificielle en pleine expansion. Mais que se passerait-il s’il lui prenait d’aller sonner minuit?

O

n connaissait déjà l’apocalyptique Doomsday Clock, qui mesure le danger atomique dans le monde – et qui à ce jour pointe à un effrayant 90 secondes avant minuit! – que voici la nouvelle AI Safety Clock, générée par l’IMD Business School de Lausanne, qui quant à elle mesure les dangers à venir de l’intelligence artificielle en pleine expansion. Rassurons-nous, cette Clock ne pointe pas encore à quelques secondes avant minuit mais à un plus confortable 29 minutes. Mais que se passerait-il s’il lui prenait d’aller sonner minuit? En fait, Apocalypse ou pas, nul ne le sait.

Selon Elon Musk, il y aurait «de 20% à 30%» de risque pour qu’au bout du compte survienne «une catastrophe existentielle» pour l’humanité (et il semble qu’il s’est mis à travailler activement pour y parvenir). D’autres experts, nous explique IMD, ne sont guère plus rassurants: «Geoff Hinton assigns a 10% chance of human extinction within 30 years without strict regulation, Dario Amodei and Yoshua Bengio estimate 10-15% and 10%, respectively, for a civilizational catastrophe, while Ray Kurzweil predicts human-level intelligence by 2029.» Bigre. Le risque avance sans contrôle.

Qui dit «Clock» parle d’un instrument de mesure, qui doit être strictement régulé et ne pas reposer sur de seules prédictions. Calculer précisément l’avancée de son aiguille implique donc d’échafauder un «mouvement» régulateur, ce à quoi s’attache l’IMD. Comme son nom l’indique, cette horloge évalue les risques que pose une AI qui serait totalement incontrôlée. Comme dans un mouvement horloger, l’énergie emmagasinée ne doit pas se libérer sans frein (auquel cas les aiguilles tourneraient comme des folles) mais être littéralement «mise au pas». La tâche de l’IA Clock est donc d’avertir des dangers potentiels que poserait une IA sophistiquée et incontrôlée, qui parviendrait à acquérir un haut degré d’autonomie et d’interaction avec le monde physique ainsi que la faculté de s’y adapter sans intervention humaine.

Si l’aiguille pointe aujourd’hui minuit moins 29 minutes, elle risque d’avancer rapidement car se mettent en place précisément des systèmes capables de planification, de prise de décision et de mise en action autonomes, sans plus d’interaction humaine (comme le démontrent notamment certains récents développements dans le domaine de l’armement). Le rôle de la régulation est donc central. Pour l’IMD, l’AI Safety Clock «évalue les mesures régulatoires globales et nationales (…) afin d’identifier les domaines dans lesquels ces régulations réduisent les risques et ceux qui nécessitent des régulations supplémentaires». Et l’objectif est d’en rendre conscients les décideurs, afin que l’aiguille ralentisse sa course.

Mais, petite question naïve: ne pourrait-on pas confier la régulation de l’AI Safety Clock à l’AI elle-même? Parvenue à dépasser le niveau d’intelligence humaine, peut-être serait-elle capable de se suicider pour nous épargner l’extinction totale? Mais est-elle programmée pour éprouver quelque empathie? Rien n’est moins sûr.

Pour en savoir plus