A l'inverse des sommets précédents à Bletchley Park (Royaume-Uni) en 2023 et à Séoul (Corée du Sud) en 2024, axés sur les questions de sécurité, la présidence française souhaite que celui de lundi et mardi, à Paris, mette l'accent sur «l'action».
L'objectif: que de nombreux acteurs se déclarent en faveur d'une gouvernance mondiale de l'intelligence artificielle et prennent des engagements pour une IA durable, sans cadre contraignant toutefois.
«Notre souhait n'est pas de passer notre temps à uniquement parler des risques. Il y a aussi le côté opportunité qui est très réel», a ainsi assuré à l'AFP Anne Bouverot, envoyée spéciale du président de la République, Emmanuel Macron, pour l'événement.
Pourtant, la France est «une championne de la collaboration internationale et a l'opportunité d'être leader pour le reste du monde», plaide auprès de l'AFP Max Tegmark, président du Future of Life Institute, organisme non lucratif basé aux Etats-Unis qui met régulièrement en garde contre les méfaits de cette technologie.
Pour ce physicien du Massachusetts Institute of Technology (MIT), il ne faut pas que le pays passe à côté de ce "moment charnière" du sommet sur l'IA, qui réunit pendant plusieurs jours dans la capitale française les grands acteurs du secteur.
Cyberattaques, attaques biologiques
Future of Life Institute appuie ainsi le lancement dimanche d'une plateforme, baptisée «GRASP», qui vise à cartographier les principaux risques liés à l'IA et les solutions développées à travers le monde.
«Nous avons identifié environ 300 outils et technologies qui répondent à ces risques», détaille pour l'AFP Cyrus Hodes, qui a coordonné l'initiative dont les résultats seront transmis à l'Organisation de coopération et de développement économiques (OCDE) et aux membres du Partenariat mondial sur l'intelligence artificielle (PMIA), dont fait partie la France et qui se réunit dimanche.
Le premier rapport international sur la sécurité de l'IA, fruit d'une collaboration internationale de 96 experts et soutenu par 30 pays, l'Onu, l'Union européenne et l'OCDE, a par ailleurs été présenté jeudi, aussi dans l'optique d'informer les décideurs politiques des dangers de cette technologie.
Si certains sont bien établis, comme la création de faux contenus en ligne, le chercheur en informatique Yoshua Bengio, lauréat 2018 du prix Turing, affirme que «les preuves de l'existence de risques supplémentaires comme les attaques biologiques ou les cyberattaques apparaissent progressivement».
A plus long terme, il s'inquiète d'une «perte de contrôle» des humains sur des IA animées de «leur propre volonté de vivre».
«Beaucoup de personnes pensaient que maîtriser le langage comme le fait ChatGPT-4 (le robot conversationnel d'OpenAI, NDLR) était de la science-fiction il y a à peine six ans», retrace Max Tegmark. «Le problème est que beaucoup de personnes au pouvoir n'ont toujours pas compris que nous nous rapprochons davantage de la construction d'une intelligence artificielle générale que de savoir comment la contrôler».
Domination des machines?
L'intelligence artificielle générale serait comparable, voire supérieure, aux humains et plusieurs pointures de l'écosystème, comme le patron d'OpenAI Sam Altman, pensent y parvenir dans les prochaines années.
«Si on regarde le rythme auquel les capacités augmentent, on peut penser que nous y arriverons d'ici à 2026 ou 2027», abondait Dario Amodei, le patron de la start-up américaine Anthropic, en novembre.
Avec le risque que, dans «le pire des cas, ces entreprises américaines ou chinoises perdent le contrôle et que la Terre soit dominée par des machines», soutient Max Tegmark.
«La technologie évolue vraiment très vite», appuie Stuart Russell, professeur en informatique à l'université californienne de Berkeley et codirecteur de l'Association internationale pour une IA sûre et éthique (IASEAI).
Ce qui est le plus inquiétant, «ce serait d'avoir des systèmes d'armement où c'est l'intelligence artificielle qui contrôle et décide qui attaquer et quand», ajoute-t-il.
Pour ces experts, les Etats doivent mettre en place des garde-fous.
«Nous devons traiter l'industrie de l'intelligence artificielle de la même façon que nous traitons toutes les autres industries», souligne Max Tegmark.
«Avant de construire un réacteur nucléaire près de Paris, on doit démontrer à des experts mandatés par le gouvernement que le réacteur est sécurisé», poursuit-il. «Cela doit être la même chose pour l'IA». (awp/hzi/ps)