Search

Elon Musk et des centaines d'experts réclament une pause dans l'IA, évoquant «des risques majeurs pour l'humanité» - Le Figaro

Des chercheurs en IA, dont des Français avec lesquels Le Figaro s'est entretenu, appellent à une «prise de recul» dans une «course dangereuse vers des boîtes noires imprévisibles.» Ils visent les IA plus puissantes que ChatGPT-4.

Elon Musk et des centaines d'experts mondiaux de l'intelligence artificielle ont signé mercredi un appel à une pause de six mois dans la recherche sur les IA plus puissantes que ChatGPT 4, le modèle d'OpenAI lancé mi-mars, en évoquant «des risques majeurs pour l'humanité». Des scientifiques français font partie des signataires. «Je n'ai pas envie d'une société dont le rythme est dicté par des géants de la tech. Il y a un enjeu démocratique», estime Colin de la Higuera, enseignant-chercheur en IA à l'université de Nantes, qui a signé l'appel «sans l'ombre d'une hésitation.»

«Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life. «Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d'IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l'IA », «un écosystème robuste d'audit et de certification», des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera».

Appel à une régulation

Cet appel «ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles et toujours plus grands, dotés de capacités émergentes.»

«Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.»

Le patron d'OpenAI (ChatGPT), Sam Altman, a lui-même reconnu être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». «La société a besoin de temps pour s'adapter», avait-il déclaré à ABCNews mi-mars.

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l'être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l'auteur de «Sapiens» et «Homo Deus». Les signataires comprennent aussi le cofondateur d'Apple Steve Wozniak, des membres du laboratoire d'IA de Google DeepMind, le patron de Stability AI Emad Mostaque (concurrent d'OpenAI), des ingénieurs cadres de Microsoft (groupe allié de OpenAI), ainsi que de nombreux universitaires américains et européens.

Des chercheurs français parmi les signataires

Régis Sabbadin, chercheur en intelligence artificielle à l'Inrae (Institut national de recherche pour l'agriculture, l'alimentation et l'environnement), fait partie des signataires. «Je suis convaincu que l'IA, et notamment l'IA générative, va être à l'origine d'une nouvelle révolution industrielle qui va transformer certains métiers», explique-t-il au Figaro. «Comme le moteur à explosion ou bien les engrais agricoles, l'IA va engendrer du progrès. Mais c'est une arme à double tranchant.» Le chercheur n'est toutefois «pas d'accord» avec la partie de la tribune qui évoque les risques dystopiques d'une humanité qui finirait dominée par des IA plus puissantes qu'elle.

«L'IA est une rupture majeure et cette technologie est en train de transformer nos sociétés de manière profonde», ajoute Malik Ghallab, chercheur émérite en robotique et intelligence artificielle au CNRS. «Il conviendrait donc d'avancer avec prudence et de donner le temps à la délibération sociale. Le problème est que les avancées vont aujourd'hui beaucoup trop vite pour que ce débat public ait lieu. Or, il y a un besoin de régulation et d'une gouvernance mondiale autour de l'IA.»

Malik Ghallab alerte sur le fait que «la technique va plus vite que la science» et que les ingénieurs et chercheurs n'ont plus une maîtrise totale des IA les plus puissantes. «Leurs capacités dépassent ce que nous avions prévu, et leurs concepteurs se retrouvent dans une position dangereuse d'apprentis sorciers, malgré toute leur bonne volonté.» Le chercheur prend l'exemple du secteur de l'aviation, encadré depuis des décennies par des normes strictes de sécurité. «Il y a besoin de pionniers, comme les frères Wright, qui vont prendre des risques. Mais ces risques ne doivent pas toucher l'ensemble de la société.»

Adblock test (Why?)

https://news.google.com/rss/articles/CBMiogFodHRwczovL3d3dy5sZWZpZ2Fyby5mci9zZWN0ZXVyL2hpZ2gtdGVjaC9lbG9uLW11c2stZXQtZGVzLWNlbnRhaW5lcy1kLWV4cGVydHMtcmVjbGFtZW50LXVuZS1wYXVzZS1kYW5zLWwtaWEtZXZvcXVhbnQtZGVzLXJpc3F1ZXMtbWFqZXVycy1wb3VyLWwtaHVtYW5pdGUtMjAyMzAzMjnSAaIBaHR0cHM6Ly9hbXAubGVmaWdhcm8uZnIvc2VjdGV1ci9oaWdoLXRlY2gvZWxvbi1tdXNrLWV0LWRlcy1jZW50YWluZXMtZC1leHBlcnRzLXJlY2xhbWVudC11bmUtcGF1c2UtZGFucy1sLWlhLWV2b3F1YW50LWRlcy1yaXNxdWVzLW1hamV1cnMtcG91ci1sLWh1bWFuaXRlLTIwMjMwMzI5?oc=5

Bagikan Berita Ini

Related Posts :

0 Response to "Elon Musk et des centaines d'experts réclament une pause dans l'IA, évoquant «des risques majeurs pour l'humanité» - Le Figaro"

Post a Comment

Powered by Blogger.