Des experts appellent à une pause dans le développement de systèmes d’intelligence artificielle / Experții cer o pauză în dezvoltarea sistemelor de inteligență artificială / Experts call for a pause in the development of artificial intelligence systems

Spread the love

Des experts appellent à une pause dans le développement de systèmes d’intelligence artificielle face à des « risques majeurs pour l’humanité »

Un groupe d’experts dans le secteur de l’intelligence artificielle (IA) appelle dans une lettre ouverte à une pause de six mois dans le développement de systèmes d’IA générative plus puissants que GPT-4, récemment lancé par OpenAI, citant les risques potentiels pour la société et l’humanité.

La lettre, publiée par l’organisation à but non lucratif Future of Life Institute et signée par plus de 1.000 personnes, dont Elon Musk, plaide pour une pause jusqu’à ce que des protocoles de sécurité communs soient élaborés, appliqués et supervisés par des experts indépendants.

« Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables« , indique le document.

Les experts estiment que ces systèmes pourraient provoquer des perturbations économiques et politiques et demandent aux développeurs de travailler avec les décideurs politiques et les autorités de régulation face à « des risques majeurs pour l’humanité » tels que « l’érosion des processus démocratiques, des krachs financiers éclairs ou une course aux armements à partir d’armes autonomes ».

Parmi les cosignataires figurent Emad Mostaque, directeur général de Stability AI, des chercheurs de DeepMind , propriété d’Alphabet, ainsi que les grands noms de l’IA Yoshua Bengio et Stuart Russell.

Ces inquiétudes surviennent alors qu’Europol, l’agence européenne de police, a publié lundi un rapport mettant en garde contre l’utilisation abusive de systèmes comme ChatGPT dans les tentatives d’hameçonnage, la désinformation et la cybercriminalité.

Sam Altman, directeur général d’OpenAI, n’a pas signé la lettre, a déclaré à Reuters un porte-parole de Future of Life. OpenAI n’a pas répondu immédiatement à une demande de commentaire.

« La lettre n’est pas parfaite, mais l’esprit est juste : nous devons ralentir jusqu’à ce que nous comprenions mieux les ramifications », a déclaré Gary Marcus, un professeur de l’Université de New York signataire de la lettre.

« Les grands acteurs sont de plus en plus discrets sur ce qu’ils font, ce qui rend difficile pour la société de se défendre contre les dommages qui pourraient survenir ».

Experții cer o pauză în dezvoltarea sistemelor de inteligență artificială în fața „riscurilor majore pentru umanitate”

Un grup de experți din industria inteligenței artificiale (AI) solicită într-o scrisoare deschisă o pauză de șase luni în dezvoltarea unor sisteme AI generative mai puternice decât GPT-4, lansat recent de OpenAI, invocând riscurile potențiale pentru societate și umanitate.

Scrisoarea, publicată de organizația nonprofit Future of Life Institute și semnată de peste 1.000 de persoane, inclusiv Elon Musk, pledează pentru o pauză până când protocoalele comune de siguranță vor fi dezvoltate, aplicate și supravegheate de experți independenți.

„Sistemele AI puternice ar trebui dezvoltate numai atunci când suntem siguri că efectele lor vor fi pozitive și că riscurile vor fi gestionabile”, se arată în document.

Experții spun că aceste sisteme ar putea cauza perturbări economice și politice și îi invită dezvoltatorilor să colaboreze cu factorii de decizie și autoritățile de reglementare în fața „riscurilor majore pentru umanitate”, cum ar fi „eroziunea proceselor democratice, prăbușirile financiare fulgerătoare sau o cursă a înarmărilor de la arme autonome”.

Printre cosemnatari se numără directorul executiv al Stability AI, Emad Mostaque, cercetătorii de la DeepMind, deținut de Alphabet, și marile nume de AI Yoshua Bengio și Stuart Russell.

Îngrijorările apar în momentul în care Europol, agenția europeană de poliție, a publicat luni un raport în care avertizează împotriva utilizării abuzive a sistemelor precum ChatGPT în tentative de phishing, dezinformare și criminalitate cibernetică.

Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Viitorului Vieții. OpenAI nu a răspuns imediat unei solicitări de comentarii.

„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când înțelegem mai bine ramificațiile”, a spus Gary Marcus, profesor de la Universitatea din New York, care a semnat scrisoarea.

„Jucătorii mari sunt din ce în ce mai secreti cu privire la ceea ce fac, ceea ce îngreunează societatea să se apere împotriva oricăror daune care ar putea apărea”.

Experts call for a pause in the development of artificial intelligence systems in the face of « major risks for humanity »

A group of experts in the artificial intelligence (AI) industry calls in an open letter for a six-month pause in the development of generative AI systems more powerful than GPT-4, recently launched by OpenAI, citing the potential risks for society and humanity.

The letter, published by the nonprofit organization Future of Life Institute and signed by more than 1,000 people, including Elon Musk, pleads for a pause until common safety protocols are developed, enforced and overseen by independent experts.

“Powerful AI systems should only be developed when we are certain that their effects will be positive and their risks will be manageable,” the document states.

Experts say these systems could cause economic and political disruption and call on developers to work with policymakers and regulators in the face of « major risks to humanity » such as « the erosion of democratic processes, flash financial crashes or an arms race from autonomous weapons ».

Co-signers include Stability AI chief executive Emad Mostaque, researchers at Alphabet-owned DeepMind, and AI big names Yoshua Bengio and Stuart Russell.

The concerns come as Europol, the European police agency, released a report on Monday warning against the misuse of systems like ChatGPT in phishing attempts, disinformation and cybercrime.

Sam Altman, chief executive of OpenAI, did not sign the letter, a Future of Life spokesperson told Reuters. OpenAI did not immediately respond to a request for comment.

« The letter isn’t perfect, but the spirit is right: We need to slow down until we better understand the ramifications, » said Gary Marcus, a New York University professor who signed the letter.

« Big players are increasingly secretive about what they do, which makes it difficult for society to defend itself against any damages that may arise. »

Stéphane Guibert (Facebook) / Stéphane Guibert (VK)

Loading

Laisser un commentaire