L'Intelligence Artificielle va-t-elle provoquer la fin de l'humanité ? La mise en garde d'experts
L'intelligence artificielle est l'un des sujets les plus brûlants de l'actualité technologique, mais certains experts mettent en garde contre les conséquences catastrophiques qu'elle pourrait avoir sur l'humanité.
Les inquiétudes concernant l'intelligence artificielle (IA) et son impact sur notre avenir ont fait la Une des médias ces derniers mois. Certains ont exprimé leurs craintes de voir des IA voler leur travail. D'autres sont favorables à cette technologie, estimant qu'elle favorisera l'innovation.
Même l'entrepreneur américain Elon Musk a exprimé publiquement ses craintes à propos de l'IA. Il convient de mentionner que la relation compliquée du milliardaire avec la technologie de pointe a commencé après son investissement dans des start-up d'IA telles qu'OpenAI il y a des années et que la rumeur veut qu'il travaille actuellement à la création d'un rival de ChatGPT.
Elon Musk fait également partie des signataires d'une lettre ouverte concernant les menaces liées à l'IA, dans laquelle il demandait de suspendre tout développement pendant six mois afin d'évaluer les avantages de cette technologie, non seulement pour les entreprises et leurs bénéfices, mais aussi pour l'humanité dans son ensemble.
Alors que le monde est divisé sur la question de l'IA, voici ce qu'en disent les experts.
Les professionnels de l'IA signent une lettre ouverte contenant un avertissement terrifiant
Cette semaine, des dizaines de leaders de l'industrie de l'IA et de personnalités publiques, dont Sam Altman, directeur général d'OpenAI, et Demis Hassabis, directeur général de Google DeepMind, ont signé une nouvelle lettre ouverte au public afin de tirer la sonnette d'alarme sur les conséquences du développement rapide de l'IA.
Des lettres ouvertes avaient déjà été signées, mais la dernière en date, publiée sur le site web du Centre pour la sécurité de l'IA, ne comportait qu'une seule phrase et lançait un avertissement terrifiant :
L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires.
Les personnalités les plus respectées du monde de latechnologie estiment que la révolution imminente de l'IA entraînera des changements irréversibles et, à terme, la destruction de l'humanité.
Ils exhortent les décideurs politiques à élaborer des lois et des règlements pour éliminer les dangers liés à l'industrie avant qu'il ne soit trop tard.
Qu'ont dit exactement les experts sur la menace de l'IA ?
Dan Hendrycks, directeur exécutif du Center for AI Safety, a misen garde contre les risques de biais systémiques, de désinformation, d'utilisation malveillante, de cyberattaques et d'armement induits par l'IA. Le Dr Geoffrey Hinton, qui a quitté Google en raison des dangers de l'IA et a soutenu la lettre ouverte, a averti que la technologie "fonctionnait mieux qu'on ne le pensait il y a quelques années" et qu'elle pourrait devenir "plus intelligente que nous", voire qu'elle pourrait "prendre le contrôle".
Hinton, ainsi que Yoshua Bengio, professeur d'informatique à l'université de Montréal, et Yann LeCun, professeur à l'université de New York, sont souvent décrits comme les "parrains de l'IA" pour leurs travaux révolutionnaires dans ce domaine. Ils ont remporté conjointement le prix Turing 2018 pour leurs contributions exceptionnelles à l'informatique.
Mais alors que M. Hinton et M. Bengio ont fait part de leurs inquiétudes quant aux progrès rapides de la technologie, le professeur LeCun, qui travaille toujours chez Meta, a déclaré que les avertissements apocalyptiques étaient exagérés.
Existe-t-il des preuves que l'IA constitue une menace ?
Au début de l'année, le Premier ministre britannique Rishi Sunak a rencontré Sam Altman d'OpenAI, Demis Hassabis, directeur général de Google DeepMind, et Dario Amodei d'AnthropicAI pour discuter des garde-fous à mettre en place pour réglementer l'IA et assurer la sécurité des personnes.
Le Premier ministre a déclaré :
Les gens seront préoccupés par les rapports selon lesquels l'IA pose des risques existentiels, comme les pandémies ou les guerres nucléaires. Je veux qu'ils soient rassurés par le fait que le gouvernement étudie très attentivement la question.
Le G7 a également créé récemmentun groupe de travail sur l'IA.
Alors que les avis sont encore partagés sur les avantages ou les inconvénients de la technologie, Cynthia Rudin, professeur d'informatique et chercheuse en IA à l'université Duke, se demande s'il ne faudrait pas davantage de preuves de l'existence de l'IA pour que les gouvernements deviennent plus proactifs.
Elle a ajouté :
Avons-nous vraiment besoin d'autres preuves que l'impact négatif de l'IA pourrait être aussi important qu'une guerre nucléaire ?
Sources utilisées :
- BBC News
Cet article est basé sur une publication d'Oh My Mag! UK.