D’anciens employés d’OpenAI et de Google accusent, dans une lettre ouverte, leurs entreprises de dissimuler des informations cruciales sur leurs modèles d’IA. Ils estiment que l’intelligence artificielle générale (AGI) pourrait nuire à l’humanité. Les signataires demandent une plus grande transparence et protection pour les employés souhaitant exprimer leurs inquiétudes. Focus
Pour dénoncer le manque de considération par OpenAI et Google des risques potentiels liés aux IA, un collectif d’anciens et d’actuels salariés de ces entreprises a rédigé une lettre ouverte intitulée « Un droit d’alerter sur l’intelligence artificielle avancée ».
Cette lettre, signée par 13 anciens employés, affirme que ces entreprises dissimulent les dangers de l’IA qui pourraient conduire à l’extinction de l’humanité.
OpenAI en ligne de mire
Face à l’opacité des géants de la tech et à l’absence de régulation suffisante, des lanceurs d’alerte tentent de sensibiliser le public aux risques potentiellement existentiels de l’IA. Des spécialistes de la question ont récemment publié une lettre ouverte soulignant être réduits au silence lorsqu’ils soulèvent des problèmes de sécurité dans leurs firmes, notamment chez OpenAI.
Ils affirment que le public doit connaître la réalité des risques posés par l’IA, allant de la désinformation à l’aggravation des inégalités existantes, jusqu’à des scénarios extrêmes comme la possible extinction de l’humanité face à la perte de contrôle des systèmes d’IA autonomes.
Parmi les 13 signataires, 7 sont d’anciens employés d’OpenAI. La lettre est également soutenue par Geoffrey Hinton, considéré comme le « parrain de l’intelligence artificielle », qui avait quitté Google en 2023 pour exprimer librement ses inquiétudes sur le développement de cette technologie.
Dissimulation volontaire des risques de l’AGI
L’un des signataires de la lettre, Daniel Kokotajlo, ancien chercheur d’OpenAI, accuse l’entreprise d’ignorer les risques posés par l’intelligence artificielle générale (AGI). La firme devrait parvenir à finaliser cette AGI d’ici 2027. Daniel Kokotajlo estime que cette AGI pourrait nuire à l’humanité, voire la détruire, avec une probabilité d’environ 70 %.
Les experts d‘OpenAI et DeepMind affirment également que les entreprises dissimulent volontairement des données cruciales sur le fonctionnement de leurs systèmes d’IA, les mesures de sécurité appliquées et les risques pour la société.
Ils demandent qu’OpenAI, Google DeepMind, Anthropic, Meta et autres acteurs de l’industrie de l’IA fournissent des méthodes sûres permettant aux employés de partager leurs critiques et craintes auprès des entreprises ou d’organismes indépendants sans craindre de représailles.
A lire aussi :