Points clés à retenir
- Le PDG d’OpenAI, Sam Altman, a récemment averti que « des choses vraiment mauvaises » arrivaient avec l’IA, en particulier les deepfakes et d’autres « moments vraiment étranges ou effrayants ».
- La nouvelle application vidéo d’OpenAI, Sora 2, a rapidement pris la première place de l’App Store d’Apple dans les jours qui ont suivi son lancement à la fin du mois dernier, montrant à quelle vitesse la technologie de type deepfake se généralise.
- Altman a déclaré qu’il espérait que la société apprendrait à construire des garde-fous avant que la technologie ne devienne encore plus puissante.
Sam Altman, PDG d’OpenAI, la société derrière ChatGPT, émet des avertissements étonnamment sévères sur les effets de ses propres produits et de ceux similaires.
« Je m’attends à ce que des choses vraiment mauvaises se produisent à cause de la technologie », a-t-il déclaré dans une récente interview sur le podcast a16z de la société de capital-risque Andreessen Horowitz.
L’avertissement n’est pas hypothétique. Les vidéos réalisées par la nouvelle version d’OpenAI de Sora, publiée à la fin du mois dernier sur invitation uniquement, ont été rapidement vues sur les réseaux sociaux alors que l’application s’est rapidement hissée au numéro un sur l’App Store américain d’Apple (AAPL). Les médias sociaux ont rapidement inclus des deepfakes créés par Sora mettant en vedette Martin Luther King Jr. et d’autres personnalités publiques, dont Altman lui-même, qui était décrit comme étant engagé dans diverses formes d’activités criminelles. (OpenAI a ensuite empêché les utilisateurs de réaliser des vidéos de Martin Luther King Jr. sur Sora.)
Mais si Altman s’attend réellement à ce que « des choses vraiment mauvaises se produisent », pourquoi son entreprise semble-t-elle contribuer à accélérer son arrivée ?
Pourquoi cela compte pour vous
Les deepfakes générés par l’IA peuvent être impossibles à distinguer des vraies vidéos, ce qui peut rendre difficile la confiance dans ce que vous voyez sur les réseaux sociaux. Vous risquez de perdre confiance dans les images d’actualité ou les vidéos de conseils financiers que vous voyez sur les plateformes plus rapidement que les entreprises technologiques et les régulateurs ne peuvent mettre en place des garanties. Les fraudeurs utilisent déjà des outils similaires pour créer de fausses vidéos à des fins frauduleuses. Soyez prudent et remettez toujours en question le contenu que vous voyez sur les réseaux sociaux avant de le considérer comme la vérité.
Éducation connexe
Altman : nous devons « co-évoluer » avec l’IA
La raison pour laquelle Altman va de l’avant avec cette version publique est que la société a besoin d’un essai routier.
« Très bientôt, le monde devra faire face à des modèles vidéo incroyables qui peuvent truquer n’importe qui ou montrer tout ce que vous voulez », a-t-il déclaré sur le podcast.
Plutôt que de perfectionner la technologie à huis clos, il soutient que la société et l’IA doivent « co-évoluer » – qu’« on ne peut pas laisser tomber l’affaire à la fin ». Sa théorie : donner aux gens une visibilité précoce afin que les communautés puissent établir des normes et des garde-fous avant que ces outils ne deviennent encore plus puissants.
L’enjeu est notamment de perdre ce que nous considérons depuis longtemps comme une preuve de la vérité : les vidéos d’événements ont contribué à changer l’histoire du monde. Mais l’avantage, selon Altman, est que nous serons mieux préparés lorsque des outils encore plus sophistiqués arriveront.
Avertissement
Les vidéos négationnistes créées avec Sora 2 ont collecté des centaines de milliers de likes sur Instagram quelques jours après le lancement de l’application, selon la Coalition mondiale contre la haine et l’extrémisme. L’organisation affirme que les politiques d’utilisation d’OpenAI, qui ne comportent pas d’interdictions spécifiques contre les discours de haine, ont contribué à permettre aux contenus extrémistes de prospérer en ligne.
Ce que dit Altman vient ensuite
L’avertissement d’Altman ne concernait pas seulement les fausses vidéos. Il s’agissait de ce qui se passe lorsque nous sommes si nombreux à confier nos décisions à des algorithmes que peu de gens comprennent.
« Je pense toujours qu’il va y avoir des moments vraiment étranges ou effrayants », a-t-il déclaré, soulignant que ce n’est pas parce que l’IA n’a pas encore provoqué d’événement catastrophique « qu’elle ne le fera jamais ».
« Des milliards de personnes parlant au même cerveau » pourraient créer « des choses étranges à l’échelle de la société », a-t-il déclaré. En d’autres termes, cela pourrait conduire à des réactions en chaîne inattendues, entraînant des changements conséquents dans l’information, la politique et la confiance communautaire qui se répercuteraient plus rapidement que quiconque ne pourrait le contrôler.
Malgré ces vastes changements qui nous affectent tous, Altman s’est opposé à la réglementation de cette technologie.
« La plupart des réglementations présentent probablement de nombreux inconvénients », a-t-il déclaré. Cependant, Altman a également déclaré qu’il soutenait « des tests de sécurité très minutieux » pour ce qu’il a qualifié de modèles « extrêmement surhumains ».
« Je pense que nous allons développer des garde-fous autour de cela en tant que société », a-t-il déclaré.

