Oppenheimer ou l’histoire d’un scientifique qui regrette sa création parce qu’il n’a pas pris en compte ses ramifications présente quelques parallèles potentiels avec la course actuelle à l’IA.
Au moment où Robert Oppenheimer a appris qu’Hiroshima avait été frappée, en même temps que le reste du monde, il a commencé à éprouver de profonds regrets quant à son rôle dans la création de la bombe atomique. C’est cette histoire que Christopher Nolan a choisi de raconter dans son dernier film Oppenheimer, sorti le 19 juillet dernier en France et en Belgique. Le réalisateur espère que lorsque les spectateurs de la Silicon Valley le visionneront, ils y verront des parallèles à la course actuelle aux technologies et à l’intelligence artificielle.
Assumer la responsabilité qui va de pair avec l’innovation…
Après une projection à New York de son dernier film Oppenheimer, Christopher Nolan a discuté du film avec des scientifiques et quelques journalistes présents dans la salle. Vers la fin de la discussion, le modérateur de la soirée a demandé au réalisateur ce qu’il espérait que la Silicon Valley retienne de ce film. Nolan a répondu : « Je pense que ce que je voudrais qu’ils retiennent, c’est le concept de responsabilité. […] Lorsque vous innovez par le biais de la technologie, vous devez vous assurer qu’il y a une responsabilité derrière ».
Le réalisateur d’Inception et d’Interstellar a alors fait référence à un large éventail d’innovations technologiques qui ont été adoptées par la Silicon Valley, alors que ces mêmes entreprises ont refusé de reconnaître les préjudices qu’elles ont engendrés à plusieurs reprises.
Christopher Nolan indique : « Au cours des 15 dernières années, les entreprises se sont mises à utiliser des mots comme “algorithme”, sans savoir ce qu’ils signifiaient d’un point de vue mathématique. Elles ne veulent tout simplement pas assumer la responsabilité de ce que fait cet algorithme ». Il poursuit : « Et appliqué à l’IA ? C’est une possibilité terrifiante. Terrifiante. Notamment parce qu’au fur et à mesure que les systèmes d’IA seront intégrés dans les infrastructures de défense, ils pourront au final être chargés d’armes nucléaires. Si nous nous permettons de dire que l’IA est une entité distincte de la personne qui la programme et la met en œuvre, alors nous sommes condamnés. Il s’agit d’une question de responsabilité. Nous devons tenir les gens responsables de ce qu’ils font avec les outils dont ils disposent ».
Bien que le réalisateur n’ait pas pointé du doigt une entreprise en particulier, il n’est pas difficile de savoir de quoi il parle. Des entreprises comme Google, Meta ou Netflix dépendent fortement des algorithmes pour acquérir et conserver leur audience, et cette dépendance a souvent des conséquences imprévues, voire terribles dans certains cas. Dans un rapport d’Amnesty International datant de septembre dernier, l’ONG indique que les « dangereux algorithmes de Meta » ont « contribué aux atrocités perpétrées par l’armée birmane contre le peuple rohingya en 2017 » en amplifiant la propagation de contenus anti-Rohingyas dans le pays.
Christopher Nolan ajoute : « Lorsque je discute avec les principaux chercheurs dans le domaine de l’IA, ils parlent littéralement de leur “moment Oppenheimer”. […] Ils s’inspirent de son histoire pour déterminer quelles sont les responsabilités des scientifiques qui développent de nouvelles technologies susceptibles d’avoir des conséquences inattendues ». Et lorsqu’on demande au réalisateur s’il pense que la Silicon Valley est en train de réfléchir à cela en ce moment, il répond ironiquement : « Ils disent que oui. […] C’est au moins dans la conversation. J’espère vraiment que ce processus de réflexion se poursuivra. Je ne dis pas que l’histoire d’Oppenheimer apporte des réponses faciles à ces questions. Mais au moins, elle a le mérite de servir d’avertissement ».