L’IA, entre inquiétudes et promesses à C2 Montréal
6 mai 2024
La troisième et dernière journée de C2 Montréal était consacrée au sujet du moment : l’intelligence artificielle. Deux conférences ont remis en question le penchant de certaines personnes à tenir un discours « apocalyptique » sur l’IA, avec la participation de trois invités internationaux de marque: le marketeur Neil Patel, la rédactrice en chef de The Hustle Juliet Bennett Rylah et le journaliste Andrew Marantz.
En avant-midi, la conférence « IA : nos inquiétudes sont-elles bien placées ? » a abordé de front une question qui peut sembler a priori « extrême », mais qui, de toute évidence, s’impose dans l’esprit de certains : est-ce que l’IA présente une menace pour l’espèce humaine ?
Sans se prétendre scientifique, Neil Patel s’est attaqué à l’idée que l’IA serait une technologie sans garde-fou, en rappelant que les entreprises et les gouvernements mettaient d’ores et déjà en place des règles de gouvernance pour l’IA et la protection des données en général, et ce, avant même que la technologie ait atteint son plein potentiel. Ce qui, selon lui, est une bonne nouvelle.
Présente à ses côtés, Juliet Bennett Rylah, Rédactrice principale du magazine The Hustle, n’a pas cherché à évaluer le risque réel que pose cette technologie; elle a plutôt offert une explication psychologique nous poussant à tenir un discours apocalyptique.
Les humains ont tendance à projeter des sentiments, des émotions et des intentions dans les objets. Et je crois qu’il y a beaucoup de ça dans l’IA. Quand on lit les livres d’Isaac Asimov, et que l’on voit le film Terminator, on cherche à reconnaître un comportement [humain à travers les robots]. On est à l’affût de capacité cognitive. »
L’indicateur P(doom)
Plus tard dans la journée, la conférence «Repenser la ‘bombe atomique’ dans l’industrie créative» a aussi abordé le discours hyperbolique entourant les risques de l’IA. Le journaliste Andrew Marantz a parlé de ses reportages dans la Silicon Valley, où il a interviewé une communauté de geeks inquiétés par l’IA.
Au moment de faire ces reportages, le film Oppenheimer venait de sortir et le consensus se dégageant de ces groupes était que l’IA posait un risque aussi important que celui de la bombe atomique. La frénésie est devenue telle qu’un indicateur « d’inquiétude » a été créé, sous le nom de P(doom), signifiant la probabilité que l’humanité soit condamnée à l’extinction en raison de l’IA.
Quand j’ai commencé mon reportage, j’avais un P(doom) de zéro, et j’ai terminé avec un P(doom) de 2 à 3%, car je comprends maintenant mieux leurs arguments. Certains arguments sont bizarres et déconnectés, alors que d’autres le sont moins. »
Dans l’ensemble, le journaliste américain a rappelé deux différences fondamentales entre le déploiement de la bombe atomique et l’arrivée de l’IA : l’aspect beaucoup plus démocratique, puisque la question est discutée sur tous les forums et toutes les tribunes. Ensuite, l’aspect participatif. La population est intrinsèquement liée au développement de l’IA, par les données qu’elle fournit pour générer ces modèles.
Trouver la juste mesure
Si on revient au panel du matin, Neil Patel a sans doute fourni la lecture la plus juste de ce qu’est l’IA, à ce moment de notre histoire.
Ce qui se produit en se moment, c’est que des gens surestiment l’intelligence artificielle. Ils voient cela comme une baguette magique que l’on a juste à agiter pour régler tous nos problèmes. En contrepartie, d’autres personnes sous-estiment ce que cette technologie pourra faire dans 5, 10 ou 15 ans. Cette technologie est complètement délirante.”
Ne reste plus qu’à demander à ChatGPT ce qu’il (ou elle!) pense de tout cela…
Découvrez nos formations sur le sujet :
Sur le même thème
c2 • IA