ChatGPT et l’avenir des contenus Web, selon Olivier Blais, cofondateur de Moov AI Reviewed by Philippe Jean Poirier on . Les entreprises qui choisissent de ne pas tester ChatGPT font une erreur, croit Olivier Blais, cofondateur et VP science de la décision chez MoovAI 8 février 20 Les entreprises qui choisissent de ne pas tester ChatGPT font une erreur, croit Olivier Blais, cofondateur et VP science de la décision chez MoovAI 8 février 20 Rating: 0

ChatGPT et l’avenir des contenus Web, selon Olivier Blais, cofondateur de Moov AI

Par

Les entreprises qui choisissent de ne pas tester ChatGPT font une erreur, croit Olivier Blais, cofondateur et VP science de la décision chez MoovAI

8 février 2023

Depuis le lancement de l’application ChatGPT, le génie est sorti de la bouteille. L’utilisation de l’intelligence artificielle dans la production de contenu Web devrait désormais s’imposer dans les années à venir. Comment composer avec cette tendance? Faut-il y aller « all in » ? Faut-il garder ses distances en attendant une génération d’algorithmes plus mâtures ? Quelles sont les précautions à prendre en tant qu’utilisateur ? Nous avons abordé ces questions avec Olivier Blais, cofondateur et VP science de la décision chez Moov AI.

Isarta Infos : Depuis Noël, le Web s’est enflammé pour ChatGPT et ses prouesses de rédacteur. On comprend que des applications du genre seront bientôt utilisées dans la production de contenu Web – que ce soit dans un contexte journalistique, marketing ou de divertissement – , si ce n’est pas déjà le cas. Est-ce bien avisé, selon vous?

Olivier Blais: À ce moment-ci, je crois que le bon réflexe est de tester et d’expérimenter ces outils. Toute organisation devrait minimalement regarder comment elle peut les intégrer à ses opérations. Si elles ne le font pas, elles commettent une erreur. Certaines découvriront des applications auxquelles elles n’avaient pas pensé. Si elles ne testent pas les outils, elles ne le sauront jamais.

À lire les manchettes des journaux, ChatGPT peut « tout faire » – écrire des articles, des blogues, des essais, etc. Qu’est-ce qui retiendrait un producteur de contenu de lui « sous-traiter » sa rédaction, un étudiant lui fait faire son devoir à sa place etc.?

O. B. : Tout d’abord, le premier piège est de penser qu’un outil comme ChatGPT peut être utilisé pour une automatisation totale. D’une part, les informations contenues dans les textes générés par l’IA sont souvent fausses ou non fondées. D’autre part, rien ne garantit que des passages n’ont pas été recopié d’autres auteurs sur le Web. La même chose s’applique pour les visuels qui sont créés avec DALL·E 2.

Quelle serait alors l’utilisation la plus pertinente de ces plateformes?

O. B. : ChatGPT est très utile pour contrer le syndrome de la page blanche. Il peut produire un brouillon de départ. En conception de jeux vidéo, je sais que des designers graphiques utilisent DALL·E 2 pour dessiner la version préliminaire d’un univers ou d’un personnage. Toutefois, ils doivent produire eux-mêmes l’itération finale, pour éviter d’enfreindre un droit d’auteur. C’est d’ailleurs très important : il faut toujours contre-valider les faits et l’originalité des textes et des visuels produits par des applications d’IA.

Avez-vous d’autres conseils d’utilisation spécifiquement pour les marketeurs ?

O. B. : On a beaucoup parlé de ChatGPT pour sa versatilité, sa performance globale et sa fertilité. Toutefois, je suggère aux marketeurs d’aller vers des outils plus adaptés à leurs besoins et à leurs secteurs d’activités. En contenu Web, une application comme Jasper, même si elle est moins puissante que ChatGPT, va probablement produire un meilleur résultat.

Selon vous, faut-il malgré tout des compétences particulières pour manier ces nouveaux outils d’IA?

O. B. : Pour générer du bon contenu, il faut maîtriser l’art du prompt engineering, qui se définit comme la manière de poser les questions ou de donner des instructions au générateur de texte. Ça devient une compétence en soi. Pour produire un texte étoffé, il faut parfois soumettre une vingtaine de questions à ChatGPT. Dans le cas de Jasper, on ne peut pas encore dialoguer avec l’outil, mais on peut raffiner sa demande initiale. Plus les mots sont populaires et performants, meilleur sera le retour.

Selon vous, quels devraient être les critères de transparence que devrait observer une entreprise qui utilise l’IA dans sa production de contenu Web? Devrait-elle mentionner « contenu propulsé par une IA », comme on identifie du contenu « commandité » ?

O. B. : S’il s’agit d’un robot conversationnel, je crois que oui. L’utilisateur doit savoir que les réponses qui sont générées proviennent d’un algorithme. Autrement, je crois que ce sera à chaque entreprise de se positionner par rapport au degré d’intégration qu’elle a choisi. Certaines entreprises limiteront l’utilisation de l’IA; d’autres voudront automatiser toute la production de leur contenu. En fin de compte, il faudra voir quel type de contenu ira chercher le plus d’audience.

La question semble sortie d’un roman de fiction. Mais, considérant les prouesses de ChatGPT, avez-vous l’impression que l’IA pourra éventuellement remplacer les vrais producteurs de contenu – incluant les influenceurs, les marketeurs, les journalistes, les chroniqueurs, les auteurs et autres scribouilleurs?

O. B. : Pour avoir côtoyé plusieurs journalistes, je constate qu’il y a un aspect artisanal qui subsiste toujours dans leur profession. Et je crois que ça s’applique à la plupart des gens qui maîtrisent leur discipline: ils aiment mettre la main à la pâte et garder le contrôle de ce qu’ils font. Donc, oui, l’intelligence artificielle va servir à produire des textes sans grande valeur ajoutée, et cela a déjà commencé. Mais je ne suis pas inquiet pour les journalistes, elle n’est pas prête de les remplacer.

Voyez-vous des risques – autres que ceux déjà mentionnés – par rapport à l’utilisation de l’IA dans la production de contenu Web?

O. B. : Certaines entreprises pourraient décider d’automatiser leur production de contenu uniquement pour mieux se classer dans les moteurs de recherche. On pourrait alors assister à une prolifération de contenu sans valeur ajouté. Dans ce cas, il est à espérer que les grands opérateurs du Web sauront détecter et bloquer ce genre de contenus, de la même manière qu’ils ont commencé à le faire avec les deep fake.

Ma dernière question est théorique, ou du moins, elle se rapporte à un avenir plus lointain. Si un jour une majorité d’entreprises adoptent des outils d’intelligence artificielle, ne risque-t-on pas de se retrouver dans une impasse… puisque les textes qui alimenteront les algorithmes de 2e et 3e génération seront des textes que l’IA aura elle-même produits?

O. B. : C’est un risque réel. En réentraînant un algorithme avec du contenu qu’il aurait lui-même généré, il y a un risque de prophétie auto-réalisatrice. Donc, oui, à long terme, il se pourrait qu’il y ait une dégradation du contenu Web. Nous nous croisons les doigts pour que les grandes entreprises technologiques – comme Google, Microsoft et autres, mettront des mécanismes en place pour exclure ce contenu dans leur échantillon d’entraînement.


Découvrez nos formations :



Retour en haut de la page