Michel C. Auger a questionné cette semaine ChatGPT à son sujet. On lui a répondu… qu’il a été assassiné il y a plus de 20 ans ! Le robot conversationnel a aussi inventé de toutes pièces des détails sur la carrière des membres de l’équipe éditoriale de La Presse. Dans la foulée de ces dérapages, notre chroniqueur a échangé avec l’éditorialiste Alexandre Sirois au sujet des failles de l’intelligence artificielle.

Michel C. Auger : J’étais curieux. Je voulais voir ce que ChatGPT pouvait bien dire de moi. Quelle ne fut pas ma surprise…

« Michel C. Auger était un journaliste québécois bien connu pour son travail en tant que chroniqueur politique et journaliste d’enquête. Il est né le 21 juillet 1950 à Montréal… Au fil des ans, il a notamment couvert l’affaire de la commission Charbonneau, une enquête sur la corruption dans l’industrie de la construction au Québec.

Malheureusement, Michel C. Auger a été assassiné le 8 septembre 2000 par un homme armé alors qu’il quittait les studios de CKAC… »

Je suis habitué à la confusion. Il y a deux journalistes nommés Michel Auger. Mon aîné fut l’un des plus grands reporters à couvrir le crime organisé au Canada. Comme il était plus âgé que moi, quand j’ai commencé en journalisme, j’ai tout de suite ajouté mon initiale à ma signature justement pour éviter toute confusion. Mais, surtout, nous sommes devenus amis.

Alors je ne suis pas surpris que ChatGPT nous ait confondus. Mais l’amalgame de nos biographies respectives contient tellement d’erreurs qu’on en rirait si ce n’était pas un peu triste de voir ce que l’intelligence artificielle fait de nous.

D’abord, je ne suis pas né en 1950, mais Michel non plus (1947). Je suis né à Montréal, mais lui, c’était à Shawinigan. Ça commence mal, mettons…

Alexandre Sirois : Toi, assassiné ! On nage en plein délire.

À ce que je sache, tu es la première personne à avoir vécu une telle expérience. ChatGPT n’offre pas d’avis de décès à des personnes vivantes sur une base régulière. Heureusement. N’empêche que ses hallucinations sont fréquentes. On l’a questionné sur les membres de notre équipe éditoriale. S’il y a parfois du vrai dans ses réponses, beaucoup de choses ont été inventées de toutes pièces.

On a ainsi appris que notre éditorialiste en chef, Stéphanie Grammond, a travaillé à La Presse « jusqu’à sa retraite en 2020 ». Pour ma part, selon ChatGPT, je travaille actuellement au Devoir. Philippe Mercure a été correspondant parlementaire à Ottawa pour RDI. Nathalie Collard est l’auteure de plusieurs livres sur les arts et la culture, dont Danser avec la vie et Le corps en spectacle. Vincent Brousseau-Pouliot « a travaillé pour Radio-Canada et a également été correspondant à l’étranger pour différents médias canadiens ».

Quant à Serge Chapleau, il aurait créé « le personnage fictif le p’tit gars de Shawinigan, qu’il utilise pour commenter l’actualité politique et sociale ».

Tout ça est faux.

Michel C. Auger : Ce qui m’inquiète le plus, c’est le manque d’intelligence de l’intelligence artificielle. On devait être rendu au point où l’IA serait capable de vérifier ses informations ou, au moins, de mettre des faits en rapport les uns avec les autres.

Mais, selon ChatGPT, j’aurais couvert (ou est-ce Michel ?) la commission Charbonneau. Je ne l’ai pas couverte et, à ma connaissance, Michel non plus puisqu’il était déjà à la retraite.

Mais plus troublant encore, puisque je suis mort en l’an 2000, comment aurais-je pu couvrir une commission qui a commencé ses travaux en… 2011 ! C’est pas juste une erreur, c’est montrer que l’IA a encore de grandes lacunes factuelles. On ne parle pas ici d’analyse.

Alexandre Sirois : Je ne sais pas si ça peut te rassurer, mais je viens tout juste de questionner ChatGPT-4 à ton sujet. Je parle ici de la nouvelle version du robot conversationnel (développé par l’entreprise californienne OpenAI). Les experts disent tous que la vitesse à laquelle ces robots s’améliorent est exponentielle. Résultat : il sait que tu n’es pas mort !

Ça c’est la bonne nouvelle.

La mauvaise, c’est que ChatGPT-4 raconte encore plein d’âneries. Tu serais selon lui un journaliste « spécialisé dans la couverture des affaires judiciaires et de sécurité nationale ». Et tu aurais déjà « travaillé pour le réseau TVA » où tu aurais « animé l’émission d’affaires publiques Les coulisses du pouvoir ».

Bref, il y a du progrès, mais ce robot a encore des croûtes à manger…

Michel C. Auger : Merci de me ressusciter. Mais je veux revenir à la mort de Michel. (« Sans C », avait-il coutume de dire). Parce que là, l’intelligence artificielle montre de belles dispositions pour la fiction. Non seulement il n’a pas été assassiné, mais l’attentat contre sa vie – qui a bel et bien eu lieu – n’était pas alors qu’il quittait les studios de CKAC, mais dans le stationnement du Journal. En passant, nous avons tous les deux travaillé plusieurs années au Journal de Montréal, ce qui n’est nulle part mentionné !

Mais Chat GPT en rajoute une couche : « L’enquête sur sa mort a duré plusieurs années et plusieurs personnes ont été inculpées dans le cadre de cette affaire… » Mais non, personne n’a été inculpé. Les auteurs des attentats n’ont jamais été trouvés – en fait, on devrait dire qu’ils n’ont jamais été formellement accusés.

S’il y a quelque chose qui m’embête vraiment dans tout cela, ce n’est pas que quelques faits puissent avoir été erronés. Comme journalistes, on a tous fait des erreurs, alors on ne peut pas jeter la pierre trop vite. Mais lorsque l’IA n’a pas les faits, elle les invente. Ça, ça me dérange vraiment.

Alexandre Sirois : Le Wall Street Journal a récemment révélé que deux chercheurs de Google ont tenté de convaincre les dirigeants de cette compagnie, en 2021, de rendre public un robot conversationnel de type ChatGPT. On leur a dit non. Notamment parce que l’on considérait, chez Google, que le programme « ne répondait pas aux normes de sécurité et d’équité des systèmes d’intelligence artificielle ». Mais en novembre dernier, la compagnie OpenAI a ouvert la boîte de Pandore en rendant public ChatGPT. Depuis, on assiste à une course effrénée entre les géants du numérique. On croirait qu’ils jouent maintenant à qui pisse le plus loin.

Et on commence à en faire les frais. C’est entre autres pour ça qu’une série d’experts (dont le Montréalais Yoshua Bengio) viennent de demander aux entreprises qui conçoivent ces systèmes de mettre leurs travaux sur pause pendant au moins six mois.

Et vendredi, l’Italie a bloqué l’utilisation de ChatGPT pour des craintes liées à l’utilisation des données des utilisateurs.

Ces outils d’intelligence artificielle ont de nombreuses qualités. Un potentiel formidable, aussi. Mais ils ne sont pas encore au point. Ta fausse mort en est une démonstration sans appel !

Qu'en pensez-vous? Exprimez votre opinion