ChatGPT est un phénomène planétaire et de nombreux articles, émissions et chroniques ont déjà expliqué le fonctionnement de ce «dialogueur» développé par la société américaine OpenAI. Le but de cette chronique n’est donc pas d’exposer les prouesses technologiques de cette IA ou les craintes suscitées par son usage, mais, plus spécifiquement, d’éclairer l’utilisateur sur la pertinence des réponses produites et sur la responsabilité des utilisateurs pour des usages qui dépassent le simple divertissement, par exemple dans la formation ou le cadre professionnel.

Pour le premier point, deux aspects sont essentiels: tout d’abord, du fait de sa dépendance vis-à-vis des données utilisées pour l’entraîner, ChatGPT ignore les évènements postérieurs à sa dernière mise à jour, par exemple, l’invasion de l’Ukraine ou la retraite de Roger Federer, pour la version utilisant les données de 2021. Même si, sur le fond, ce point n’est qu’une question d’actualisation des données d’entraînement, il peut être problématique pour un utilisateur non averti.

Pas de garantie de cohérence globale ni de véracité

D’autre part, du fait de la nature probabiliste des techniques de génération de texte qu’il utilise, ChatGPT ne dispose actuellement pas de moyens efficaces pour garantir, ni la cohérence globale, ni la véracité, de ses réponses. Il pourra ainsi attribuer à Alfred de Musset la citation de Verlaine «Les sanglots longs des violons de l’automne» ou générer sa propre version du Corbeau et le Renard en affirmant qu’il s’agit de la version originale de la fable de La Fontaine.

Lire aussi: Google annonce le lancement de Bard, son concurrent de ChatGPT

Malgré l’aisance et la qualité rédactionnelle du système, les réponses apportées par ChatGPT devraient donc toujours être traitées avec circonspection. Ceci d’autant plus que, du fait du jeu compliqué des statistiques appliquées à d’énormes données, ChatGPT peut difficilement identifier l’origine des informations qu’il génère. Contrairement à un moteur de recherche classique, il peine à définir ses sources pour alimenter la confiance de l’utilisateur. A l’heure où les deepfakes sont devenues une préoccupation majeure, il nous semble essentiel de n’envisager son utilisation que pour des sujets où l’utilisateur dispose de compétences préalables suffisantes pour se prémunir de réponses erronées.

Attention à la contrefaçon

Le second point concerne la responsabilité de l’utilisateur. En effet, que ce soit pour l’étudiant face à une page blanche ou pour une entreprise qui construit son site internet de vente, utiliser ChatGPT n’est pas sans risque si certaines précautions, notamment vis-à-vis de la propriété intellectuelle, ne sont pas prises. En effet, les conditions d’utilisation du service sont claires: l’usager ne doit pas enfreindre les droits de tiers. Ainsi, exploiter une réponse de ChatGPT sans avoir vérifié qu’elle n’est, selon le cas, ni le plagiat d’un travail précédent, ni une copie détournée du slogan publicitaire d’un concurrent pourrait exposer l’étudiant à de possibles sanctions administratives et/ou disciplinaires et l’entreprise à une accusation de contrefaçon ou de concurrence déloyale.

Dans cette perspective, l’utilisation des résultats produits pour une exploitation dépassant le simple divertissement devrait s’appuyer sur une analyse attentive, voire sur la supervision d’un conseiller juridique en cas d’utilisation commerciale. Et n’oubliez pas la recommandation d’OpenAI: «Ne partagez pas d’information sensible dans vos conversations»!

Même dans le monde numérique, un utilisateur averti en vaut deux!


La précédente chronique de Sébastien Kulling: Face aux cyberattaques, l’union fait la force!