IA & conception eLearning : j’ai comparé ChatGPT et Didask… le verdict est sans appel !

Conception eLearning : comparaison ChatGPT et Didask

Il y a quelques jours, alors que j’anime un webinaire de démonstration de la plateforme Didask et que je m’apprête à montrer la génération automatique de contenus avec notre intelligence artificielle pédagogique, un prospect m’interpelle via le module de chat : “Mais en quoi c’est différent de ChatGPT ?”

J’aurais pu m’attendre à la question, car après tout, qui ne s’est pas amusé ces dernières semaines avec cet outil révolutionnaire et à jouer avec son prompt. Les pros du eLearning sont loin de faire exception, et nombreux sont ceux, moi le premier, qui ont testé ChatGPT pour créer des modules, et de plus en plus de prompts circulent sur internet. Je commence à répondre oralement et sent très vite que mes explications manquent de concret. Je décide alors d’arrêter la présentation en cours et me lance : “Ok, on va faire la comparaison en direct, ensemble, vous pourrez juger vous-mêmes du résultat”.

Voici donc ci-dessous les résultats de cette expérience. Evidemment mon objectivité peut être remise en question de par mon appartenance à Didask, c’est pourquoi je vais essayer d’être le plus factuel possible, en illustrant mon propos de captures réelles du test réalisé.

Préparation du test

Je commence par prendre un exemple de situation de formation courante que nous rencontrons souvent ces derniers temps, l’onboarding. Beaucoup d’organisations ont en effet des tonnes d’informations à transmettre à leurs nouvelles recrues, souvent éparpillé en slides, pdf et autres documents “passifs”. C’était aussi notre cas chez Didask avant, où nous regroupions nos éléments sur des pages Notion. Je choisis pour mon test l’une des thématiques sous-jacente, souvent mal traitée, la transparence, où plutôt comment nous la mettons en œuvre dans notre organisation.

Voici la page en question, je copie simplement son contenu.

IA & conception eLearning : j’ai comparé ChatGPT et Didask - Texte de départ

Côté ChatGPT

J’ouvre l’outil en ligne, je colle mon texte en ajoutant dans le prompt la consigne suivant “Conçois un module de formation en ligne prêt à l'emploi sur la transparence à partir du texte suivant”,  puis je lance l’IA. Le texte apparaît au fur et à mesure, et voici ce que l’on peut lire après quelques secondes :

IA & conception eLearning : j’ai comparé ChatGPT et Didask - résultats ChatGPT 1/2
IA & conception eLearning : j’ai comparé ChatGPT et Didask - résultats ChatGPT 2/2

Penchons-nous sur ce qu’à fait Chat GPT.

En quelques secondes, la solution me propose un nouveau texte qui s’apparente à un plan de formation associé à des conseils. ChatGPT me propose un titre, une durée de formation globale puis déroule les différents points à aborder, d’une manière assez organisée, avec une recommandation de temps à y accorder pour chacun.

Toutefois, si l’on reprend en considération notre besoin initial (concevoir une formation), nous pouvons émettre 2 regrets :

  • si le plan de formation est intéressant… cela reste un plan et il reste encore à nourrir chacune des parties. Par ailleurs, il reprend essentiellement la chronologie de mon texte d’origine et ne semble pas la remettre en question ou l’enrichir.
  • le rendu est loin d’être exploitable pour des apprenants et il reste du boulot pour en faire un vrai module : choisir des modalités pédagogiques (types d’exercices, de cas pratiques, de formats etc), les créer puis les mettre en forme...

Ce que me propose ici ChatGPT n’est pas sans valeur ajoutée mais ne remplit qu’une partie de mon besoin. Intéressant pour des ingénieurs pédagogiques qui maîtrisent la conception de formation, mais peut-être encore limité pour d’autres utilisateurs comme par exemple des experts métiers.

Nul doute que je pourrais améliorer le rendu de ChatGPT en travaillant davantage mes prompts, ou en le relançant avec des consignes complémentaires. Mais là aussi, le temps peut vite s’étaler et je n’échapperais pas non plus à une étape de conversion texte→ module.

Côté Didask

Je me connecte à mon compte, accès à mon studio de création et ouvre un nouveau module. Je procède ensuite exactement de la même manière et copie-colle le même texte directement dans la fenêtre. J’indique un titre de mon choix.

L’outil me propose ensuite de sélectionner un objectif pour mes apprenants. Je choisis ici “comprendre ces concepts” qui me semble être le plus approprié parmi les items. Je précise enfin que ma demande concerne un dispositif d’onboarding, puis je lance l'intelligence artificielle pédagogique.

IA & conception eLearning : j’ai comparé ChatGPT et Didask - étape 1 Didask

Très rapidement, la machine se met à mouliner et je vois au fur et mesure apparaître des objectifs de granules. C’est la première étape du processus : l’IA a scanné mon contenu et l’a granularisé, c’est à dire qu’elle a identifié les notions essentielles et prévu une granule pour chacune.

On pourrait penser que cette suggestion de granularisation est une sorte de plan amélioré, pas si loin de ce que me proposait ChatGPT, mais en y regardant de près on voit aussi que l’outil a déjà sélectionné des modalités pédagogiques. On aperçoit en effet des granules d’informations (on explique un concept, ci-dessous les 1, 3 et 5) mais aussi des granules d’exercice (avec une mise en situation, ci-dessous les 2, 4 et 6).

IA & conception eLearning : j’ai comparé ChatGPT et Didask - granularisation

Si je “rentre” dans l’une des granules, par exemple la 2, j’accède à tout son détail et je constate que l’IA a véritablement créé le cas pratique. On me propose ainsi une mise en situation qui vient mettre en scène la notion essentielle de cette granule, ici le fait que transparence n’est pas une fin mais un moyen. J’ai donc un énoncé, une photo libre de droit qui l’illustre, une question, mes propositions de réponses avec un feedback correctif pour chacune, le message clé à retenir.

Si cette proposition de contenu ne me convient pas, je peux alors demander à l’IA d’en générer une nouvelle. Si je décide ne pas suivre la recommandation pédagogique, je peux aussi lui demander de changer de type d’exercice si par exemple je veux hausser ou diminuer le niveau de difficulté.

(Si vous souhaitez en savoir plus sur le fonctionnement pédagogique de l’IA Didask, je vous invite à consulter le livre blanc Comment créer 10 fois plus vite des formation vraiment efficaces avec l'IA pédagogique écrit par mon collègue Philip).

IA & conception eLearning : j’ai comparé ChatGPT et Didask - granule Didask
IA & conception eLearning : j’ai comparé ChatGPT et Didask - Feedbacks Didaskr

Après avoir passé en revue toutes mes granules, je peux voir le rendu réel en situation. Pas de mise en forme ou autre à faire, l’outil s’en occupe pour moi. Je ne clique que sur le bouton “Prévisualisation apprenant” et je me retrouve dans la peau de celui ou celle qui parcours ma formation.

Voici ce que cela donne si reprend ma granule sur la transparence-qui-n’est-pas-une-finalité :

IA & conception eLearning : j’ai comparé ChatGPT et Didask - expérience apprenant

Je m’arrêterais là pour ce test, les fonctionnalités de publication ou d’administration n’étant pas trop en lien avec notre problématique de générations de contenus. Côté timing, l’ensemble des tâches effectuées jusqu’ici m’a pris moins de 10 minutes.

Quel verdict ?

Un même contenu brut de départ, deux résultats très différents, mais un seul réellement exploitable rapidement en formation.

Mais à y réfléchir, cela semble plutôt logique. En effet si l’on a tendance à vouloir comparer tout ce qui touche à l’IA avec Chat GPT, les outils sont toutefois très différents et ne sont pas conçus pour les mêmes finalités. La comparaison a donc ses limites.

Si ChatGPT est un formidable outil d’IA de génération de contenu universel, Didask est une plateforme eLearning qui utilise de l’IA pour créer des contenus de formation, mais intégrée dans une architecture pédagogique. Cette dernière ne doit pas sa pertinence à l’IA, mais aux recommandations de la recherche en sciences cognitives qui ont guidé son développement. C’est précisément cela qui permet de faire le découpage, la granularisation, puis le choix des bonnes modalités pédagogiques en fonction des objectifs attendus.

Car comme nous le dit souvent Son Ly* “Si l’on veut que l’IA aide à mieux apprendre, il faut déjà savoir comment faire pour mieux apprendre” :)

Si vous souhaitez voir plus en détail comment fonctionne Didask, vous pouvez nous rejoindre à l’occasion d’un prochain webinaire de démo, ou même demander directement un rendez-vous.

*CEO et Co-fondateur de Didask

Partager sur les réseaux

À propos de l'auteur

Benjamin Poucin

Benjamin Poucin est en charge du marketing et de la communication de Didask. Expert Edtech avec plus de 12 ans passés dans le secteur de la formation / enseignement, il écrit régulièrement pour le blog Didask et anime des webinaires sur les problématiques de formation en ligne des organisations.

Dans la même thématique