ChatMD

4. Connecter la chatbot à une IA générative de texte

En attendant un modèle de langage ("moteur" de la génération de texte) institutionnel, il est nécessaire que le créateur du chatbot se crée une clé API.

  • Aller sur un site proposant des clés API, comme par exemple cohere.com
  • Créer un compte (gratuit)
  • Dans le menu, aller dans "API keys"
  • Copier la clé fournie (gratuite, sous limite d’un nombre d’interactions mensuelles)

Dans l’en-tête du chatbot, ajouter ces éléments :

useLLM:
   url: https://api.cohere.com/v1/chat
   askAPIkey: true
   separator: auto
   postprompt: "A ADAPTER Réponds en français, en 10 phrases maximum. Utilise le gras, l'italique et les listes en Markdown pour mettre en valeur les éléments importants. Termine sur une affirmation, pas de question."
   model: command-r-plus
   maxTopElements: 5

Désormais une fenêtre pop-up s’ouvre au début du chatbot et demande la clé API. Il est possible de ne pas en mettre, dans ce cas le chatbot fonctionnera sans IA, uniquement sur ses interactions programmées.

On peut chiffrer sa clé API pour la remplacer par un mot de passe, plus facile à utiliser, avec cet outil.
Dans ce cas, l’en-tête est à modifier comme suit :

useLLM:
   url: https://api.cohere.com/v1/chat
   askAPIkey: false
   encryptedAPIkey: VOTRE CLE CRYPTEE
   informations: "LE LIEN VERS VOTRE RAG"
   separator: auto
   postprompt: "A ADAPTER Réponds en français, en 10 phrases maximum. Utilise le gras, l'italique et les listes en Markdown pour mettre en valeur les éléments importants. Termine sur une affirmation, pas de question."
   model: command-r-plus
   maxTopElements: 5

Pour créer un bouton associé à un prompt interrogeant l’IA, à la manière des boutons "En savoir plus" du chatbot ViTa :

Exemple de code :

1. [En savoir plus](!useLLM Explique quelle roche constitue le manteau terrestre et pourquoi elle reste solide dans le manteau.)

Il est possible de laisser le dialogue libre avec l’IA pour tout le chatbot (peu recommandé) avec dans l’en-tête clavier : true.
L’utilisateur doit alors débuter sa phrase par  !useLLM .

Un des soucis avec les chatbots à génération de texte, ce sont les hallucinations de l’IA. En effet, la question n’est pas comprise réellement, la réponse générée n’est qu’une suite de mots ou morceaux de mots statistiquement probables. Le chatbot peut dire de belles inepties, ou ne jamais atteindre un degré de précision scientifique satisfaisant.

Pour limiter ce souci, on peut associer le chatbot à une base de connaissances, ou RAG (Génération Augmentée de Récupération).

  • Ajouter dans votre en-tête le lien vers votre fichier RAG : informations : "URL_DE_VOTRE_PAD/download"
useLLM:
   url: https://api.cohere.com/v1/chat
   askAPIkey: true
   separator: auto
   informations: "URL_DE_VOTRE_PAD/download"
   postprompt: "Réponds en français, en 10 phrases maximum. Utilise le gras, l'italique et les listes en Markdown pour mettre en valeur les éléments importants. Termine sur une affirmation, pas de question."
   model: command-r-plus
   maxTopElements: 5

Ressource(s) associée(s)

Article rédigé par Mélanie FENAERT