En attendant un modèle de langage ("moteur" de la génération de texte) institutionnel, il est nécessaire que le créateur du chatbot se crée une clé API.
- Aller sur un site proposant des clés API, comme par exemple cohere.com
- Créer un compte (gratuit)
- Dans le menu, aller dans "API keys"
- Copier la clé fournie (gratuite, sous limite d’un nombre d’interactions mensuelles)
Dans l’en-tête du chatbot, ajouter ces éléments :
useLLM:
url: https://api.cohere.com/v1/chat
askAPIkey: true
separator: auto
postprompt: "A ADAPTER Réponds en français, en 10 phrases maximum. Utilise le gras, l'italique et les listes en Markdown pour mettre en valeur les éléments importants. Termine sur une affirmation, pas de question."
model: command-r-plus
maxTopElements: 5
Désormais une fenêtre pop-up s’ouvre au début du chatbot et demande la clé API. Il est possible de ne pas en mettre, dans ce cas le chatbot fonctionnera sans IA, uniquement sur ses interactions programmées.
On peut chiffrer sa clé API pour la remplacer par un mot de passe, plus facile à utiliser, avec cet outil.
Dans ce cas, l’en-tête est à modifier comme suit :
useLLM:
url: https://api.cohere.com/v1/chat
askAPIkey: false
encryptedAPIkey: VOTRE CLE CRYPTEE
informations: "LE LIEN VERS VOTRE RAG"
separator: auto
postprompt: "A ADAPTER Réponds en français, en 10 phrases maximum. Utilise le gras, l'italique et les listes en Markdown pour mettre en valeur les éléments importants. Termine sur une affirmation, pas de question."
model: command-r-plus
maxTopElements: 5
Pour créer un bouton associé à un prompt interrogeant l’IA, à la manière des boutons "En savoir plus" du chatbot ViTa :
Exemple de code :
1. [En savoir plus](!useLLM Explique quelle roche constitue le manteau terrestre et pourquoi elle reste solide dans le manteau.)
Il est possible de laisser le dialogue libre avec l’IA pour tout le chatbot (peu recommandé) avec dans l’en-tête clavier : true.
L’utilisateur doit alors débuter sa phrase par !useLLM .
Un des soucis avec les chatbots à génération de texte, ce sont les hallucinations de l’IA. En effet, la question n’est pas comprise réellement, la réponse générée n’est qu’une suite de mots ou morceaux de mots statistiquement probables. Le chatbot peut dire de belles inepties, ou ne jamais atteindre un degré de précision scientifique satisfaisant.
Pour limiter ce souci, on peut associer le chatbot à une base de connaissances, ou RAG (Génération Augmentée de Récupération).
- Créer un pad sur CodiMD dans lequel vous indiquez toutes les connaissances nécessaires.
Voir le fichier RAG de ViTa
- Ajouter dans votre en-tête le lien vers votre fichier RAG : informations : "URL_DE_VOTRE_PAD/download"
useLLM:
url: https://api.cohere.com/v1/chat
askAPIkey: true
separator: auto
informations: "URL_DE_VOTRE_PAD/download"
postprompt: "Réponds en français, en 10 phrases maximum. Utilise le gras, l'italique et les listes en Markdown pour mettre en valeur les éléments importants. Termine sur une affirmation, pas de question."
model: command-r-plus
maxTopElements: 5