Automatisation de chat avec Ollama et n8n : interaction locale
Ce workflow n8n a pour objectif de faciliter les interactions avec des modèles de langage localisés grâce à Ollama. Dans un contexte où les entreprises cherchent à améliorer leur service client et à offrir des réponses personnalisées, cette automatisation permet de gérer les conversations de manière fluide et efficace. Les cas d'usage incluent le support client, la génération de contenu et l'assistance virtuelle.
- Étape 1 : le déclencheur 'When chat message received' capte les messages entrants, permettant ainsi de réagir instantanément aux demandes des utilisateurs.
- Étape 2 : le noeud 'Ollama Chat Model' utilise les capacités de traitement du langage naturel d'Ollama pour générer des réponses pertinentes.
- Étape 3 : les noeuds 'Sticky Note' sont utilisés pour stocker et afficher les réponses générées, offrant une interface visuelle pour les utilisateurs. Enfin, le 'Chat LLM Chain' assure la fluidité de la conversation en intégrant les différentes étapes du processus. Les bénéfices business incluent une amélioration de l'expérience utilisateur, une réduction des temps de réponse et une augmentation de la satisfaction client, ce qui se traduit par une fidélisation accrue.
Workflow n8n Ollama, chatbot, interaction : vue d'ensemble
Schéma des nœuds et connexions de ce workflow n8n, généré à partir du JSON n8n.
Workflow n8n Ollama, chatbot, interaction : détail des nœuds
Inscris-toi pour voir l'intégralité du workflow
Inscription gratuite
S'inscrire gratuitementBesoin d'aide ?{
"id": "af8RV5b2TWB2LclA",
"meta": {
"instanceId": "95f2ab28b3dabb8da5d47aa5145b95fe3845f47b20d6343dd5256b6a28ba8fab",
"templateCredsSetupCompleted": true
},
"name": "Chat with local LLMs using n8n and Ollama",
"tags": [],
"nodes": [
{
"id": "475385fa-28f3-45c4-bd1a-10dde79f74f2",
"name": "When chat message received",
"type": "@n8n/n8n-nodes-langchain.chatTrigger",
"position": [
700,
460
],
"webhookId": "ebdeba3f-6b4f-49f3-ba0a-8253dd226161",
"parameters": {
"options": {}
},
"typeVersion": 1.1
},
{
"id": "61133dc6-dcd9-44ff-85f2-5d8cc2ce813e",
"name": "Ollama Chat Model",
"type": "@n8n/n8n-nodes-langchain.lmChatOllama",
"position": [
900,
680
],
"parameters": {
"options": {}
},
"credentials": {
"ollamaApi": {
"id": "MyYvr1tcNQ4e7M6l",
"name": "Local Ollama"
}
},
"typeVersion": 1
},
{
"id": "3e89571f-7c87-44c6-8cfd-4903d5e1cdc5",
"name": "Sticky Note",
"type": "n8n-nodes-base.stickyNote",
"position": [
160,
80
],
"parameters": {
"width": 485,
"height": 473,
"content": "## Chat with local LLMs using n8n and Ollama\nThis n8n workflow allows you to seamlessly interact with your self-hosted Large Language Models (LLMs) through a user-friendly chat interface. By connecting to Ollama, a powerful tool for managing local LLMs, you can send prompts and receive AI-generated responses directly within n8n.\n\n### How it works\n1. When chat message received: Captures the user's input from the chat interface.\n2. Chat LLM Chain: Sends the input to the Ollama server and receives the AI-generated response.\n3. Delivers the LLM's response back to the chat interface.\n\n### Set up steps\n* Make sure Ollama is installed and running on your machine before executing this workflow.\n* Edit the Ollama address if different from the default.\n"
},
"typeVersion": 1
},
{
"id": "9345cadf-a72e-4d3d-b9f0-d670744065fe",
"name": "Sticky Note1",
"type": "n8n-nodes-base.stickyNote",
"position": [
1040,
660
],
"parameters": {
"color": 6,
"width": 368,
"height": 258,
"content": "## Ollama setup\n* Connect to your local Ollama, usually on http://localhost:11434\n* If running in Docker, make sure that the n8n container has access to the host's network in order to connect to Ollama. You can do this by passing `--net=host` option when starting the n8n Docker container"
},
"typeVersion": 1
},
{
"id": "eeffdd4e-6795-4ebc-84f7-87b5ac4167d9",
"name": "Chat LLM Chain",
"type": "@n8n/n8n-nodes-langchain.chainLlm",
"position": [
920,
460
],
"parameters": {},
"typeVersion": 1.4
}
],
"active": false,
"pinData": {},
"settings": {
"executionOrder": "v1"
},
"versionId": "3af03daa-e085-4774-8676-41578a4cba2d",
"connections": {
"Ollama Chat Model": {
"ai_languageModel": [
[
{
"node": "Chat LLM Chain",
"type": "ai_languageModel",
"index": 0
}
]
]
},
"When chat message received": {
"main": [
[
{
"node": "Chat LLM Chain",
"type": "main",
"index": 0
}
]
]
}
}
}Workflow n8n Ollama, chatbot, interaction : pour qui est ce workflow ?
Ce workflow s'adresse aux entreprises souhaitant intégrer des solutions d'intelligence artificielle dans leur service client, notamment les PME et les startups technologiques. Il est conçu pour des équipes techniques ayant une compréhension de base des outils d'automatisation et de traitement du langage naturel.
Workflow n8n Ollama, chatbot, interaction : problème résolu
Ce workflow résout le problème de la lenteur et de l'inefficacité des réponses aux demandes des clients. En automatisant les interactions avec un modèle de langage local, il permet de réduire les délais de réponse et d'améliorer la qualité des échanges. Les utilisateurs bénéficient d'une assistance instantanée et personnalisée, ce qui contribue à une meilleure satisfaction et fidélisation.
Workflow n8n Ollama, chatbot, interaction : étapes du workflow
Étape 1 : le workflow commence avec le déclencheur 'When chat message received', qui capte les messages des utilisateurs.
- Étape 1 : le noeud 'Ollama Chat Model' traite ces messages pour générer des réponses adaptées.
- Étape 2 : les réponses sont ensuite stockées et affichées via les noeuds 'Sticky Note', permettant une visualisation claire des échanges.
- Étape 3 : le 'Chat LLM Chain' assure la continuité de la conversation, intégrant les différentes réponses et interactions.
Workflow n8n Ollama, chatbot, interaction : guide de personnalisation
Pour personnaliser ce workflow, vous pouvez modifier les paramètres du noeud 'Ollama Chat Model' pour ajuster le ton et le style des réponses. Il est également possible de changer les dimensions et les couleurs des noeuds 'Sticky Note' pour mieux correspondre à l'identité visuelle de votre entreprise. Pensez à sécuriser votre webhook en ajoutant des authentifications et à monitorer les performances du flux pour optimiser l'expérience utilisateur.