Automatisation Chat avec n8n : réponse instantanée AI
Ce workflow n8n est conçu pour automatiser les réponses aux messages reçus sur une plateforme de chat, en intégrant des agents d'IA pour fournir des réponses pertinentes et instantanées. Dans un contexte où la réactivité est cruciale, ce type d'automatisation est particulièrement utile pour les entreprises qui souhaitent améliorer leur service client ou leurs interactions en ligne. En utilisant des outils comme DeepSeek et Ollama, ce workflow permet de traiter les messages entrants et d'y répondre de manière intelligente, réduisant ainsi le temps d'attente pour les utilisateurs.
- Étape 1 : Le déclencheur du workflow est un message reçu dans le chat, géré par le nœud 'When chat message received'.
- Étape 2 : Ce message est ensuite traité par un agent AI via le nœud 'AI Agent', qui utilise les capacités de traitement du langage naturel.
- Étape 3 : Les réponses sont générées à l'aide de modèles de langage comme DeepSeek et Ollama, qui sont intégrés dans le workflow.
- Étape 4 : Les réponses sont ensuite stockées dans des notes autocollantes pour une consultation ultérieure ou pour un suivi. Les bénéfices business de ce workflow incluent une amélioration significative de l'efficacité des réponses aux clients, une réduction des délais de réponse et une meilleure satisfaction client. En intégrant ce type d'automatisation n8n, les entreprises peuvent non seulement gagner du temps, mais aussi offrir une expérience utilisateur enrichie.
Workflow n8n chat, service client : vue d'ensemble
Schéma des nœuds et connexions de ce workflow n8n, généré à partir du JSON n8n.
Workflow n8n chat, service client : détail des nœuds
Inscris-toi pour voir l'intégralité du workflow
Inscription gratuite
S'inscrire gratuitementBesoin d'aide ?{
"id": "IyhH1KHtXidKNSIA",
"meta": {
"instanceId": "31e69f7f4a77bf465b805824e303232f0227212ae922d12133a0f96ffeab4fef"
},
"name": "🐋DeepSeek V3 Chat & R1 Reasoning Quick Start",
"tags": [],
"nodes": [
{
"id": "54c59cae-fbd0-4f0d-b633-6304e6c66d89",
"name": "When chat message received",
"type": "@n8n/n8n-nodes-langchain.chatTrigger",
"position": [
-840,
-740
],
"webhookId": "b740bd14-1b9e-4b1b-abd2-1ecf1184d53a",
"parameters": {
"options": {}
},
"typeVersion": 1.1
},
{
"id": "ef85680e-569f-4e74-a1b4-aae9923a0dcb",
"name": "AI Agent",
"type": "@n8n/n8n-nodes-langchain.agent",
"onError": "continueErrorOutput",
"position": [
-320,
40
],
"parameters": {
"agent": "conversationalAgent",
"options": {
"systemMessage": "You are a helpful assistant."
}
},
"retryOnFail": true,
"typeVersion": 1.7,
"alwaysOutputData": true
},
{
"id": "07a8c74c-768e-4b38-854f-251f2fe5b7bf",
"name": "DeepSeek",
"type": "@n8n/n8n-nodes-langchain.lmChatOpenAi",
"position": [
-360,
220
],
"parameters": {
"model": "=deepseek-reasoner",
"options": {}
},
"credentials": {
"openAiApi": {
"id": "MSl7SdcvZe0SqCYI",
"name": "deepseek"
}
},
"typeVersion": 1.1
},
{
"id": "a6d58a8c-2d16-4c91-adde-acac98868150",
"name": "Window Buffer Memory",
"type": "@n8n/n8n-nodes-langchain.memoryBufferWindow",
"position": [
-220,
220
],
"parameters": {},
"typeVersion": 1.3
},
{
"id": "401a5932-9f3e-4b17-a531-3a19a6a7788a",
"name": "Basic LLM Chain2",
"type": "@n8n/n8n-nodes-langchain.chainLlm",
"position": [
-320,
-800
],
"parameters": {
"messages": {
"messageValues": [
{
"message": "You are a helpful assistant."
}
]
}
},
"typeVersion": 1.5
},
{
"id": "215dda87-faf7-4206-bbc3-b6a6b1eb98de",
"name": "Sticky Note",
"type": "n8n-nodes-base.stickyNote",
"position": [
-440,
-460
],
"parameters": {
"color": 5,
"width": 420,
"height": 340,
"content": "## DeepSeek using HTTP Request\n### DeepSeek Reasoner R1\nhttps://api-docs.deepseek.com/\nRaw Body"
},
"typeVersion": 1
},
{
"id": "6457c0f7-ad02-4ad3-a4a0-9a7a6e8f0f7f",
"name": "Sticky Note1",
"type": "n8n-nodes-base.stickyNote",
"position": [
-440,
-900
],
"parameters": {
"color": 4,
"width": 580,
"height": 400,
"content": "## DeepSeek with Ollama Local Model"
},
"typeVersion": 1
},
{
"id": "2ac8b41f-b27d-4074-abcc-430a8f5928e8",
"name": "Ollama DeepSeek",
"type": "@n8n/n8n-nodes-langchain.lmChatOllama",
"position": [
-320,
-640
],
"parameters": {
"model": "deepseek-r1:14b",
"options": {
"format": "default",
"numCtx": 16384,
"temperature": 0.6
}
},
"credentials": {
"ollamaApi": {
"id": "7aPaLgwpfdMWFYm9",
"name": "Ollama account 127.0.0.1"
}
},
"typeVersion": 1
},
{
"id": "37a94fc0-eff3-4226-8633-fb170e5dcff2",
"name": "Sticky Note2",
"type": "n8n-nodes-base.stickyNote",
"position": [
-440,
-80
],
"parameters": {
"color": 3,
"width": 600,
"height": 460,
"content": "## DeepSeek Conversational Agent w/Memory\n"
},
"typeVersion": 1
},
{
"id": "52b484bb-1693-4188-ba55-643c40f10dfc",
"name": "Sticky Note3",
"type": "n8n-nodes-base.stickyNote",
"position": [
20,
-460
],
"parameters": {
"color": 6,
"width": 420,
"height": 340,
"content": "## DeepSeek using HTTP Request\n### DeepSeek Chat V3\nhttps://api-docs.deepseek.com/\nJSON Body"
},
"typeVersion": 1
},
{
"id": "ec46acef-60f6-4d34-b636-3654125f5897",
"name": "DeepSeek JSON Body",
"type": "n8n-nodes-base.httpRequest",
"position": [
160,
-320
],
"parameters": {
"url": "https://api.deepseek.com/chat/completions",
"method": "POST",
"options": {},
"jsonBody": "={\n \"model\": \"deepseek-chat\",\n \"messages\": [\n {\n \"role\": \"system\",\n \"content\": \"{{ $json.chatInput }}\"\n },\n {\n \"role\": \"user\",\n \"content\": \"Hello!\"\n }\n ],\n \"stream\": false\n}",
"sendBody": true,
"specifyBody": "json",
"authentication": "genericCredentialType",
"genericAuthType": "httpHeaderAuth"
},
"credentials": {
"httpHeaderAuth": {
"id": "9CsntxjSlce6yWbN",
"name": "deepseek"
}
},
"typeVersion": 4.2
},
{
"id": "e5295120-57f9-4e02-8b73-f00e4d6baa48",
"name": "DeepSeek Raw Body",
"type": "n8n-nodes-base.httpRequest",
"position": [
-300,
-320
],
"parameters": {
"url": "https://api.deepseek.com/chat/completions",
"body": "={\n \"model\": \"deepseek-reasoner\",\n \"messages\": [\n {\"role\": \"user\", \"content\": \"{{ $json.chatInput.trim() }}\"}\n ],\n \"stream\": false\n }",
"method": "POST",
"options": {},
"sendBody": true,
"contentType": "raw",
"authentication": "genericCredentialType",
"rawContentType": "application/json",
"genericAuthType": "httpHeaderAuth"
},
"credentials": {
"httpHeaderAuth": {
"id": "9CsntxjSlce6yWbN",
"name": "deepseek"
}
},
"typeVersion": 4.2
},
{
"id": "571dc713-ce54-4330-8bdd-94e057ecd223",
"name": "Sticky Note4",
"type": "n8n-nodes-base.stickyNote",
"position": [
-1060,
-460
],
"parameters": {
"color": 7,
"width": 580,
"height": 840,
"content": "# Your First DeepSeek API Call\n\nThe DeepSeek API uses an API format compatible with OpenAI. By modifying the configuration, you can use the OpenAI SDK or softwares compatible with the OpenAI API to access the DeepSeek API.\n\nhttps://api-docs.deepseek.com/\n\n## Configuration Parameters\n\n| Parameter | Value |\n|-----------|--------|\n| base_url | https://api.deepseek.com |\n| api_key | https://platform.deepseek.com/api_keys |\n\n\n\n## Important Notes\n\n- To be compatible with OpenAI, you can also use `https://api.deepseek.com/v1` as the base_url. Note that the v1 here has NO relationship with the model's version.\n\n- The deepseek-chat model has been upgraded to DeepSeek-V3. The API remains unchanged. You can invoke DeepSeek-V3 by specifying `model='deepseek-chat'`.\n\n- deepseek-reasoner is the latest reasoning model, DeepSeek-R1, released by DeepSeek. You can invoke DeepSeek-R1 by specifying `model='deepseek-reasoner'`."
},
"typeVersion": 1
},
{
"id": "f0ac3f32-218e-4488-b67f-7b7f7e8be130",
"name": "Sticky Note5",
"type": "n8n-nodes-base.stickyNote",
"position": [
-1060,
-900
],
"parameters": {
"color": 2,
"width": 580,
"height": 400,
"content": "## Four Examples for Connecting to DeepSeek\nhttps://api-docs.deepseek.com/\nhttps://platform.deepseek.com/api_keys"
},
"typeVersion": 1
},
{
"id": "91642d68-ab5d-4f61-abaf-8cb7cb991c29",
"name": "Sticky Note6",
"type": "n8n-nodes-base.stickyNote",
"position": [
-180,
-640
],
"parameters": {
"color": 7,
"width": 300,
"height": 120,
"content": "### Ollama Local\nhttps://ollama.com/\nhttps://ollama.com/library/deepseek-r1"
},
"typeVersion": 1
}
],
"active": false,
"pinData": {
"When chat message received": [
{
"json": {
"action": "sendMessage",
"chatInput": "provide 10 sentences that end in the word apple.",
"sessionId": "68cb82d504c14f5eb80bdf2478bd39bb"
}
}
]
},
"settings": {
"executionOrder": "v1"
},
"versionId": "e354040e-7898-4ff9-91a2-b6d36030dac8",
"connections": {
"AI Agent": {
"main": [
[]
]
},
"DeepSeek": {
"ai_languageModel": [
[
{
"node": "AI Agent",
"type": "ai_languageModel",
"index": 0
}
]
]
},
"Ollama DeepSeek": {
"ai_languageModel": [
[
{
"node": "Basic LLM Chain2",
"type": "ai_languageModel",
"index": 0
}
]
]
},
"Window Buffer Memory": {
"ai_memory": [
[
{
"node": "AI Agent",
"type": "ai_memory",
"index": 0
}
]
]
},
"When chat message received": {
"main": [
[
{
"node": "Basic LLM Chain2",
"type": "main",
"index": 0
}
]
]
}
}
}Workflow n8n chat, service client : pour qui est ce workflow ?
Ce workflow s'adresse aux entreprises de taille moyenne à grande souhaitant optimiser leur service client via des interactions automatisées sur des plateformes de chat. Il est particulièrement pertinent pour les équipes marketing et support client, ainsi que pour les entreprises technologiques utilisant des solutions d'IA.
Workflow n8n chat, service client : problème résolu
Ce workflow résout le problème des délais de réponse trop longs dans les interactions client en automatisant le traitement des messages reçus. En éliminant le besoin d'une intervention humaine pour chaque message, il réduit les frustrations des clients et améliore l'efficacité opérationnelle. Les utilisateurs peuvent s'attendre à des réponses instantanées et pertinentes, ce qui renforce la satisfaction et la fidélisation des clients.
Workflow n8n chat, service client : étapes du workflow
Étape 1 : Lorsqu'un message est reçu dans le chat, le workflow se déclenche grâce au nœud 'When chat message received'.
- Étape 1 : Ce message est ensuite envoyé à l'agent AI via le nœud 'AI Agent' pour analyse.
- Étape 2 : Les modèles de langage, comme DeepSeek et Ollama, génèrent des réponses basées sur le contenu du message.
- Étape 3 : Les réponses sont stockées dans des notes autocollantes pour un suivi ou une consultation ultérieure.
- Étape 4 : Les réponses peuvent être envoyées directement au chat, assurant ainsi une interaction fluide et efficace.
Workflow n8n chat, service client : guide de personnalisation
Pour personnaliser ce workflow, vous pouvez modifier le nœud 'When chat message received' pour l'adapter à votre plateforme de chat spécifique. Assurez-vous également de configurer les paramètres des nœuds 'AI Agent', 'DeepSeek' et 'Ollama DeepSeek' pour qu'ils correspondent à vos besoins en matière de réponse. Vous pouvez ajuster les couleurs et les dimensions des notes autocollantes dans les nœuds correspondants pour qu'elles s'intègrent mieux à votre interface. Enfin, il est conseillé de surveiller les performances du workflow et d'ajuster les modèles de langage utilisés en fonction des retours des utilisateurs.