AccueilArticlesDÉBUTER
Débuter13 min de lecture

Make.com data stores : stocker ses données sans coder en 2026

Make data stores TPE 2026 : guide complet pour stocker tes donnees automatisees sans base de donnees. 7 cas d'usage, tutoriel et limites a connaitre.

AY

Adil YADA

14 avril 2026

Tu utilises déjà Make.com et tu te demandes à quoi servent les Make data stores TPE 2026 ? Tu n'es pas le seul. C'est l'une des features les plus puissantes de Make et l'une des moins comprises. Pourtant, elle te permet de stocker des données entre tes scénarios sans payer Airtable ni configurer une base de données.

Ce guide t'explique tout : ce qu'est un Data Store, les 7 cas d'usage qui changent la donne pour une TPE, le tutoriel pas-à-pas, les limites du plan gratuit, et quand préférer une vraie base externe (Notion, Airtable, Google Sheets).

💡Conseil d'expert

Quick win avant de plonger : si tu utilises actuellement Google Sheets comme "base de données" entre tes scénarios Make, tu paies probablement 5× plus d'opérations qu'avec un Data Store. La différence devient critique au-delà de 500 ops/mois. Lis la section 4.

1. C'est quoi un Make Data Store ?

Un Data Store est une mini-base de données intégrée à Make.com. Tu y stockes des "records" (= lignes) avec des champs typés (texte, nombre, date, booléen). Tu peux ensuite : ajouter, lire, mettre à jour, supprimer ces records depuis n'importe quel scénario.

Différence clé vs Google Sheets : un appel Data Store consomme 1 opération. Un appel Google Sheets en consomme souvent 3-5 (ouvrir le sheet, lire la cellule, écrire, fermer). Sur 1 000 ops gratuites, ça multiplie par 3-5 ta capacité d'automatisation.

Différence vs Notion : Notion est une vraie base avec UI consultable. Data Store est invisible à l'utilisateur, optimisé pour la machine. Si tu n'as pas besoin de consulter visuellement, Data Store gagne.

Vitesse d'accès10/10
Économie d'opérations10/10
Facilité de setup9/10
Visualisation humaine3/10
Évolutivité (max records)6/10

2. Plan gratuit : ce qui est inclus

Plan Free Make :

  • 1 Data Store
  • 5 MB de stockage total (~10 000 records simples)
  • Lecture/écriture illimitées (consomme tes 1 000 ops/mois)

Plan Core (9$/mois) :

  • 5 Data Stores
  • 100 MB
  • Idem accès

Plan Pro (16$/mois) :

  • 25 Data Stores
  • 500 MB
  • Suffit pour la majorité des TPE qui scalent

Pour 99% des TPE, le plan gratuit suffit largement. Tu n'atteindras la limite que si tu stockes des fichiers binaires (mauvaise idée, utilise Drive) ou des historiques massifs (mieux : Google Sheets archivé).

3. Les 7 cas d'usage Data Stores qui changent tout

Cas 1 — Cache anti-doublons

Le problème : ton scénario s'exécute toutes les 15 min, tu ne veux pas envoyer 100 fois le même email à la même personne.

Solution :

  1. Avant d'envoyer l'email, recherche dans le Data Store si l'ID prospect existe déjà
  2. Si oui → skip
  3. Si non → envoie l'email + ajoute l'ID dans le Data Store

Économie : 80% d'opérations sauvées + zéro client agacé par les doublons.

Cas 2 — Mémoire entre exécutions

Le problème : ton scénario "rapport quotidien" doit comparer les chiffres d'aujourd'hui à hier. Sans mémoire, impossible.

Solution :

  1. Chaque jour, après calcul, stocke les chiffres dans le Data Store
  2. Demain, lis la valeur stockée hier pour faire la comparaison
  3. Calcule la variation et envoie le rapport

Avantage : pas besoin de Google Sheets externe pour stocker les valeurs intermédiaires.

Cas 3 — File d'attente de tâches

Le problème : tu reçois 50 tâches d'un coup mais tu ne peux en traiter que 10/heure (rate limit API).

Solution :

  1. Scénario A : reçoit les tâches, les ajoute en file dans le Data Store
  2. Scénario B : tourne toutes les heures, lit 10 records, les traite, les supprime
  3. La file vide se vide progressivement sans crasher l'API

Cas réel : envoi de SMS Twilio en masse à une mailing list de 200 contacts, sans dépasser le rate limit de 50/heure.

💡Conseil d'expert

La file d'attente est le pattern le plus puissant des Data Stores. Il transforme des contraintes API en non-problèmes. Si tu envoies des emails en masse, des SMS, ou des messages Slack, c'est ton meilleur ami.

Cas 4 — État machine pour scénarios complexes

Le problème : ton scénario "onboarding client" a 5 étapes étalées sur 7 jours. Tu veux savoir où tu en es pour chaque client.

Solution :

  1. Data Store "Onboarding State" avec champs : client_id, step, next_action_date
  2. Chaque jour, le scénario lit les clients dont next_action_date = aujourd'hui
  3. Exécute l'étape correspondante, met à jour step et next_action_date

Avantage : un seul Data Store gère 50 clients en parallèle à des étapes différentes.

Cas 5 — Compteur de quota personnel

Le problème : tu veux limiter à 100 emails envoyés par jour pour ne pas dépasser ton plan Brevo.

Solution :

  1. Data Store "Daily Counter" avec champ count
  2. Avant chaque email, lis le compteur, vérifie < 100, envoie, incrémente
  3. Scénario reset tous les jours à minuit

Avantage : aucun outil externe à installer.

Cas 6 — Cache de réponses IA coûteuses

Le problème : ton scénario appelle GPT-4 pour résumer un document. 1 000 tokens = 0.03$. Si tu reposes la même question 10 fois, tu paies 10× pour rien.

Solution :

  1. Hash le prompt (Make a un module Crypto)
  2. Cherche dans le Data Store si ce hash existe → si oui, retourne la réponse cachée
  3. Si non, appelle GPT-4, stocke la réponse pour la prochaine fois

Économie : 30-50% des appels GPT évités sur certains workflows. Voir notre guide outils IA gratuits TPE pour plus d'astuces IA.

Cas 7 — Mapping ID externe → ID interne

Le problème : tu reçois un webhook Stripe avec customer_id, mais tu veux retrouver le notion_page_id correspondant.

Solution :

  1. Data Store "Customer Mapping" avec champs : stripe_id, notion_id, email
  2. Au webhook, recherche par stripe_id, récupère notion_id
  3. Mets à jour la page Notion

Avantage : 1 op vs 5 ops si tu cherches dans Notion à chaque fois.

4. Tutoriel : créer ton premier Data Store

Étape 1 — Création du Data Store (5 min)

  1. Va dans Make → menu gauche → "Data Stores"
  2. Clique "Add new data store"
  3. Nom : "Anti-doublons emails"
  4. Définis la structure (ajoute des champs) : email (text), sent_at (date)
  5. Sauvegarde

Étape 2 — Utilisation dans un scénario (10 min)

Dans ton scénario d'envoi d'emails :

  1. Module 1 : Trigger qui te donne l'email à envoyer
  2. Module 2 : Data Store - Search records avec filtre email = {{email reçu}}
  3. Module 3 : Filter "si nombre de records = 0" → continue
  4. Module 4 : Gmail - Send email
  5. Module 5 : Data Store - Add record avec email et sent_at = now

Connecte-toi à Make et essaie ce pattern dès aujourd'hui.

Étape 3 — Maintenance et purge (5 min)

Pour éviter que ton Data Store grossisse à l'infini :

  1. Crée un scénario "Purge anciens records"
  2. Trigger : Schedule "1st of month"
  3. Data Store - Search records où sent_at < today - 90 days
  4. Loop - Delete each record

Total tutoriel : 20 min pour mettre en place ton premier Data Store fonctionnel.

5. Quand Data Store vs alternatives ?

Choisis Data Store si :

  • Tu as moins de 10 000 records simples
  • Tu n'as pas besoin de visualiser les données
  • Tu veux maximiser l'économie d'opérations Make
  • Tes scénarios consomment beaucoup d'opérations actuellement

Choisis Google Sheets si :

  • Tu veux que ton équipe consulte les données dans un tableur
  • Tu as besoin de formules complexes
  • Tu archives historiquement et tu fais peu d'écritures

Choisis Notion si :

  • Tu veux que les données soient consultables par ton équipe via une UI riche
  • Tu fais de la collaboration sur les données
  • Tu acceptes de payer plus d'opérations Make pour la visibilité

Choisis Airtable si :

  • Tu as besoin de relations entre tables (foreign keys)
  • Tu veux des vues différentes (kanban, calendar, gallery)
  • Tu as 50 000+ records

Pour le contexte général d'automatisation, voir notre guide ultime automatiser sa TPE 2026.

6. Les pièges à éviter

Piège 1 — Stocker des fichiers binaires

Les Data Stores ne sont pas des stockages de fichiers. Stocke des références (URLs Drive) pas les fichiers eux-mêmes.

Piège 2 — Ne jamais purger

Ton Data Store grossit, atteint la limite, plante. Active une purge automatique mensuelle dès le départ.

Piège 3 — Mauvais index = lenteur

Si tu cherches souvent par email, mets-le en premier champ. Make optimise les recherches sur les premiers champs.

Piège 4 — Pas de backup

Les Data Stores n'ont pas de backup automatique. Pour les données critiques, exporte régulièrement vers Google Sheets via un scénario hebdomadaire.

⚠️Attention

Attention au piège du "tout-Data-Store". Ce n'est pas une vraie base de données. Si tu as 100 000+ records, des relations complexes, ou plusieurs utilisateurs qui consultent les données, passe à Airtable ou Supabase. Data Store excelle sur 1 000-50 000 records simples, pas au-delà.

🎯Le verdict

Mon verdict : les Make Data Stores sont la feature la plus sous-utilisée de Make en 2026. Pour une TPE qui veut maximiser son plan gratuit (1 000 ops), c'est une économie de 30-50% d'opérations sur certains workflows. Setup en 20 minutes, maintenance quasi-nulle. Le seul vrai cas où tu n'en as pas besoin : si tous tes scénarios sont simples (1 trigger + 1-2 actions). Note globale : 9/10 pour les TPE qui automatisent intensivement, 6/10 pour les usages simples.

7. FAQ

Combien de records puis-je stocker dans le plan gratuit Make ?

5 MB de stockage total, soit environ 10 000-15 000 records simples (un email + une date par exemple). Largement suffisant pour 99% des cas TPE. Si tu stockes des champs longs (description de produit, JSON), compte plutôt 2 000-5 000 records. Tu peux toujours purger les anciens pour faire de la place.

Un Data Store consomme-t-il vraiment 1 opération ?

Oui, chaque opération CRUD (Create, Read, Update, Delete) sur un Data Store = 1 opération Make. Comparé à Google Sheets qui consomme 2-3 ops par interaction (ouvrir + lire ou écrire + parfois fermer), c'est l'option la moins chère en termes de quota.

Peut-on partager un Data Store entre plusieurs comptes Make ?

Non, un Data Store est lié à ton organisation Make. Pour partager des données entre plusieurs comptes, utilise une vraie base externe (Airtable, Supabase) ou expose un endpoint via un Webhook Make.

Y a-t-il une limite de taille par record ?

Oui, chaque record est limité à 8 KB par défaut. Si tu stockes du JSON volumineux ou des descriptions longues, tu peux dépasser. Solution : stocke un ID externe (URL vers Drive, ID Notion) plutôt que le contenu complet.

Comment migrer mes données Google Sheets vers Data Store ?

Un scénario one-shot suffit : Trigger manuel → Google Sheets - Search rows → Loop → Data Store - Add record. Compte 5-10 minutes pour migrer 1 000 lignes. Une fois migrées, désactive l'écriture sur le Sheet et bascule tous tes scénarios sur le Data Store. Voir aussi notre guide 15 workflows Make gratuits pour des cas d'usage concrets.

Les Data Stores survivent-ils à un changement de plan Make ?

Oui, les données sont conservées même si tu downgrade. Cependant, si tu downgrades du Pro (25 stores) au Core (5 stores), les stores au-delà de 5 deviennent en lecture seule. Tu dois en supprimer pour pouvoir en créer de nouveaux. Sécurise ton plan avant de descendre.

Un Data Store est-il accessible depuis l'extérieur de Make ?

Non, les Data Stores ne sont pas exposés via API publique. Si tu veux y accéder depuis une autre app, expose un Webhook Make qui lit/écrit dans le Data Store. C'est plus sécurisé qu'une base ouverte mais ça ajoute 1 op par accès.

Quelle est la différence entre un Data Store et une variable globale Make ?

Une variable globale stocke UNE valeur par scénario (ou globale si plan Pro). Un Data Store stocke MILLIERS de records structurés. Si tu as juste besoin de stocker "le dernier ID traité", utilise une variable. Si tu veux une mini-base, utilise un Data Store.

8. Conclusion

Les Make data stores TPE 2026 sont l'arme secrète des freelances et TPE qui veulent maximiser le plan gratuit. Économie de 30-50% d'opérations sur les workflows complexes, anti-doublons natif, files d'attente sans casser l'API, état persistant entre exécutions. Setup en 20 min, maintenance quasi-nulle.

Le piège : croire que c'est une "vraie" base de données. Ce n'est pas Airtable ni Supabase. C'est une mini-base optimisée pour la machine, idéale entre 100 et 50 000 records simples. Au-delà, passe à une vraie base externe.

Ton plan d'action pour cette semaine :

  1. Aujourd'hui : connecte-toi à Make, explore l'onglet Data Stores
  2. Cette semaine : monte un Data Store anti-doublons sur ton scénario d'emails
  3. Mesure : compare la consommation d'opérations avant/après — tu devrais voir 30%+ d'économie
  4. Mois 2 : ajoute un Data Store de file d'attente sur tes envois en masse

Arrête de gaspiller des opérations Make sur des Google Sheets bricolés. Lance Make, crée ton premier Data Store ce soir, et reviens dans 30 jours mesurer combien d'opérations tu as économisées.

Offre Speciale

⚡ Prêt à automatiser ta TPE avec Make ?

Rejoins plus de 500 000 entreprises qui utilisent Make pour libérer leur potentiel créatif.

Lien affilié — sans frais supplémentaires pour vous.

AY

À propos de Adil YADA

Consultant IA et formateur, j'aide les TPE françaises à automatiser leurs processus avec les meilleurs outils no-code. Fondateur de Koudeclat.

LinkedIn →

Keep Reading

Articles Similaires

Tous les articles →
Factures et comptabilité sur laptop

make

Automatiser sa facturation en 2026 : comparatif des meilleures solutions pour TPE

Lire la suite →
Freelance au travail

make

Automatiser sa prospection freelance avec Make en 2026

Lire la suite →
Facturation et compta sur ordinateur

make

Facturation freelance : la stack automatisée complète en 2026

Lire la suite →