Quand utiliser l’agent Data Analyst
- Interroger des bases de données : rédiger et exécuter des requêtes SQL sur vos sources de données connectées
- Analyser des données : explorer des modèles, calculer des indicateurs et analyser les tendances dans vos données
- Créer des visualisations : générer des graphiques professionnels avec seaborn
- Répondre à des questions sur les données : obtenir rapidement des réponses précises aux questions concernant vos données
- Générer des insights : découvrir des modèles, des anomalies et des informations exploitables
Accès à l’agent Data Analyst
Depuis l’application web
- Accédez à la page d’accueil de Devin
- Cliquez sur le menu déroulant de sélection d’agent
- Sélectionnez Data Analyst dans le menu déroulant
- Commencez votre session avec une question ou une tâche en lien avec les données
À partir de Slack
!dana :
Prérequis
- MCP de bases de données : Redshift, PostgreSQL, Snowflake, BigQuery et autres bases de données SQL
- MCP d’analyse : Datadog, Metabase et autres plateformes d’observabilité
Configurer les intégrations MCP
Apprenez à connecter des bases de données et d’autres sources de données via MCP
Comment ça fonctionne
Connaissances sur la base de données
Exemples de prompts
Requêtes simples
- « Combien d’utilisateurs actifs avons-nous eu la semaine dernière ? »
- « Quelle est l’évolution de notre revenu quotidien sur le mois dernier ? »
- « Quels clients ont le plus fort niveau d’utilisation ? »
Agrégations et métriques
- “Quelle est la durée moyenne de session par niveau d’abonnement sur les 30 derniers jours ?”
- “Affiche le chiffre d’affaires total, ventilé par région et par ligne de produits pour le T4”
- “Calcule le temps de réponse au 95e centile pour chaque endpoint d’API cette semaine”
Jointures et analyses inter‑tables
- « Réalise une jointure entre notre table users et la table orders, et affiche les 20 meilleurs clients par valeur sur la durée de vie »
- « Mets en corrélation la source d’inscription avec la rétention à 30 jours — quels canaux d’acquisition ont les meilleurs taux de rétention ? »
- « Combine les données de session avec les données de facturation pour trouver les comptes avec une utilisation élevée mais de faibles dépenses »
Filtrage et segmentation
- « Montre-moi uniquement les clients Enterprise qui se sont inscrits après janvier 2025 et qui ont plus de 100 sessions »
- « Filtre les journaux d’erreurs pour ne garder que les erreurs 5xx du service de paiement au cours des 48 dernières heures »
- « Décompose la consommation entre clients Enterprise et clients en libre-service, en excluant les comptes d’essai »
Analyse de séries temporelles
- “Trace l’évolution du nombre d’utilisateurs actifs hebdomadaires sur les 6 derniers mois — mets en évidence toutes les semaines avec plus de 10 % de variation”
- “Montre-moi une comparaison d’un mois sur l’autre des taux d’inscription pour 2025 par rapport à 2024”
- “Quelle est la tendance quotidienne des appels API sur les 90 derniers jours ? Superpose une moyenne mobile sur 7 jours”
Enquêtes et détection d’anomalies
- « Pourquoi les inscriptions ont-elles chuté mardi dernier ? Vérifie s’il y a eu des incidents ou des déploiements liés »
- « Y a-t-il des anomalies dans nos taux d’erreur cette semaine ? »
- « Compare les indicateurs de ce mois-ci à la même période l’année dernière et signale les écarts significatifs »
Analyse en plusieurs étapes
- « Analyser la rétention des utilisateurs par cohorte pour le T4, puis identifier les cohortes ayant la plus forte baisse et suggérer des causes possibles »
- « Trouver les 10 utilisateurs ayant le plus de sessions, afficher leur activité au fil du temps et signaler ceux qui présentent un risque de désengagement »
Sources de données prises en charge
Bases de données SQL
| Source de données | Nom du MCP | Configuration |
|---|---|---|
| Amazon Redshift | Redshift | Chaîne de connexion + identifiants |
| PostgreSQL | PostgreSQL | Chaîne de connexion |
| Snowflake | Snowflake | Compte + identifiants |
| Google BigQuery | BigQuery | OAuth ou compte de service |
| MySQL | MySQL | Chaîne de connexion |
| SQL Server | SQL Server | Chaîne de connexion |
| Neon | Neon | OAuth |
| Supabase | Supabase | Jeton d’accès personnel |
| Cloud SQL (PostgreSQL, MySQL, SQL Server) | Cloud SQL | OAuth |
Plateformes d’analyse et d’observabilité
| Source de données | Nom MCP | Configuration |
|---|---|---|
| Datadog | Datadog | API key + clé d’application |
| Metabase | Metabase | OAuth |
| Grafana | Grafana | URL + jeton de compte de service |
| Sentry | Sentry | OAuth |
Connexion d’une source de données
- Accédez à Settings > MCP Marketplace
- Trouvez votre source de données et cliquez sur Enable
- Fournissez les informations d’identification requises (chaînes de connexion, API keys ou OAuth)
- Démarrez une session Data Analyst — l’agent détectera automatiquement vos sources de données connectées
Configurer les intégrations MCP
Instructions de configuration complètes pour chaque source de données
Vous pouvez connecter plusieurs sources de données simultanément. Le Data Analyst Agent utilisera les outils MCP appropriés en fonction du contexte de votre requête.
Bonnes pratiques
Soyez précis concernant les métriques
Préciser les périodes de temps
Demander des formats de sortie spécifiques
Définissez la logique métier en amont
Demander des comparaisons et du contexte
Itérer sur les résultats
- Commencez par une vue d’ensemble : « Quels sont nos 10 principaux clients par chiffre d’affaires ce trimestre ? »
- Approfondissez : « Pour les 3 premiers, montrez-moi l’évolution mensuelle de leur chiffre d’affaires sur l’année écoulée »
- Analysez : « Le client X a eu un pic de chiffre d’affaires en mars — qu’est-ce qui l’a provoqué ? »
Validez la requête SQL
Formats de sortie
Tables
Graphiques et visualisations
- Graphiques en courbes — tendances de séries temporelles, comparaisons dans le temps
- Graphiques à barres — comparaisons catégorielles, classements
- Cartes de chaleur — matrices de corrélation, schémas d’activité
- Diagrammes de dispersion — analyse de la relation entre deux métriques
Synthèses et insights
- Synthèse de l’analyse — une réponse en langage clair à votre question
- Requête SQL — la requête exacte utilisée, afin que vous puissiez en vérifier la logique
- Chiffres clés — les métriques les plus importantes mises en avant
- Insights sur les données — des tendances, des anomalies ou des éléments marquants
- Lien Metabase — si votre organisation utilise Metabase via MCP, l’agent peut inclure un lien vers un tableau de bord interactif pour une exploration plus approfondie
Gestion de Knowledge
- De nouvelles informations de schéma ou des relations entre tables
- De la logique métier ou des définitions de métriques
- Des schémas récurrents ou des mises en garde concernant la qualité des données
En savoir plus sur Knowledge
Découvrez le fonctionnement du système Knowledge de Devin
Différences par rapport à Devin standard
| Capacité | Data Analyst Agent | Devin standard |
|---|---|---|
| Exécution de requêtes SQL | Optimisée | Prise en charge |
| Visualisations de données | Prise en charge Seaborn intégrée | Configuration manuelle |
| Connaissance du schéma de base de données | Connaissance préchargée | Exploration à la demande |
| Style de réponse | Concis, axé sur les métriques | Explications détaillées |
| Modifications de code | Pas l’objectif principal | Prise en charge complète |
| Intégrations MCP | Requises | Facultatives |
