Data Analyst & Engineer spécialisé en Finance et Economics . Je construis des pipelines robustes et des modèles prédictifs pour éclairer la décision stratégique.
Une approche hybride alliant rigueur mathématique et ingénierie moderne.
Pipelines ETL/ELT robustes, structuration SQL et orchestration des flux.
Analyse statistique avancée et traitement du langage naturel.
Modélisation prédictive, scoring de risque et clustering.
Dashboards interactifs pour le pilotage de la performance.
Expériences professionnelles clés.
Construction des pipelines de données (ETL) Automatisation workflows (Airflow), structuration SQL. Gouvernance de la donnée et dashboards stratégiques.
Développement NLP sur données bancaires (R Shiny). Analyse statistique macroéconomique.
Pilotage financier via Power BI. Modélisation budgétaire Excel et fiabilisation des flux comptables.
Université de Lorraine
En cours
Université d'Angers
2022 - 2024
Une combinaison de technique et d'impact business.
Framework d’allocation CAC40 : features + détection de régimes (K-Means) + prédiction (XGBoost) avec exécution automatisée et reporting (CI/CD, suivi des runs et des métriques).
Moteur de risque multi‑actifs : VaR/CVaR (historique + Monte Carlo), stress tests et backtesting pour valider la couverture en conditions extrêmes (fat tails)
Dashboard NLP (R Shiny) : exploration, scoring de sentiment et synthèse d’insights pour accélérer l’analyse de retours clients / documents.
Scoring de crédit sous SAS : préparation des données, modélisation (logit/scorecard) et évaluation (ROC/AUC, KS), avec focus sur l’interprétabilité et la stabilité.
Conception d’un pipeline de données de bout en bout (ETL) : ingestion des données NYC Yellow Taxi, transformations (qualité, typage, features), et chargement dans BigQuery via Airflow pour alimenter des analyses BI.
Architecture ELT transformant des données bancaires brutes en KPIs financiers via dbt & Snowflake. Scoring VIP/Risque et tests CI/CD automatisés.