ALEXANDRE

Leader Technique Data - IBM and Databricks certified

Informations

Compétences

1 * Correspond au nombre d'années d'expérience.

Technos

  • Microsoft Excel10+
  • Microsoft Excel10+
  • Machine Learning5
  • Machine Learning5
  • Python5
  • Python5
  • SPSS5
  • SPSS5
  • PySpark3
  • PySpark3
  • SAS2
  • SAS2
  • Business Analysis
  • Business Analysis
  • Data mining
  • Data mining
  • Data science
  • Data science
  • Databases
  • Databases
  • Databricks
  • Databricks
  • Git
  • Git
  • Intelligence Artificielle
  • Intelligence Artificielle
  • Microsoft Azure
  • Microsoft Azure
  • Oracle
  • Oracle
  • Project Management
  • Project Management
  • R
  • R
  • SQL
  • SQL
  • VBA
  • VBA
  • Voir plus
  • Voir moins

Métier

  • Gestion de projet10+
  • Gestion de projet10+
  • Statistiques10+
  • Statistiques10+
  • Intelligence artificielle (IA)5
  • Intelligence artificielle (IA)5
  • Apache Spark
  • Apache Spark
  • Big data
  • Big data
  • Business Strategy
  • Business Strategy
  • Consulting
  • Consulting
  • Data Analysis
  • Data Analysis
  • Data Engineering
  • Data Engineering
  • Data Warehousing
  • Data Warehousing
  • Deep learning
  • Deep learning
  • Leadership d’équipe transverse
  • Leadership d’équipe transverse
  • Modélisation des données
  • Modélisation des données
  • Product Development
  • Product Development
  • Prévisions
  • Prévisions
  • Requirements Analysis
  • Requirements Analysis
  • SAS programming
  • SAS programming
  • Software Development
  • Software Development
  • Software Project Management
  • Software Project Management
  • Strategic Planning
  • Strategic Planning
  • Strategy
  • Strategy
  • Stratégie d’entreprise
  • Stratégie d’entreprise
  • Tableau de bord
  • Tableau de bord
  • Voir plus
  • Voir moins

Organisationnelles

  • Analysis
  • Analysis
  • Communication
  • Communication
  • Management
  • Management
  • Negotiation
  • Negotiation
  • Résolution de problèmes
  • Résolution de problèmes
  • Voir plus
  • Voir moins

Autres

  • Informatique
  • Informatique
  • Voir plus
  • Voir moins

Expériences (48)

Leader Technique Data ingénieur
Oney
Depuis September 2021
Croix, Hauts-de-France, France

     Lutte Contre le Blanchiment et le Financement du Terrorisme (LCB-FT) :

Prise en charge de bout en bout de la création  d'une application cloud réglementaire permettant d’identifier les clients à risques

Définition de l’architecture applicative et logicielle (Snowflake – Databricks – Pyspark – Azure Data Factory)

Développement de l’application (selon les principes du clean code)

Versioning (GitLab)

Orchestration avec Azure Data Factory,

Monitoring (avec MlFlow et Azure Data Factory)

     Classifications des mails :

Objectif : permettre d’orienter les mails entrants dans le CRM (salesforce) vers les bons interlocuteurs

Cadrage du projet avec le service client

Définition des objectifs de performance (90% de fiabilité)

POC à l’aide de Databricks et de HuggingFace

Classification à l’aide d’une régression logistique et du modèle de deeplearning CamemBert : fiabilité atteinte sur 17 catégories = 80%

     Architecture MlOps :

Définition et mise en œuvre d’une architecture MlOps basée sur Databricks, Snowflake, MlFlow et Azure

     Moteur de défaut Bâle3 :

Application cloud permettant d’identifier les contrats en défaut de paiement

Refactoring du code (norme pep8, évolution vers une architecture logicielle orientée services, clean code)

Mise au point et développement de nouvelles fonctionnalités

Optimisation des temps de traitement

FinOps : Suivi des couts et optimisation

     Migration SAS vers Databricks :

Prise en charge de bout en bout de la création  d'une application ETL permettant l’ingestion des tables SAS dans Snowflake via Databricks

     Management

•     Encadrement d'une équipe de 4 data ingénieurs

•     Animation avec la méthode Scrum (sprint, rituels agiles, ...)

•     Monté en compétence de l’équipe (revue de code, ...)

•     Gestion de la backlog : projets, évolution, maintenance, planning

•     Suivi et optimisation des couts (Databricks, Snowflake)

•     Veille technique

Environnement technique : Microsoft Azure, Databricks, Snowflake, MlFlow, Jenkins, Python, SQL, Gitlab, Hugging face

Leader Technique Data ingénieur
Oney
Depuis September 2021
Croix, Hauts-de-France, France

     Lutte Contre le Blanchiment et le Financement du Terrorisme (LCB-FT) :

Prise en charge de bout en bout de la création  d'une application cloud réglementaire permettant d’identifier les clients à risques

Définition de l’architecture applicative et logicielle (Snowflake – Databricks – Pyspark – Azure Data Factory)

Développement de l’application (selon les principes du clean code)

Versioning (GitLab)

Orchestration avec Azure Data Factory,

Monitoring (avec MlFlow et Azure Data Factory)

     Classifications des mails :

Objectif : permettre d’orienter les mails entrants dans le CRM (salesforce) vers les bons interlocuteurs

Cadrage du projet avec le service client

Définition des objectifs de performance (90% de fiabilité)

POC à l’aide de Databricks et de HuggingFace

Classification à l’aide d’une régression logistique et du modèle de deeplearning CamemBert : fiabilité atteinte sur 17 catégories = 80%

     Architecture MlOps :

Définition et mise en œuvre d’une architecture MlOps basée sur Databricks, Snowflake, MlFlow et Azure

     Moteur de défaut Bâle3 :

Application cloud permettant d’identifier les contrats en défaut de paiement

Refactoring du code (norme pep8, évolution vers une architecture logicielle orientée services, clean code)

Mise au point et développement de nouvelles fonctionnalités

Optimisation des temps de traitement

FinOps : Suivi des couts et optimisation

     Migration SAS vers Databricks :

Prise en charge de bout en bout de la création  d'une application ETL permettant l’ingestion des tables SAS dans Snowflake via Databricks

     Management

•     Encadrement d'une équipe de 4 data ingénieurs

•     Animation avec la méthode Scrum (sprint, rituels agiles, ...)

•     Monté en compétence de l’équipe (revue de code, ...)

•     Gestion de la backlog : projets, évolution, maintenance, planning

•     Suivi et optimisation des couts (Databricks, Snowflake)

•     Veille technique

Environnement technique : Microsoft Azure, Databricks, Snowflake, MlFlow, Jenkins, Python, SQL, Gitlab, Hugging face

Directeur Data Science
Atilia Consulting
Depuis May 2021
Lille, Hauts-de-France, France

Nous vous accompagnons de la définition de votre stratégie à l'industrialisation de vos cas d'usage : du prototype à la mise en production ATILIA vous accompagne vers l'excellence.

Directeur Data Science
Atilia Consulting
De May 2021 à December 2021
Lille, Hauts-de-France, France

Nous vous accompagnons de la définition de votre stratégie à l'industrialisation de vos cas d'usage : du prototype à la mise en production ATILIA vous accompagne vers l'excellence.

Directeur Data Science
Atilia Consulting
De May 2021 à December 2021
Lille, Hauts-de-France, France

Nous vous accompagnons de la définition de votre stratégie à l'industrialisation de vos cas d'usage : du prototype à la mise en production ATILIA vous accompagne vers l'excellence.

Consultant Expert Data Scientist
ThePackengers
De April 2021 à May 2021
Saint-Denis, Île-de-France, France

     Optimisation du coût logistique :

Extraction des dimensions des objets d'art à partir de leurs descriptions en langage naturel et de leurs photos. Résultats : précision de 64%

Environnement technique : Google Cloud Platform, Python (Pandas, Scikit-learn, Quantulum3)

Consultant Expert Data Scientist
ThePackengers
De April 2021 à May 2021
Saint-Denis, Île-de-France, France

     Optimisation du coût logistique :

Extraction des dimensions des objets d'art à partir de leurs descriptions en langage naturel et de leurs photos. Résultats : précision de 64%

Environnement technique : Google Cloud Platform, Python (Pandas, Scikit-learn, Quantulum3)

Consultant Expert Data Scientist
ThePackengers
De April 2021 à May 2021
Saint-Denis, Île-de-France, France

     Optimisation du coût logistique :

Extraction des dimensions des objets d'art à partir de leurs descriptions en langage naturel et de leurs photos. Résultats : précision de 64%

Environnement technique : Google Cloud Platform, Python (Pandas, Scikit-learn, Quantulum3)

Consultant Expert Data Scientist
KwarTix
De April 2015 à May 2021
Consultant Expert Data Scientist
KwarTix
De April 2015 à May 2021
Consultant Expert Data Scientist
Groupe IRCEM
De March 2020 à March 2021
Roubaix, Hauts-de-France, France

     Classification de documents :

utilisation d'un réseau de neurones à convolution profond (InceptionV3) pour distinguer 3 documents administratifs (avis d’imposition page1, 2&3, relevé CPAM)

Résultats : précision de 97%

     Détection de la fraude à l’incapacité de travail :

Cadrage du projet, modélisation (combinaison de deux modèles : RandomForest et Gradient Boosted Tree), mise en production (MLflow, Azure Databricks)

Définition des KPI et suivi de l’algorithme en production (carte de contrôle)

Résultats : précision de 72%, indu estimé de 7,6 M€

     Création d’un ‘Feature Store’ (entrepôt de variables pour les data scientist) :

Cadrage du besoin, architecture de la solution

Mise en œuvre et déploiement sous forme d’un package Python avec Pyspark et le Framework ‘Feature Factory’ du Databricks lab.

Environnement technique : Python (PySpark, Keras, Graphframes, Pandastable, …), Databricks, Microsoft Azure, SQL, IntelliJ, Git, deep learning, transfert learning

Consultant Expert Data Scientist
Groupe IRCEM
De March 2020 à March 2021
Roubaix, Hauts-de-France, France

     Classification de documents :

utilisation d'un réseau de neurones à convolution profond (InceptionV3) pour distinguer 3 documents administratifs (avis d’imposition page1, 2&3, relevé CPAM)

Résultats : précision de 97%

     Détection de la fraude à l’incapacité de travail :

Cadrage du projet, modélisation (combinaison de deux modèles : RandomForest et Gradient Boosted Tree), mise en production (MLflow, Azure Databricks)

Définition des KPI et suivi de l’algorithme en production (carte de contrôle)

Résultats : précision de 72%, indu estimé de 7,6 M€

     Création d’un ‘Feature Store’ (entrepôt de variables pour les data scientist) :

Cadrage du besoin, architecture de la solution

Mise en œuvre et déploiement sous forme d’un package Python avec Pyspark et le Framework ‘Feature Factory’ du Databricks lab.

Environnement technique : Python (PySpark, Keras, Graphframes, Pandastable, ...), Databricks, Microsoft Azure, SQL, IntelliJ, Git, deep learning, transfert learning

Consultant Expert Data Scientist
Groupe IRCEM
De March 2020 à March 2021
Roubaix, Hauts-de-France, France

     Classification de documents :

utilisation d'un réseau de neurones à convolution profond (InceptionV3) pour distinguer 3 documents administratifs (avis d’imposition page1, 2&3, relevé CPAM)

Résultats : précision de 97%

     Détection de la fraude à l’incapacité de travail :

Cadrage du projet, modélisation (combinaison de deux modèles : RandomForest et Gradient Boosted Tree), mise en production (MLflow, Azure Databricks)

Définition des KPI et suivi de l’algorithme en production (carte de contrôle)

Résultats : précision de 72%, indu estimé de 7,6 M€

     Création d’un ‘Feature Store’ (entrepôt de variables pour les data scientist) :

Cadrage du besoin, architecture de la solution

Mise en œuvre et déploiement sous forme d’un package Python avec Pyspark et le Framework ‘Feature Factory’ du Databricks lab.

Environnement technique : Python (PySpark, Keras, Graphframes, Pandastable, …), Databricks, Microsoft Azure, SQL, IntelliJ, Git, deep learning, transfert learning

Consultant Expert Data Scientist
NCG - North Consulting Group
De February 2020 à February 2020
Lille, Hauts-de-France, France

     Animation d’une session de formation aux enjeux de l’intelligence artificielle (une journée)

-     Les origines du Big Data

-     Les limites des bases de données relationnelles

-     Technologie du Big Data

-     De la statistique à l’intelligence artificielle

Consultant Expert Data Scientist
NCG - North Consulting Group
De February 2020 à February 2020
Lille, Hauts-de-France, France

     Animation d’une session de formation aux enjeux de l’intelligence artificielle (une journée)

-     Les origines du Big Data

-     Les limites des bases de données relationnelles

-     Technologie du Big Data

-     De la statistique à l’intelligence artificielle

Consultant Expert Data Scientist
NCG - North Consulting Group
De February 2020 à February 2020
Lille, Hauts-de-France, France

     Animation d’une session de formation aux enjeux de l’intelligence artificielle (une journée)

-     Les origines du Big Data

-     Les limites des bases de données relationnelles

-     Technologie du Big Data

-     De la statistique à l’intelligence artificielle

Consultant Expert Data Scientist
Groupe IRCEM
De August 2019 à December 2019
Roubaix, Hauts-de-France, France

     Moteur de recommandation :

Cadrage du projet, modélisation de l’appétence au contrat « Obsèques » (RandomForest, F1score = 80%)

Déploiement (tests unitaires, acceptance, environnement Azure Databricks)

Indicateurs de performance (gain, rendement, matrice de transition) pour le suivi des modèles en production

     Détection de l’attrition :

Utilisation d’un auto-encodeur pour prédire le départ à la concurrence

Environnement technique : Python (PySpark, Scikit-learn, Keras, Seaborn ...), Databricks, Microsoft Azure, SQL, IntelliJ, Git

Consultant Expert Data Scientist
Groupe IRCEM
De August 2019 à December 2019
Roubaix, Hauts-de-France, France

     Moteur de recommandation :

Cadrage du projet, modélisation de l’appétence au contrat « Obsèques » (RandomForest, F1score = 80%)

Déploiement (tests unitaires, acceptance, environnement Azure Databricks)

Indicateurs de performance (gain, rendement, matrice de transition) pour le suivi des modèles en production

     Détection de l’attrition :

Utilisation d’un auto-encodeur pour prédire le départ à la concurrence

Environnement technique : Python (PySpark, Scikit-learn, Keras, Seaborn …), Databricks, Microsoft Azure, SQL, IntelliJ, Git

Consultant Expert Data Scientist
Groupe IRCEM
De August 2019 à December 2019
Roubaix, Hauts-de-France, France

     Moteur de recommandation :

Cadrage du projet, modélisation de l’appétence au contrat « Obsèques » (RandomForest, F1score = 80%)

Déploiement (tests unitaires, acceptance, environnement Azure Databricks)

Indicateurs de performance (gain, rendement, matrice de transition) pour le suivi des modèles en production

     Détection de l’attrition :

Utilisation d’un auto-encodeur pour prédire le départ à la concurrence

Environnement technique : Python (PySpark, Scikit-learn, Keras, Seaborn …), Databricks, Microsoft Azure, SQL, IntelliJ, Git

Consultant Expert Data Scientist
Kingfisher plc
De November 2018 à March 2019
Templemars, Hauts-de-France, France

Consolidation, nettoyage et analyse des backlogs d’erreurs SAP :

-     Durant le déploiement de SAP, consolidation quotidienne des rapports d’erreurs (facturation, stock, commande…) à l’aide d’algorithmes développés en VBA

-     Développement d’un algorithme de correction automatique des erreurs d’adressage de stock

-     Création d’un tableau de bord de suivi hebdomadaire présenté au comité de direction

Environnement technique : VBA Excel, SAP

Consultant Expert Data Scientist
Kingfisher plc
De November 2018 à March 2019
Templemars, Hauts-de-France, France

Consolidation, nettoyage et analyse des backlogs d’erreurs SAP :

-     Durant le déploiement de SAP, consolidation quotidienne des rapports d’erreurs (facturation, stock, commande...) à l’aide d’algorithmes développés en VBA

-     Développement d’un algorithme de correction automatique des erreurs d’adressage de stock

-     Création d’un tableau de bord de suivi hebdomadaire présenté au comité de direction

Environnement technique : VBA Excel, SAP

Consultant Expert Data Scientist
Kingfisher plc
De November 2018 à March 2019
Templemars, Hauts-de-France, France

Consolidation, nettoyage et analyse des backlogs d’erreurs SAP :

-     Durant le déploiement de SAP, consolidation quotidienne des rapports d’erreurs (facturation, stock, commande…) à l’aide d’algorithmes développés en VBA

-     Développement d’un algorithme de correction automatique des erreurs d’adressage de stock

-     Création d’un tableau de bord de suivi hebdomadaire présenté au comité de direction

Environnement technique : VBA Excel, SAP

Directeur projet
Publicis ETO
De August 2018 à October 2018
La Madeleine, Hauts-de-France, France

     Typologie clientèle :

Audit des données, statistique descriptives, segmentation (5 clusters), présentation client

     Étude de l’évolution du comportement des clients avant et après une segmentation :

Suivi des indicateurs en CA et en fidélité (fréquence achat, Net Promoter Score) sur 24 mois

Présentation client

Gain attendu : poursuite du programme de fidélisation

     Business Model :

Simulation de l’impact d’un changement de programme de fidélité

Paramétrage des hypothèses, simulation des différents scénarios (carte gratuite, payante, à durée limitée ...)

     Management :

Encadrement d’une équipe de 3 Data Scientists

Environnement technique : SAS, SPSS Modeler , SQL, Excel

Directeur projet
Publicis ETO
De August 2018 à October 2018
La Madeleine, Hauts-de-France, France

     Typologie clientèle :

Audit des données, statistique descriptives, segmentation (5 clusters), présentation client

     Étude de l’évolution du comportement des clients avant et après une segmentation :

Suivi des indicateurs en CA et en fidélité (fréquence achat, Net Promoter Score) sur 24 mois

Présentation client

Gain attendu : poursuite du programme de fidélisation

     Business Model :

Simulation de l’impact d’un changement de programme de fidélité

Paramétrage des hypothèses, simulation des différents scénarios (carte gratuite, payante, à durée limitée …)

     Management :

Encadrement d’une équipe de 3 Data Scientists

Environnement technique : SAS, SPSS Modeler , SQL, Excel

Directeur projet
Publicis ETO
De August 2018 à October 2018
La Madeleine, Hauts-de-France, France

     Typologie clientèle :

Audit des données, statistique descriptives, segmentation (5 clusters), présentation client

     Étude de l’évolution du comportement des clients avant et après une segmentation :

Suivi des indicateurs en CA et en fidélité (fréquence achat, Net Promoter Score) sur 24 mois

Présentation client

Gain attendu : poursuite du programme de fidélisation

     Business Model :

Simulation de l’impact d’un changement de programme de fidélité

Paramétrage des hypothèses, simulation des différents scénarios (carte gratuite, payante, à durée limitée …)

     Management :

Encadrement d’une équipe de 3 Data Scientists

Environnement technique : SAS, SPSS Modeler , SQL, Excel

Direction projets
Publicis
De August 2018 à September 2018

Marketing :

Typologie clientèle :

Audit des données, statistique descriptives, segmentation (5 clusters), présentation client

Environnement technique : SAS, SPSS Modeler, SQL, Excel

Étude de l’évolution du comportement des clients avant et après une segmentation :

Suivi des indicateurs en CA et en fidélité (fréquence achat, Net Promoter Score) sur 24 mois Présentation client

Gain attendu : poursuite du programme de fidélisation

Environnement technique : SQL, Excel

Business Model :

Simulation de l’impact d’un changement de programme de fidélité

Paramétrage des hypothèses, simulation des différents scénarios (carte gratuite, payante, à durée limitée …)

Environnement technique : SQL, Excel

Direction projets
Publicis
De August 2018 à September 2018

Marketing :

Typologie clientèle :

Audit des données, statistique descriptives, segmentation (5 clusters), présentation client

Environnement technique : SAS, SPSS Modeler, SQL, Excel

Étude de l’évolution du comportement des clients avant et après une segmentation :

Suivi des indicateurs en CA et en fidélité (fréquence achat, Net Promoter Score) sur 24 mois Présentation client

Gain attendu : poursuite du programme de fidélisation

Environnement technique : SQL, Excel

Business Model :

Simulation de l’impact d’un changement de programme de fidélité

Paramétrage des hypothèses, simulation des différents scénarios (carte gratuite, payante, à durée limitée …)

Environnement technique : SQL, Excel

Consultant Expert Data Scientist
Conrad Electronic Group
De April 2018 à June 2018
Englos, Hauts-de-France, France

     Segmentation clientèle B2B

     Référencement automatique des nouveaux produits :

Algorithme de sélection des produits à référencer (programme SAS)

Gain attendu : 2 M€ CA

Stratégie :

     Recommandations sur l’infrastructure du système d’information

Environnement technique : SAS, SQL, Excel

Consultant Expert Data Scientist
Conrad Electronic Group
De April 2018 à June 2018
Englos, Hauts-de-France, France

     Segmentation clientèle B2B

     Référencement automatique des nouveaux produits :

Algorithme de sélection des produits à référencer (programme SAS)

Gain attendu : 2 M€ CA

Stratégie :

     Recommandations sur l’infrastructure du système d’information

Environnement technique : SAS, SQL, Excel

Data Scientist
CONRAD
De April 2018 à June 2018

Marketing :

Segmentation clientèle B2B

Référencement automatique des nouveaux produits :

Algorithme de sélection des produits à référencer (programme SAS)

Gain attendu : 2 M€ CA

Environnement technique : SAS, SQL, Excel

Stratégie :

Recommandations sur l’infrastructure du système d’information

Consultant Expert Data Scientist
Conrad Electronic Group
De April 2018 à June 2018
Englos, Hauts-de-France, France

     Segmentation clientèle B2B

     Référencement automatique des nouveaux produits :

Algorithme de sélection des produits à référencer (programme SAS)

Gain attendu : 2 M€ CA

Stratégie :

     Recommandations sur l’infrastructure du système d’information

Environnement technique : SAS, SQL, Excel

Data Scientist
CONRAD
De April 2018 à June 2018

Marketing :

Segmentation clientèle B2B

Référencement automatique des nouveaux produits :

Algorithme de sélection des produits à référencer (programme SAS)

Gain attendu : 2 M€ CA

Environnement technique : SAS, SQL, Excel

Stratégie :

Recommandations sur l’infrastructure du système d’information

Chef de projet
BONCOLAC
De March 2018 à March 2018

Supply Chain :

Avant projet du changement de logiciel de prévisions des ventes :

Analyse du besoin, définition du périmètre, processus, planning

Environnement technique : SAP, APO, Excel, Power point

Chef de projet
BONCOLAC
De March 2018 à March 2018

Supply Chain :

Avant projet du changement de logiciel de prévisions des ventes :

Analyse du besoin, définition du périmètre, processus, planning

Environnement technique : SAP, APO, Excel, Power point

Responsable des données
DEVAREM DEVELOPPEMENT
De January 2017 à December 2017
Noordpeene, Hauts-de-France, France

Administration réseau et systèmes :

     Administration de 2 sites distants, 15 serveurs physiques, 25 serveurs virtuels, 30 stations de travail (Windows et MacOs)

Maintenance de l’infrastructure

Qualification et gestion des fournisseurs

Téléphonie mobile :

     Segmentation des abonnés (flotte de 200 utilisateurs)

Algorithme de proposition du forfait le plus adapté (Arbre de décision mis en production sous Excel)

Négociation de la tarification avec Orange

Optimisation du cout financier : baisse de 15%

Infrastructure des données :

     Collecte des données des automates des machines mobiles vers un extranet (module développé avec des Raspberry pi)

     Collecte des données photo et vidéo (mise en place caméras, serveur, acquisition logiciel et stockage)

Automatisme :

     Maintenance des machines (Schneider Modicon)

     Rétrofitt

     Gestion des fournisseurs et des sous-traitants

Environnement technique : Automates Schneider Modicon, OpenVPN, Debian, Windows Server, MacOs, iOS, Android, VMware, Excel

Responsable des données
DEVAREM DEVELOPPEMENT
De January 2017 à December 2017
Noordpeene, Hauts-de-France, France

Administration réseau et systèmes :

     Administration de 2 sites distants, 15 serveurs physiques, 25 serveurs virtuels, 30 stations de travail (Windows et MacOs)

Maintenance de l’infrastructure

Qualification et gestion des fournisseurs

Téléphonie mobile :

     Segmentation des abonnés (flotte de 200 utilisateurs)

Algorithme de proposition du forfait le plus adapté (Arbre de décision mis en production sous Excel)

Négociation de la tarification avec Orange

Optimisation du cout financier : baisse de 15%

Infrastructure des données :

     Collecte des données des automates des machines mobiles vers un extranet (module développé avec des Raspberry pi)

     Collecte des données photo et vidéo (mise en place caméras, serveur, acquisition logiciel et stockage)

Automatisme :

     Maintenance des machines (Schneider Modicon)

     Rétrofitt

     Gestion des fournisseurs et des sous-traitants

Environnement technique : Automates Schneider Modicon, OpenVPN, Debian, Windows Server, MacOs, iOS, Android, VMware, Excel

Responsable informatique
DEVAREM DEVELOPPEMENT
De January 2017 à November 2017

Téléphonie mobile :

Segmentation des abonnés (flotte de 200 utilisateurs)

Algorithme de proposition du forfait le plus adapté (Arbre de décision mis en production sous Excel)

Optimisation du cout financier : baisse de 15%

Environnement technique : Excel, pdf

Infrastructure des données :

Collecte des données des automates des machines mobiles vers un extranet (module développé avec des Raspberry pi)

Collecte des données photo et vidéo (mise en place caméras, serveur, acquisition logiciel et stockage)

Environnement technique : Automates Schneider Modicon, OpenVPN, Debian, Windows Server, MacOs, VMware

Responsable informatique
DEVAREM DEVELOPPEMENT
De January 2017 à November 2017

Téléphonie mobile :

Segmentation des abonnés (flotte de 200 utilisateurs)

Algorithme de proposition du forfait le plus adapté (Arbre de décision mis en production sous Excel)

Optimisation du cout financier : baisse de 15%

Environnement technique : Excel, pdf

Infrastructure des données :

Collecte des données des automates des machines mobiles vers un extranet (module développé avec des Raspberry pi)

Collecte des données photo et vidéo (mise en place caméras, serveur, acquisition logiciel et stockage)

Environnement technique : Automates Schneider Modicon, OpenVPN, Debian, Windows Server, MacOs, VMware

Consultant Expert Data Scientist
Groupe PSA
De October 2016 à December 2016
Vélizy-Villacoublay, Île-de-France, France

     Modélisation de la ventilation des demandes d’investissement par typologie de projet, par métier et par mois (Réseau de neurones développé avec SPSS Modeler)

     Mise en production de la solution (Excel)

     Définition des indicateurs métiers

Environnement technique : SPSS Modeler, Excel

Data Scientist
Cap Gemini - PSA
De October 2016 à December 2016

Finance :

Modélisation de la ventilation des demandes d’investissement par typologie de projet, par métier et par mois (Réseau de neurones développé avec SPSS Modeler)

Mise en production de la solution (Excel)

Définition des indicateurs métiers

Environnement technique : SPSS Modeler, Excel

Consultant Expert Data Scientist
Groupe PSA
De October 2016 à December 2016
Vélizy-Villacoublay, Île-de-France, France

     Modélisation de la ventilation des demandes d’investissement par typologie de projet, par métier et par mois (Réseau de neurones développé avec SPSS Modeler)

     Mise en production de la solution (Excel)

     Définition des indicateurs métiers

Environnement technique : SPSS Modeler, Excel

Senior Analyst
Arc International
De July 2005 à April 2015
Arques

Marketing - ventes :

     Optimisation des statistiques de ventes (6000 refs) : modélisation d’algorithmes originaux adaptés au marché du verre.

Migration vers SAP : choix et paramétrage des algorithmes de prévisions

Key user du progiciel Skep (éditeur Dynasis)

     Organisation du service prévisions des filiales française (CA=100M€) et UK (CA=15M£) :

     Développement d’un progiciel de prévisions (avec Access et Excel) et déploiement au Royaume uni, en Espagne et en France.

Formation et assistance des utilisateurs – KPI (fiabilité)

     Quantification de la corrélation entre les ventes en Russie et le cours du rouble pour ajuster les objectifs de vente

Finance :

     Consolidation et validation des Business Plans des 6 sites de production (répartis sur 4 continents) :

Contrôle de l’adéquation entre les ventes, les productions (500kt/an), les capacités (22 fours, 150 lignes de fabrication), les stocks et les CAPEX (80M€/an)

     Simulation de la régionalisation des productions dont les conclusions ont abouti à l’achat d’un site en Russie (2 fours) et à la construction d’un four au Moyen Orient (80M$)

     Création d’un algorithme de calcul des couts rendus à destination qui permet de déterminer le site de fabrication le plus profitable par article

Autres :

     Détection des anomalies sur les consommations de gaz et d’eau à l’aide de la maitrise statistique des procédés. Déploiement de l’algorithme en Visual basic (VBA)

Environnement technique : BO, SKEP, Access, Excel, SAP

Analyste
ARC
De July 2005 à April 2015

Marketing – ventes :

Optimisation des statistiques de ventes (6000 refs) : modélisation d’algorithmes adaptés au marché du verre. Simplification du processus – Paramétrage SAP

Extraction et préparation des données à l’aide de Business Object

Key user du progiciel Skep (éditeur Dynasis)

Organisation du service prévisions des filiales française (CA=100M€) et UK (CA=15M£) :

Développement d’un progiciel de prévisions (avec Access et Excel) et déploiement au Royaume uni, en Espagne et en France.

Formation et assistance des utilisateurs – KPI (fiabilité)

Finance :

Consolidation et validation des Business Plans des 6 sites de production (répartis sur 4 continents) :

Contrôle de l’adéquation entre les ventes, les productions (500kt/an), les capacités (22 fours, 150 lignes de fabrication), les stocks et les CAPEX (80M€/an)

Simulation de la régionalisation des productions dont les conclusions ont abouti à l’achat d’un site en Russie (2 fours) et à la construction d’un four au Moyen Orient (80M$)

Création d’un algorithme de calcul des couts rendus à destination qui permet de déterminer le site de fabrication le plus profitable par article

Autres :

Détection des anomalies sur les consommations de gaz et d’eau à l’aide de la maitrise statistique des procédés. Déploiement de l’algorithme en Visual basic (VBA)

Environnement technique : BO, SKEP, Access, Excel, SAP

Senior Analyst
Arc International
De July 2005 à April 2015
Arques

Marketing - ventes :

     Optimisation des statistiques de ventes (6000 refs) : modélisation d’algorithmes originaux adaptés au marché du verre.

Migration vers SAP : choix et paramétrage des algorithmes de prévisions

Key user du progiciel Skep (éditeur Dynasis)

     Organisation du service prévisions des filiales française (CA=100M€) et UK (CA=15M£) :

     Développement d’un progiciel de prévisions (avec Access et Excel) et déploiement au Royaume uni, en Espagne et en France.

Formation et assistance des utilisateurs – KPI (fiabilité)

     Quantification de la corrélation entre les ventes en Russie et le cours du rouble pour ajuster les objectifs de vente

Finance :

     Consolidation et validation des Business Plans des 6 sites de production (répartis sur 4 continents) :

Contrôle de l’adéquation entre les ventes, les productions (500kt/an), les capacités (22 fours, 150 lignes de fabrication), les stocks et les CAPEX (80M€/an)

     Simulation de la régionalisation des productions dont les conclusions ont abouti à l’achat d’un site en Russie (2 fours) et à la construction d’un four au Moyen Orient (80M$)

     Création d’un algorithme de calcul des couts rendus à destination qui permet de déterminer le site de fabrication le plus profitable par article

Autres :

     Détection des anomalies sur les consommations de gaz et d’eau à l’aide de la maitrise statistique des procédés. Déploiement de l’algorithme en Visual basic (VBA)

Environnement technique : BO, SKEP, Access, Excel, SAP

Chef de projet
ASCOMETAL
De January 2004 à December 2004
Dunkerque

Planification :

     Création d’un contrôle de la cohérence des données issues du progiciel d’ordonnancement

Environnement technique : Factory Planner, Excel

Chef de projet
ASCOMETAL
De January 2004 à December 2004
Dunkerque

Planification :

     Création d’un contrôle de la cohérence des données issues du progiciel d’ordonnancement

Environnement technique : Factory Planner, Excel

Testeur
Alcatel-Lucent
De May 1998 à May 2003
Région de Calais, France

Tests des câbles sous-marins à fibres optiques :

     Tests optiques : rétrodiffusion, Analyse spectrale, atténuation, PMD

Tests électriques : conductivité, tenue en haute tension (45 000 volt)

     Détection et élimination des défauts (casse fibre, soudure non conforme, …)

     Optimisation du flux de mesure optique : changement d’organisation de série à parallèle – choix d’outil moins cher et plus réactif

     Augmentation de la productivité : mise en évidence d’une corrélation entre le niveau d’entrée du laser et le succès des mesures physiques.

Environnement technique : Laser, fibres optiques, haute tension, rayon x, Excel

Testeur
Alcatel-Lucent
De May 1998 à May 2003
Région de Calais, France

Tests des câbles sous-marins à fibres optiques :

     Tests optiques : rétrodiffusion, Analyse spectrale, atténuation, PMD

Tests électriques : conductivité, tenue en haute tension (45 000 volt)

     Détection et élimination des défauts (casse fibre, soudure non conforme, …)

     Optimisation du flux de mesure optique : changement d’organisation de série à parallèle – choix d’outil moins cher et plus réactif

     Augmentation de la productivité : mise en évidence d’une corrélation entre le niveau d’entrée du laser et le succès des mesures physiques.

Environnement technique : Laser, fibres optiques, haute tension, rayon x, Excel