Arlette

Consultante GCP / Data Engineer

Informations

Compétences

Technos

  • Airflow
  • Airflow
  • Angular 2+
  • Angular 2+
  • Google Cloud Platform (GCP)
  • Google Cloud Platform (GCP)
  • Java
  • Java
  • Node.js
  • Node.js
  • OOZIE
  • OOZIE
  • Python
  • Python
  • React.js
  • React.js
  • SQL
  • SQL
  • Scala
  • Scala
  • Spark
  • Spark
  • Voir plus
  • Voir moins

Métier

  • Sqoop
  • Sqoop
  • Talend
  • Talend
  • Voir plus
  • Voir moins

Expériences (19)

Consultante Big Data
RAGT
Depuis July 2020

Périmètre & Enjeux projet :

- Design de l'architecture, de la haute disponibilité et de la persistance des  données

- Évolution au sein d’une équipe Agile

- Centralisation de la donnée des semences grâce aux données  collectées, traitées et stockées dans MaprFS, MaprDB,

- Mise en place des outils d’analyse et de visualisation

Responsabilités :

- Cadrage des besoins et proposition de solutions techniques

- Développement des briques Spark pour le traitement des données

- Conception et réalisation MaprFS, MaprDB,

- Intégration des données entre les différentes briques via Talend Big data

- Implémentation de WebServices pour l’alimentation et l’interrogation des OM

- Déploiement et industrialisation des traitements

- Rédaction des documents techniques (Installation, exploitation,

déploiement).

Environnement technique : Java, Spark, Talend Big Data, MaprDb, MaprFs, Gitlab

Data engineer Cloud GCP
Renault
De April 2021 à March 2022

Les métiers de la Qualité Renault réalisent des études sur différentes enquêtes de satisfaction client   pour améliorer la qualité des véhicules vendus, et des services rendus à ces clients.

Le système SVIZ (pour « Survey Visualization »), en lien avec une zone de données CGS (pour « Common Goldzone Survey ») permet de :

  • Stocker les données d’enquêtes consolidées

  • Croiser les données d’enquêtes avec les données internes à l’entreprise

  • Consulter les indicateurs des enquêtes et leurs évolutions

  • Accéder directement à la donnée brute

Le système est enrichi régulièrement de nouveaux types d’enquêtes ou de nouvelles fonctionnalités.

L’application est réalisée en Java/Javascript (Springboot/Angular).

Les données sont stockées sur GCP (Big Query, Postgresql, dataproc(Spark Scala), API en Python, Dataflow, Composer, Airflow) et exposée avec ElasticSearch.

Consultante Big Data
RAGT
De July 2020 à April 2021

Périmètre & Enjeux projet :

- Design de l'architecture, de la haute disponibilité et de la persistance des  données

- Évolution au sein d’une équipe Agile

- Centralisation de la donnée des semences grâce aux données  collectées, traitées et stockées dans MaprFS, MaprDB,

- Mise en place des outils d’analyse et de visualisation

Responsabilités :

- Cadrage des besoins et proposition de solutions techniques

- Développement des briques Spark pour le traitement des données

- Conception et réalisation MaprFS, MaprDB,

- Intégration des données entre les différentes briques via Talend Big data

- Implémentation de WebServices pour l’alimentation et l’interrogation des OM

- Déploiement et industrialisation des traitements

- Rédaction des documents techniques (Installation, exploitation,

déploiement).

Environnement technique : Java, Spark, Talend Big Data, MaprDb, MaprFs, Gitlab

Data Engineer Spark/Scala
RENAULT-DIGITAL
De August 2019 à April 2020

Périmètre & Enjeux projet :

- Pipelines d'ingestion de données pour un projet de Supply Chain  Monitoring (Supply Chain-Automobile) :

- Mise en œuvre d’une application de dashboarding pour la partie

PLM de Renault (Product Lifecycle Management)

Responsabilités :

- Cadrage des besoins et proposition de solutions techniques

- Exploration de Données (Hive HQL)

- Ingestion (Spark-Scala)

- Enrichissement et Traitements de Données (Hive, Spark-Scala, Hue,  Oozie, Hadoop- HortonWorks)

- Stockage de Données

- Tests Unitaires et Tests d'integration

- Suivi de production

- Participation aux sprints plannings, rétrospectives et aux Daily meetings

- Rédaction des documents techniques (Installation, exploitation, déploiement) dans Confluence.

Environnement Technique : Spark,Scala,Hive, Pyspark, Hortonworks, Gitflow, POSTGRESQL, JIRA

Data Engineer Spark/Scala
RENAULT-DIGITAL
De August 2019 à April 2020

Périmètre & Enjeux projet :

- Pipelines d'ingestion de données pour un projet de Supply Chain  Monitoring (Supply Chain-Automobile) :

- Mise en œuvre d’une application de dashboarding pour la partie

PLM de Renault (Product Lifecycle Management)

Responsabilités :

- Cadrage des besoins et proposition de solutions techniques

- Exploration de Données (Hive HQL)

- Ingestion (Spark-Scala)

- Enrichissement et Traitements de Données (Hive, Spark-Scala, Hue,  Oozie, Hadoop- HortonWorks)

- Stockage de Données

- Tests Unitaires et Tests d'integration

- Suivi de production

- Participation aux sprints plannings, rétrospectives et aux Daily meetings

- Rédaction des documents techniques (Installation, exploitation, déploiement) dans Confluence.

Environnement Technique : Spark,Scala,Hive, Pyspark, Hortonworks, Gitflow, POSTGRESQL, JIRA

Data Engineer Google Cloud Platform
Blablacar
De January 2019 à July 2019

Périmètre & Enjeux projet :

- Migration des données dans Google Cloud Platform

- Évolution au sein d’une équipe Agile

Responsabilités :

- Cadrage des besoins et proposition de solutions techniques

- Développement d'un ETL en python

- Création des jobs Airflow

- Migration des données Hadoop dans Google Cloud Storage

- Création et configuration des VMs dans Compute Engine pour la migration  des données de Qlik-sense vers Google Cloud Storage

- Création des vues dans BigQuery pour les équipes marketing

- Création et déploiement des Cloud functions

- Utilisation de Pub/Sub pour les données en temps réel (API de réservations)

- Suivi de production

- Participation aux sprint plannings, rétrospectives et aux Daily meetings

- Rédaction des documents techniques (Installation, exploitation, déploiement) dans Confluence.

Environnement technique : Python, Airflow, Google Cloud Platform (BigQuery, Cloud Storage, Compute Engine, Pub/Sub, AppEngine, Dataflow, Cloud functions ), BitBucket, Gitflow, JIRA, Confluence, Docker, Terraform

Data Engineer Google Cloud Platform
Blablacar
De January 2019 à July 2019

Périmètre & Enjeux projet :

- Migration des données dans Google Cloud Platform

- Évolution au sein d’une équipe Agile

Responsabilités :

- Cadrage des besoins et proposition de solutions techniques

- Développement d'un ETL en python

- Création des jobs Airflow

- Migration des données Hadoop dans Google Cloud Storage

- Création et configuration des VMs dans Compute Engine pour la migration  des données de Qlik-sense vers Google Cloud Storage

- Création des vues dans BigQuery pour les équipes marketing

- Création et déploiement des Cloud functions

- Utilisation de Pub/Sub pour les données en temps réel (API de réservations)

- Suivi de production

- Participation aux sprint plannings, rétrospectives et aux Daily meetings

- Rédaction des documents techniques (Installation, exploitation, déploiement) dans Confluence.

Environnement technique : Python, Airflow, Google Cloud Platform (BigQuery, Cloud Storage, Compute Engine, Pub/Sub, AppEngine, Dataflow, Cloud functions ), BitBucket, Gitflow, JIRA, Confluence, Docker, Terraform

DevOps
ANEO
De May 2018 à August 2018

Périmètre & Enjeux projet :

- Mise au point d’un prototype d’outils de terrain susceptible d’optimiser la  gestion des données tactiques de crise pour les femmes et les hommes sur le terrain

Responsabilités :

- Chiffrage des tâches

- Choix techniques de développement

- Optimisation du code

- Création API REST

- Rédaction de la documentation technique

- Création d’une application mobile de données numériques de terrain

Environnement Technique : Angular, Gitlab, Google Cloud Messaging, Symphony3, Ionic, JavaScript, jQuery, Phonegap/cordova, Slim 3, MySQL, Wamp/Lamp, Matrix, JSON, Ajax, LDAP

DevOps
ANEO
De May 2018 à August 2018

Périmètre & Enjeux projet :

- Mise au point d’un prototype d’outils de terrain susceptible d’optimiser la  gestion des données tactiques de crise pour les femmes et les hommes sur le terrain

Responsabilités :

- Chiffrage des tâches

- Choix techniques de développement

- Optimisation du code

- Création API REST

- Rédaction de la documentation technique

- Création d’une application mobile de données numériques de terrain

Environnement Technique : Angular, Gitlab, Google Cloud Messaging, Symphony3, Ionic, JavaScript, jQuery, Phonegap/cordova, Slim 3, MySQL, Wamp/Lamp, Matrix, JSON, Ajax, LDAP

Consultante IT
Edmond de Rothschild
De February 2018 à April 2018

Périmètre & Enjeux projet :

- Développement du site client banque privée et refactoring Web API

Responsabilités :

- Refactoring de la web API

- Création des pages responsives

- Création d’un background vidéo

- Intégration des pages dans SharePoint

- Valider le bon rendu des différentes pages sur les principaux navigateurs

u>Environnement Technique : jQuery, Git, SharePoint, .Net, TFS, Visual Studio

Consultante IT
Edmond de Rothschild
De February 2018 à April 2018

Périmètre & Enjeux projet :

- Développement du site client banque privée et refactoring Web API

Responsabilités :

- Refactoring de la web API

- Création des pages responsives

- Création d’un background vidéo

- Intégration des pages dans SharePoint

- Valider le bon rendu des différentes pages sur les principaux navigateurs

u>Environnement Technique : jQuery, Git, SharePoint, .Net, TFS, Visual Studio

Consultante data
Vente privée (via ANEO)
De July 2017 à December 2017

Périmètre & Enjeux projet :

- Développement de l’API Paiement sur la partie front.

Responsabilités :

- Écrire le JavaScript nécessaire à la  bonne validation des formulaires et aux  appels d’API effectué par le front

- Étendre le front-end et implémenter des  interactions avec le back- end.

- Réaliser des tests unitaires

Environnement Technique : Python, Jquery, Git, Bootstrap, Scrum, Selenium, Typescript

Consultante data
Vente privée (via ANEO)
De July 2017 à December 2017

Périmètre & Enjeux projet :

- Développement de l’API Paiement sur la partie front.

Responsabilités :

- Écrire le JavaScript nécessaire à la  bonne validation des formulaires et aux  appels d’API effectué par le front

- Étendre le front-end et implémenter des  interactions avec le back- end.

- Réaliser des tests unitaires

Environnement Technique : Python, Jquery, Git, Bootstrap, Scrum, Selenium, Typescript

Consultante BI
CRM In House (via ANEO)
De July 2016 à June 2017

Périmètre & Enjeux projet :

– Développement d’une application mobile et web ANEO – CRM In-house

Responsabilités :

– Chiffrage des tâches

– Choix techniques de développement

– Design de l’architecture

– Modélisation de la Base de données

– Conception et réalisation d’une application mobile Hybride

– Réalisation des tests unitaires

– Réalisation et participation à la recette interne

– Correction des anomalies

– Optimisation du code

– Valider la conformité de la solution construite et de sa capacité à la mise en production

Environnement Technique : Ionic 3, Python, Google Cloud Messaging, Git, Angular, Symphony3, JavaScript, jQuery, Phonegap/cordova, Slim 3, MySQL, Wamp/Lamp, Matrix, JSON, Ajax, LDAP

Consultante BI
CRM In House (via ANEO)
De July 2016 à June 2017

Périmètre & Enjeux projet :

– Développement d’une application mobile et web ANEO – CRM In-house

Responsabilités :

– Chiffrage des tâches

– Choix techniques de développement

– Design de l’architecture

– Modélisation de la Base de données

– Conception et réalisation d’une application mobile Hybride

– Réalisation des tests unitaires

– Réalisation et participation à la recette interne

– Correction des anomalies

– Optimisation du code

– Valider la conformité de la solution construite et de sa capacité à la mise en production

Environnement Technique : Ionic 3, Python, Google Cloud Messaging, Git, Angular, Symphony3, JavaScript, jQuery, Phonegap/cordova, Slim 3, MySQL, Wamp/Lamp, Matrix, JSON, Ajax, LDAP

Développeuse fullstack
SFEIR
De January 2016 à February 2016

Périmètre & Enjeux projet :

- Création d’un API analytics des boards Trello

Responsabilités :

- Création d’une IHM

- Récupération des données via l’API Tello

Environnement Technique : Google Cloud (AppEngine), Go, AngularJs , JSON

Développeuse fullstack
SFEIR
De January 2016 à February 2016

Périmètre & Enjeux projet :

- Création d’un API analytics des boards Trello

Responsabilités :

- Création d’une IHM

- Récupération des données via l’API Tello

Environnement Technique : Google Cloud (AppEngine), Go, AngularJs , JSON

Développeuse FullStack
CANAL +
De July 2014 à December 2014

Périmètre & Enjeux projet :

– Création d’une application web de supervision des tables de signalisation.

Responsabilités :

– Recueil des besoins

– Etablir un cahier de charge

– Choix techniques de développement

– Modélisation Base de données

– Création d’une IHM

– Récupérer les données du satellite

– Créer et analyser les fichiers de configuration XML

– Remonter des résultats

– Création d’un panel Admin

– Analyse quotidienne des taches

Environnement Technique : PHP, MySQL, Git, Ajax, JQuery, Bootstrap, Codeigniter, UML, WAMP

Développeuse FullStack
CANAL +
De July 2014 à December 2014

Périmètre & Enjeux projet :

– Création d’une application web de supervision des tables de signalisation.

Responsabilités :

– Recueil des besoins

– Etablir un cahier de charge

– Choix techniques de développement

– Modélisation Base de données

– Création d’une IHM

– Récupérer les données du satellite

– Créer et analyser les fichiers de configuration XML

– Remonter des résultats

– Création d’un panel Admin

– Analyse quotidienne des taches

Environnement Technique : PHP, MySQL, Git, Ajax, JQuery, Bootstrap, Codeigniter, UML, WAMP