Description du poste
RESPONSABILITÉS DU POSTE :
- Identifier les PII (informations personnelles identifiables) dans les jeux de données.
- Soutenir la création et la maintenance de la documentation EIPD (Analyse d'Impact relative à la Protection des Données) pour se conformer aux normes de confidentialité des données.
- Aider à valider que les jeux de données respectent les contrôles requis en matière de confidentialité et de sécurité.
- Soutenir le chiffrement et le masquage des données PII identifiées dans Databricks.
- Aider à appliquer les règles de rétention des données à l'aide de scripts et de workflows Databricks.
- Effectuer des tests et des validations pour s'assurer que la suppression, l'archivage ou l'anonymisation des données est exécutée correctement conformément à la politique de rétention des données de l'organisation.
- Effectuer des contrôles de qualité des données et des validations pour garantir la fiabilité et l'exactitude des données.
- Analyser les jeux de données pour découvrir les problèmes de qualité des données, les anomalies ou les incohérences.
- Collaborer avec des équipes transversales pour comprendre les cas d'utilisation des PII, les politiques de rétention des données et la confirmation des métadonnées.
LIVRABLES CLÉS :
- Maintenir la classification de sensibilité des données CDP en assurant un étiquetage précis et des mises à jour continues des champs de données sensibles et PII.
- Préparer la documentation EIPD/TIA pour soutenir les exigences de conformité et de protection des données.
- Mettre en œuvre le chiffrement pour les champs de données PII au sein du Data Lake afin de répondre aux normes de sécurité et de gouvernance.
- Appliquer la politique de rétention des données à toutes les sources de données désignées au sein du Data Lake, y compris la documentation et la validation des résultats.
- Mettre à jour et maintenir les descriptions des métadonnées dans le catalogue de données pour améliorer la découvrabilité des données et la maturité de la gouvernance des données.
- Démarrer et arrêter les pipelines de données ADF / processus Fivetran selon les besoins pour prendre en charge l'ingestion de données, les tests et les workflows opérationnels.
QUALIFICATIONS, EXPÉRIENCE ET COMPÉTENCES :
Qualification :
Diplôme collégial/universitaire - de préférence en informatique, génie logiciel ou mathématiques/physique (filière informatique) ou expérience équivalente
Expérience : 0-1 An
Compétences techniques (Hard Skills) :
- Connaissance approfondie des concepts de bases de données et des scripts SQL.
- La connaissance de Databricks, de la boîte à outils Azure (par exemple ADF) serait un plus.
- Solides compétences en analyse et en résolution de problèmes, avec la capacité de simplifier des concepts techniques complexes pour des publics non techniques.
Compétences non techniques (Soft Skills) :
- Capacité à travailler de manière autonome, à gérer plusieurs projets de gouvernance simultanément et à respecter les délais dans un environnement dynamique.
- Prioriser efficacement et livrer une feuille de route claire des livrables. La méthodologie Agile serait un avantage.
- Communiquer efficacement avec toutes les parties prenantes, techniques et non techniques.
