L'inclusion sans exception
Tata Consultancy Services (TCS) est un employeur qui souscrit au principe de l'égalité des chances et encourage la diversité de nationalité, d'ethnie, de sexe, d'âge, de capacité physique, de neurodiversité et d'orientation sexuelle, afin de former une main-d'œuvre à l'image de la société. Notre détermination à promouvoir la culture et la diversité se transpose dans nos politiques et pratiques en matière d'équité au travail et se reflète dans les divers parcours de notre personnel.
TCS est une société de services informatiques, de services-conseils et de solutions d'affaires qui s'associe depuis plus de 55 ans à de nombreuses entreprises parmi les plus importantes au monde dans le cadre de leur processus de transformation. TCS offre un portefeuille intégré de services et de solutions d'affaires, d'informatique et d'ingénierie fondé sur les services-conseils et les avancées de la cognitique. Elle s'appuie sur un modèle de livraison AgileMC unique, indépendant de l'emplacement, reconnu comme une référence d'excellence dans le secteur du développement de logiciels. Membre du Groupe Tata, le plus important conglomérat multinational de l'Inde, TCS compte plus de consultants parmi les mieux formés au monde dans 55 pays. La société a généré des revenus consolidés de 29 milliards de dollars US au cours de l'exercice terminé le 31 mars 2024 et est inscrite à la BSE et à la NSE en Inde. L'attitude proactive de TCS à l'égard des changements climatiques et son travail primé auprès de collectivités partout dans le monde lui ont permis de se tailler une place parmi les principaux indices de durabilité comme l'indice mondial de durabilité MSCI et l'indice FTSE4Good des marchés émergents.
La description du poste
En tant que spécialiste de la plateforme de données Python, vous serez membre de l'équipe de l'entrepôt de données C3 et vous vous concentrerez sur la création de notre plateforme de données de nouvelle génération utilisée pour l'approvisionnement et le stockage de données provenant de différents systèmes de l'entreprise dans une plateforme de données centralisée qui permet diverses solutions de rapport et d'analyse pour les fonctions de risque technologique au sein de Morgan Stanley. À ce titre, vous serez principalement responsable de contribuer au développement d'un cadre de flux de données unifié écrit en Python au moyen de technologies comme Airflow, DBT, Spark et Snowflake. Vous serez également responsable de contribuer à l'intégration de ce cadre avec les plateformes internes existantes pour la qualité des données, le catalogage des données, la découverte des données, la journalisation des incidents et la création d'indicateurs. Vous travaillerez en étroite collaboration avec les responsables de l'entreposage de données, les analystes de données, les développeurs ETL, les spécialistes d'infrastructure et les équipes d'analyse de données pour faciliter la mise en œuvre de cette plateforme de données et de ce cadre de flux de données.
Les compétences requises
- Baccalauréat en informatique, en génie logiciel, en technologie de l'information ou dans un domaine connexe requis.
- Au moins 7 ans d'expérience dans le développement et la mise en œuvre de solutions de données dans des environnements de données très complexes avec de grands volumes de données.
- Au moins 7 ans d'expérience SQL ou PLSQL avec la capacité d'écrire des requêtes poncuelles et complexes pour effectuer des analyses de données.
- Au moins 5 ans d'expérience dans le développement de pipelines de données et de solutions d'entreposage de données à l'aide de Python et de bibliothèques telles que Pandas, NumPy, PySpark, etc.
- Au moins 3 ans d'expérience dans le développement de solutions dans un environnement de données hybride (sur site et infonuagiqiue).
- Au moins 3 ans d'expérience dans le développement de DAG Airflow pour orchestrer des flux de données qui utilisent la ramification, la génération dynamique de DAG/tâches et la gestion des erreurs.
- Expérience pratique du développement de flux de données pour les données structurées, semi-structurées et non structurées et expérience en intégration avec leurs magasins de soutien (par exemple, SGBDR, bases de données NoSQL, bases de données de documents, fichiers journaux, etc.)
- Une expérience pratique avec Snowflake est indispensable.
- Une expérience pratique avec Apache Spark est indispensable.
- Une expérience pratique avec DBT est préférée.
- Une expérience du réglage du rendement des requêtes SQL, des tâches Spark et des procédures stockées.
- Une compréhension des modèles de données E-R (conceptuels, logiques et physiques).
- La compréhension des concepts avancés d'entrepôt de données (tables de faits sans faits, modèles temporels/bitemporels, etc.) est un atout.
- De solides compétences d'analyse, dont une compréhension approfondie de la manière d'interpréter les besoins commerciaux des clients et de les transposer en conceptions et solutions techniques.
- De solides compétences en communication, tant à l'oral qu'à l'écrit, en français et en anglais . Capable de collaborer efficacement avec divers groupes informatiques et commerciaux, dans différentes régions et rôles, et capable d'interagir efficacement avec tous les niveaux.
- Autodidacte. Capacité démontrée à gérer plusieurs projets simultanés avec une supervision minimale. Peut gérer une liste de priorités complexe en constante évolution et résoudre les conflits liés à des priorités concurrentes.
- De solides compétences en résolution de problèmes. Capacité à identifier les domaines sur lesquels il faut se concentrer et à clarifier les objectifs, les exigences et les priorités de l'entreprise.
La maîtrise de l'anglais est exigée pour ce poste, car la candidate ou le candidat devra collaborer quotidiennement avec des collègues ou parties prenantes anglophones ou hors Québec.
Nous vous remercions de l'intérêt que vous portez à TCS. Les candidats qui satisfont aux exigences de ce poste seront informés dans les deux semaines suivantes. Nous vous invitons à postuler à d'autres offres correspondant à votre profil.