Chez Amaris, nous avons à cœur d'offrir à nos candidats la meilleure expérience de recrutement possible. Nous cherchons à mieux connaître et comprendre nos candidats, à les challenger et à leur faire part de nos impressions le plus rapidement possible. Voici à quoi ressemble notre processus de recrutement :
Premier contact : Notre processus commence généralement par une brève conversation virtuelle/téléphonique pour en savoir plus sur vous ! L'objectif ? Apprendre à vous connaître, comprendre vos motivations et veiller à ce que nous vous proposions le poste qui vous correspond le mieux !
Entretiens (en moyenne, le nombre d'entretiens est de 3 – il peut toutefois varier en fonction du niveau d'ancienneté requis pour le poste). Au cours des entretiens, vous rencontrerez les membres de notre équipe : votre supérieur hiérarchique bien sûr, mais aussi d'autres personnes avec lesquelles vous serez amené à travailler. Ces entretiens nous permettront d'en apprendre davantage sur vous, votre expérience et vos compétences, mais aussi sur le poste et ce que l'on attendra de vous. Bien entendu, vous apprendrez également à connaître Amaris : notre culture, notre histoire, nos équipes et vos opportunités de carrière !
Étude de cas: En fonction du poste, vous serez peut-être appelé à passer un test. Il pourra s'agir d'un jeu de rôle, d'une évaluation technique, d'un scénario de résolution de problème, etc.
Comme vous le savez, chaque personne est différente et il en va de même pour chaque rôle dans une entreprise. C'est pourquoi nous devons nous adapter en conséquence, si bien que le processus peut parfois être quelque peu différent pour chacun. Cela dit, nous nous mettons toujours à la place du candidat pour lui offrir la meilleure expérience possible. Nous avons hâte de vous rencontrer !
Job description
Nous recherchons un Ingénieur Data Senior ayant une solide expérience en ingestion, transformation et développement de pipelines de données. Le candidat idéal possédera une expertise en Databricks, Python, Snowflake et sur les plateformes cloud (de préférence AWS), et sera à l'aise avec le traitement de grands ensembles de données et la création de solutions personnalisées.
Responsabilités principales :
Concevoir, développer et maintenir des pipelines de données pour gérer l'ingestion et la transformation de données à grande échelle.
Travailler avec Python et Spark pour traiter et manipuler de grands ensembles de données.
Mettre en œuvre des solutions basées sur le cloud en utilisant AWS.
Collaborer avec des équipes transversales pour comprendre les besoins en données et concevoir des systèmes efficaces.
Assurer la qualité et la performance des solutions développées.
Construire des bases de données non opérationnelles sans perturber les plateformes existantes.
Profil requis :
Compétences & Expérience requises :
Minimum de 5 ans d'expérience en ingénierie des données (près de 10 ans préférable).
Maîtrise de Python, Snowflake et Databricks.
Expérience avec les plateformes cloud (AWS de préférence).
Connaissance de Spark est un plus.
Solide compréhension des processus ETL et des technologies Big Data.
Candidats bilingues ou anglophones préférés.
Nous valorisons davantage l'expérience concrète et les compétences pratiques que les qualifications formelles. Si vous êtes un professionnel axé sur le travail en équipe et passionné par la réussite des projets, nous serions ravis de vous rencontrer !
-----------------
English
We are looking for a Senior Data Engineer with a strong background in data ingestion, transformation, and pipeline development. The ideal candidate will have expertise in Databricks, Snowflake, Python, and cloud platforms (preferably AWS), and will be comfortable working with large datasets and creating custom solutions.
Key Responsibilities:
Design, develop, and maintain data pipelines to handle large-scale data ingestion and transformation.
Work with Python and Spark to process and manipulate large datasets.
Implement cloud-based solutions using AWS.
Collaborate with cross-functional teams to understand data requirements and build efficient data systems.
Ensure data quality and performance in all solutions developed.
Build non-operational databases without disrupting platforms.
Profile Requirement:
Skills & Experience Required:
Minimum of 5 years of experience in Data Engineering (close to 10 years preferred).
Proficiency in Python, Snowflake, and Databricks.
Experience with cloud platforms (AWS preferred).
Knowledge of Spark is a plus.
Strong understanding of ETL processes and Big Data technologies.
Bilingual or English-speaking candidates preferred.
We value real-world experience and hands-on expertise over formal qualifications. If you are a team-focused professional with a passion for delivering impactful projects, we’d love to hear from you!