Ingénieur en streaming de données - développeur expérimenté
- Catégories
- Cloud computing
- Data Engineering
- Tags
- NiFi
- DevOps
- Pipeline
- Flink
- Kafka
- Spark [plus][moins]
Description du poste
En tant qu’ingénieur en streaming de données, vous intéragissez avec les métiers et les informaticiens (architectes, analystes fonctionnels, chefs de projets, data scientists, développeurs) pour construire des pipelines d’ingestion en temps réel.
Acheminer des données d’un point A à un point B n’est que le début du voyage. Dans cette architecture, la préparation des données comprend la qualification des données, l’enrichissement et l’analyse en temps réel. Vous travaillerez dans un environnement hybride, sur site et dans le cloud, avec des exigences élevées en matière de disponibilité et de sécurité.
Présentation de la société
Adaltas est spécialisé dans le traitement et le stockage de données. Nous opérons sur site et dans le cloud pour renforcer les équipes de nos clients dans les domaines de l’architecture, des opérations, de l’ingénierie des données, de la science des données et du DevOps. Partenaire Cloudera et Databricks, nous sommes également contributeurs open source. Nous vous invitons à parcourir notre site et nos nombreuses publications techniques.
Compétences requises
Vous devez avoir une expérience dans les architectures de streaming. Les technologies de base incluent Kafka, NiFi, Spark et Flink. Une bonne connaissance de Python est attendue. Une expérience en Java et Scala est un plus.
Nous avons plusieurs postes ouverts pour des profils de tous niveaux. Les certifications Cloudera, Databricks, Microsoft Azure, Amazon Aws et Google GCP ne sont pas obligatoires mais constituent un avantage pour les développeurs moins expérimentés.
De plus, nous sommes attentifs à toutes vos expériences complémentaires dont Hadoop, Infrastructure as Code, Data Science, Cloud Engineering, bases de données RDBMS et NoSQL, Kubernetes, traitement de flux, … A noter, des postes ouverts sont également disponibles dans ces domaines.
Responsabilités
- Prototyper, créer, déployer et exploiter des pipelines d’ingestion de données.
- Générer des KPI et rédaction de requêtes en temps réel.
- Appliquez les méthodologies DevOps à la gestion du code, à la collaboration, à l’automatisation et à la livraison des applications.
Informations Complémentaires
C’est l’opportunité de rejoindre l’une des entreprises les plus actives dans le domaine du big data en France et de travailler sur les technologies les plus prometteuses. Nous proposons des contrats à durée indéterminée. La rémunération est basée sur votre expérience et vos compétences.
Contact
Pour toute demande d’informations complémentaires et pour déposer votre candidature, merci de contacter David Worms :
- david@adaltas.com
- +33 6 76 88 72 13
- https://www.linkedin.com/in/david-worms/
A la recherche de nouveaux défis, n’hésitez pas à postuler pour rejoindre Adaltas. Vous n’avez pas trouvé d’offres qui vous correspondent mais devenir consultant au sein d’Adaltas est votre choix de carrière, faites une candidature spontanée.
Postes disponibles
Retour page carrièresDéveloppeur Python pour TDP, la plate-forme de données 100% libre
Devenir contributeur open source en participant au développement du serveur et du moteur de la plate-forme de données TDP.
Architecte Big Data sur CDP - développeur senior
Design and develop solutions including platform architecture, data ingestion, data lakehouse architecture and data science usages.
Administrateur big data Cloudera CDP - développeur expérimenté
Déployer et exploiter des clusters big data basés sur la plateforme Cloudera CDP.
Data Engineer Databricks and Azure - niveau expérimenté
Collaborer avec les data engineers, les analystes et les data scientists pour répondre aux attentes des métiers sur les plateformes Databricks et Azure.
Développeur de TDP, la data platform open source
Deploy and operate of big data clusters based on the Cloudera CDP platform.