Data Engineer developing and maintaining ETL processes using Azure Data Factory and Snowflake. Collaborating with teams to ensure reliable data for analytical purposes.
Responsibilities
Diseñar, desarrollar y mantener pipelines en Azure Data Factory para ingesta y movimiento de datos desde bases de datos, ficheros, APIs y entornos cloud.
Implementar procesos de transformación y carga hacia Snowflake, siguiendo buenas prácticas de arquitectura por capas (raw, staging y modelo final).
Construir transformaciones en Snowflake mediante SQL, adaptadas a requisitos funcionales.
Definir e implementar estrategias de carga incremental y control de cambios.
Monitorizar los procesos ETL, identificar incidencias y colaborar en su resolución.
Colaborar con equipos funcionales y de BI para traducir requerimientos de negocio en soluciones técnicas.
Contribuir a la documentación técnica y a la mejora continua de los estándares de desarrollo.
Requirements
Experiencia de 2 a 4 años en desarrollo ETL o integración de datos en entornos cloud.
Experiencia práctica en Azure Data Factory (diseño y mantenimiento de pipelines).
Conocimientos sólidos de SQL para transformación y manipulación de datos.
Experiencia con Snowflake u otras bases de datos analíticas.
Conocimientos básicos de arquitectura de datos: Data Warehouse, ETL/ELT y modelado de datos.
Orientación a la calidad del dato, trabajo estructurado y atención al detalle.
Experiencia en proyectos con impacto directo en reporting o análisis.
Familiaridad con entornos Azure.
Conocimientos básicos de Git o metodologías colaborativas.
Motivación por continuar desarrollándote en Data Engineering.
Benefits
Participación en proyectos corporativos globales y de alto impacto.
Equipo diverso que valora la colaboración y el aprendizaje continuo.
Flexibilidad y conciliación: teletrabajo parcial, horario flexible y jornada intensiva los viernes y en julio y agosto.
Plan de formación continua: idiomas, formación técnica y certificaciones.
Plan de carrera individualizado y autonomía para impulsar nuevas iniciativas.
Programa de retribución flexible: guardería, restaurante, transporte, seguro médico.
Descuentos exclusivos en tecnología, ocio y viajes.
Participación en iniciativas solidarias y medioambientales.
Presencia internacional en 45 países con oportunidades de movilidad.
As a Principal Data Architect at Solstice, lead the design and implementation of data architecture solutions. Ensure data integrity, security, and accessibility to meet strategic organizational goals.
Data Platform Specialist overseeing data workflows and enhancing data quality for Stackgini's AI - driven IT solutions. Collaborating with teams to drive improvements and stakeholder support.
Data Engineer designing data pipelines in Python for a major railway industry client. Collaborate with Data Scientists and ensure code quality with agile methodologies.
Senior Data Engineer responsible for building and optimizing data pipelines for banking analytics initiatives. Collaborating with data teams to ensure data quality and readiness for enterprise use.
Senior Data Engineer developing scalable data solutions on Databricks for analytics and operational workloads. Collaborating with cross - functional teams to modernize the data ecosystem.
Data Engineer focused on analytics and data pipeline development for network optimisation. Collaborating with teams to deliver high - quality data solutions with Python and SQL.
Senior Product Manager defining platform capabilities for Data Cloud in Salesforce. Collaborating with R&D teams while shaping product strategy for Data 360 integration.
Senior Data Engineer at Goodwin enhancing data platforms and fostering data - driven culture across teams. Collaborating with IT and Finance on technology solutions and data governance practices.
Director, Data Platform Design and Strategy at MedImpact leading data platform and AI innovations to enhance healthcare services. Overseeing enterprise projects and managing teams to meet strategic goals.
Data Engineer delivering AI - and data - driven solutions for Honeywell’s industrial customers. Architecting and implementing scalable data pipelines and platforms focused on IoT and real - time data processing.