Data Engineer developing and maintaining robust data pipelines using PySpark and Airflow at Logcomex. Collaborating with product teams to ensure data quality and governance.
Responsibilities
Desenvolver e manter pipelines de dados robustos, escaláveis e testáveis utilizando PySpark e Airflow.
Projetar e implementar processos de ingestão e transformação de dados para alimentar o datalake em arquitetura de camadas (Bronze, Silver, Gold).
Atuar com controle de qualidade de dados, documentação e gestão de linhagem utilizando OpenMetadata.
Trabalhar em conjunto com os squads de produto e captura para garantir a consistência e cobertura dos dados.
Garantir a governança de dados, versionamento e auditoria das pipelines em produção.
Otimizar rotinas de ETL/ELT e desempenho de queries em bancos relacionais, data warehouses e motores como Elasticsearch e Athena.
Requirements
Procuramos pessoas com conhecimento em...
PySpark
Apache Airflow
AWS S3, Glue, Athena, EC2
SQL (Athena, PostgreSQL)
Elasticsearch/OpenSearch
Docker
Pandas
Jupyter
Unix (Linux), Bash
DBT
Será legal se você conhecer...
Glue
Delta Lake
Kubernetes
NoSQL
Elasticsearch
Airbyte
Benefits
Benefícios Caju no valor fixo de R$2.300,00 mês (CWB e RMC) ou R$ 1.840,00 (Demais regiões) (alimentação, mobilidade, saldo multi e auxílio home office);
Plano de saúde Unimed ou Amil com abrangência Nacional;
Plano odontológico Odontoprev;
Seguro de vida - Metlife;
Wellhub;
Keikein (plataforma de apoio psicológico);
Convênio farmácia Panvel;
Licença maternidade e paternidade estendida pelo Programa Empresa Cidadã;
Subsídio para desenvolvimento, em parceria com a Unico Skill, que oferece diversas opções de graduação, pós-graduação, idiomas, mentorias, etc;
Aulas de inglês particulares para liderança e especs nível II para cima;
Auxilio Escola/Educação.
Frutas frescas, cookies, café, chá e energéticos disponíveis a qualquer momento;
Happy hours, eventos de integração e team buildings;
Viagens para o escritório dos Loggers de fora são custeadas pela empresa;
Sem dress code: aqui você pode ser você e usar o que te deixa mais confortável;
Ambiente descontraído, cheio de desafios e campeonatos de videogame; Rede de descanso para um respiro no meio da correria do dia
Biblioteca da Log com livros incríveis para todos os Loggers se desenvolverem;
Massagem in company;
Day-off de aniversário;
Presente de aniversário;
Presentes incríveis a cada ano de Logger;
Recruta Loggers (programa de indicação com bonificação $).
Data Engineer responsible for building and maintaining AWS Lakehouse infrastructure for trade contractors at Remarcable. Focused on clean data architecture and AI/ML data infrastructure.
Data Engineer/Analyst maintaining and improving data infrastructure for Braiins. Collaborating with technical and business teams to ensure reliable data flows and insights.
Medior Data Engineer handling Azure migrations for a major urban mobility client. Focused on data pipeline development and ensuring platform reliability with cutting - edge technologies.
Developing ML and computer vision solutions for cutting - edge autonomous vehicle dataset pipeline at Mobileye. Collaborating across teams for data curation and advanced perception algorithms.
Data Migration Lead in a hybrid role managing data migration for a major transformation programme in the media sector. Collaborating with various teams to ensure data integrity and successful migration.
Consultant ML & DataOps at Smile integrating data science projects for major clients. Designing MLOps solutions and enhancing data governance in a collaborative environment.
Data Engineer developing and maintaining data pipelines for Coolbet’s analytical services. Working within an Agile framework to ensure data reliability and efficiency.
API Data Engineer developing innovative data - driven solutions and advancing data architecture for AI Control Tower. Building and integrating APIs and data pipelines to support organizational needs.
Journeyman Data Architect supporting Leidos' enterprise data and analytics program for the Department of War. Collaborating on solutions for data architecture, cloud environments, and governance.