Провести аудит поточної архітектури даних, виявити вузькі місця та визначити зони для оптимізації;
Побудувати ефективні ETL/ELT-процеси для забезпечення стабільності, прозорості та швидкості обробки даних;
Оптимізувати структуру таблиць і сховищ під запити команд аналітики, маркетингу та продукту;
Створити надійний фундамент для аналітики;
Взаємодіяти з аналітиками для впровадження технічних рішень, що забезпечують надійне та ефективне використання даних.
Requirements
Досвід роботи від 3 років у ролі Data Engineer;
Досвід роботи з базами даних та аналітичними сховищами: впевнене володіння PostgreSQL та Amazon Redshift; здатність проєктувати й оптимізувати DWH та data-lake/delta-lake.
Вміння обирати відповідний тип бази даних (OLTP чи OLAP) залежно від характеру задачі та бізнес-потреб;
Практичний досвід роботи з AWS сервісами — S3, Glue, Athena та іншими сервісами для обробки й зберігання великих обсягів даних;
Досвід програмування (Python) та глибокі знання SQL для ефективної обробки, трансформації й аналізу даних;
Досвід побудови ETL/ELT пайплайнів та роботи з оркестраторами (Airflow або подібними);
Nice to have:
Досвід з Tableau, dbt, PySpark та streaming‑інструментами обробки даних.
Benefits
Відпочинок та баланс. Найкращі результати досягаються в гармонії з особистим життям, тому ми надаємо 20 робочих днів відпустки на рік і двічі на рік — додаткові оплачувані канікули для перезавантаження. У разі хвороби - необмежені оплачувані лікарняні, щоб зосередитися на відновленні.
Здоров’я та спорт. Повністю покриваємо медичне страхування з першого робочого місяця. Для підтримки активного способу життя організовуємо корпоративні тренування з йоги, боксу та функціональних вправ в офісі, додатково також кожен спеціаліст має власний бюджет на компенсацію вартості абонемента чи спортивного обладнання. В офісі на тебе щоденно чекають сніданки та обіди, щоб ти міг/могла зосередитися на роботі.
Розвиток та навчання. Твій розвиток — це інвестиція у твоє майбутнє та майбутнє компанії. Ми складаємо індивідуальні плани розвитку та проводимо регулярну оцінку перформансу. Компанія покриває більшу частину витрат на зовнішні курси, а також надає можливість покращувати знання англійської через корпоративного провайдера або в зовнішній школі.
Data Engineer building solutions on AWS for high - performance data processing. Leading initiatives in data architecture and analytics for operational support.
Senior Data Engineer overseeing Databricks platform integrity, optimizing data practices for efficient usage. Leading teams on compliance while mentoring a junior Data Engineer.
Associate Data Engineer contributing to software applications development and maintenance using Python. Collaborating with teams for clean coding and debugging practices in Pune, India.
Lead Data Engineer responsible for delivering scalable cloud - based data solutions and managing cross - functional teams. Collaborating with global stakeholders and ensuring high - quality project execution in a fast - paced environment.
Data Engineer focusing on development and optimization of data pipelines in an insurance context. Ensuring data integrity and supporting data - driven decision - making processes.
Data Engineer designing and implementing data pipelines and services for Ford Pro analytics. Working with diverse teams and technologies to drive data - driven solutions.
Full Stack Data Engineer on a Central Engineering Portfolio Team in Chennai delivering curated data products and collaborating with data engineers and product owners.
Data Engineer developing best - in - class data platforms for ClearBank with a focus on data insights and automation. Collaborating closely with stakeholders and supporting data science initiatives.
Data Engineer operating cloud - based data platform for Business Intelligence and Data Science. Collaborating on data architectures and ETL processes for Sparkassen - Finanzgruppe.
Data Engineer at Love, Bonito optimizing data pipelines and ensuring data quality for analytics. Collaborating on data architecture, operations, and compliance for effective data management.