Middle Big Data Engineer
В архиве с 12 апреля 2018
Требуемый опыт работы: 1–3 года
Полная занятость, полный день
Москва, Чистые пруды
Вакансия в архиве
Работодатель, вероятно, уже нашел нужного кандидата и больше не принимает отклики на эту вакансию
Похожие вакансии
Опыт от 1 года до 3 лет
Разработкой и поддержкой витрин данных на BigData технологиях в кластере Hadoop. Проектированием и разработкой ETL-потоков с использованием Java, Spark.
Уверенные знания SQL. Знание Java Core + Spring, Spark. Опыт работы с Hadoop, понимание архитектуры и инструментов кластера.
Работодатель сейчас онлайн
Опыт от 3 до 6 лет
Проектирование, разработка и поддержка витрины данных для целей маркетинговых промо-кампаний. Операционализация моделей машинного обучения от команды DS.
Знания SQL. Опыт работы с Docker обязателен. Понимание жизненного цикла разработки ПО, культуры CI/CD. Опыт создания и оптимизации Spark...
Опыт от 1 года до 3 лет
Интегрировать разные источники корпоративных хранилищ. Реализовывать крутые и большие проекты для разных команд. Участвовать в активной жизни нашего коммьюнити.
Знания принципов работы БД, построения ХД. Опыт разработки ETL процессов. Имеет опыт работы с системами контроля версий (Git).
Москва, Баррикадная и еще 2
Опыт от 3 до 6 лет
Внедрение ETL-процессов на Airflow. Создание витрин данных. Участие в построении DWH. Участие в проектировании модели данных. Администрирование существующих BI...
Уверенное знание SQL. Знание Python. Умение организовывать ETL-процессы. Опыт построения DWH. Опыт проектирования модели данных. Опыт работы с большими...
Москва
Опыт от 3 до 6 лет
Можно из дома
Анализировать источники данных. Создавать процессы интеграции данных в DWH. Создавать процессы обновления данных внутри DWH. Помогать аналитикам с созданием витрин.
Опыт работы в DWH, Python, SQL в совершенстве. Понимание архитектуры построения хранилищ. Знание отличия Anchor от Data Vault.
Опыт от 3 до 6 лет
Загружать и обрабатывать в DWH данных внутренних и внешних систем (стек Kafka, PySpark, Hadoop, Clickhouse, AirFlow). Принимать участие в построении...
Опыт обработки больших данных, знание принципов работы БД и методологий моделирования. Продвинутый уровень владения Spark, Python, Apache AirFlow, SQL.
Москва, Чистые пруды