К вакансиям
Data Engineer

ETL Developer Middle+/Senior Remote

ID: 21756
15 часов назад
Активна
WILIX
Россия
200 000 ₽ - 250 000 ₽

Тип занятости

Полная занятость

Требуемый опыт

От 3 до 6 лет

Формат работы

Удаленная работа

📞Способы связи

📄 Оригинальный текст вакансии

#РФ #вакансия #удаленка #работа #python #hadoop #fulltime #middle+ #senior Позиция: Разработчик с опытом ETL Компания: WILIX Грейд: Middle+/ Senior Зарплата: 200к до 250к руб. Оформление: ТК РФ, ИП РФ Формат: удалённая работа Локация: Россия 🇷🇺 Гражданство кандидата: РФ 🇷🇺 Привлечение на проекте: от 6 месяцев Требования к специалисту: • Oracle/Hadoop/Teradata, SQL/Python/Spark/Hive, Airflow, Grafana/ SAS • Опыт разработки ETL-процессов с использование инструментов SAS от трех лет. • Опыт разработки ETL-процессов для Greenplum. • Опыт участия в проектах по созданию и развитию DWH. • Умение работать с Bash-скриптами. • Опыт промышленной разработки на Python. • Опыт участия в проектах по созданию и развитию Data Vault. Чем предстоит заниматься: Разработка: • Разработка архитектуры системы копирования данных. • Разработка архитектуры системы трансформации данных. • Настройка тестовой центральной ETL среды и тестовой МРР Greenplum. • Модуль управления (добавления) заданиями. • Разработка переноса таблиц staging в конечные таблицы хранилища. • Процесс создания view и плоских таблиц на основе мета данных для интеграции с другими системами. • Реализация ETL-процесса с копированием таблиц SAS. • Оптимизация производительности. • Проведение нагрузочного тестирования. • Адаптация разработанного функционала для переноса на продуктивный стенд. • Продуктивизация сборки витрин и создание интеграций с источниками по разработанным концепциям архитектуры. Документация: • Разработка приемо-сдаточной документации. • Согласование результатов на тестовом стенде. • Участие в приемо-сдаточных испытаниях. 💌Тг для связи: @wilix_contact

🛠 Навыки

computer programming
Data Warehouse
Hadoop
Oracle Relational Database
Python (computer programming)
SAS language
Spark
SQL
statistical analysis system software
Teradata Database

🤖 ИИ навыки

Apache Airflow
Apache Hive
computer programming
data extraction, transformation and loading tools
Data Integration
Data Warehouse
Grafana
Greenplum
Hadoop
maintain database performance
Oracle Relational Database
Python (computer programming)
SAS language
Spark
SQL
statistical modeling techniques
Teradata Database
test soil load bearing capacity

* Навыки определены автоматически с помощью нейросети

🤖 ИИ домены

Business Intelligence
Database Administration
Data Engineering
Software Development

* Домены определены автоматически с помощью нейросети

📢 Информация о публикации

🔗 Оригинальные посты (1)