Data engineer (Штаб СХ)

12 мая 2026 • г Москва • ПАО Сбербанк • IT: Data Science и Data Engineering

ИТ B2C — самая крупная экосистема в Сбере. Нас более 8000 человек в 18 городах России. Мы занимаемся разработкой и развитием розничных решений, помогая сделать сервисы Банка доступнее, безопаснее и удобнее.


 Ждем именно тебя!


Мы команда CORE-аналитики в штабе CX (как вы описываете роль СХ во «вне» я не в курсе, можно что-то вставить), выстраиваем работу с данными по характеристикам и действиям клиентов банка.

Ключевая роль данной позиции – создать и поддерживать слой данных (сырые данные, агрегированные, слой метрик) для работы дата аналитиков и автоматизации поставки данных в BI.

Обязанности
  • проектирование и разработка аналитического слоя: архитектура DWH (Inmon + Kimball), модели данных для Greenplum и Hadoop, миграция прототипов метрик, создание новых расчётов метрик «под ключ»
  • автоматизация и оркестрация: разработка Airflow DAG, оптимизация пайплайнов, автоматизация рутинных ETL-операций (трансформации, загрузки, очистка, отчёты)
  • качество и валидация данных: внедрение DQ-проверок (аномалии, null, типы, логические противоречия), построение мониторинга качества
  • поддержка, масштабирование и документация: сопровождение ETL и витрин, расширение системы под новые источники/метрики, документирование архитектуры, трансформаций и бизнес-правил
  • аналитическая составляющая: понимание смысла метрик, поиск инсайтов, клиентская аналитика (сбор, группировки, выводы, документирование), сотрудничество с BI-командой
  • обмен знаниями: передача знаний смежным аналитикам, разработка best practices для команды.
Требования
  • опыт построения ETL/ELT-пайплайнов от 2 -х лет
  • продвинутый SQL (сложные запросы, оптимизация, работа с большими объёмами)
  • опыт работы с Airflow или аналогами
  • уверенный Python (pandas, numpy, генераторы, ООП)
  • опыт работы с OLAP-хранилищами (Greenplum, ClickHouse, Vertica и пр.) и Hadoop-экосистемой (Spark, Hive, HDFS), понимание spark-конфигураций
  • понимание концепций DWH (витрины, измерения, факты, нормализация)
  • базовые знания DQ-проверок и валидации данных
  • владение Git.


Аналитические навыки:


статистика и математика: проверка гипотез, нормальное распределение, базовые статистические тесты

A/B-тестирование: теория, интерпретация результатов, проектирование (как плюс)

клиентская аналитика: сегментация, портреты пользователей, когортный анализ, расчёт retention/churn

способность находить инсайты в данных и объяснять их бизнесу.


Будет плюсом:


  • опыт в банковской сфере или Big Data-окружении
  • знание Linux и bash
  • опыт в машинном обучении (feature engineering, базовые модели)
  • знание Git workflows и концепций CI/CD
  • опыт создания собственных фреймворков или библиотек для обработки данных.
Условия
  • офисный формат работы
  • годовой бонус и ежегодный пересмотр
  • расширенный ДМС с первого дня + стоматология и льготное страхование для семьи
  • корпоративный университет Сбера, внутренняя образовательная платформа, участие в IT-конференциях
  • офис на Кутузовской c зонами отдыха и спортзалом
  • льготная ипотека в Сбере, корпоративная пенсионная программа, подписка СберПрайм+, скидки от партнеров и сервисов группы компаний.