Data analytics

20 апреля 2026 • г Москва • ПАО Сбербанк • IT: Data Science и Data Engineering

Мы — команда GigaSearch, создаём поисковый сервис, который отвечает на запросы пользователей на естественном языке. Наша миссия: дать GigaChat доступ к актуальной информации, чтобы пользователи получали точные ответы на любые вопросы — включая самые свежие новости и события.

Инженер данных в нашей команде — это человек, который строит “платформу качества”: собирает и сводит данные из разных источников, делает витрины и датасеты для оценки, автоматизирует пайплайны и мониторинг, в том числе — в реальном времени, чтобы деградации находились быстрее, чем их увидят пользователи.

Если вам интересно работать на стыке data engineering, продуктовой аналитики и поиска — и вы хотите не просто “переливать данные”, а делать инфраструктуру, на которой стоит культура качества AI-продукта — приходите к нам.


Над чем мы работаем:

  • единая модель данных для оценки качества ретривера и итогового ответа LLM на продакшн-трафике
  • медальонная архитектура в ClickHouse: bronze (raw) → silver (очищено/нормализовано) → gold (витрины под метрики и мониторинг)
  • автоматические пайплайны оценки и переоценки качества (включая LLM-as-a-judge) и их воспроизводимость
  • витрины и датасеты для оффлайн/онлайн-оценки, A/B-экспериментов и расследований деградаций
  • мониторинг качества данных на потоке: свежесть, полнота, задержки, аномалии, регрессии.
Обязанности
  • проектировать и поддерживать ELT/ETL пайплайны в Airflow (надёжность, идемпотентность, ретраи, backfill, SLA)
  • организовать ingestion между БД с понятными контрактами данных
  • развивать медальонные слои в ClickHouse: raw-таблицы, нормализация/обогащение, gold-витрины под метрики качества поиска
  • делать аналитику “почти real-time” в ClickHouse: инкрементальные расчёты, материализованные представления, предагрегации, оптимизация задержек end-to-end
  • разрабатывать витрины и агрегаты: партиционирование, ключи сортировки, управление TTL, контроль стоимости запросов и времени ответа.
Требования
  • опыт в analytics engineering от 3 лет (уровень middle+ / senior)
  • очень сильный SQL и практический опыт построения витрин (ClickHouse и/или PostgreSQL; оконные функции, сложные агрегации, оптимизация)
  • уверенный Python для задач ETL/ELT (парсинг, валидация, интеграции, утилиты для пайплайнов)
  • опыт с Airflow в проде (DAG design, зависимости, эксплуатация, backfill)
  • хорошее понимание архитектуры данных и жизненного цикла датасетов (raw → нормализация → витрины), умение делать решения поддерживаемыми.
Условия
  • комфортный современный офис рядом с м. Кутузовская
  • гибридный формат работы (2-3 дня в неделю - работаем из дома)
  • ежегодный пересмотр зарплаты, годовая премия
  • корпоративный спортзал и зоны отдыха
  • система обучения для профессионального и карьерного развития
  • расширенный полис ДМС с первого дня работы и страхование для семьи
  • программа ипотеки для сотрудников
  • бесплатная подписка СберПрайм+, скидки на продукты компаний-партнеров
  • вознаграждение за рекомендацию друзей в команду Сбера.