Мы — agile-команда, создающая продукт автоматического Due Diligence, который трансформирует подход к диагностике и структурированию рисков корпоративной задолженности. Наша миссия — превращать сложные массивы финансовых и операционных данных в надежную основу для стратегических бизнес-решений.
Первый этап отбора на эту вакансию – общение с AI-рекрутером. После отклика вам на почту и в чат на платформе HeadHunter придет приглашение пройти первичное интервью с ГигаРекрутером в Telegram. Диалог займёт примерно 10 минут. Его задача — уточнить недостающие детали и ускорить рассмотрение вашей кандидатуры.
ГигаРекрутер только начинает свой путь, поэтому просим относиться с пониманием. Ваш опыт и участие помогут сделать его удобным и полезным!
• проектирование логических моделей, архитектуры витрин данных и сквозных etl-пайплайнов в экосистеме hadoop/spark
• разработка процессов обработки данных на scala/spark (rdd, dataframes, spark sql)
• организация интеграции источников данных (включая внешние api и bi-системы) в единое хранилище
• проведение код-ревью, формирование технических стандартов и выбор оптимальных архитектурных паттернов
• техническое наставничество junior-разработчиков и выступление ключевым контактом для смежных подразделений.
• опыт работы в data engineering от 3 лет с экспертным владением scala и продвинутым sql
• успешный опыт проектирования, разработки и вывода в production витрин данных в экосистеме hadoop (hive, spark)
• практические навыки профилирования и оптимизации spark-приложений (память, шардирование, работа с асимметричными данными)
будет плюсом:
• опыт работы с apache kafka и настройки devops-инфраструктуры для bigdata-проектов
• понимание основ машинного обучения и подтвержденный опыт технического лидерства или менторинга.