Senior Data Scientist (Pricing)

Местоположение и тип занятости

МоскваПолный рабочий день

Описание вакансии

О компании и команде

Мы в поиске Data Scientist в команду Pricing.

Чем предстоит заниматься:

  • Развивать систему динамического ценообразования;
  • Использовать модели эластичности в других бизнес продуктах: ранжирование и рекомендация цен поставщикам;
  • Решение задач по пополнению стока, мэтчингу конкурентов, промо и персональному ценообразованию;
  • Предлагать новые инициативы связанные с персональным ценообразованием, промо моделированием и прогнозированием бюджета.

Стэк технологий: Big data (Hadoop, PySpark, Hive), Python, Catboost, Airflow, Docker, SQL, PyTorch.

Почему у нас классно:

  • Хорошо выстроенные процессы: квартальное планирование по методологии OKR, двухнедельные спринты, регулярные стендапы и проектные встречи для синхронизации.
  • Сильная команда middle и senior специалистов, развитое DS-сообщество, где есть возможность обмениваться знаниями на внутренних митапах
  • У нас представлен полный жизненный цикл разработки data-driven продуктов с применением ML — от идеи и генерации гипотез до запуска АБ тестов. В части разработки онлайн-сервисов и деплоя моделей нам помогает команда инженеров.

Ожидания от кандидата

Мы ожидаем:

  • Опыт в области анализа данных и машинного обучения (от 2 лет);
  • Опыт работы с SQL, Hadoop, Hive, Spark;
  • Владение Python, Linux, методами работы с большими данными;
  • Опыт работы как минимум с 2 ML библиотеками: Scikit-learn, CatBoost/XGBoost, PyTorch, Spark ML;
  • Знания теории вероятностей и математической статистики;
  • Знания в области машинного обучения, прогнозного моделирования и методов статистического анализа;
  • Знание алгоритмов и структур данных;
  • Высшее образование в области прикладной математики, информационных технологий, информатики и т.п;
  • Английский язык на уровне технического чтения.

Условия работы

Как мы работаем:

  • Пишем на Python 3.6+ и PySpark 3.0;
  • Для ресерча доступны два сервера (80 cores, 650Gb RAM), на которых развернут JupyrerHub и есть доступ к Hadoop-кластеру;
  • Код с логикой ML-пайплайнов упаковываем в Docker и выкатываем, используя CI/CD-инструменты с запуском code style проверок и тестов;
  • Используем Airflow для управления ML-пайплайнами и запуском их по расписанию;
  • В командах есть культура code review как для изменений по части продакшен-пайплайнов, так и для ресерч-задач;
  • Регулярно проводим командные брейнштормы с целью генерации новых идей по развитию наших data-driven продуктов;
  • В компании внедрена культура принятия решений на основании данных и все изменения тестируем через АБ-эксперименты.