Вообще все курсы Хекслета бесплатные! Но только до 15 декабря. Всё, что нужно → принять вызов

DataEngineer (Дата-инженер/Специалист по работе с данными)

Местоположение и тип занятости

Полный рабочий деньМожно удаленно

Компания

Одна из крупнейших страховых компаний в России

Описание вакансии

Условия работы

СГ«АльфаСтрахование», одна из лидирующих компаний на рынке страхования, приглашает DataEngineer в Департамент машинного обучения и работы с данными. Команда занимается задачами в области больших данных: обогащением данных профиля клиента, извлечением ценной информации из имеющихся данных в различных аспектах бизнеса, начиная от формирования наиболее оптимального приложения для клиента и заканчивая защитой бизнеса от мошенников с применением моделей машинного обучения. Является ответственной за Hadoop-стек в компании, строит современный Feature Store и развивает платформу машинного обучения, совершенствует текущую систему хранения и управления данными.

Мы ищем не просто специалиста, а партнера, соратника и товарища, который разделяет наши ценности в своей работе и будет рад работать вместе с нами.

Что предстоит делать:

  • Обеспечение качества и непрерывности поставки данных.
  • Трансформация данных.
  • Разработка новых data-пайплайнов с использованием Pyspark, Airflow.
  • Подготовка витрины данных, в том числе из сырых логов.

Бонусы

Что мы предлагаем:

  • Работу в профессиональной команде, которая готова делиться знаниями и опытом;
  • Прозрачную систему грейдов , возможность внешнего обучения и прокачки твоих скиллов за счет Компании;
  • Заботу о сотрудниках: возможность прохождения медицинских chek-апов, безлимитные бесплатные консультации с финансовыми консультантами, юристами и психологом. В компании поддерживается и развивается культура ЗОЖ;
  • Отличный социальный пакет, включающий ДМС, скидки на страховые продукты компании, скидки от наших партнеров (туризм, фитнес и т.д.);
  • Обеспечение техникой для работы (предлагаются варианты на выбор, также можно предложить свой);
  • График работы 5\2 (гибкое начало дня с 8 до 10);
  • Возможность удалённо работать из любой точки— главное, чтобы там был стабильный интернет. А если тебе захочется поработать из офиса - в твоём распоряжении комфортный офис в 3 минутах от станции метро Шаболовская.

Ждем ваши резюме в откликах!

Дополнительные инструкции

  • Уверенный Python и хорошие базовые знания SQL (JOIN, подзапросы)
  • Базовые знания стека Hadoop (HDFS, YARN, Hive) и Pyspark
  • Понимание принципов построения data-пайплайнов (kappa И lambda - архитектуры)
  • Знакомство с Kafka и Airflow, понимание их роли в data-пайплайне
  • Знание базовых команд Linux-консоли, git
  • Интерес к технологиям больших данных и большое желание учиться
  • Будет хорошо, если:
  • Знакомы с Apache Nifi или Streamsets
  • Имеете опыт разработки REST-сервисов на Python (Flask / FastAPI)

Стек технологий: Python, Hadoop, Hive, Pyspark + Airflow, Feast, Kafka, NiFi, Gitlab, Jira/Confluence, Docker, Grafana, командная коммуникация - Slack