Архитектор данных
Зарплата
Требования
Местоположение и тип занятости
Компания
Описание вакансии
Условия работы
ЕАПТЕКА – одна из крупнейших интернет-аптек в России*. Мы меняем индустрию, чтобы сделать здоровье доступным для всех
Сейчас компания работает по всей России от Калининграда до Владивостока. Собственная сеть аптек - хабов превышает 100, а сеть пунктов самовывоза – 10 000.
Сервис федерального масштаба в сегменте e-pharm строит сильная ИТ команда, разрабатывая надежную технологическую платформу, которая помогает клиентам заказывать лекарства и товары для здоровья онлайн.
Мы ждем в команде ответственных, проактивных и надежных людей, чтобы вместе развивать сервис, который делает жизнь лучше.
Сейчас есть классическое DWH на базе MSSQL и платформа данных в Google Cloud (BigQuery), хотим в Q1 2023 году стартовать создание единой платформы данных с внедрением модулей и технологий BigData на базе open source инструментов для решения новых задач бизнеса на базе одного из облачных провайдеров.
Стек: Scala, Python, Hadoop, Spark / PySpark, Kafka, Airflow, Docker, SQL
🔗 Чем предстоит заниматься?
— Разрабатывать и внедрять архитектурные стандарты, руководства, паттерны прикладных архитектур, сопровождать их реализацию периодически взаимодействовать с командами внутри ИТ;
— Создать целевую архитектуру платформы данных (потоки данных, механизмы интеграций, создание модели данных);
— Контролировать и актуализировать информацию по общей модели данных EAPTEKA;
— Проектировать интерфейсы взаимодействия платформы данных с внутренними и внешними системами (источниками и потребителями);
— Формировать требования к развитию инфраструктуры;
— Описывать архитектуры данных в специализированном инструменте;
— Запуск и проведение MVP и PoC технологических и архитектурных решений связанных с данными;
— Экспертная поддержка и сопровождение команд разработки по архитектурным вопросам с данными.
🔗 Что бы мы хотели видеть в нашем сотруднике?
— Глубокие знания практик и технологий Data management, DWH/BI, Big Data и Data streaming;
— Навыки проектирования моделей данных;
— Проектный опыт разработки архитектуры решений классов Data Lake на базе Hadoop (батч, микробатч, стриминг) и Data Warehouse (от 3-х лет);
— Проектный опыт в проектировании модели данных (логический и физический уровень), оптимизации механизмов интеграций с использованием различных СУБД (Postgres, MSSQL, MySQL) и MPP (Greenplum);
— Знания основных структур данных и особенностей их хранения;
— Проектный опыт использования Kafka Cluster, как основного источника для загрузки данных в Raw Data Layer;
— Знания Scala или Python (от 3-х лет) и готовность периодически смотреть код.
Бонусы
🔗 От нас:
— Официальное трудоустройство, белая зп;
— Работа в аккредитованной ИТ компании;
— Гибридный/удаленный график работы;
— ДМС со стоматологией в лучших клиниках города;
— Возможность развития в крупной компании;
— Современная техника на выбор;
— Опыт работы в команде профессионалов.