DevOps Engineer на продукт Data Virtualization (DataOps Platform)

Местоположение и тип занятости

МоскваПолный рабочий деньМожно удаленно

Компания

Крупнейшая телекоммуникационная и ведущая ИТ-компания

Описание вакансии

Условия работы

Big Data в МТС – место, где телеком данные превращаются в реально работающие IT-продукты. Мы создали и протестировали несколько десятков сервисов. Самые успешные из них уже стали частью экосистемы МТС. Например, МТС Маркетолог, рекомендации в KION (МТС ТВ), услуга “Кто звонит?” или Спам blacklist.

Кого мы ищем?

DevOps Engineer на продукт Data Virtualization

Команда продукта Data Virtualization разрабатывает единый движок для выполнения SQL запросов к различным базам данных внутри группы компаний МТС. Задача продукта - предоставлять различным группам пользователей выполнять ad-hoc запрос к самым разным СУБД из единого интерфейса!

Что нужно делать

  • поддерживать разработку backend приложений (REST API)
  • настраивать систему мониторинга вокруг продукта
  • автоматизировать разворачивание различных сред продукта
  • участвовать в создании современной платформы больших данных

Бонусы

  • График работы: плавающее начало рабочего дня, гибридный график (или возможность работать из дома)
  • ДМС, куда включены: стоматология, страхование жизни и страховка при поездках за рубеж
  • Десятки курсов и тренингов в Корпоративном университете МТС и Собственная виртуальная библиотека
  • Корпоративный психолог и карьерный коуч
  • Спорт: компенсация фитнес-абонемента, бассейна, скидка в «Alex fitness», «Spirit fitness», «World class» и др
  • Бесплатная сотовая связь, выгодные тарифы для ваших близких, промокод на онлайн-кинотеатр KION и бесплатная подписка на МТС Premium
  • Программа «Invite IT» (реферальная программа поощрения за рекомендацию ИТ-специалиста)

Дополнительные инструкции

Обязательно:

  • знание JVM и опыт сборки/дистрибуции JVM-приложений (наш технологический стек: Java, Gradle, Spring)
  • навыки построения и обслуживания систем мониторинга (Prometheus, Grafana) и логирования (ELK/EFK), умение определить ключевые метрики качества и производительности сервисов
  • навыки работы с реляционными базами данных и NoSQL базами данных
  • опыт работы с Big Data стеком (наш технологический стек: Kafka, Hadoop, Spark, HBase, Hive), понимание архитектур и назначения Big Data систем