DevOps (аналитическая платформа)
Требования
Местоположение и тип занятости
Компания
Описание вакансии
О компании и команде
ИТ-Холдинг Т1 — один из лидеров российского ИТ-рынка, партнёр ключевых производителей и разработчиков в сфере ИТ. По версии аналитических агентств CNews Analytics, TAdviser и RAEX, мы входим в топ-3 крупнейших российских ИТ-компаний. В нашем портфеле уже 70+ востребованных на рынке ИТ‑продуктов и услуг, ключевые – внесены в ЕРРП (реестр российского ПО).
В Т1 стабильность и финансовая надежность, а также социальные гарантии гармонично сочетаются с преимуществами ИТ‑компании — открытостью, инновациями и гибридным форматом работы.
Мы стремительно растём, масштабируемся и ищем новых специалистов в команду!
Мы в поисках специалиста на проект искусственного интеллекта - развитие и сопровождение продуктов на основе больших данных и искусственного интеллекта.
Задачи, которые мы предлагаем:
- Развертывание и настройка ПО сред разработки и тестирования;
- Автоматизация жизненного цикла исходного кода и баз данных;
- Разработка CI/CD-пайплайнов;
- Коммуникация с ответственными лицами и службами заказчика и поставщиков решений (вендоров) и инфраструктуры;
- Документирование требований и результатов работы;
- Участие в разработке проектных документов этапов проектирования, разработки и эксплуатации;
- Сопровождение инфраструктуры решения в качестве инженера.
Ожидания от кандидата
- Практический опыт работы в роли DevOps инженера или администратора СУБД (DBA);
- Знание Linux на уровне не ниже опытного пользователя, навыки написания shell (sh, bash, и т.п.) скриптов;
- Опыт работы с реляционными СУБД (PostgreSQL, Greenplum, ClickHouse, Oracle, Teradata, MS SQL);
- Навыки администрирования реляционных СУБД, включая использование SQL для решения задач 07.10.2024DBA;
- Опыт работы с инструментами управления конфигурациями (Ansible, Terraform); Опыт создания пайплайнов CI/CD (Jenkins, Gitlab);
- Навыки работы с контейнерами (Docker, Podman, Kubernetes);
Как плюс:
- Высшее образование в сфере ИТ;
- Опыт работы с потоковыми процессами и брокерами сообщений (NiFi, Kafka, Airflow);
- Опыт работы со стеком Apache Hadoop (Hive, Impala, Spark);
- Опыт работы с брокерами сообщений (Apache Kafka, RabbitMQ);
- Опыт работы и решения задач оркестрации (Apache Airflow или альтернативы) процессов обработки данных;
Условия работы
- принять участие в создании перспективных и масштабных продуктов/проектов, использовать лучшие современные практики и технологии;
- гибкий формат работы — в офисе, удаленно или в гибридном формате;
- программа добровольного медицинского страхования;
- широкие возможности внутреннего и внешнего обучения, корпоративные онлайн библиотеки;
- Сервис привилегий от 100+ партнёров на покупку техники, занятия спортом и иностранными языками, концерты, отели, SPA и др. А также развитая программа компенсации и маркетплейс мерча с собственной корпоративной валютой.
- необходимая техника и софт для работы;
- конкурентная зарплата по итогам интервью и оформление по ТК.