С 19 января 2026 мы повышаем цены на Хабр Карьере. А ещё — оптимизируем список услуг, доступных для компаний.
С 19 января 2026 мы повышаем цены на Хабр Карьере. А ещё — оптимизируем список услуг, доступных для компаний.
Начинал путь в ИТ со стажировки в МТС Digital, где занимался разметкой данных и разработкой моделей компьютерного зрения. После стажировки продолжил работать в команде машинного обучения, занимаясь проектами на базе YOLO, CRNN, ResNet и mBART.
Последние полтора года специализируюсь на Data Engineering: разрабатываю и поддерживаю ETL/ELT пайплайны на Airflow, агрегирую данные из различных источников и строю витрины данных в ClickHouse. Работаю в связке с BI-аналитиками, поддерживаю документацию и участвую в развитии архитектуры DWH.
На текущем проекте занимался созданием витрины данных “Умного Дома”, которая агрегировала данные об активности пользователей. На основе этой витрины бизнес мог анализировать вовлечённость пользователей: частоту входов, популярные сценарии использования, количество и разнообразие устройств. Эти данные использовались для построения BI-дэшбордов, которые помогали продуктовой команде принимать решения по развитию сервиса, улучшению клиентского опыта и таргетингу новых функций.
Мне нравится решать новые для себя задачи и разбираться в незнакомых технологиях — особенно приятно, когда удаётся разобраться и помочь другим. Стремлюсь развиваться в направлении Data Engineering, наращивать экспертизу и расти до уровня Senior.
Рассматриваю предложения в Москве и Московской области, готов к новым вызовам.


Выберите навык, чтобы посмотреть, какие тесты специалист уже прошел.
Пока только приступил к работе и еще не заполнил обязанности и достижения.
В команде машинного обучения:
- Размечал данные для системы по детектированию объектов на изображении (Bounding Box);
- Автоматизировал выгрузку/загрузку датасетов через API;
- Создал систему на PyTorch из нескольких моделей компьютерного зрения для локализации и дальнейшего распознавания текста на изображении с возможностью взаимодействия со всей системой через Telegram бота;
- Разработал и оптимизировал пайплайн обработки сырых текстовых данных для LLM модели;
- Оптимизировал и дообучал трансформер модель на основе mBART для суммаризации текста;
Как Data Engineer:
- Разрабатывал и внедрял ETL/ELT пайплайны для обработки и агрегации данных из GitLab REST API, Microsoft SQL,
- RabbitMQ, Kafka, используя Apache Airflow;
- Выполнял загрузку и трансформацию данных в рамках работы с витринами данных (DWH), используя ClickHouse в качестве основного хранилища;
- Участвовал в развитии и поддержке архитектуры DWH, включая подключение новых источников данных и оптимизацию существующих процессов;
- Работал с пакетной (batch) обработкой данных;
- Взаимодействовал с BI-аналитиком: передача данных, согласование витрин, обеспечение совместимости с дашбордами;
- Участвовал в анализе требований и поддержке бизнес-команды в вопросах, связанных с данными;
- Вёл техническую документацию по пайплайнам и структурам данных; Использовал GitLab для управления кодом и CI/CD.
Выполнял практические задачи.
Проводил обработку сырых данных, построение моделей и визуализацию полученных данных.
Выполнял задания по кластеризации, классификации и восстановлению регрессии.
Выдвигал и проверял гипотезы, используя численные метрики.
Использовал алгоритм Random Forest для обучения моделей.
Использовал Cross Validation для оценки качества обученной модели.
Специализация - Моделирование и информационные технологии проектирования дистанционно-пилотируемых летательных аппаратов.
Участвовал в научно-исследовательской деятельности.
Создал стартап с сервисом для проектирования квадрокоптеров.
Закончил 5 курсов специализации из 6:
Аттестационная работа по теме - Стартап по перевозке грузов до 150 кг с использованием БПЛА