Если карьера складывается не так, как хотелось бы
Стратегии развития, полезные знакомства, обмен опытом → Карьерный онлайн-фест

Big Data / ETL Engineer

Зарплата

от 300 000 до 450 000 ₽

Местоположение и тип занятости

Полный рабочий деньМожно удаленно

Компания

Описание вакансии

О компании и команде

Мы — Oracul. Мы строим инфраструктуру для ончейн-аналитики, автоматического ресёрча и генерации торговых стратегий. Никакой бюрократии, никаких менеджеров ради менеджеров — только инженерка, архитектура и железная дисциплина.

Сейчас усиливаем ядро команды — ищем Data Engineera, который понимает данные, умеет строить пайплайны, знает, как масштабировать аналитику и может довести это до рабочего состояния. Работа с настоящей бигдатой, ончейном и реальной нагрузкой.

Проекты:

  • собственный граф-движок на ClickHouse
  • профилирование кошельков и расчёт альф по поведению
  • автоматизация ресёрча (алгоритмы сами находят корреляции, аномалии, точки входа)
  • инфраструктура под запуск и тест стратегий

Кодим на Rust, режем данные в ClickHouse, общаемся по gRPC, разбираем EVM на атомы

Ты подходишь, если ты:

  • самостоятелен (умеешь планировать, не нужен надзиратель)
  • системный (понимаешь, как устроено то, что строишь)
  • умеешь доводить до конца, не бросаешь на “почти MVP”
  • хочешь писать аккуратный, проверяемый, быстрый код

Обязательные навыки:

  • ClickHouse (шардинг, репликация, агрегирующие движки, партиции, TTL, оптимизация)
  • Опыт работы с бигдатой (ТБ+, миллиарды строк)
  • Python (pandas/numpy) + создание и поддержка ETL/ELT-пайплайнов
  • Оркестрация данных: Apache Airflow (DAG, Sensors, Operators, XCom)
  • Опыт применения на практике алгоритмов для отслеживания выбросов: статистические (z-score, iqr, q-test), машинное обучение без учителя (DBSCAN / HDBSCAN, Isolation Forest)
  • Интеграция с потоковыми/сырьевыми данными: Kafka или аналог, ingestion → трансформация → загрузка
  • Работа с ончейн-данными: события блокчейна, calldata, трейсы, Web3 API
  • Архитектурная дисциплина: понимание схем данных, partitioning, latency/throughput, мониторинг и качество данных
  • Контейнеризация, CI/CD, автоматизация развёртываний

Будет плюсом:

  • Rust (или готовность изучать)
  • Kafka / Prefect / Arrow / Parquet
  • Опыт продакшена с ончейн-аналитикой или трейдинг-данными
  • DDD / CQRS / event-sourcing — если интересуешься архитектурой
  • Активный GitHub / pet-проекты в data-инженерии

Условия работы

  • гибкий график
  • удалёнка
  • контракт с UAE-компанией или самозанятость
  • оплата в USDT, BTC, ETH или как тебе удобно
  • испытательный срок — до 2х месяцев (можно закрыть быстрее)
  • нормальный темп без факапов и цейтнотов

Бонусы

  • оплачиваем GPT, Claude, JetBrains
  • внутренняя передача знаний по ончейн-рынку и аналитике
  • шанс пойти в параллельные проекты
  • после года — доступ к экспериментальным продуктам

Дополнительные инструкции

  1. Сделай две доски на Pinterest:
  • moodboard — 25-50 картинок, которые тебе заходят
  • antimoodboard — 20-35 картинок, которые вызывают отторжение

2. Пройди короткое тестовое (какой модуль взять - выбор за тобой)
3. Приложи ссылки на доски и ссылку на форк с решением задания в отклике