
💸 Скидки до 70% для бизнеса и финансов
Ловите лучшие слоты в каналах бизнес-тематик — только до 6 апреля!
Забрать скидку

1.2K
Купить рекламу в этом канале
Формат:
1/24
keyboard_arrow_down- 1/24
- 2/48
- 3/72
- Нативный
- 7 дней
- Репост
1 час в топе / 24 часа в ленте
Количество:
1
keyboard_arrow_down- 1
- 2
- 3
- 4
- 5
- 8
- 10
- 15
Стоимость публикации:
local_activity
12 447.54₽12 447.54₽local_mall
0.0%
Осталось по этой цене:0
Последние посты канала
Вакансия: Data Engineer
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
2400
15:49
26.03.2025
Role: Lead ML Engineer (ML, NLP, LLM)
Company: Clain
Location: Limassol, Cyprus or remotely (not Russia)
Job type: Full-time, permanent, hybrid working week (for Cyprus) or full remote
Salary: from €7000
We are expanding our DS team again and are looking for a talented Lead ML Engineer to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowersforensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who wantto have a real impact on the growth of an organization and arecraving responsibilities.
What we offer:
- A chance to work with cool crypto compliance products and make a real
impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and
experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular
data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees
in accordance with Cypriot law (the possibility of fully remote work depends on the location and is discussed individually)
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere
Key Responsibilities:
- Research, design, develop, and deploy machine learning models - Implement and maintain MLOps infrastructure, including CI/CD pipelines for ML - Develop and enhance LLM for various NLP tasks
- Stay abreast of the latest developments in NLP and LLM research to continuously innovate and apply best practices to our products
- Provide technical guidance and mentorship to team members
Requirements:
- 5+ years of experience in machine learning engineering and MLOps,
with a focus on classic ML and LLM solutions. - Proven experience with tech stack: Python; SQL; ML: TensorFlow or PyTorch, scikit-learn; MLOps: Airflow, MLflow; NLP: transformers, LLM, NLU, Langchain; containerization and orchestration tools: Docker, Kubernetes; version control systems (e.g., Git) and CI/CD pipelines
- Experience as ML researcher
- Strong knowledge of data structures,
algorithms, and software design principles
- Bachelor’s or Master’s degree in Computer Science, Engineering, Mathematics, or a related field
- Intermediate English for communication in the international team
It will be a plus:
- Familiar with the principles of Blockchain technology
- PhD degree and publications
Contact us: tg @elena_yank
Company: Clain
Location: Limassol, Cyprus or remotely (not Russia)
Job type: Full-time, permanent, hybrid working week (for Cyprus) or full remote
Salary: from €7000
We are expanding our DS team again and are looking for a talented Lead ML Engineer to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowersforensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who wantto have a real impact on the growth of an organization and arecraving responsibilities.
What we offer:
- A chance to work with cool crypto compliance products and make a real
impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and
experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular
data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees
in accordance with Cypriot law (the possibility of fully remote work depends on the location and is discussed individually)
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere
Key Responsibilities:
- Research, design, develop, and deploy machine learning models - Implement and maintain MLOps infrastructure, including CI/CD pipelines for ML - Develop and enhance LLM for various NLP tasks
- Stay abreast of the latest developments in NLP and LLM research to continuously innovate and apply best practices to our products
- Provide technical guidance and mentorship to team members
Requirements:
- 5+ years of experience in machine learning engineering and MLOps,
with a focus on classic ML and LLM solutions. - Proven experience with tech stack: Python; SQL; ML: TensorFlow or PyTorch, scikit-learn; MLOps: Airflow, MLflow; NLP: transformers, LLM, NLU, Langchain; containerization and orchestration tools: Docker, Kubernetes; version control systems (e.g., Git) and CI/CD pipelines
- Experience as ML researcher
- Strong knowledge of data structures,
algorithms, and software design principles
- Bachelor’s or Master’s degree in Computer Science, Engineering, Mathematics, or a related field
- Intermediate English for communication in the international team
It will be a plus:
- Familiar with the principles of Blockchain technology
- PhD degree and publications
Contact us: tg @elena_yank
2300
14:47
25.03.2025
#job #вакансия #DataEngineer #Greenplum #MPP #фултайм #remote
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
952
09:23
02.04.2025
#job #вакансия #DataEngineer #Greenplum #MPP #фултайм #remote
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
952
09:23
02.04.2025
Продуктовый аналитик на проект Spotlight
Грейд: Senior
Название компании: Top-Selection
Локация: Не важно
Часовой пояс: Мск
Предметные области: финтех ,e-commerce
Формат работы: Удалённая работа
Тема проекта: Умный поиск
Зарплата: 250 - 320тр (гросс)
Обязанности:
Продуктовые исследования на данных сервиса, работа над проектом на базе машинного обучения и ИИ в области поиска и обработки данных
Требования:
- опыт работы c несколькими из следующих баз данных: Oracle, Vertica, Impala, Hive, Clickhouse, MS SQL Server, Google BigQuery;
- отличное знание Excel (в т.ч. сводные таблицы, функции, подключения, VBA, PowerQuery);
- хорошее знание R или Python: знание библиотек для анализа данных (Pandas, NumPy, SciPy, sklearn), библиотек визуализации (Matplotlib, Seaborn, Plotly), умение проводить разведочный анализ данных, умение автоматизировать задачи с помощью Python, работать с API
Пожелания:
- желателен опыт работы с несколькими из следующих систем веб- или мобильной аналитики и знание ее особенностей: Google Analytics, Яндекс.Метрика, AppsFlyer, myTracker, Firebase, AppMetrica, Amplitude (работа в интерфейсе и с API).
Бонусы:
Работаем по договору ИП
Контактные данные: @Katrin_Easya
#Пропустить #этот #пункт
Грейд: Senior
Название компании: Top-Selection
Локация: Не важно
Часовой пояс: Мск
Предметные области: финтех ,e-commerce
Формат работы: Удалённая работа
Тема проекта: Умный поиск
Зарплата: 250 - 320тр (гросс)
Обязанности:
Продуктовые исследования на данных сервиса, работа над проектом на базе машинного обучения и ИИ в области поиска и обработки данных
Требования:
- опыт работы c несколькими из следующих баз данных: Oracle, Vertica, Impala, Hive, Clickhouse, MS SQL Server, Google BigQuery;
- отличное знание Excel (в т.ч. сводные таблицы, функции, подключения, VBA, PowerQuery);
- хорошее знание R или Python: знание библиотек для анализа данных (Pandas, NumPy, SciPy, sklearn), библиотек визуализации (Matplotlib, Seaborn, Plotly), умение проводить разведочный анализ данных, умение автоматизировать задачи с помощью Python, работать с API
Пожелания:
- желателен опыт работы с несколькими из следующих систем веб- или мобильной аналитики и знание ее особенностей: Google Analytics, Яндекс.Метрика, AppsFlyer, myTracker, Firebase, AppMetrica, Amplitude (работа в интерфейсе и с API).
Бонусы:
Работаем по договору ИП
Контактные данные: @Katrin_Easya
#Пропустить #этот #пункт
1600
19:20
31.03.2025
imageИзображение не доступно для предпросмотра
С каждым днем все больше бизнесов выходят на маркетплейсы, а значит еще более ценными становятся аналитики, которые умеют с ними работать. Хотите научиться использовать Python для анализа продаж и создания эффективных стратегий?
Андрон Алексанян - CEO Simulative в прямом эфире проанализирует продажи на маркетплейсах с помощью Python. Никаких первоапрельских розыгрышей, только полезные знания! 🧡
Что будем делать:
🕗 Встречаемся 01 апреля 18:30 по МСК
1500
17:18
31.03.2025
#вакансия #ML #Москва #DataScientist #Lead #гибрид #офис #LeadQuantitativeResearcher
Вакансия:Lead Quantitative Researcher/ DataScientist
Вилка: от 7000$+
Компания: Task agency
Формат:гибрид
Локация: Москва
Задачи :
-Руководство исследованиями и разработкой торговых моделей для пар ETH/USD+ и cbBTC/USD+ для рынков DeFi
-Формирование и управление командой исследователей и специалистов по данным.
-Внедрение моделей на основе обучения с подкреплением (RL), таких как DQN и AS для маркет-мейкинга.
-Проведение бэктестинга и моделирования для оценки стратегий.
-Оптимизация параметров модели с помощью современных методов (генетические алгоритмы, байесовская оптимизация).
Мониторинг и улучшение моделей на основе реальных данных.
-Сотрудничество с командами для интеграции решений в общую инфраструктуру.
-Отслеживание новых тенденций в DeFi и количественных финансах
Что мы ожидаем:
-Высшее образование в области количественных финансов, компьютерных наук, математики или статистики.
-Опыт в области количественных исследований и применения методов обучения с подкреплением (RL).
-Глубокое понимание математического моделирования, статистического анализа и методов оптимизации.
-Отличные навыки программирования на Python, а также опыт работы с фреймворками глубокого обучения, такими как TensorFlow, PyTorch, JAX.
-Приветствуется опыт работы в трейдинге, маркет-мейкинге или высокочастотной торговле (HFT).
-Опыт разработки инструментов для бэктестинга и моделирования будет большим преимуществом.
-Развитые лидерские навыки, способность эффективно управлять командой исследователей и развивать их потенциал.
Будет плюсом:
-Знание методов оптимизации алгоритмов, таких как эволюционные алгоритмы и байесовские подходы.
-Опыт работы с блокчейн-технологиями, смарт-контрактами и торговыми средами DeFi.
-Навыки работы в высокопроизводительных вычислительных средах (HPC).
Что предлагаем:
-Удобный офис в Москве;
-Конкурентоспособная зарплата, обсуждаемая в зависимости от опыта;
-Поощрения по результатам работы, привязанные к успеху торговой стратегии;
-Гибкая гибридная модель работы, адаптированная к индивидуальным и командным потребностям;
-Очень опытная команда, которая позволяет расти и учиться в среде профессионалов.
Телеграмм @tatsyanaFL
Вакансия:Lead Quantitative Researcher/ DataScientist
Вилка: от 7000$+
Компания: Task agency
Формат:гибрид
Локация: Москва
Задачи :
-Руководство исследованиями и разработкой торговых моделей для пар ETH/USD+ и cbBTC/USD+ для рынков DeFi
-Формирование и управление командой исследователей и специалистов по данным.
-Внедрение моделей на основе обучения с подкреплением (RL), таких как DQN и AS для маркет-мейкинга.
-Проведение бэктестинга и моделирования для оценки стратегий.
-Оптимизация параметров модели с помощью современных методов (генетические алгоритмы, байесовская оптимизация).
Мониторинг и улучшение моделей на основе реальных данных.
-Сотрудничество с командами для интеграции решений в общую инфраструктуру.
-Отслеживание новых тенденций в DeFi и количественных финансах
Что мы ожидаем:
-Высшее образование в области количественных финансов, компьютерных наук, математики или статистики.
-Опыт в области количественных исследований и применения методов обучения с подкреплением (RL).
-Глубокое понимание математического моделирования, статистического анализа и методов оптимизации.
-Отличные навыки программирования на Python, а также опыт работы с фреймворками глубокого обучения, такими как TensorFlow, PyTorch, JAX.
-Приветствуется опыт работы в трейдинге, маркет-мейкинге или высокочастотной торговле (HFT).
-Опыт разработки инструментов для бэктестинга и моделирования будет большим преимуществом.
-Развитые лидерские навыки, способность эффективно управлять командой исследователей и развивать их потенциал.
Будет плюсом:
-Знание методов оптимизации алгоритмов, таких как эволюционные алгоритмы и байесовские подходы.
-Опыт работы с блокчейн-технологиями, смарт-контрактами и торговыми средами DeFi.
-Навыки работы в высокопроизводительных вычислительных средах (HPC).
Что предлагаем:
-Удобный офис в Москве;
-Конкурентоспособная зарплата, обсуждаемая в зависимости от опыта;
-Поощрения по результатам работы, привязанные к успеху торговой стратегии;
-Гибкая гибридная модель работы, адаптированная к индивидуальным и командным потребностям;
-Очень опытная команда, которая позволяет расти и учиться в среде профессионалов.
Телеграмм @tatsyanaFL
1600
10:45
31.03.2025
Продуктовый аналитик
Грейд: Middle
Название компании: AlgaTop
Локация: РФ
Часовой пояс: Москва
Предметные области: e-commerce
Формат работы: Удаленный
Тема проекта: SaaS- платформа
Зарплата: 150 000- 180 000
Обязанности:
- Разрабатывать с нуля и поддерживать продуктовые дашборды в BI-инструментах (Tableau, Power BI, Metabase или аналогах - на выбор).
- Рассчитывать ключевые метрики: LTV, LT, CAC, Retention, Churn Rate, DAU/WAU/MAU, ARPPU и другие.
- Анализировать пользовательское поведение и воронки, выявлять узкие места и точки роста.
- Оценивать влияние продуктовых изменений, разрабатывать рекомендации для команды.
- Проектировать и проводить A/B-тесты совместно с продукт менеджером, валидировать результаты.
- Работать с SQL для извлечения и трансформации данных.
- Взаимодействовать с командой разработки, продукт-менеджером и маркетологами, помогая им принимать решения на основе данных.
Требования:
- Опыт работы от 3 лет в продуктовой или data аналитике.
- Понимание и опыт работы с базами данных (Postgre/Clickhouse или аналоги).
- Отличное владение SQL (написание сложных запросов, оптимизация).
- Опыт работы с BI-инструментами (Tableau, Power BI, Metabase или аналоги).
- Глубокое понимание продуктовых метрик, unit-экономики, когортного анализа.
- Понимание основ статистики, A/B-тестирования (дизайн, методы оценки значимости, выборки).
- Умение визуализировать данные, которые помогают бизнесу.
- Понимание работы с маркетинговыми метриками (CAC, ROI, ROMI).
- Опыт работы с Python (pandas, numpy) для анализа данных – как плюс.
Контактные данные: @EgorOnOff для откликов
#SaaS, #B2B, #MySql, #PostgreSql
Грейд: Middle
Название компании: AlgaTop
Локация: РФ
Часовой пояс: Москва
Предметные области: e-commerce
Формат работы: Удаленный
Тема проекта: SaaS- платформа
Зарплата: 150 000- 180 000
Обязанности:
- Разрабатывать с нуля и поддерживать продуктовые дашборды в BI-инструментах (Tableau, Power BI, Metabase или аналогах - на выбор).
- Рассчитывать ключевые метрики: LTV, LT, CAC, Retention, Churn Rate, DAU/WAU/MAU, ARPPU и другие.
- Анализировать пользовательское поведение и воронки, выявлять узкие места и точки роста.
- Оценивать влияние продуктовых изменений, разрабатывать рекомендации для команды.
- Проектировать и проводить A/B-тесты совместно с продукт менеджером, валидировать результаты.
- Работать с SQL для извлечения и трансформации данных.
- Взаимодействовать с командой разработки, продукт-менеджером и маркетологами, помогая им принимать решения на основе данных.
Требования:
- Опыт работы от 3 лет в продуктовой или data аналитике.
- Понимание и опыт работы с базами данных (Postgre/Clickhouse или аналоги).
- Отличное владение SQL (написание сложных запросов, оптимизация).
- Опыт работы с BI-инструментами (Tableau, Power BI, Metabase или аналоги).
- Глубокое понимание продуктовых метрик, unit-экономики, когортного анализа.
- Понимание основ статистики, A/B-тестирования (дизайн, методы оценки значимости, выборки).
- Умение визуализировать данные, которые помогают бизнесу.
- Понимание работы с маркетинговыми метриками (CAC, ROI, ROMI).
- Опыт работы с Python (pandas, numpy) для анализа данных – как плюс.
Контактные данные: @EgorOnOff для откликов
#SaaS, #B2B, #MySql, #PostgreSql
2100
18:57
29.03.2025
#удаленка #vacancy #fulltime #ml #it Senior ML Engineer (NLP) в крупнейшую в России Digital Health платформу, объединяющая различные сервисы цифровой медицины.
Компания рассматривает кандидатов из РФ.
З/п: обсуждается индивидуально Формат работы: Офис, Удаленка, Гибрид(уютный офис в БЦ Симонов Плаза с видом на Москва-реку).
🔷Задачи:
Автоматизация анализа пользовательского опыта (агрегации и анализа обратной связи пользователей);
Построение дашбордов для визуализации пользовательских данных;
Поиск точек роста для повышения удовлетворенности клиентов;
Автоматизация сбора и анализа медицинских данных;
Разработка ИИ-ассистента, который будет автоматически собирать и обрабатывать медицинские данные пользователей, используя LLM.
🔷Обязательные требования:
ML от 3-х лет;
Применение NLP от 2-х лет;
Хорошие знания алгоритмов и структур данных;
Python, ООП, SOLID;
MLOps: Git, Docker, AirFlow.
Будет преимуществом:
Интересный профиль на GitHub, медали в Kaggle;
LLMOps: LangChain, LlamaIndex;
Опыт оптимизации и ускорения моделей для прода (прунинг, квантование, ONNX/TensorRT);
Опыт работы с OCR.
Отклики ждем @fr_rec
Компания рассматривает кандидатов из РФ.
З/п: обсуждается индивидуально Формат работы: Офис, Удаленка, Гибрид(уютный офис в БЦ Симонов Плаза с видом на Москва-реку).
🔷Задачи:
Автоматизация анализа пользовательского опыта (агрегации и анализа обратной связи пользователей);
Построение дашбордов для визуализации пользовательских данных;
Поиск точек роста для повышения удовлетворенности клиентов;
Автоматизация сбора и анализа медицинских данных;
Разработка ИИ-ассистента, который будет автоматически собирать и обрабатывать медицинские данные пользователей, используя LLM.
🔷Обязательные требования:
ML от 3-х лет;
Применение NLP от 2-х лет;
Хорошие знания алгоритмов и структур данных;
Python, ООП, SOLID;
MLOps: Git, Docker, AirFlow.
Будет преимуществом:
Интересный профиль на GitHub, медали в Kaggle;
LLMOps: LangChain, LlamaIndex;
Опыт оптимизации и ускорения моделей для прода (прунинг, квантование, ONNX/TensorRT);
Опыт работы с OCR.
Отклики ждем @fr_rec
2500
14:02
27.03.2025
imageИзображение не доступно для предпросмотра
🤖 ChatGPT VS DeepSeek
Приглашаем на открытый урок.
🗓 01 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced».
ChatGPT, DeepSeek, Gemini… Что у них внутри и какие технологии их создают?
На открытом уроке разберем архитектуру современных LLM, методы их обучения и принципы, которые двигают индустрию NLP вперед.
Спикер Мария Тихонова – PhD Computer Science, Senior Data Scientist в SberDevices и преподаватель ВШЭ.
Если вы хотите глубже понять работу LLM, разобраться в ключевых концепциях DeepSeek и узнать о будущих трендах, этот вебинар для вас.
Участвуйте и получите скидку для обучения на курсе «NLP. Advanced».
🔗 Ссылка на регистрацию: https://otus.pw/STdY/
Приглашаем на открытый урок.
🗓 01 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced».
ChatGPT, DeepSeek, Gemini… Что у них внутри и какие технологии их создают?
На открытом уроке разберем архитектуру современных LLM, методы их обучения и принципы, которые двигают индустрию NLP вперед.
Спикер Мария Тихонова – PhD Computer Science, Senior Data Scientist в SberDevices и преподаватель ВШЭ.
Если вы хотите глубже понять работу LLM, разобраться в ключевых концепциях DeepSeek и узнать о будущих трендах, этот вебинар для вас.
Участвуйте и получите скидку для обучения на курсе «NLP. Advanced».
🔗 Ссылка на регистрацию: https://otus.pw/STdY/
1300
11:54
27.03.2025
Вакансия: Data Engineer
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
2400
15:49
26.03.2025
Role: Lead ML Engineer (ML, NLP, LLM)
Company: Clain
Location: Limassol, Cyprus or remotely (not Russia)
Job type: Full-time, permanent, hybrid working week (for Cyprus) or full remote
Salary: from €7000
We are expanding our DS team again and are looking for a talented Lead ML Engineer to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowersforensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who wantto have a real impact on the growth of an organization and arecraving responsibilities.
What we offer:
- A chance to work with cool crypto compliance products and make a real
impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and
experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular
data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees
in accordance with Cypriot law (the possibility of fully remote work depends on the location and is discussed individually)
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere
Key Responsibilities:
- Research, design, develop, and deploy machine learning models - Implement and maintain MLOps infrastructure, including CI/CD pipelines for ML - Develop and enhance LLM for various NLP tasks
- Stay abreast of the latest developments in NLP and LLM research to continuously innovate and apply best practices to our products
- Provide technical guidance and mentorship to team members
Requirements:
- 5+ years of experience in machine learning engineering and MLOps,
with a focus on classic ML and LLM solutions. - Proven experience with tech stack: Python; SQL; ML: TensorFlow or PyTorch, scikit-learn; MLOps: Airflow, MLflow; NLP: transformers, LLM, NLU, Langchain; containerization and orchestration tools: Docker, Kubernetes; version control systems (e.g., Git) and CI/CD pipelines
- Experience as ML researcher
- Strong knowledge of data structures,
algorithms, and software design principles
- Bachelor’s or Master’s degree in Computer Science, Engineering, Mathematics, or a related field
- Intermediate English for communication in the international team
It will be a plus:
- Familiar with the principles of Blockchain technology
- PhD degree and publications
Contact us: tg @elena_yank
Company: Clain
Location: Limassol, Cyprus or remotely (not Russia)
Job type: Full-time, permanent, hybrid working week (for Cyprus) or full remote
Salary: from €7000
We are expanding our DS team again and are looking for a talented Lead ML Engineer to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowersforensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who wantto have a real impact on the growth of an organization and arecraving responsibilities.
What we offer:
- A chance to work with cool crypto compliance products and make a real
impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and
experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular
data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees
in accordance with Cypriot law (the possibility of fully remote work depends on the location and is discussed individually)
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere
Key Responsibilities:
- Research, design, develop, and deploy machine learning models - Implement and maintain MLOps infrastructure, including CI/CD pipelines for ML - Develop and enhance LLM for various NLP tasks
- Stay abreast of the latest developments in NLP and LLM research to continuously innovate and apply best practices to our products
- Provide technical guidance and mentorship to team members
Requirements:
- 5+ years of experience in machine learning engineering and MLOps,
with a focus on classic ML and LLM solutions. - Proven experience with tech stack: Python; SQL; ML: TensorFlow or PyTorch, scikit-learn; MLOps: Airflow, MLflow; NLP: transformers, LLM, NLU, Langchain; containerization and orchestration tools: Docker, Kubernetes; version control systems (e.g., Git) and CI/CD pipelines
- Experience as ML researcher
- Strong knowledge of data structures,
algorithms, and software design principles
- Bachelor’s or Master’s degree in Computer Science, Engineering, Mathematics, or a related field
- Intermediate English for communication in the international team
It will be a plus:
- Familiar with the principles of Blockchain technology
- PhD degree and publications
Contact us: tg @elena_yank
2300
14:47
25.03.2025
#job #вакансия #DataEngineer #Greenplum #MPP #фултайм #remote
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
952
09:23
02.04.2025
#job #вакансия #DataEngineer #Greenplum #MPP #фултайм #remote
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Проекты DE на 1 полугодие 2025:
— разработка процессов обмена данных с внешними системами;
— подключение двух новых источников, help desk и app metrica;
— оптимизация платформы данных.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
@Shvedova1
952
09:23
02.04.2025
Продуктовый аналитик на проект Spotlight
Грейд: Senior
Название компании: Top-Selection
Локация: Не важно
Часовой пояс: Мск
Предметные области: финтех ,e-commerce
Формат работы: Удалённая работа
Тема проекта: Умный поиск
Зарплата: 250 - 320тр (гросс)
Обязанности:
Продуктовые исследования на данных сервиса, работа над проектом на базе машинного обучения и ИИ в области поиска и обработки данных
Требования:
- опыт работы c несколькими из следующих баз данных: Oracle, Vertica, Impala, Hive, Clickhouse, MS SQL Server, Google BigQuery;
- отличное знание Excel (в т.ч. сводные таблицы, функции, подключения, VBA, PowerQuery);
- хорошее знание R или Python: знание библиотек для анализа данных (Pandas, NumPy, SciPy, sklearn), библиотек визуализации (Matplotlib, Seaborn, Plotly), умение проводить разведочный анализ данных, умение автоматизировать задачи с помощью Python, работать с API
Пожелания:
- желателен опыт работы с несколькими из следующих систем веб- или мобильной аналитики и знание ее особенностей: Google Analytics, Яндекс.Метрика, AppsFlyer, myTracker, Firebase, AppMetrica, Amplitude (работа в интерфейсе и с API).
Бонусы:
Работаем по договору ИП
Контактные данные: @Katrin_Easya
#Пропустить #этот #пункт
Грейд: Senior
Название компании: Top-Selection
Локация: Не важно
Часовой пояс: Мск
Предметные области: финтех ,e-commerce
Формат работы: Удалённая работа
Тема проекта: Умный поиск
Зарплата: 250 - 320тр (гросс)
Обязанности:
Продуктовые исследования на данных сервиса, работа над проектом на базе машинного обучения и ИИ в области поиска и обработки данных
Требования:
- опыт работы c несколькими из следующих баз данных: Oracle, Vertica, Impala, Hive, Clickhouse, MS SQL Server, Google BigQuery;
- отличное знание Excel (в т.ч. сводные таблицы, функции, подключения, VBA, PowerQuery);
- хорошее знание R или Python: знание библиотек для анализа данных (Pandas, NumPy, SciPy, sklearn), библиотек визуализации (Matplotlib, Seaborn, Plotly), умение проводить разведочный анализ данных, умение автоматизировать задачи с помощью Python, работать с API
Пожелания:
- желателен опыт работы с несколькими из следующих систем веб- или мобильной аналитики и знание ее особенностей: Google Analytics, Яндекс.Метрика, AppsFlyer, myTracker, Firebase, AppMetrica, Amplitude (работа в интерфейсе и с API).
Бонусы:
Работаем по договору ИП
Контактные данные: @Katrin_Easya
#Пропустить #этот #пункт
1600
19:20
31.03.2025
imageИзображение не доступно для предпросмотра
С каждым днем все больше бизнесов выходят на маркетплейсы, а значит еще более ценными становятся аналитики, которые умеют с ними работать. Хотите научиться использовать Python для анализа продаж и создания эффективных стратегий?
Андрон Алексанян - CEO Simulative в прямом эфире проанализирует продажи на маркетплейсах с помощью Python. Никаких первоапрельских розыгрышей, только полезные знания! 🧡
Что будем делать:
🕗 Встречаемся 01 апреля 18:30 по МСК
1500
17:18
31.03.2025
#вакансия #ML #Москва #DataScientist #Lead #гибрид #офис #LeadQuantitativeResearcher
Вакансия:Lead Quantitative Researcher/ DataScientist
Вилка: от 7000$+
Компания: Task agency
Формат:гибрид
Локация: Москва
Задачи :
-Руководство исследованиями и разработкой торговых моделей для пар ETH/USD+ и cbBTC/USD+ для рынков DeFi
-Формирование и управление командой исследователей и специалистов по данным.
-Внедрение моделей на основе обучения с подкреплением (RL), таких как DQN и AS для маркет-мейкинга.
-Проведение бэктестинга и моделирования для оценки стратегий.
-Оптимизация параметров модели с помощью современных методов (генетические алгоритмы, байесовская оптимизация).
Мониторинг и улучшение моделей на основе реальных данных.
-Сотрудничество с командами для интеграции решений в общую инфраструктуру.
-Отслеживание новых тенденций в DeFi и количественных финансах
Что мы ожидаем:
-Высшее образование в области количественных финансов, компьютерных наук, математики или статистики.
-Опыт в области количественных исследований и применения методов обучения с подкреплением (RL).
-Глубокое понимание математического моделирования, статистического анализа и методов оптимизации.
-Отличные навыки программирования на Python, а также опыт работы с фреймворками глубокого обучения, такими как TensorFlow, PyTorch, JAX.
-Приветствуется опыт работы в трейдинге, маркет-мейкинге или высокочастотной торговле (HFT).
-Опыт разработки инструментов для бэктестинга и моделирования будет большим преимуществом.
-Развитые лидерские навыки, способность эффективно управлять командой исследователей и развивать их потенциал.
Будет плюсом:
-Знание методов оптимизации алгоритмов, таких как эволюционные алгоритмы и байесовские подходы.
-Опыт работы с блокчейн-технологиями, смарт-контрактами и торговыми средами DeFi.
-Навыки работы в высокопроизводительных вычислительных средах (HPC).
Что предлагаем:
-Удобный офис в Москве;
-Конкурентоспособная зарплата, обсуждаемая в зависимости от опыта;
-Поощрения по результатам работы, привязанные к успеху торговой стратегии;
-Гибкая гибридная модель работы, адаптированная к индивидуальным и командным потребностям;
-Очень опытная команда, которая позволяет расти и учиться в среде профессионалов.
Телеграмм @tatsyanaFL
Вакансия:Lead Quantitative Researcher/ DataScientist
Вилка: от 7000$+
Компания: Task agency
Формат:гибрид
Локация: Москва
Задачи :
-Руководство исследованиями и разработкой торговых моделей для пар ETH/USD+ и cbBTC/USD+ для рынков DeFi
-Формирование и управление командой исследователей и специалистов по данным.
-Внедрение моделей на основе обучения с подкреплением (RL), таких как DQN и AS для маркет-мейкинга.
-Проведение бэктестинга и моделирования для оценки стратегий.
-Оптимизация параметров модели с помощью современных методов (генетические алгоритмы, байесовская оптимизация).
Мониторинг и улучшение моделей на основе реальных данных.
-Сотрудничество с командами для интеграции решений в общую инфраструктуру.
-Отслеживание новых тенденций в DeFi и количественных финансах
Что мы ожидаем:
-Высшее образование в области количественных финансов, компьютерных наук, математики или статистики.
-Опыт в области количественных исследований и применения методов обучения с подкреплением (RL).
-Глубокое понимание математического моделирования, статистического анализа и методов оптимизации.
-Отличные навыки программирования на Python, а также опыт работы с фреймворками глубокого обучения, такими как TensorFlow, PyTorch, JAX.
-Приветствуется опыт работы в трейдинге, маркет-мейкинге или высокочастотной торговле (HFT).
-Опыт разработки инструментов для бэктестинга и моделирования будет большим преимуществом.
-Развитые лидерские навыки, способность эффективно управлять командой исследователей и развивать их потенциал.
Будет плюсом:
-Знание методов оптимизации алгоритмов, таких как эволюционные алгоритмы и байесовские подходы.
-Опыт работы с блокчейн-технологиями, смарт-контрактами и торговыми средами DeFi.
-Навыки работы в высокопроизводительных вычислительных средах (HPC).
Что предлагаем:
-Удобный офис в Москве;
-Конкурентоспособная зарплата, обсуждаемая в зависимости от опыта;
-Поощрения по результатам работы, привязанные к успеху торговой стратегии;
-Гибкая гибридная модель работы, адаптированная к индивидуальным и командным потребностям;
-Очень опытная команда, которая позволяет расти и учиться в среде профессионалов.
Телеграмм @tatsyanaFL
1600
10:45
31.03.2025
Продуктовый аналитик
Грейд: Middle
Название компании: AlgaTop
Локация: РФ
Часовой пояс: Москва
Предметные области: e-commerce
Формат работы: Удаленный
Тема проекта: SaaS- платформа
Зарплата: 150 000- 180 000
Обязанности:
- Разрабатывать с нуля и поддерживать продуктовые дашборды в BI-инструментах (Tableau, Power BI, Metabase или аналогах - на выбор).
- Рассчитывать ключевые метрики: LTV, LT, CAC, Retention, Churn Rate, DAU/WAU/MAU, ARPPU и другие.
- Анализировать пользовательское поведение и воронки, выявлять узкие места и точки роста.
- Оценивать влияние продуктовых изменений, разрабатывать рекомендации для команды.
- Проектировать и проводить A/B-тесты совместно с продукт менеджером, валидировать результаты.
- Работать с SQL для извлечения и трансформации данных.
- Взаимодействовать с командой разработки, продукт-менеджером и маркетологами, помогая им принимать решения на основе данных.
Требования:
- Опыт работы от 3 лет в продуктовой или data аналитике.
- Понимание и опыт работы с базами данных (Postgre/Clickhouse или аналоги).
- Отличное владение SQL (написание сложных запросов, оптимизация).
- Опыт работы с BI-инструментами (Tableau, Power BI, Metabase или аналоги).
- Глубокое понимание продуктовых метрик, unit-экономики, когортного анализа.
- Понимание основ статистики, A/B-тестирования (дизайн, методы оценки значимости, выборки).
- Умение визуализировать данные, которые помогают бизнесу.
- Понимание работы с маркетинговыми метриками (CAC, ROI, ROMI).
- Опыт работы с Python (pandas, numpy) для анализа данных – как плюс.
Контактные данные: @EgorOnOff для откликов
#SaaS, #B2B, #MySql, #PostgreSql
Грейд: Middle
Название компании: AlgaTop
Локация: РФ
Часовой пояс: Москва
Предметные области: e-commerce
Формат работы: Удаленный
Тема проекта: SaaS- платформа
Зарплата: 150 000- 180 000
Обязанности:
- Разрабатывать с нуля и поддерживать продуктовые дашборды в BI-инструментах (Tableau, Power BI, Metabase или аналогах - на выбор).
- Рассчитывать ключевые метрики: LTV, LT, CAC, Retention, Churn Rate, DAU/WAU/MAU, ARPPU и другие.
- Анализировать пользовательское поведение и воронки, выявлять узкие места и точки роста.
- Оценивать влияние продуктовых изменений, разрабатывать рекомендации для команды.
- Проектировать и проводить A/B-тесты совместно с продукт менеджером, валидировать результаты.
- Работать с SQL для извлечения и трансформации данных.
- Взаимодействовать с командой разработки, продукт-менеджером и маркетологами, помогая им принимать решения на основе данных.
Требования:
- Опыт работы от 3 лет в продуктовой или data аналитике.
- Понимание и опыт работы с базами данных (Postgre/Clickhouse или аналоги).
- Отличное владение SQL (написание сложных запросов, оптимизация).
- Опыт работы с BI-инструментами (Tableau, Power BI, Metabase или аналоги).
- Глубокое понимание продуктовых метрик, unit-экономики, когортного анализа.
- Понимание основ статистики, A/B-тестирования (дизайн, методы оценки значимости, выборки).
- Умение визуализировать данные, которые помогают бизнесу.
- Понимание работы с маркетинговыми метриками (CAC, ROI, ROMI).
- Опыт работы с Python (pandas, numpy) для анализа данных – как плюс.
Контактные данные: @EgorOnOff для откликов
#SaaS, #B2B, #MySql, #PostgreSql
2100
18:57
29.03.2025
#удаленка #vacancy #fulltime #ml #it Senior ML Engineer (NLP) в крупнейшую в России Digital Health платформу, объединяющая различные сервисы цифровой медицины.
Компания рассматривает кандидатов из РФ.
З/п: обсуждается индивидуально Формат работы: Офис, Удаленка, Гибрид(уютный офис в БЦ Симонов Плаза с видом на Москва-реку).
🔷Задачи:
Автоматизация анализа пользовательского опыта (агрегации и анализа обратной связи пользователей);
Построение дашбордов для визуализации пользовательских данных;
Поиск точек роста для повышения удовлетворенности клиентов;
Автоматизация сбора и анализа медицинских данных;
Разработка ИИ-ассистента, который будет автоматически собирать и обрабатывать медицинские данные пользователей, используя LLM.
🔷Обязательные требования:
ML от 3-х лет;
Применение NLP от 2-х лет;
Хорошие знания алгоритмов и структур данных;
Python, ООП, SOLID;
MLOps: Git, Docker, AirFlow.
Будет преимуществом:
Интересный профиль на GitHub, медали в Kaggle;
LLMOps: LangChain, LlamaIndex;
Опыт оптимизации и ускорения моделей для прода (прунинг, квантование, ONNX/TensorRT);
Опыт работы с OCR.
Отклики ждем @fr_rec
Компания рассматривает кандидатов из РФ.
З/п: обсуждается индивидуально Формат работы: Офис, Удаленка, Гибрид(уютный офис в БЦ Симонов Плаза с видом на Москва-реку).
🔷Задачи:
Автоматизация анализа пользовательского опыта (агрегации и анализа обратной связи пользователей);
Построение дашбордов для визуализации пользовательских данных;
Поиск точек роста для повышения удовлетворенности клиентов;
Автоматизация сбора и анализа медицинских данных;
Разработка ИИ-ассистента, который будет автоматически собирать и обрабатывать медицинские данные пользователей, используя LLM.
🔷Обязательные требования:
ML от 3-х лет;
Применение NLP от 2-х лет;
Хорошие знания алгоритмов и структур данных;
Python, ООП, SOLID;
MLOps: Git, Docker, AirFlow.
Будет преимуществом:
Интересный профиль на GitHub, медали в Kaggle;
LLMOps: LangChain, LlamaIndex;
Опыт оптимизации и ускорения моделей для прода (прунинг, квантование, ONNX/TensorRT);
Опыт работы с OCR.
Отклики ждем @fr_rec
2500
14:02
27.03.2025
imageИзображение не доступно для предпросмотра
🤖 ChatGPT VS DeepSeek
Приглашаем на открытый урок.
🗓 01 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced».
ChatGPT, DeepSeek, Gemini… Что у них внутри и какие технологии их создают?
На открытом уроке разберем архитектуру современных LLM, методы их обучения и принципы, которые двигают индустрию NLP вперед.
Спикер Мария Тихонова – PhD Computer Science, Senior Data Scientist в SberDevices и преподаватель ВШЭ.
Если вы хотите глубже понять работу LLM, разобраться в ключевых концепциях DeepSeek и узнать о будущих трендах, этот вебинар для вас.
Участвуйте и получите скидку для обучения на курсе «NLP. Advanced».
🔗 Ссылка на регистрацию: https://otus.pw/STdY/
Приглашаем на открытый урок.
🗓 01 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced».
ChatGPT, DeepSeek, Gemini… Что у них внутри и какие технологии их создают?
На открытом уроке разберем архитектуру современных LLM, методы их обучения и принципы, которые двигают индустрию NLP вперед.
Спикер Мария Тихонова – PhD Computer Science, Senior Data Scientist в SberDevices и преподаватель ВШЭ.
Если вы хотите глубже понять работу LLM, разобраться в ключевых концепциях DeepSeek и узнать о будущих трендах, этот вебинар для вас.
Участвуйте и получите скидку для обучения на курсе «NLP. Advanced».
🔗 Ссылка на регистрацию: https://otus.pw/STdY/
1300
11:54
27.03.2025
Вакансия: Data Engineer
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся
Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.
Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.
Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.
Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.
Что нужно делать:
- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.
Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.
Что мы от вас ожидаем:
- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.
Также большим плюсом будет:
- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.
Мы предлагаем:
- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
2400
15:49
26.03.2025
Role: Lead ML Engineer (ML, NLP, LLM)
Company: Clain
Location: Limassol, Cyprus or remotely (not Russia)
Job type: Full-time, permanent, hybrid working week (for Cyprus) or full remote
Salary: from €7000
We are expanding our DS team again and are looking for a talented Lead ML Engineer to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowersforensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who wantto have a real impact on the growth of an organization and arecraving responsibilities.
What we offer:
- A chance to work with cool crypto compliance products and make a real
impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and
experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular
data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees
in accordance with Cypriot law (the possibility of fully remote work depends on the location and is discussed individually)
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere
Key Responsibilities:
- Research, design, develop, and deploy machine learning models - Implement and maintain MLOps infrastructure, including CI/CD pipelines for ML - Develop and enhance LLM for various NLP tasks
- Stay abreast of the latest developments in NLP and LLM research to continuously innovate and apply best practices to our products
- Provide technical guidance and mentorship to team members
Requirements:
- 5+ years of experience in machine learning engineering and MLOps,
with a focus on classic ML and LLM solutions. - Proven experience with tech stack: Python; SQL; ML: TensorFlow or PyTorch, scikit-learn; MLOps: Airflow, MLflow; NLP: transformers, LLM, NLU, Langchain; containerization and orchestration tools: Docker, Kubernetes; version control systems (e.g., Git) and CI/CD pipelines
- Experience as ML researcher
- Strong knowledge of data structures,
algorithms, and software design principles
- Bachelor’s or Master’s degree in Computer Science, Engineering, Mathematics, or a related field
- Intermediate English for communication in the international team
It will be a plus:
- Familiar with the principles of Blockchain technology
- PhD degree and publications
Contact us: tg @elena_yank
Company: Clain
Location: Limassol, Cyprus or remotely (not Russia)
Job type: Full-time, permanent, hybrid working week (for Cyprus) or full remote
Salary: from €7000
We are expanding our DS team again and are looking for a talented Lead ML Engineer to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowersforensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who wantto have a real impact on the growth of an organization and arecraving responsibilities.
What we offer:
- A chance to work with cool crypto compliance products and make a real
impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and
experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular
data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees
in accordance with Cypriot law (the possibility of fully remote work depends on the location and is discussed individually)
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere
Key Responsibilities:
- Research, design, develop, and deploy machine learning models - Implement and maintain MLOps infrastructure, including CI/CD pipelines for ML - Develop and enhance LLM for various NLP tasks
- Stay abreast of the latest developments in NLP and LLM research to continuously innovate and apply best practices to our products
- Provide technical guidance and mentorship to team members
Requirements:
- 5+ years of experience in machine learning engineering and MLOps,
with a focus on classic ML and LLM solutions. - Proven experience with tech stack: Python; SQL; ML: TensorFlow or PyTorch, scikit-learn; MLOps: Airflow, MLflow; NLP: transformers, LLM, NLU, Langchain; containerization and orchestration tools: Docker, Kubernetes; version control systems (e.g., Git) and CI/CD pipelines
- Experience as ML researcher
- Strong knowledge of data structures,
algorithms, and software design principles
- Bachelor’s or Master’s degree in Computer Science, Engineering, Mathematics, or a related field
- Intermediate English for communication in the international team
It will be a plus:
- Familiar with the principles of Blockchain technology
- PhD degree and publications
Contact us: tg @elena_yank
2300
14:47
25.03.2025
close
С этим каналом часто покупают
Отзывы канала
Добавлен: Сначала новые
keyboard_arrow_down- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
4.8
4 отзыва за 6 мес.
Превосходно (100%) За последние 6 мес
a
**svkvk@****.ru
на сервисе с августа 2024
13.11.202412:07
5
Оперативное размещение
Показать еще
Лучшие в тематике
Новинки в тематике
Выбрано
0
каналов на сумму:0.00₽
Подписчики:
0
Просмотры:
lock_outline
Перейти в корзинуКупить за:0.00₽
Комментарий