
🌸 Майская распродажа
Скидки до 70% в каталоге + дополнительно 3,5% по промокоду HAPPYMAY
В каталог
8.8

Neurohive - Нейроcети, Data Science, Machine Learning, AI
5.0
17
Наука и технологии
919
14
Канал для data science разработчиков про нейросети. Свежие исследования, методы, приложения и новости. Авторский канал, контент уникальный.
Нейронные сети, машинное обучение (machine learning), data science, анализ данных, big data, стартапы, искусственный интеллект, AI, NLP.
ВП возможен.
Поделиться
В избранное
Купить рекламу в этом канале
Формат:
keyboard_arrow_down
- 1/24
- 2/48
- 3/72
- Нативный
- 7 дней
- Репост
1 час в топе / 24 часа в ленте
Количество:
keyboard_arrow_down
- 1
- 2
- 3
- 4
- 5
- 8
- 10
- 15
Стоимость публикации:
local_activity
7 692.30₽7 692.30₽local_mall
0.0%
Осталось по этой цене:0
Последние посты канала
imageИзображение не доступно для предпросмотра
Вас интересует, как искусственный интеллект может повысить конкурентоспособность вашего бизнеса?
На вебинаре “Умные решения для бизнеса: Как LLM и RAG трансформируют работу с информацией” мы обсудим, как современные AI-технологии помогают компаниям автоматизировать процессы, улучшать аналитику и принимать решения быстрее. Узнайте о ключевых трендах, успешных кейсах внедрения и шагах, с которых стоит начать цифровую трансформацию.
📅 15 мая в 14:00
➡️ Зарегистрироваться
А еще все слушатели вебинара получат запись и презентацию выступающего, которые можно использовать в работе!
Реклама. ООО "ДССЛ-ПЕРВЫЙ". ИНН 7701081730. erid: 2W5zFFzXcYG
На вебинаре “Умные решения для бизнеса: Как LLM и RAG трансформируют работу с информацией” мы обсудим, как современные AI-технологии помогают компаниям автоматизировать процессы, улучшать аналитику и принимать решения быстрее. Узнайте о ключевых трендах, успешных кейсах внедрения и шагах, с которых стоит начать цифровую трансформацию.
📅 15 мая в 14:00
➡️ Зарегистрироваться
А еще все слушатели вебинара получат запись и презентацию выступающего, которые можно использовать в работе!
Реклама. ООО "ДССЛ-ПЕРВЫЙ". ИНН 7701081730. erid: 2W5zFFzXcYG
428
14:05
12.05.2025
imageИзображение не доступно для предпросмотра
ZEROSEARCH: открытый фреймворк, снижающий затраты на обучение LLM поиску на 88%
ZEROSEARCH основан на ключевом наблюдении: LLM уже приобрели обширные общие знания в процессе предварительного обучения и способны генерировать релевантные документы в ответ на поисковые запросы. Cвежие подходы сталкиваются с двумя проблемами: непредсказуемым качеством документов из поисковых систем и высокими затратами на API при обучении.
Фреймворк Zerosearch включает три ключевых компонента:
1. Симуляция поисковой системы: через supervised fine-tuning LLM генерирует как релевантные ответы, так и зашумленные документы путем изменения нескольких слов в промпте.
2. Во время RL-тренировки ZEROSEARCH использует стратегию curriculum-based rollout, которая постепенно снижает качество генерируемых документов. Подход последовательно развивает способность модели к рассуждению, прибегая ко всё более сложным сценариям.
3. Низкие затраты на обучение по сравнению с использованием коммерческих поисковых API. Реализация подхода требует GPU-инфраструктуры, но он снижает затраты на обучение на 88%.
В результате 7B-модель достигла производительности, сравнимой с использованием реальной поисковой системы для обучения. Модель с 14B параметров превосходит производительность модели, обученной на данных из реальной поисковой системы сразу на нескольких бенчмарках.
Исследователи опубликовали в открытом доступе реализацию кода, датасеты и предварительно обученные модели.
#StateoftheArt
ZEROSEARCH основан на ключевом наблюдении: LLM уже приобрели обширные общие знания в процессе предварительного обучения и способны генерировать релевантные документы в ответ на поисковые запросы. Cвежие подходы сталкиваются с двумя проблемами: непредсказуемым качеством документов из поисковых систем и высокими затратами на API при обучении.
Фреймворк Zerosearch включает три ключевых компонента:
1. Симуляция поисковой системы: через supervised fine-tuning LLM генерирует как релевантные ответы, так и зашумленные документы путем изменения нескольких слов в промпте.
2. Во время RL-тренировки ZEROSEARCH использует стратегию curriculum-based rollout, которая постепенно снижает качество генерируемых документов. Подход последовательно развивает способность модели к рассуждению, прибегая ко всё более сложным сценариям.
3. Низкие затраты на обучение по сравнению с использованием коммерческих поисковых API. Реализация подхода требует GPU-инфраструктуры, но он снижает затраты на обучение на 88%.
В результате 7B-модель достигла производительности, сравнимой с использованием реальной поисковой системы для обучения. Модель с 14B параметров превосходит производительность модели, обученной на данных из реальной поисковой системы сразу на нескольких бенчмарках.
Исследователи опубликовали в открытом доступе реализацию кода, датасеты и предварительно обученные модели.
#StateoftheArt
861
14:19
10.05.2025
imageИзображение не доступно для предпросмотра
Microsoft представила модель Phi-4-reasoning с 14 миллиардами параметров, которая в задачах рассуждения показывает результаты на уровне DeepSeek-R1 (671B параметров), и превосходит o1-mini и DeepSeek-R1-Distill-Llama-70B на большинстве бенчмарков. Модель доступна через репозиторий Microsoft на HF, а в GitHub Models можно протестировать ее в playground или интегрировать через GitHub API.
Phi-4-reasoning сохранила архитектуру базовой модели Phi-4, с двумя ключевыми модификациями. Команда назначила плейсхолдер-токены в виде маркеров <think> и </think> для разграничения секций рассуждения, позволяя модели явно отделять процесс мышления от финального ответа. Длина контекста расширена с 16K до 32K токенов, что предоставило пространство для развёрнутых цепочек рассуждений.
Для обучения модели команда тщательно отобрала более 1,4 миллиона пар "запрос-ответ», сосредоточившись на задачах, требующих многоэтапного рассуждения, а не простого воспроизведения фактов. Улучшения в способностях к рассуждению распространились за пределы специализированных задач и усилили общий интеллект модели.
#Stateoftheart
Phi-4-reasoning сохранила архитектуру базовой модели Phi-4, с двумя ключевыми модификациями. Команда назначила плейсхолдер-токены в виде маркеров <think> и </think> для разграничения секций рассуждения, позволяя модели явно отделять процесс мышления от финального ответа. Длина контекста расширена с 16K до 32K токенов, что предоставило пространство для развёрнутых цепочек рассуждений.
Для обучения модели команда тщательно отобрала более 1,4 миллиона пар "запрос-ответ», сосредоточившись на задачах, требующих многоэтапного рассуждения, а не простого воспроизведения фактов. Улучшения в способностях к рассуждению распространились за пределы специализированных задач и усилили общий интеллект модели.
#Stateoftheart
1200
05:01
05.05.2025
Интересные постеры первого дня ICLR 2025
Конференция в самом разгаре — доклады и постеры сыпятся на нас как из рога изобилия. А мы выбираем самые любопытные и рассказываем вам.
Earlier Tokens Contribute More: Learning Direct Preference Optimization From Temporal Decay Perspective
Статья посвящена решению проблемы, при которой модель после DPO генерирует ответы длиннее, чем референсная модель. Это связано с тем, DPO отдаёт предпочтение последним токенам, а не первым. Чтобы исправить проблему, авторы предлагают добавить множитель \gamma \in (0, 1) в лосс. Лосс для токена в позиции t умножается на \gamma^t. Аналогия с классическим RL ясна, хотя нужно понимать, что это не discount factor, а просто что-то похожее по смыслу. Такая политика мало отличается от оптимальной, а задача выбора гаммы выпуклая (около 0,99 будет достаточно, но лучше подобрать для каждого случая отдельно).
Progressive Mixed-Precision Decoding for Efficient LLM Inference
Квантизация, отмечают авторы, хороший способ снизить требования LLM к вычислительным мощностям. Однако применение низкой точности (2-3 бита) ведёт к сильному ухудшению качества. Авторы предлагают новый фазо-ориентированный метод, который избирательно распределяет точность между различными фазами инференса и вводят технику, позволяющую постепенно снижать точность по мере углубления в сгенерированную последовательность.
По сути для каждого токена выбирается битность. У авторов есть обучаемый шедулер, который предсказывает, когда надо переключаться на меньшую битность. Он очень чувствителен к гиперпараметрам, датасету и обучению. В будущем его хотят интегрировать внутрь самой LLM. А саму квантизацию наследуют из статьи Any-precision LLM. В ней префикс веса нужной битности — это ключ в lookup-таблице весов, что позволяет не использовать дополнительную память под разные битности.
What is Wrong with Perplexity for Long-context Language Modeling?
Очень простая идея для длинного контекста — считать лосс в основном на key-токенах, где лосс, обусловленный на длинный контекст, сильно отличается от короткого. На long-бенче у авторов получилась значительная корреляция со скором по сравнению с обычной ppl, что немного смущает, и улучшения от такого тюна.
RRM: Robust Reward Model Training Mitigates Reward Hacking
Авторы заявляют, что современные реворд-модели не способны эффективно различать контекстуальные сигналы и нерелевантные артефакты при определении предпочтений. В статье предлагается обучать предпочтения, независимые от подобных артефактов, а также новая техника аугментации данных, специально разработанную для их устранения.
Авторы делают случайную перестановку датасета и расширяют его всеми возможными комбинациями i оригинальной тройки и sigma_i — тройки на позиции i после перестановки. Всего комбинаций 16 штук.
Победитель в полученных парах определяется так:
— если в паре один ответ на этот запрос, а второй от другого запроса, то побеждает всегда тот, который отвечает на «свой» запрос;
— если оба ответа от другого запроса, то это ничья.
Получается огромный датасет, в котором много тривиальных пар, где плохой ответ явно не от того запроса. Авторы фильтруют этот датасет с помощью предыдущей версии RM, оставляя только негативы и неуверенные.
How new data permeates LLM knowledge and how to dilute it
Авторы показывают, что при усвоении новой информации LLM проявляют эффект «прайминга»: изучение нового факта может привести к тому, что модель начнёт некорректно применять это знание в несвязанных контекстах. Чтобы это исправить, предлагают игнорировать самые большие градиенты — то есть не обновлять тот процент весов, который получил бы самый большой градиентный апдейт.
Интересные постеры увидели❣ Павел Темирчев, Екатерина Редина, Роман Горб, Степан Каргалицев
#YaICLR
Конференция в самом разгаре — доклады и постеры сыпятся на нас как из рога изобилия. А мы выбираем самые любопытные и рассказываем вам.
Earlier Tokens Contribute More: Learning Direct Preference Optimization From Temporal Decay Perspective
Статья посвящена решению проблемы, при которой модель после DPO генерирует ответы длиннее, чем референсная модель. Это связано с тем, DPO отдаёт предпочтение последним токенам, а не первым. Чтобы исправить проблему, авторы предлагают добавить множитель \gamma \in (0, 1) в лосс. Лосс для токена в позиции t умножается на \gamma^t. Аналогия с классическим RL ясна, хотя нужно понимать, что это не discount factor, а просто что-то похожее по смыслу. Такая политика мало отличается от оптимальной, а задача выбора гаммы выпуклая (около 0,99 будет достаточно, но лучше подобрать для каждого случая отдельно).
Progressive Mixed-Precision Decoding for Efficient LLM Inference
Квантизация, отмечают авторы, хороший способ снизить требования LLM к вычислительным мощностям. Однако применение низкой точности (2-3 бита) ведёт к сильному ухудшению качества. Авторы предлагают новый фазо-ориентированный метод, который избирательно распределяет точность между различными фазами инференса и вводят технику, позволяющую постепенно снижать точность по мере углубления в сгенерированную последовательность.
По сути для каждого токена выбирается битность. У авторов есть обучаемый шедулер, который предсказывает, когда надо переключаться на меньшую битность. Он очень чувствителен к гиперпараметрам, датасету и обучению. В будущем его хотят интегрировать внутрь самой LLM. А саму квантизацию наследуют из статьи Any-precision LLM. В ней префикс веса нужной битности — это ключ в lookup-таблице весов, что позволяет не использовать дополнительную память под разные битности.
What is Wrong with Perplexity for Long-context Language Modeling?
Очень простая идея для длинного контекста — считать лосс в основном на key-токенах, где лосс, обусловленный на длинный контекст, сильно отличается от короткого. На long-бенче у авторов получилась значительная корреляция со скором по сравнению с обычной ppl, что немного смущает, и улучшения от такого тюна.
RRM: Robust Reward Model Training Mitigates Reward Hacking
Авторы заявляют, что современные реворд-модели не способны эффективно различать контекстуальные сигналы и нерелевантные артефакты при определении предпочтений. В статье предлагается обучать предпочтения, независимые от подобных артефактов, а также новая техника аугментации данных, специально разработанную для их устранения.
Авторы делают случайную перестановку датасета и расширяют его всеми возможными комбинациями i оригинальной тройки и sigma_i — тройки на позиции i после перестановки. Всего комбинаций 16 штук.
Победитель в полученных парах определяется так:
— если в паре один ответ на этот запрос, а второй от другого запроса, то побеждает всегда тот, который отвечает на «свой» запрос;
— если оба ответа от другого запроса, то это ничья.
Получается огромный датасет, в котором много тривиальных пар, где плохой ответ явно не от того запроса. Авторы фильтруют этот датасет с помощью предыдущей версии RM, оставляя только негативы и неуверенные.
How new data permeates LLM knowledge and how to dilute it
Авторы показывают, что при усвоении новой информации LLM проявляют эффект «прайминга»: изучение нового факта может привести к тому, что модель начнёт некорректно применять это знание в несвязанных контекстах. Чтобы это исправить, предлагают игнорировать самые большие градиенты — то есть не обновлять тот процент весов, который получил бы самый большой градиентный апдейт.
Интересные постеры увидели
#YaICLR
1400
13:48
25.04.2025
play_circleВидео недоступно для предпросмотра
Инженер по машинному обучению без сильной теоретической и практической базы — как нейросеть без данных: не обучается
Если вы хотите попасть в категорию high-level инженеров по машинному обучению — рекомендуем свежий подкаст на MLinside с Алексеем Толстиковым, руководителем ШАДа Яндекса.
ШАД — это точка входа в профессию через глубокие знания, отбор и постоянную работу над собой.
Выпускники становятся авторами исследований, работают в международных научных центрах, запускают собственные стартапы, разрабатывают ИИ-продукты, которыми пользуются миллионы.
В выпуске:
– почему ШАД — это не просто школа, а катализатор карьеры;
– как устроен отбор: задачи, интервью, альтернативный трек;
– как не слиться на экзамене и зачем читать Зорича.
🎧 Подкаст
Если вы хотите попасть в категорию high-level инженеров по машинному обучению — рекомендуем свежий подкаст на MLinside с Алексеем Толстиковым, руководителем ШАДа Яндекса.
ШАД — это точка входа в профессию через глубокие знания, отбор и постоянную работу над собой.
Выпускники становятся авторами исследований, работают в международных научных центрах, запускают собственные стартапы, разрабатывают ИИ-продукты, которыми пользуются миллионы.
В выпуске:
– почему ШАД — это не просто школа, а катализатор карьеры;
– как устроен отбор: задачи, интервью, альтернативный трек;
– как не слиться на экзамене и зачем читать Зорича.
🎧 Подкаст
1500
15:02
21.04.2025
imageИзображение не доступно для предпросмотра
Исследователи из Tencent опубликовали DeepMath-103K - крупный математический датасет для обучения с подкреплением продвинутых моделей рассуждения. Проект опубликован на Github.
DeepMath-103K содержит 103 тысячи математических задач, из которых 95к — отборные сложные задачи, и 8к задач средней сложности. Каждая задача имеет проверяемый окончательный ответ и три пути решения, сгенерированных Deepseek R1, что позволяет поддерживать разные методы обучения: supervised fine-tuning, reward modeling и model distillation. Набор данных был очищен от пересечений с популярными тестовыми наборами, такими как MATH, AIME, AMC, Minerva Math и OlympiadBench.
Qwen2.5-7B-Base, обученная на DeepMath-103K, улучшила точность с 54,8% до 85,5% на на MATH500, на AIME24 с 7,7% до 20,4%. Точность ответов в задачах из олимпиад по математике улучшились с 27,8% до 51,0%.
Создание набора данных стоило исследователям $138 000 на API-кредиты GPT-4o и 127 000 часов работы GPU H20.
#Dataset
DeepMath-103K содержит 103 тысячи математических задач, из которых 95к — отборные сложные задачи, и 8к задач средней сложности. Каждая задача имеет проверяемый окончательный ответ и три пути решения, сгенерированных Deepseek R1, что позволяет поддерживать разные методы обучения: supervised fine-tuning, reward modeling и model distillation. Набор данных был очищен от пересечений с популярными тестовыми наборами, такими как MATH, AIME, AMC, Minerva Math и OlympiadBench.
Qwen2.5-7B-Base, обученная на DeepMath-103K, улучшила точность с 54,8% до 85,5% на на MATH500, на AIME24 с 7,7% до 20,4%. Точность ответов в задачах из олимпиад по математике улучшились с 27,8% до 51,0%.
Создание набора данных стоило исследователям $138 000 на API-кредиты GPT-4o и 127 000 часов работы GPU H20.
#Dataset
Исследователи из Tencent опубликовали DeepMath-103K - крупный математический датасет для обучения с подкреплением продвинутых моделей рассуждения. Проект опубликован на Github.
DeepMath-103K содержит 103 тысячи математических задач, из которых 95к — отборные сложные задачи, и 8к задач средней сложности. Каждая задача имеет проверяемый окончательный ответ и три пути решения, сгенерированных Deepseek R1, что позволяет поддерживать разные методы обучения: supervised fine-tuning, reward modeling и model distillation. Набор данных был очищен от пересечений с популярными тестовыми наборами, такими как MATH, AIME, AMC, Minerva Math и OlympiadBench.
Qwen2.5-7B-Base, обученная на DeepMath-103K, улучшила точность с 54,8% до 85,5% на на MATH500, на AIME24 с 7,7% до 20,4%. Точность ответов в задачах из олимпиад по математике улучшились с 27,8% до 51,0%.
Создание набора данных стоило исследователям $138 000 на API-кредиты GPT-4o и 127 000 часов работы GPU H20.
#Dataset
DeepMath-103K содержит 103 тысячи математических задач, из которых 95к — отборные сложные задачи, и 8к задач средней сложности. Каждая задача имеет проверяемый окончательный ответ и три пути решения, сгенерированных Deepseek R1, что позволяет поддерживать разные методы обучения: supervised fine-tuning, reward modeling и model distillation. Набор данных был очищен от пересечений с популярными тестовыми наборами, такими как MATH, AIME, AMC, Minerva Math и OlympiadBench.
Qwen2.5-7B-Base, обученная на DeepMath-103K, улучшила точность с 54,8% до 85,5% на на MATH500, на AIME24 с 7,7% до 20,4%. Точность ответов в задачах из олимпиад по математике улучшились с 27,8% до 51,0%.
Создание набора данных стоило исследователям $138 000 на API-кредиты GPT-4o и 127 000 часов работы GPU H20.
#Dataset
1400
10:33
21.04.2025
Митап для ML- и MLOps-инженеров
📍23 апреля в 18:00 в Санкт-Петербурге или онлайн
Практический инференс, оптимизация ML-моделей и актуальные практики:
— подбор инфраструктуры для ML под запрос бизнеса,
— инференс в рентген-вагоне и клинике без связи,
— развертывание Edge-AI на комбайне!
Формат: активное участие вместо пассивного слушания — квизы, мерч и дебаты за пиццей.
Записаться на митап: https://slc.tl/7zgca
Реклама, АО «Селектел», ИНН 7810962785, erid:2VtzqvpHJyg
📍23 апреля в 18:00 в Санкт-Петербурге или онлайн
Практический инференс, оптимизация ML-моделей и актуальные практики:
— подбор инфраструктуры для ML под запрос бизнеса,
— инференс в рентген-вагоне и клинике без связи,
— развертывание Edge-AI на комбайне!
Формат: активное участие вместо пассивного слушания — квизы, мерч и дебаты за пиццей.
Записаться на митап: https://slc.tl/7zgca
Реклама, АО «Селектел», ИНН 7810962785, erid:2VtzqvpHJyg
1200
08:16
18.04.2025
play_circleВидео недоступно для предпросмотра
MedSAM2 - модель сегментации медицинских 3D-изображений и видео, построенная на базе модели SAM2.1-Tiny. MedSAM2 - полностью открытая модель: исследователи выложили код, веса модели и аннотированные датасеты на Github и HF.
Модель использует иерархический трансформер (Hiera) с модулем внимания памяти, потоковый "банк" памяти, который обусловливает признаки текущего кадра на основе предсказаний предыдущих кадров и подход transfer-learning с дифференцированными скоростями обучения.
MedSAM2 превосходит SOTA модели EfficientMedSAM-Top1 на 5-13%, SAM2.1 на 7-18% в задачах сегментации 3D-сканов и на 2-9% для видео.
Возможно, наибольший вклад MedSAM2 – это ее практическое применение в аннотации данных. Исследователи реализовали пайплайн аннотации с человеком в цикле (human-in-the-loop), сократив время аннотации для:
- снимков КТ с 525.9 секунд до 74.3 секунд на поражение (на 86%);
- поражений печении на МРТ - на 87%;
- видео эхокардиографии - на 92%.
#Stateoftheart
Модель использует иерархический трансформер (Hiera) с модулем внимания памяти, потоковый "банк" памяти, который обусловливает признаки текущего кадра на основе предсказаний предыдущих кадров и подход transfer-learning с дифференцированными скоростями обучения.
MedSAM2 превосходит SOTA модели EfficientMedSAM-Top1 на 5-13%, SAM2.1 на 7-18% в задачах сегментации 3D-сканов и на 2-9% для видео.
Возможно, наибольший вклад MedSAM2 – это ее практическое применение в аннотации данных. Исследователи реализовали пайплайн аннотации с человеком в цикле (human-in-the-loop), сократив время аннотации для:
- снимков КТ с 525.9 секунд до 74.3 секунд на поражение (на 86%);
- поражений печении на МРТ - на 87%;
- видео эхокардиографии - на 92%.
#Stateoftheart
2000
07:54
14.04.2025
imageИзображение не доступно для предпросмотра
У вас есть ML-проект на стадии pre-MVP? Расскажите о нем и получите 50 000 бонусов на аренду GPU-сервера
Компания Selectel организует питч-сессию в рамках конференции MLечный путь—2025.
Все участники получат экспертный фидбек по своему проекту, а победители - бонусы на его развитие. Не обязательно иметь работающий прототип, достаточно рассказать о проведенных экспериментах и исследованиях.
Победители получат до 50 000 бонусов от Selectel, которые можно потратить на аренду сервера с GPU. 1 бонус = 1 рубль.
Сделайте вашу идею реальнее. Заявки принимаются до 14 апреля включительно https://slc.tl/g293e
Реклама, АО «Селектел», ИНН 7810962785, erid: 2VtzqxBKcmP
Компания Selectel организует питч-сессию в рамках конференции MLечный путь—2025.
Все участники получат экспертный фидбек по своему проекту, а победители - бонусы на его развитие. Не обязательно иметь работающий прототип, достаточно рассказать о проведенных экспериментах и исследованиях.
Победители получат до 50 000 бонусов от Selectel, которые можно потратить на аренду сервера с GPU. 1 бонус = 1 рубль.
Сделайте вашу идею реальнее. Заявки принимаются до 14 апреля включительно https://slc.tl/g293e
Реклама, АО «Селектел», ИНН 7810962785, erid: 2VtzqxBKcmP
1200
12:05
13.04.2025
imageИзображение не доступно для предпросмотра
🚀 Post-Trade Researcher в Wunder Fund
💰 $4,000–$6,000 на руки
🏠 Удалёнка, релокация по желанию
Wunder Fund c 2014 года занимается HFT — высокочастотным алготрейдингом. Торгуем на многих биржах по всему миру, как классических, так и криптовалютных. Наш дневной торговый оборот около ~$8 млрд.
Сейчас ищем ресёрчера, который поможет делать наш симулятор биржи максимально реалистичным.
🧠 Что делать
• Искать аномалии в данных и метриках торговых стратегий
• Разбираться в расхождениях между симуляцией и реальностью
• Исследовать инциденты из прода, дебажить, докапываться до корня
🔍 Как узнать себя в этой роли
• Обожаешь данные и любишь пристально в них вглядываться
• Сам берешь задачи под контроль и доводишь до завершения
• Работаешь с Python, pandas, Linux, SQL
• Будет плюсом: C++, Kaggle, ШАД, опыт работы с биржевыми данными
🏝 Условия: Удалёнка, помощь с ВНЖ и отсрочкой. Два раза в год собираемся на корп. вилле (Бали, Тай и т.д.)
Платим $4-6k на руки любым удобным способом.
💌 Как откликнуться
Пишите Маше в ТГ: @wunderfund
Или на почту [email protected]
💰 $4,000–$6,000 на руки
🏠 Удалёнка, релокация по желанию
Wunder Fund c 2014 года занимается HFT — высокочастотным алготрейдингом. Торгуем на многих биржах по всему миру, как классических, так и криптовалютных. Наш дневной торговый оборот около ~$8 млрд.
Сейчас ищем ресёрчера, который поможет делать наш симулятор биржи максимально реалистичным.
🧠 Что делать
• Искать аномалии в данных и метриках торговых стратегий
• Разбираться в расхождениях между симуляцией и реальностью
• Исследовать инциденты из прода, дебажить, докапываться до корня
🔍 Как узнать себя в этой роли
• Обожаешь данные и любишь пристально в них вглядываться
• Сам берешь задачи под контроль и доводишь до завершения
• Работаешь с Python, pandas, Linux, SQL
• Будет плюсом: C++, Kaggle, ШАД, опыт работы с биржевыми данными
🏝 Условия: Удалёнка, помощь с ВНЖ и отсрочкой. Два раза в год собираемся на корп. вилле (Бали, Тай и т.д.)
Платим $4-6k на руки любым удобным способом.
💌 Как откликнуться
Пишите Маше в ТГ: @wunderfund
Или на почту [email protected]
1600
10:07
10.04.2025
close
С этим каналом часто покупают
Отзывы канала
keyboard_arrow_down
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
5.0
1 отзыва за 6 мес.
Превосходно (100%) За последние 6 мес
p
**ystech.genesis@******.com
на сервисе с января 2023
22.11.202418:48
5
Оперативное размещение
Показать еще
Новинки в тематике
Лучшие в тематике
Статистика канала
Рейтинг
8.8
Оценка отзывов
5.0
Выполнено заявок
50
Подписчики:
4.6K
Просмотры на пост:
lock_outline
ER:
10.5%
Публикаций в день:
0.0
CPV
lock_outlineВыбрано
0
каналов на сумму:0.00₽
Подписчики:
0
Просмотры:
lock_outline
Перейти в корзинуКупить за:0.00₽
Комментарий