
Получите клиентов в любой нише!
Делегируйте запуск рекламы нам — бесплатно
Подробнее
Купить рекламу в этом канале
Формат:
keyboard_arrow_down
- 1/24
- 2/48
- 3/72
- Нативный
- 7 дней
- Репост
1 час в топе / 24 часа в ленте
Количество:
keyboard_arrow_down
- 1
- 2
- 3
- 4
- 5
- 8
- 10
- 15
Стоимость публикации:
local_activity
10 489.50₽10 489.50₽local_mall
0.0%
Осталось по этой цене:0
Последние посты канала
imageИзображение не доступно для предпросмотра
@machinelearning_ru
137
11:00
17.02.2025
imageИзображение не доступно для предпросмотраplay_circleВидео недоступно для предпросмотра
В статье исследуется применение обучения с подкреплением (RL) к большим языковым моделям (LLMs) улучшает их способность решать сложные задачи программирования и рассуждений. Авторы сравнивают три модели: общую модель o1, её специализированную версию o1-ioi (адаптированную для соревнований IOI) и более продвинутую модель o3.
Модель o1 значительно превосходит модели без цепочек рассуждений (например, gpt-4o) по показателям на платформе CodeForces.
Специализированная o1-ioi, оптимизированная для соревнований IOI, показывает хорошие результаты с ручными стратегиями, но её успех зависит от дополнительной настройки и тестовых стратегий.
Модель o3, обученная только с RL и без доменно-специфичных стратегий, демонстрирует ещё более высокую производительность, достигая результатов на уровне элитных программистов мира как на CodeForces, так и на IOI.
Применение в реальных задачах:
Масштабирование RL для общего использования, а не применение специализированных ручных стратегий, является эффективным путём достижения передового уровня ИИ в задачах рассуждения и программирования.
Статья
Тред
Релиз состоится 18 февраля в 04:00 (GMT+3). Похоже, что Grok-3 выйдет с режимом рассуждений.
выпустили новую очень сложную оценку рассуждений LLM:
EnigmaEval: 1184 мультимодальные головоломки, настолько сложные, что на их решение группам людей требуется от многих часов до нескольких дней.
Все топ-модели набрали 0% в Hard set и < 10% в Normal set
Scale
От оценки позы до обнаружения объектов в реальном времени - свежие, передовые инструменты компьютерного зрения на Hugging Face, которые очень просты в использовании.
- ViTPose для оценки позы
- RT-DETRv2 для обнаружения объектов в реальном времени
- DAB-DETR улучшает оригинальный DETR, решая проблемы медленного обучения
- DepthPro от Apple для оценки глубины на одном изображении, выдавая расстояния на уровне пикселей в метрах менее чем за секунду.
Свежий инструмент, который представляет собой готовое решение для создания десктопного GUI-агента. С его помощью можно отдавать команды и автоматизировать задачи на ПК (Windows и macOS) через веб-интерфейс, доступный с любого устройства с интернетом.
Github
@ai_machinelearning_big_data
#news #ai #ml #openai #grok #grok3 #Microsoft #ScaleAI #elonmusk #cv #sota #opensource
489
06:19
17.02.2025
imageИзображение не доступно для предпросмотра
«Large Lambda Model» крутой гайд, где автор делится опытом реализации инференса модели GPT-2 на языке Haskell с использованием библиотеки hmatrix и OpenBLAS.
Основная цель проекта — выполнить прямой проход (forward pass) модели без обучения или обратного распространения ошибки.
Этот проект демонстрирует, как можно реализовать инференс модели GPT-2 на Haskell, углубляясь в детали архитектуры и работы с линейной алгеброй без использования специализированных тензорных библиотек.
Выбор инструментов:
Haskell и hmatrix: Использование Haskell с hmatrix для линейной алгебры.
OpenBLAS: Применение для оптимизации линейных операций.
Архитектура GPT-2:
Ресурсы для изучения:
- Репозитории Karpathy: NanoGPT и llm.c.
Визуализатор LLM от Brendan Bycroft.
Веб-приложение для токенизации: tiktokenizer.
▪ Читать
@haskell_tg
Основная цель проекта — выполнить прямой проход (forward pass) модели без обучения или обратного распространения ошибки.
Этот проект демонстрирует, как можно реализовать инференс модели GPT-2 на Haskell, углубляясь в детали архитектуры и работы с линейной алгеброй без использования специализированных тензорных библиотек.
Выбор инструментов:
Haskell и hmatrix: Использование Haskell с hmatrix для линейной алгебры.
OpenBLAS: Применение для оптимизации линейных операций.
Архитектура GPT-2:
Ресурсы для изучения:
- Репозитории Karpathy: NanoGPT и llm.c.
Визуализатор LLM от Brendan Bycroft.
Веб-приложение для токенизации: tiktokenizer.
▪ Читать
@haskell_tg
938
09:38
16.02.2025
imageИзображение не доступно для предпросмотра
Чем полезен:
- Прототипирование и модульность:
Интуитивный API и модульная архитектура позволяют быстро настраивать модели, обрабатывать данные и менять гиперпараметры.
- Гибкость:
Возможность модификации исходного кода под конкретные задачи, а также интеграция с популярными фреймворками, такими как PyTorch или TensorFlow.
- Быстрая обратная связь:
Инструмент ускоряет процесс экспериментов, обеспечивая оперативное получение результатов обучения.
Установка:
pip install chonkie
Chonkie идеально подходит для исследователей и разработчиков, которым важна скорость экспериментов и гибкость настройки, но может быть ограничен для масштабных промышленных проектов.
▪ Github
974
07:33
16.02.2025
imageИзображение не доступно для предпросмотра
Google расширила возможности Gemini, внедрив функцию запоминания прошлых разговоров для подписчиков Gemini Advanced через Google One AI Premium. Это обновление позволяет Gemini предоставлять более релевантные ответы. Новая функция доступна на английском языке в веб-версии и мобильном приложении Gemini. Google планирует добавить поддержку других языков, а также для бизнес- и корпоративных клиентов Google Workspace в ближайшие недели.
blog.google
Предложение инженера Google об увеличении частоты таймера ядра Linux с 250 до 1000 Гц вызвало интерес в технологическом сообществе и сервис Phoronix провел A/B-тестирование, чтобы оценить влияние этого изменения. Наиболее заметные улучшения наблюдались в ускорении LLM. В других задачах влияние было минимальным и находилось в пределах погрешности измерений системы. Основная идея Кайса Юсефа заключалась в том, что увеличение частоты таймера приведет к улучшению отзывчивости системы и позволит решить проблемы, связанные с 250 Гц: неточные временные интервалы и задержки в балансировке нагрузки.
Тестирование проводилось на AMD Ryzen 9 9950X, 32 ГБ ОЗУ и GPU Radeon RX 7900 XTX. Наибольший прирост производительности наблюдался с Llama, где увеличение частоты таймера привело к росту производительности на 10%.
tomshardware.com
Apple Machine Learning Research опубликовало исследование метода трансферного обучения для графовых нейронных сетей, который значительно улучшает эффективность и точность физического моделирования сложных систем. В работе представлена масштабируемая графовая U-NET (SGUNET), способная адаптироваться к различным размерам сетки и разрешениям.
Предложенный метод позволяет использовать предварительно обученные модели на большом наборе данных (ABC Deformable - ABCD), содержащем 20 000 физических симуляций 3D-форм, для последующей тонкой настройки на целевых задачах с меньшим количеством данных. Это значительно снижает затраты на сбор и аннотацию данных.
Эксперименты на 2 датасетах (2D Deformable Plate и 3D Deforming Plate) показали, что модель, предварительно обученная на ABCD и дообученная на 1/16 части данных, демонстрирует улучшение RMSE на 11.05% по сравнению с моделью, обученной с нуля.
machinelearning.apple.com
Microsoft и Университет Карнеги опубликовали ресёрч о том, что генеративный ИИ оказывает двоякое влияние на когнитивные процессы человека. С одной стороны, ИИ-инструменты снижают воспринимаемую сложность задач, требующих критического мышления. С другой стороны, чрезмерная уверенность в возможностях ИИ приводит к снижению критического мышления и зависимости от сгенерированного контента.
Анализ опроса 319 представителей умственного труда показал, что работники чаще всего используют критическое мышление для обеспечения качества своей работы. При этом, чем выше уверенность работника в собственных навыках, тем больше усилий он прилагает для оценки результатов, предоставляемых ИИ. И наоборот, чем выше уверенность в возможностях ИИ, тем меньше усилий затрачивается на критическое мышление. Исследование также выявило изменения в структуре когнитивных усилий при использовании ИИ - они смещаются от сбора информации к ее проверке, от решения проблем к адаптации ответов ИИ и от выполнения задач к контролю за процессом.
microsoft.com
Новые рекомендации OpenAI указывают на то, что для эффективного использования моделей серии o, стоит отходить от сложных техник промпт-инжиниринга в пользу простых и прямых инструкций. OpenAI предостерегает от использования "boomer prompts" и инструкций вроде "думай шаг за шагом" для этих моделей. Вместо этого рекомендуется давать краткие, четко структурированные указания с использованием разделителей (XML-теги) и четко определять критерии успеха или ограничения.
platform.openai.com
776
08:51
15.02.2025
imageИзображение не доступно для предпросмотра
@machinelearning_ru
1200
20:04
14.02.2025
Евгений Разинков – преподаватель ML в Казанском университете с многолетним стажем, руководитель собственной команды ML-инженеров и автор популярного канала по машинному обучению на YouTube
приглашает вас в свою AI-школу.
Особенности:
• теория и практика
• акцент на самостоятельную реализацию архитектур с нуля
• полное понимание того, что происходит внутри нейронной сети
• архитектуры от сверточных нейронных сетей до трансформеров и языковых моделей.
Регулярные живые QA-сессии, дружное комьюнити, а также компетишены, где можно будет посоревноваться (в командах и поодиночке) в решении ML задач.
От вас: владение Python и знание основ классического ML (регрессия, классификация, градиентный спуск).
Если классический ML не знаете - есть базовые курсы по ML.
7 месяцев, 4 курса:
• AI: от основ до языковых моделей
• Math for AI - необходимый математический бэкграунд
• MLOps - всё про жизненный цикл модели, логирование, версионирование, docker
• Decision making in AI - управление AI-проектом и стратегия
В рамках Capstone Project вы с нуля реализуете и обучите небольшую языковую модель для генерации простых историй, а также выведете ее в продакшн.
Полная стоимость за 7 месяцев (все 4 курса):
• 112 000 рублей (единоразово)
или
• 17 000 рублей в месяц
Если материалы вам не понравятся, мы вернем деньги за текущий оплаченный месяц (и последующие при единоразовой оплате)!
Старт уже 17 февраля, скорее регистрируйтесь здесь!
Еще больше подробностей о курсе ищите в видео и на странице с отзывами участников.
Кстати, теоретические видео курса AI: от основ до трансформеров находятся в открытом доступе на канале Евгения!
ООО «Лаборатория Евгения Разинкова», ИНН: 5043088023, erid: 2VtzqxKcuC1
приглашает вас в свою AI-школу.
Особенности:
• теория и практика
• акцент на самостоятельную реализацию архитектур с нуля
• полное понимание того, что происходит внутри нейронной сети
• архитектуры от сверточных нейронных сетей до трансформеров и языковых моделей.
Регулярные живые QA-сессии, дружное комьюнити, а также компетишены, где можно будет посоревноваться (в командах и поодиночке) в решении ML задач.
От вас: владение Python и знание основ классического ML (регрессия, классификация, градиентный спуск).
Если классический ML не знаете - есть базовые курсы по ML.
7 месяцев, 4 курса:
• AI: от основ до языковых моделей
• Math for AI - необходимый математический бэкграунд
• MLOps - всё про жизненный цикл модели, логирование, версионирование, docker
• Decision making in AI - управление AI-проектом и стратегия
В рамках Capstone Project вы с нуля реализуете и обучите небольшую языковую модель для генерации простых историй, а также выведете ее в продакшн.
Полная стоимость за 7 месяцев (все 4 курса):
• 112 000 рублей (единоразово)
или
• 17 000 рублей в месяц
Если материалы вам не понравятся, мы вернем деньги за текущий оплаченный месяц (и последующие при единоразовой оплате)!
Старт уже 17 февраля, скорее регистрируйтесь здесь!
Еще больше подробностей о курсе ищите в видео и на странице с отзывами участников.
Кстати, теоретические видео курса AI: от основ до трансформеров находятся в открытом доступе на канале Евгения!
ООО «Лаборатория Евгения Разинкова», ИНН: 5043088023, erid: 2VtzqxKcuC1
1200
17:38
14.02.2025
imageИзображение не доступно для предпросмотра
@machinelearning_ru
1300
11:04
14.02.2025
imageИзображение не доступно для предпросмотра
⚡️ Разбор собеседования по машинному обучению в Озон 2025
https://uproger.com/razbor-sobesedovaniya-po-mashinnomu-obucheniyu-v-ozon-2025/
@machinelearning_ru
https://uproger.com/razbor-sobesedovaniya-po-mashinnomu-obucheniyu-v-ozon-2025/
@machinelearning_ru
1300
06:59
14.02.2025
imageИзображение не доступно для предпросмотра
Anthropic готовится к выпуску новой модели, объединяющей возможности традиционной LLM с расширенными функциями рассуждения. Ожидается, что модель будет доступна в ближайшие недели и ориентирована на корпоративных клиентов.
Ключевая особенность новой модели - переменное распределение ресурсов, позволяющее пользователям регулировать вычислительную мощность, используемую моделью для каждой задачи, с помощью простого слайдера. На минимальном уровне модель функционирует как стандартная LLM без цепочки рассуждений.
theinformation.com
@machinelearning_ru
1400
05:18
14.02.2025
close
С этим каналом часто покупают
Отзывы канала
keyboard_arrow_down
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
5.0
0 отзыва за 6 мес.
i
**anov@****.agency
на сервисе с января 2024
13.03.202419:19
5
Оперативное размещение
Показать еще
Новинки в тематике
Лучшие в тематике
Статистика канала
Рейтинг
26.3
Оценка отзывов
5.0
Выполнено заявок
47
Подписчики:
17.3K
Просмотры на пост:
lock_outline
ER:
6.1%
Публикаций в день:
1.0
CPV
lock_outlineВыбрано
0
каналов на сумму:0.00₽
Подписчики:
0
Просмотры:
lock_outline
Перейти в корзинуКупить за:0.00₽
Комментарий