
- Главная
- Каталог
- Интернет технологии
- Data Portal | Data Science & Машиннное обучение
Data Portal | Data Science & Машиннное обучение
Присоединяйтесь к нашему каналу и погрузитесь в мир для дата сайентиста Связь:
Статистика канала
Agent Development Kit, и он отлично сочетается с Gemini 3.1 Flash-Lite. Это значит, что теперь можно собирать always-on AI-агентов, которые работают 24/7 почти за копейки.
На 100% open source.
👉 @DataSciencegxautoresearch в новый самодостаточный минималистичный репозиторий, если кто-то хочет поиграться с ним на выходных. По сути, это training core из nanochat для LLM, ужатый до версии на одну GPU и один файл примерно на 630 строк кода, а дальше:
- человек итеративно дорабатывает промпт (.md)
- AI-агент итеративно дорабатывает training-код (.py)
Цель в том, чтобы спроектировать своих агентов так, чтобы они обеспечивали максимально быстрый исследовательский прогресс бесконечно долго и вообще без вашего участия.
На изображении каждая точка — это полный training run LLM, который длится ровно 5 минут. Агент работает в автономном цикле в git feature-ветке и накапливает git-коммиты в training-скрипт по мере того, как находит более удачные настройки, дающие меньший validation loss к концу обучения: архитектуру нейросети, оптимизатор, все гиперпараметры и так далее.
Можно представить, как сравнивается исследовательский прогресс разных промптов, разных агентов и так далее.
Часть код, часть sci-fi, и щепотка психоза :)
alpha
max_depth, число estimators, max_features (нельзя брать все признаки), min_samples_split и min_samples_leaf
xgboost / catboost / lightgbm, где смотришь на всё то же самое, что выше, плюс learning_rate, alpha / lambda, число leaves, subsample / colsample_bytree и boosting type, если он применим
kNN иногда используют; k-means полезен там, где очевидно, что главное это число кластеров
C и kernel, которые отвечают за линейные или нелинейные зависимости
NN layer -> normalization layer -> dropout layer. Иногда между normalization и dropout, или даже позже, ставят activation layer. Это уже зависит от того, нужна ли тебе гибкость в выборе места для активации, или ты просто убираешь её как отдельный слой и задаёшь activation прямо в параметрах слоя NN.
Qwen-Agent дает вам:
→ нативный function calling, встроенный прямо в сам фреймворк
→ безопасную песочницу с code interpreter из коробки
→ поддержку RAG и MCP
→ Chrome-расширение для agent workflow прямо в браузере
Это сделала команда, которая создала саму модель. Поэтому оно просто работает.
На 100% open source и полностью бесплатно.
Отзывы канала
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
Каталог Телеграм-каналов для нативных размещений
Data Portal | Data Science & Машиннное обучение — это Telegam канал в категории «Интернет технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 8.6K и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 8.0, количество отзывов – 1, со средней оценкой 5.0.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 5594.4 ₽, а за 12 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий