

- Главная
- Каталог
- Интернет технологии
- Больши данные AI
Статистика канала
Полная статистикаchevron_rightКарпаты показал, как добавить новую функцию в мини-LLM nanochat d32, чьи размеры он сравнил с «мозгом пчелы».
Он обучил модель считать, сколько раз буква r встречается в слове strawberry - и использовал этот пример, чтобы показать, как можно наделять маленькие языковые модели новыми навыками через синтетические задачи.
Он использует задачу SpellingBee, которая генерирует диалоги вида:
> «Сколько букв r в слове strawberry?»
и правильные ответы.
После этого модель дообучается (**SFT**) или проходит обучение с подкреплением (RL), чтобы закрепить навык.
Далее модель проходит дообучение (SFT) или обучение с подкреплением (RL), чтобы закрепить навык.
Карпаты объясняет, что для маленьких моделей важно продумывать всё до мелочей, как разнообразить запросы, как устроена токенизация и даже где ставить пробелы.
Он показывает, что рассуждения лучше разбивать на несколько шагов, тогда модель легче «понимает» задачу.
Nanochat решает задачу двумя способами:
— логически, рассуждая пошагово,
— и через встроенный Python-интерпретатор, выполняя вычисления прямо внутри чата.
🧩 Идея в том, что даже крошечные LLM можно «научить думать», если правильно подготовить примеры и синтетические данные.
📘 Полный разбор: github.com/karpathy/nanochat/discussions/164
@ai_machinelearning_big_data
#AI #Karpathy #Nanochat #LLM #SFT #RL #MachineLearning #OpenSource
Карпаты показал, как добавить новую функцию в мини-LLM nanochat d32, чьи размеры он сравнил с «мозгом пчелы».
Он обучил модель считать, сколько раз буква r встречается в слове strawberry - и использовал этот пример, чтобы показать, как можно наделять маленькие языковые модели новыми навыками через синтетические задачи.
Он использует задачу SpellingBee, которая генерирует диалоги вида:
> «Сколько букв r в слове strawberry?»
и правильные ответы.
После этого модель дообучается (**SFT**) или проходит обучение с подкреплением (RL), чтобы закрепить навык.
Далее модель проходит дообучение (SFT) или обучение с подкреплением (RL), чтобы закрепить навык.
Карпаты объясняет, что для маленьких моделей важно продумывать всё до мелочей, как разнообразить запросы, как устроена токенизация и даже где ставить пробелы.
Он показывает, что рассуждения лучше разбивать на несколько шагов, тогда модель легче «понимает» задачу.
Nanochat решает задачу двумя способами:
— логически, рассуждая пошагово,
— и через встроенный Python-интерпретатор, выполняя вычисления прямо внутри чата.
🧩 Идея в том, что даже крошечные LLM можно «научить думать», если правильно подготовить примеры и синтетические данные.
📘 Полный разбор: github.com/karpathy/nanochat/discussions/164
@ai_machinelearning_big_data
#AI #Karpathy #Nanochat #LLM #SFT #RL #MachineLearning #OpenSource
🔍 Главное
- Локальное распознавание речи на базе Whisper
- Визуальное редактирование и синхронный предпросмотр
- Экспорт в SRT / JSON
- Кастомизация стилей и поддержка разных языков
👉 Репозиторий: https://github.com/x007xyz/flycut-caption
Этот контраст между юмором и технологиями работает отлично: Илья просто и понятно объясняет, как запускать передовые AI-сценарии: с помощью AI анализировать данные и автоматизировать процессы, даже если вы не техлид.
Cloud.ru доказывает, что их сервисы — это действительно просто и удобно.
Узнайте, как про AI рассказывают с шутками (и без багов)
Реклама. ООО «Облачные технологии», ИНН: 7736279160. Erid: 2W5zFHrkSfS. 0+
Команда LongCat выпустила VitaBench - открытый набор тестов, оценивающий, как искусственные агенты справляются с задачами из реальной жизни: доставка еды, рестораны и путешествия.
Бенчмарк проверяет три ключевых способности — рассуждение, использование инструментов и адаптивное взаимодействие.
Результаты более 20 лучших моделей оказались низкими: средний успех 30% между сценариями и 48% внутри одного. Даже топовые reasoning-модели показывают нестабильность — идеальных результатов (4 из 4 успешных запусков) нет вовсе.
Авторы отмечают, что агенты пока не готовы к надёжной работе в продакшене, но VitaBench помогает точно измерять прогресс и сложность агентных задач.
🌐 Project & Leaderboards: http://vitabench.github.io
💻 Code: https://github.com/meituan-longcat/vitabench
🤗 Dataset: https://huggingface.co/datasets/meituan-longcat/VitaBench
Сегодня Hugging Face сообщает о выпуске интерактивного инструмента *FineWiki Viewer* - визуальной оболочки для работы с датасетом FineWiki, содержащим в себе качественно извлечённые данные из Википедии на более чем 300 языках.
То есть теперь исследователи и инженеры могут не просто скачивать сырые тексты, а исследовать язык-данные визуально: искать темы, оценивать баланс языков и анализировать структуру.
Новая возможность - ещё один шаг Hugging Face в построении “Экосистемы данных для открытой модели ИИ”, где не только модели, но и доступные и хорошо документированные данные становятся первым ресурсом.
https://huggingface.co/spaces/HuggingFaceFW/finewiki-viewer
VK запустил RecSys Challenge — соревнование по разработке алгоритмов рекомендаций.
Участникам предстоит решить одну из самых сложных проблем рекомендательных систем: предсказать, кому зайдёт ролик, который никто ещё не видел.
В основе датасет VK-LSVD:
40 млрд взаимодействий
20 млн роликов
Формат:
Студенты, исследователи, ML-инженеры — welcome
Призовой фонд — 2 500 000 рублей 💸
Читайте подробнее и регистрируйтесь до 15 декабря на сайте соревнования.
Этот репозиторий посвящен анализу проблем с производительностью на ноутбуках ASUS ROG, вызванным ошибками в прошивке ACPI. Исследуются причины задержек и прерываний, влияющих на работу системы, включая аудио и графику. Используются инструменты для диагностики и трассировки, чтобы выявить корень проблемы.
🚀Основные моменты:
- Анализ проблем с производительностью на ASUS ROG.
- Использование LatencyMon для выявления задержек.
- Трассировка ACPI с помощью ETW для детального анализа.
- Обнаружение системных ошибок и их влияние на работу GPU.
📌 GitHub: https://github.com/Zephkek/Asus-ROG-Aml-Deep-Dive
#c
25 октября Сбер проведёт сразу три экспресс-отбора кандидатов в две команды: GigaData и Kandinsky. Чем вам предстоит заниматься 👇
✔️ Развивать GigaData — внутреннюю платформу Сбера, которая обрабатывает петабайты данных и миллиарды запросов в сутки. One Day Offer для Python‑разработчиков.
✔️ Работать над Kandinsky — обучать большие модели с нуля, собирать и подготавливать данные, исследовать самые эффективные методы дообучения моделей.
— One Day Offer для Machine Learning Engineers с опытом в Deep Learning и компьютерном зрении (CV).
— One Day Offer для Research и Deep Learning Engineers.
Выбирайте то, что больше подходит под ваши навыки, и регистрируйтесь на One Day Offer!
SQL-инъекции остаются одной из самых частых и опасных уязвимостей в веб-приложениях. Ошибка в одном запросе — и злоумышленник получает доступ к базе данных, паролям и пользовательским данным.
В этом материале — полный практический разбор:
как именно происходят SQL-инъекции, какие ошибки разработчиков к ним приводят, как их распознать в коде и главное — как защититься.
Разберём реальные примеры на Python, PHP и Go, посмотрим, как атакующий «взламывает» запрос, и научимся писать безопасный код с параметризованными запросами и ORM.
Это не теория, а руководство, которое поможет понять уязвимость изнутри и навсегда закрыть её в своих проектах.
👉 Читать гайд
Отзывы канала
всего 3 отзыва
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
Каталог Телеграм-каналов для нативных размещений
Больши данные AI — это Telegam канал в категории «Интернет технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 16.9K и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 18.5, количество отзывов – 3, со средней оценкой 5.0.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 7972.02 ₽, а за 58 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий