
Получите клиентов в любой нише!
Делегируйте запуск рекламы нам — бесплатно
Подробнее
19.2

Neurogen
5
Канал посвящен популяризации нейросетей. Автор выпускает удобные портативные программы для работы с ними, а также пишет о различных интересных релизах и новостях из мира ИИ.
Поделиться
В избранное
Купить рекламу в этом канале
Формат:
keyboard_arrow_down
- 1/24
- 2/48
- 3/72
- Нативный
- 7 дней
- Репост
1 час в топе / 24 часа в ленте
Количество:
%keyboard_arrow_down
- 1
- 2
- 3
- 4
- 5
- 8
- 10
- 15
Стоимость публикации:
local_activity
13 597.19₽13 597.19₽local_mall
0.0%
Осталось по этой цене:0
Последние посты канала
imageИзображение не доступно для предпросмотра
Тесты Gemini 2.5 Flash против других моделей
Что такое Gemini 2.5 Flash
Gemini 2.5 Flash — новейшая модель от Google, первая полностью гибридная модель рассуждений с возможностью управления "мышлением" для оптимального баланса качества, стоимости и скорости.
⚙️ Технические характеристики
- Контекстное окно: 1 миллион токенов
- Максимальный вывод: 65 тысяч токенов
- Поддержка: текст, изображения, аудио, видео
- Дата обрезки знаний: январь 2025
- Стоимость: $0.15/млн входных токенов, $0.60/млн выходных токенов
📈 Сравнение с GPT-4o
- GPT-4o: 128K контекст, 16.4K макс.вывод, релиз 13 мая 2024
- Цена GPT-4o: в 16.7 раз дороже Gemini 2.5 Flash
- Бенчмарки GPT-4o: MMLU (85.7%), HumanEval (90.2%), MATH (75.9%)
- Gemini 2.5 Flash в Humanity's Last Exam: 12.1%
🔄 Сравнение с Claude 3.7 Sonnet
- Claude 3.7 Sonnet: 200K контекст, 8,192 макс. вывод, релиз 2 апреля 2025
- Цена Claude: в 17.3 раза дороже Gemini 2.5 Flash
- Бенчмарки Claude: MMLU (84.8%), HumanEval (89.1%), GSM8K (95%)
⚡️ Сравнение с OpenAI o4-mini
- o4-mini: 200K контекст, 100K макс.вывод, релиз 16 апреля 2025
- Цена o4-mini: в 7.3 раза дороже Gemini 2.5 Flash
- Бенчмарки o4-mini: GPQA (81.4%), AIME2024 (93.4%), MMMU (81.6%)
- В Humanity's Last Exam: o4-mini — 14.28%, Gemini 2.5 Flash — 12.1%
🔍 Ключевые различия
vs GPT-4o:
- Gemini 2.5 Flash: больше контекст, дешевле, поддержка голоса и видео
vs Claude 3.7 Sonnet:
- Gemini 2.5 Flash: дешевле, больше контекст, больше модальностей
vs o4-mini:
- Gemini 2.5 Flash: больше контекст, намного дешевле
- o4-mini: чуть лучше в бенчмарках
💡 Особенности Gemini 2.5 Flash
- Контролируемое рассуждение: бюджет на "размышления" (0-24,576 токенов)
- Гибридное рассуждение: балансирует скорость/качество
- Экономичность: лучшее соотношение цены/производительности
- Мультимодальность: все типы контента
- Огромный контекст: 1M токенов
⛏ Реальные тесты
- Скорость: 142-199 токенов/сек
- Сильные стороны: кодирование, математика (с режимом расширенного рассуждения)
- Экономия на длительных задачах
🎙 Вывод
Gemini 2.5 Flash — экономичная альтернатива: в 7-24 раза дешевле конкурентов, с большим контекстом, гибким контролем рассуждений и поддержкой всех модальностей. Идеально для задач с большими объемами данных при ограниченном бюджете.
Что такое Gemini 2.5 Flash
Gemini 2.5 Flash — новейшая модель от Google, первая полностью гибридная модель рассуждений с возможностью управления "мышлением" для оптимального баланса качества, стоимости и скорости.
- Контекстное окно: 1 миллион токенов
- Максимальный вывод: 65 тысяч токенов
- Поддержка: текст, изображения, аудио, видео
- Дата обрезки знаний: январь 2025
- Стоимость: $0.15/млн входных токенов, $0.60/млн выходных токенов
- GPT-4o: 128K контекст, 16.4K макс.вывод, релиз 13 мая 2024
- Цена GPT-4o: в 16.7 раз дороже Gemini 2.5 Flash
- Бенчмарки GPT-4o: MMLU (85.7%), HumanEval (90.2%), MATH (75.9%)
- Gemini 2.5 Flash в Humanity's Last Exam: 12.1%
- Claude 3.7 Sonnet: 200K контекст, 8,192 макс. вывод, релиз 2 апреля 2025
- Цена Claude: в 17.3 раза дороже Gemini 2.5 Flash
- Бенчмарки Claude: MMLU (84.8%), HumanEval (89.1%), GSM8K (95%)
- o4-mini: 200K контекст, 100K макс.вывод, релиз 16 апреля 2025
- Цена o4-mini: в 7.3 раза дороже Gemini 2.5 Flash
- Бенчмарки o4-mini: GPQA (81.4%), AIME2024 (93.4%), MMMU (81.6%)
- В Humanity's Last Exam: o4-mini — 14.28%, Gemini 2.5 Flash — 12.1%
vs GPT-4o:
- Gemini 2.5 Flash: больше контекст, дешевле, поддержка голоса и видео
vs Claude 3.7 Sonnet:
- Gemini 2.5 Flash: дешевле, больше контекст, больше модальностей
vs o4-mini:
- Gemini 2.5 Flash: больше контекст, намного дешевле
- o4-mini: чуть лучше в бенчмарках
- Контролируемое рассуждение: бюджет на "размышления" (0-24,576 токенов)
- Гибридное рассуждение: балансирует скорость/качество
- Экономичность: лучшее соотношение цены/производительности
- Мультимодальность: все типы контента
- Огромный контекст: 1M токенов
- Скорость: 142-199 токенов/сек
- Сильные стороны: кодирование, математика (с режимом расширенного рассуждения)
- Экономия на длительных задачах
Gemini 2.5 Flash — экономичная альтернатива: в 7-24 раза дешевле конкурентов, с большим контекстом, гибким контролем рассуждений и поддержкой всех модальностей. Идеально для задач с большими объемами данных при ограниченном бюджете.
5400
19:11
21.04.2025
imageИзображение не доступно для предпросмотра
⚡️ Розыгрыш 10 подписок ChatGPT Plus на месяц — счастливчики получат доступ к платным нейросетям от OpenAI (Sora, Deep Research, GPT-4o, DALL-E и тд).
Условия простые:
1. Подписаться на Not Boring Tech — канал про лучшие нейросети для работы и рутины.
2. Подписаться на Neurogen — популяризатора нейросетей и разработчика-энтузиаста.
3. Нажать «Участвовать» под этим постом.
Итоги подведём через две недели случайным образом при помощи бота. Всем удачи!
Условия простые:
1. Подписаться на Not Boring Tech — канал про лучшие нейросети для работы и рутины.
2. Подписаться на Neurogen — популяризатора нейросетей и разработчика-энтузиаста.
3. Нажать «Участвовать» под этим постом.
Итоги подведём через две недели случайным образом при помощи бота. Всем удачи!
4900
15:56
21.04.2025
play_circleВидео недоступно для предпросмотра
SkyReels‑V2 - новая SOTA среди open-source моделей для генерации видео
SkyReels‑V2 — открытая система генерации видео произвольной длины по текстовым и визуальным подсказкам. Благодаря технологии Diffusion Forcing обеспечивает бесшовное продолжение кадров и создаёт «бесконечную» ленту.
Основные возможности
• Text‑to‑Video (T2V): ролик по текстовому описанию
• Image‑to‑Video (I2V): превращение одного изображения в анимацию
• Prompt Enhancer: встроенный LLM для расширения и детализации подсказок
• USP/xDiT: распределённый инференс между GPU для ускорения вывода
• SkyCaptioner: автоматическая генерация субтитров и аннотаций
• В планах: модуль «Camera Director» и выпуск версии с 5 B параметров
Конфигурации и аппаратные требования
Версия Кадров × разрешение Необходимая VRAM (1 GPU)
DF‑1.3 B 97 × 540 P ≈ 15 ГБ
DF‑14 B 97 × 540 P ≈ 51 ГБ
T2V‑14 B 121 × 540 / 720 P ≈ 43 ГБ
Ключевые технологии
Diffusion Model: «очистка» шума и восстановление деталей
Diffusion Forcing: фрагментарный шум и поэтапное восстановление для «бесшовности»
Reinforcement Learning: оценка плавности кадров и оптимизация поведения
Supervised Fine‑Tuning: доводка на высококачественных видеоматериалax
Производительность
• Human Bench: 3.14/5 — лучший среди открытых решений, близко к коммерческим сервисам
• V‑Bench: 83.9 % — наивысший показатель качества в open‑source
Все доступные варианты уже можно скачать на HuggingFaces
Протестировать онлайн можно на официальном сайте Skyreels
Ну что же, теперь ждем квантованные GGUF версии и поддержку в ComfyUI
upd.: Пошли первые воркфлоу для Comfy
SkyReels‑V2 — открытая система генерации видео произвольной длины по текстовым и визуальным подсказкам. Благодаря технологии Diffusion Forcing обеспечивает бесшовное продолжение кадров и создаёт «бесконечную» ленту.
Основные возможности
• Text‑to‑Video (T2V): ролик по текстовому описанию
• Image‑to‑Video (I2V): превращение одного изображения в анимацию
• Prompt Enhancer: встроенный LLM для расширения и детализации подсказок
• USP/xDiT: распределённый инференс между GPU для ускорения вывода
• SkyCaptioner: автоматическая генерация субтитров и аннотаций
• В планах: модуль «Camera Director» и выпуск версии с 5 B параметров
Конфигурации и аппаратные требования
Версия Кадров × разрешение Необходимая VRAM (1 GPU)
DF‑1.3 B 97 × 540 P ≈ 15 ГБ
DF‑14 B 97 × 540 P ≈ 51 ГБ
T2V‑14 B 121 × 540 / 720 P ≈ 43 ГБ
Ключевые технологии
Diffusion Model: «очистка» шума и восстановление деталей
Diffusion Forcing: фрагментарный шум и поэтапное восстановление для «бесшовности»
Reinforcement Learning: оценка плавности кадров и оптимизация поведения
Supervised Fine‑Tuning: доводка на высококачественных видеоматериалax
Производительность
• Human Bench: 3.14/5 — лучший среди открытых решений, близко к коммерческим сервисам
• V‑Bench: 83.9 % — наивысший показатель качества в open‑source
Все доступные варианты уже можно скачать на HuggingFaces
Протестировать онлайн можно на официальном сайте Skyreels
Ну что же, теперь ждем квантованные GGUF версии и поддержку в ComfyUI
upd.: Пошли первые воркфлоу для Comfy
SkyReels‑V2 - новая SOTA среди open-source моделей для генерации видео
SkyReels‑V2 — открытая система генерации видео произвольной длины по текстовым и визуальным подсказкам. Благодаря технологии Diffusion Forcing обеспечивает бесшовное продолжение кадров и создаёт «бесконечную» ленту.
Основные возможности
• Text‑to‑Video (T2V): ролик по текстовому описанию
• Image‑to‑Video (I2V): превращение одного изображения в анимацию
• Prompt Enhancer: встроенный LLM для расширения и детализации подсказок
• USP/xDiT: распределённый инференс между GPU для ускорения вывода
• SkyCaptioner: автоматическая генерация субтитров и аннотаций
• В планах: модуль «Camera Director» и выпуск версии с 5 B параметров
Конфигурации и аппаратные требования
Версия Кадров × разрешение Необходимая VRAM (1 GPU)
DF‑1.3 B 97 × 540 P ≈ 15 ГБ
DF‑14 B 97 × 540 P ≈ 51 ГБ
T2V‑14 B 121 × 540 / 720 P ≈ 43 ГБ
Ключевые технологии
Diffusion Model: «очистка» шума и восстановление деталей
Diffusion Forcing: фрагментарный шум и поэтапное восстановление для «бесшовности»
Reinforcement Learning: оценка плавности кадров и оптимизация поведения
Supervised Fine‑Tuning: доводка на высококачественных видеоматериалax
Производительность
• Human Bench: 3.14/5 — лучший среди открытых решений, близко к коммерческим сервисам
• V‑Bench: 83.9 % — наивысший показатель качества в open‑source
Все доступные варианты уже можно скачать на HuggingFaces
Протестировать онлайн можно на официальном сайте Skyreels
Ну что же, теперь ждем квантованные GGUF версии и поддержку в ComfyUI
upd.: Пошли первые воркфлоу для Comfy
SkyReels‑V2 — открытая система генерации видео произвольной длины по текстовым и визуальным подсказкам. Благодаря технологии Diffusion Forcing обеспечивает бесшовное продолжение кадров и создаёт «бесконечную» ленту.
Основные возможности
• Text‑to‑Video (T2V): ролик по текстовому описанию
• Image‑to‑Video (I2V): превращение одного изображения в анимацию
• Prompt Enhancer: встроенный LLM для расширения и детализации подсказок
• USP/xDiT: распределённый инференс между GPU для ускорения вывода
• SkyCaptioner: автоматическая генерация субтитров и аннотаций
• В планах: модуль «Camera Director» и выпуск версии с 5 B параметров
Конфигурации и аппаратные требования
Версия Кадров × разрешение Необходимая VRAM (1 GPU)
DF‑1.3 B 97 × 540 P ≈ 15 ГБ
DF‑14 B 97 × 540 P ≈ 51 ГБ
T2V‑14 B 121 × 540 / 720 P ≈ 43 ГБ
Ключевые технологии
Diffusion Model: «очистка» шума и восстановление деталей
Diffusion Forcing: фрагментарный шум и поэтапное восстановление для «бесшовности»
Reinforcement Learning: оценка плавности кадров и оптимизация поведения
Supervised Fine‑Tuning: доводка на высококачественных видеоматериалax
Производительность
• Human Bench: 3.14/5 — лучший среди открытых решений, близко к коммерческим сервисам
• V‑Bench: 83.9 % — наивысший показатель качества в open‑source
Все доступные варианты уже можно скачать на HuggingFaces
Протестировать онлайн можно на официальном сайте Skyreels
Ну что же, теперь ждем квантованные GGUF версии и поддержку в ComfyUI
upd.: Пошли первые воркфлоу для Comfy
5500
09:34
21.04.2025
imageИзображение не доступно для предпросмотра
FramePack — это новая прорывная технология для создания видео. Её главная особенность — умное использование информации о кадрах, что позволяет создавать длинные видео даже на слабых компьютерах.
На 3060ti 8Gb генерация 1 секунды видео длится, примерно, 4 минуты.
Как это работает?
FramePack умно распределяет компьютерные ресурсы:
1. Каждый кадр обрабатывается с разной степенью внимания
2. Важным кадрам (которые ближе к текущему моменту) уделяется больше вычислительных ресурсов
3. Разные части изображения обрабатываются по-разному, в зависимости от их важности
4. Благодаря такому подходу компьютер тратит одинаковое количество ресурсов, независимо от длины видео
Технология также решает проблему "размытия и искажения" в длинных видео с помощью специального двустороннего метода, который оглядывается не только на прошлые, но и на будущие кадры.
Портативная версия
Я добавил в сборку дополнительный функционал из различных форков:
- Поддержка генерации по первому и последнему кадру
- Поддержка установки промпта по временным промежуткам, например:[0s-2s: Person waves] [2s-4s: Person jumps]
Кроме этого, в отличие от оригинала сборка собрана на базе Cuda 12.8, с поддержкой SageAttention 2, FlashAttention 2 и xformers
По тестам, 1 секунда видео генерируется 60-80 секунд.
Скачать:
Облегченная версия (модели загрузятся сами при старте)
Скачать с Зеркала (у кого проблемы с Яндекс Диском)
5100
03:46
21.04.2025
Буквально недавно, наша команда пополнилась редактором новостей.
В целом, я думаю вы заметили, что постов стало больше. Мы немного продолжаем экспериментировать с подачей информации, но также нам хотелось бы узнать, чего бы вам больше хотелось видеть, какого материала по каким тематикам?
В целом, я думаю вы заметили, что постов стало больше. Мы немного продолжаем экспериментировать с подачей информации, но также нам хотелось бы узнать, чего бы вам больше хотелось видеть, какого материала по каким тематикам?
8000
15:36
02.03.2025
Tencent у себя в твиттере заявила, что через неделю выйдет I2V модель HunyanVideo.
Думаю, дождусь ужатых версий и тогда уже и обновлю свою "видео-сборку" и запишу все необходимые гайды по работе.
За наводку спасибо @TensorBanana
Думаю, дождусь ужатых версий и тогда уже и обновлю свою "видео-сборку" и запишу все необходимые гайды по работе.
За наводку спасибо @TensorBanana
6800
07:34
01.03.2025
«Яндекс» выпустил модель YandexGPT 5 и назвали ее "опенсорс"
Компания Яндекс заявила, что их YandexGPT 5 Pro сравнима с GPT-4o и превосходит китайскую Qwen 2.5.
В целом они представили свою новую модель как сверхмощная нейронка, а на деле она до сих пор не проходит старые тесты и модель осталось на уровне старой Алисы, такая же тупая.
"В компании заявляют, что обновлённая «Алиса Про» с YandexGPT 5 Pro научилась писать код, выполнять логические задания и расписывать ход решения задачи пошагово", как не странно код нормально написать YandexGPT5 тоже не может.
Касательно опенсорса все вообще печально, по определению модель от Яндекс не подходит даже под OpenSourceAI, если углубиться в их лицензионное соглашение, то разработчики ограничены даже в изменениях открытого кода и использования модели в коммерческих целях. Согласно соглашению, модель может использоваться только в некоммерческих и исследовательских целях. Это означает, что коммерческое использование модели запрещено без предварительного соглашения правообладателя. Кроме того, модификация выходных моделей данных, включая изменение их содержания или назначения, также не регулируется законом.
⚙️ Технические данные которые нам даёт Яндекс:
YandexGPT 5 Pro:
🟡 Длина контекста: Поддерживает до 32 000 токенов.
🟡 Качество и производительность: Сравнима по качеству ответов с GPT-4o и в 64% случаев превосходит китайскую модель Qwen2.5 (Qwen-2.5-32b-Instruct) в решении стандартных задач.
🟡 Функциональность: Способна генерировать и анализировать программный код с поддержкой более 15 языков программирования, решать математические задачи с пошаговым объяснением, а также проводить мультидоменный анализ документов, включая юридические, технические и медицинские тексты.
🟡 Интеграция: Внедрена в чат с голосовым помощником «Алиса», доступна через Yandex Cloud AI Studio и сервис Yandex SpeechSense для бизнес-решений.
YandexGPT 5 Lite:
🟡 Размер модели: Содержит 8 миллиардов параметров.
🟡 Длина контекста: Поддерживает до 32 000 токенов.
-🟡 Обучение: Прошла двухэтапное обучение: на первом этапе — на 15 триллионах токенов преимущественно русскоязычных и англоязычных текстов; на втором этапе — на 320 миллиардах высококачественных токенов.
🟡 Доступность: Опубликована в свободном доступе на платформе Hugging Face, что позволяет разработчикам дообучать модель под свои специфические задачи.
Компания Яндекс заявила, что их YandexGPT 5 Pro сравнима с GPT-4o и превосходит китайскую Qwen 2.5.
В целом они представили свою новую модель как сверхмощная нейронка, а на деле она до сих пор не проходит старые тесты и модель осталось на уровне старой Алисы, такая же тупая.
"В компании заявляют, что обновлённая «Алиса Про» с YandexGPT 5 Pro научилась писать код, выполнять логические задания и расписывать ход решения задачи пошагово", как не странно код нормально написать YandexGPT5 тоже не может.
Касательно опенсорса все вообще печально, по определению модель от Яндекс не подходит даже под OpenSourceAI, если углубиться в их лицензионное соглашение, то разработчики ограничены даже в изменениях открытого кода и использования модели в коммерческих целях. Согласно соглашению, модель может использоваться только в некоммерческих и исследовательских целях. Это означает, что коммерческое использование модели запрещено без предварительного соглашения правообладателя. Кроме того, модификация выходных моделей данных, включая изменение их содержания или назначения, также не регулируется законом.
YandexGPT 5 Pro:
YandexGPT 5 Lite:
-
6800
12:17
27.02.2025
Думаю сделать обзор-сравнение на колонки от Сбера и Яндекса.
И если с Яндексом все понятнее, то к Сберу есть вопросы, касаемо стабильности и ряда других серьёзных минусов.
Если вдруг кто-то из представителей Сбер Девайсов имеет желание разобраться до публикации обзора: @roman_neurogen
И если с Яндексом все понятнее, то к Сберу есть вопросы, касаемо стабильности и ряда других серьёзных минусов.
Если вдруг кто-то из представителей Сбер Девайсов имеет желание разобраться до публикации обзора: @roman_neurogen
6000
09:54
27.02.2025
FaceFusion Portable by Neurogen v3.1.2 | Added support RTX 50xx GPUs
Техническое обновление. Что нового:
- Код обновлен до актуального на момент 23.02.2025
- Собрано на основе Cuda 12.8 и Python 3.12
- TensorRT обновлен до версии 10.8.
- Добавлена нативная поддержка видеокарт серии RTX 50xx (RTX 5070 Ti, RTX 5080, RTX 5090)
FaceFusion - это некий "комбайн" из различных нейросетевых моделей для работы с видео и фото. Программа включает в себя:
- Возможность замены лица на фото или видео (DeepFake)
- Синхронизацию губ в видео по аудиодорожке (LipSync)
- Колоризацию старых черно-белых видео и фото (Frame Colorizer)
- Улучшение качества лица на фото или видео (Face enhancer)
- Увеличение разрешения видео или фото (Upscale)
- Возможность изменения возраста лица (Age Modifier)
- Редактор эмоций и выражения лица (expression restorer и face editor)
Видеообзор прошлых версий программы: Видео 1, Видео 2
В силу наших закулисных трений с разработчиком FaceFusion, сборка доступна по подписке на приватный Телеграм канал со сборками:
Скачать FaceFusion Portable. Подписку можно оформить через ЮMoney, USDT, Telegram Stars
#portable #facefusion
Техническое обновление. Что нового:
- Код обновлен до актуального на момент 23.02.2025
- Собрано на основе Cuda 12.8 и Python 3.12
- TensorRT обновлен до версии 10.8.
- Добавлена нативная поддержка видеокарт серии RTX 50xx (RTX 5070 Ti, RTX 5080, RTX 5090)
FaceFusion - это некий "комбайн" из различных нейросетевых моделей для работы с видео и фото. Программа включает в себя:
- Возможность замены лица на фото или видео (DeepFake)
- Синхронизацию губ в видео по аудиодорожке (LipSync)
- Колоризацию старых черно-белых видео и фото (Frame Colorizer)
- Улучшение качества лица на фото или видео (Face enhancer)
- Увеличение разрешения видео или фото (Upscale)
- Возможность изменения возраста лица (Age Modifier)
- Редактор эмоций и выражения лица (expression restorer и face editor)
Видеообзор прошлых версий программы: Видео 1, Видео 2
В силу наших закулисных трений с разработчиком FaceFusion, сборка доступна по подписке на приватный Телеграм канал со сборками:
Скачать FaceFusion Portable. Подписку можно оформить через ЮMoney, USDT, Telegram Stars
#portable #facefusion
6000
03:49
27.02.2025
LoRA для модели HunyuanVideo позволяет вам генерировать промежуточные кадры! Вы можете создать полноценное видео имея начальный и конечный кадр, грубо говоря сшить начальный и конечный кадр создав между ними промежуточные.
Как пользоваться?
Идеально подходит для:
5800
21:07
26.02.2025
close
С этим каналом часто покупают
Отзывы канала
Отзывов нет
Новинки в тематике
Лучшие в тематике
Статистика канала
Рейтинг
19.2
Оценка отзывов
0.0
Выполнено заявок
9
Подписчики:
22.5K
Просмотры на пост:
lock_outline
ER:
19.7%
Публикаций в день:
0.0
CPV
lock_outlineВыбрано
0
каналов на сумму:0.00₽
Подписчики:
0
Просмотры:
lock_outline
Перейти в корзинуКупить за:0.00₽
Комментарий