
💸 Скидки до 70% для бизнеса и финансов
Ловите лучшие слоты в каналах бизнес-тематик — только до 6 апреля!
Забрать скидку

Купить рекламу в этом канале
Формат:
keyboard_arrow_down
- 1/24
- 2/48
- 3/72
- Нативный
- 7 дней
- Репост
1 час в топе / 24 часа в ленте
Количество:
keyboard_arrow_down
- 1
- 2
- 3
- 4
- 5
- 8
- 10
- 15
Стоимость публикации:
local_activity
10 489.50₽10 489.50₽local_mall
0.0%
Осталось по этой цене:0
Последние посты канала
imageИзображение не доступно для предпросмотра
Ключевые аспекты исследования:
Роль таламуса в сознательном восприятии: Таламус, расположенный в центре мозга, участвует в обработке сенсорной информации и рабочей памяти. Ранее его роль в сознательном восприятии была предположительной; данное исследование предоставляет прямые доказательства его участия.
Методология: Участники, проходившие лечение от хронических головных болей с использованием глубоко имплантированных электродов, выполняли задания, требующие фиксации взгляда в зависимости от того, замечали ли они появление определенного значка на экране.
Это позволило исследователям записывать нейронную активность в таламусе и коре головного мозга во время осознания или неосознания стимула.
Участникам показывали иконку на экране таким образом, что они замечали (осознавали) ее появление только примерно в половине случаев. В это время исследователи одновременно записывали активность как из глубоких структур (таламуса), так и из коры головного мозга.
Выводы: Результаты показали, что активность в высокоуровневых ядрах таламуса тесно связана с состояниями сознания, подтверждая его роль в фильтрации и передаче информации, которая становится осознанной.
Это исследование расширяет понимание нейронных механизмов сознания, подчеркивая важность глубоких структур мозга, таких как таламус, в процессах осознания.
Работа позволяет изучить временные взаимосвязи (тайминг) активации между таламусом и корой, что критически важно для понимания того, как эти области взаимодействуют для порождения сознательного опыта. Это помогает строить более полные теории сознания, выходящие за рамки одной лишь коры.
@ai_machinelearning_big_data
#brain #science #nature
381
18:43
04.04.2025
imageИзображение не доступно для предпросмотра
🚨Уже совсем скоро: ML в действии — кейсы и практики внедрения на Data Fusion 2025!🚨
Как большие модели меняют большой бизнес? Что происходит в мире машинного обучения и умных систем прямо сейчас?
Если хотите быть в курсе трендов ML-архитектуры, то не пропустите Data Fusion 2025 — 2 дня насыщенной программы, где показывают не красивые презентации, а настоящее положение дел в индустрии.
250+ спикеров от науки, бизнеса и государственного управления расскажут о практиках внедрения ML:
— Инновационные методы оптимизации моделей: как сократить деньги и время на обучение моделей с помощью Transfer Learning и Meta-Learning, не теряя в точности.
— Синтетические данные как альтернатива реальным датасетам: какие технологии и подходы помогут создавать данные для обучения без ограничений на объем.
— Ошибки в обучении моделей: разбор реальных кейсов, где даже крупнейшие компании сталкивались с overfitting, underfitting и bias в данных и как этого можно избежать.
— ML в бизнесе: как машинное обучение меняет финансовую индустрию, медицину и e-commerce.
Участвуйте в живых дискуссиях, задавайте вопросы, которые помогут вам развиваться и находить решения своих задач — https://data-fusion.ru/
⚠ Внимание: для участия предусмотрена обязательная онлайн-регистрация — это не просто формальность, а стандарт безопасности конференции. Благодарим за понимание🙌
—
*ML — машинное обучение
*Transfer Learning — Использование модели для схожих задач
*Meta-Learning — Обучение модели обучаться
*Overfitting — Переобучение модели на данных
*Underfitting — Недообучение модели
*Bias — Систематическая ошибка модели
*E-commerce — Интернет-торговля товаров и услуг
Как большие модели меняют большой бизнес? Что происходит в мире машинного обучения и умных систем прямо сейчас?
Если хотите быть в курсе трендов ML-архитектуры, то не пропустите Data Fusion 2025 — 2 дня насыщенной программы, где показывают не красивые презентации, а настоящее положение дел в индустрии.
250+ спикеров от науки, бизнеса и государственного управления расскажут о практиках внедрения ML:
— Инновационные методы оптимизации моделей: как сократить деньги и время на обучение моделей с помощью Transfer Learning и Meta-Learning, не теряя в точности.
— Синтетические данные как альтернатива реальным датасетам: какие технологии и подходы помогут создавать данные для обучения без ограничений на объем.
— Ошибки в обучении моделей: разбор реальных кейсов, где даже крупнейшие компании сталкивались с overfitting, underfitting и bias в данных и как этого можно избежать.
— ML в бизнесе: как машинное обучение меняет финансовую индустрию, медицину и e-commerce.
Участвуйте в живых дискуссиях, задавайте вопросы, которые помогут вам развиваться и находить решения своих задач — https://data-fusion.ru/
⚠ Внимание: для участия предусмотрена обязательная онлайн-регистрация — это не просто формальность, а стандарт безопасности конференции. Благодарим за понимание🙌
—
*ML — машинное обучение
*Transfer Learning — Использование модели для схожих задач
*Meta-Learning — Обучение модели обучаться
*Overfitting — Переобучение модели на данных
*Underfitting — Недообучение модели
*Bias — Систематическая ошибка модели
*E-commerce — Интернет-торговля товаров и услуг
671
16:42
04.04.2025
imageИзображение не доступно для предпросмотра
✔️ Исследование Anthropic: ИИ скрывает свои мысли даже в цепочках рассуждений.
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
✔️ Исследование Anthropic: ИИ скрывает свои мысли даже в цепочках рассуждений.
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
726
06:20
04.04.2025
imageИзображение не доступно для предпросмотра
🛜 lti-Token Attention — инновационный механизм внимания, преодолевающий ограничение традиционных трансформеров.
Первые результаты впечатляют: в тестах на длинных контекстах MTA демонстрирует до 97% точности против 50% у обычных трансформеров, а при обучении на 105 млрд токенов показывает лучшую перплексию на arXiv, GitHub и Wikipedia.
🔗 Ссылка - *клик*
@machinelearning_ru
Первые результаты впечатляют: в тестах на длинных контекстах MTA демонстрирует до 97% точности против 50% у обычных трансформеров, а при обучении на 105 млрд токенов показывает лучшую перплексию на arXiv, GitHub и Wikipedia.
🔗 Ссылка - *клик*
@machinelearning_ru
1200
11:20
03.04.2025
imageИзображение не доступно для предпросмотра
🤖 Используем BERT для решения NLP задач
🗓 07 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP / Natural Language Processing».
Вебинар посвящен такой классической трансформерной модели BERT, которая в свое время совершила революцию в мире Natural Language Processing. На вебинаре вы узнаете, что представлет из себя модель BERT. И как с ее помощью можно легко и эффективно решать разнообразные NLP задачи.
Данный вебинар будет особенно интересен:
- Практикующим Data Scientist и ИТ-специалистам, которые хотят глубже погрузиться в область NLP
- Тем, кто хочет узнать, что делает ChatGPT такой умной
- Людям, освоившими основы машинного обучения, но желающими развиваться в области DS
В результате урока вы:
- Узнаете, устройство модели BERT
- Научитесь дообучать предобученные трансформерные модели
- Научитесь дообучать BERT и работать с ним на практике.
🔗 Ссылка на регистрацию: https://otus.pw/G8wR/?erid=2W5zFGXEV8t
#реклама
О рекламодателе
🗓 07 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP / Natural Language Processing».
Вебинар посвящен такой классической трансформерной модели BERT, которая в свое время совершила революцию в мире Natural Language Processing. На вебинаре вы узнаете, что представлет из себя модель BERT. И как с ее помощью можно легко и эффективно решать разнообразные NLP задачи.
Данный вебинар будет особенно интересен:
- Практикующим Data Scientist и ИТ-специалистам, которые хотят глубже погрузиться в область NLP
- Тем, кто хочет узнать, что делает ChatGPT такой умной
- Людям, освоившими основы машинного обучения, но желающими развиваться в области DS
В результате урока вы:
- Узнаете, устройство модели BERT
- Научитесь дообучать предобученные трансформерные модели
- Научитесь дообучать BERT и работать с ним на практике.
🔗 Ссылка на регистрацию: https://otus.pw/G8wR/?erid=2W5zFGXEV8t
#реклама
О рекламодателе
910
10:16
03.04.2025
imageИзображение не доступно для предпросмотра
🤖 Используем BERT для решения NLP задач
🗓 07 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP / Natural Language Processing».
Вебинар посвящен такой классической трансформерной модели BERT, которая в свое время совершила революцию в мире Natural Language Processing. На вебинаре вы узнаете, что представлет из себя модель BERT. И как с ее помощью можно легко и эффективно решать разнообразные NLP задачи.
Данный вебинар будет особенно интересен:
- Практикующим Data Scientist и ИТ-специалистам, которые хотят глубже погрузиться в область NLP
- Тем, кто хочет узнать, что делает ChatGPT такой умной
- Людям, освоившими основы машинного обучения, но желающими развиваться в области DS
В результате урока вы:
- Узнаете, устройство модели BERT
- Научитесь дообучать предобученные трансформерные модели
- Научитесь дообучать BERT и работать с ним на практике.
🔗 Ссылка на регистрацию: https://otus.pw/G8wR/?erid=2W5zFGXEV8t
#реклама
О рекламодателе
🗓 07 апреля в 18:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP / Natural Language Processing».
Вебинар посвящен такой классической трансформерной модели BERT, которая в свое время совершила революцию в мире Natural Language Processing. На вебинаре вы узнаете, что представлет из себя модель BERT. И как с ее помощью можно легко и эффективно решать разнообразные NLP задачи.
Данный вебинар будет особенно интересен:
- Практикующим Data Scientist и ИТ-специалистам, которые хотят глубже погрузиться в область NLP
- Тем, кто хочет узнать, что делает ChatGPT такой умной
- Людям, освоившими основы машинного обучения, но желающими развиваться в области DS
В результате урока вы:
- Узнаете, устройство модели BERT
- Научитесь дообучать предобученные трансформерные модели
- Научитесь дообучать BERT и работать с ним на практике.
🔗 Ссылка на регистрацию: https://otus.pw/G8wR/?erid=2W5zFGXEV8t
#реклама
О рекламодателе
910
10:16
03.04.2025
imageИзображение не доступно для предпросмотра
⚡️ZLUDA — новая экспериментальная технология, позволяющая запускать CUDA-приложения на видеокартах AMD без модификаций кода. Проект особенно интересен для обладателей видеокарт Radeon RX 5000+ серий, предлагая достойную альтернативу стеку NVIDIA. Пока решение остается в разработке, но уже есть тесты от GeekBench 5.5.1, которые показывают многообещающие результаты — производительность близка к нативной CUDA.
🧑💻Как это работает?
ZLUDA подменяет системные библиотеки CUDA, перенаправляя вызовы через совместимый с ROCm интерфейс. Для запуска достаточно скопировать DLL-файлы в директорию приложения или использовать специальный лаунчер.
‼️ Важно:
—Поддержка пока ограничена Windows и Linux
—Требуются свежие драйверы Adrenalin Edition
—MacOS не поддерживается
🔗 Ссылка - *клик*
🧑💻Как это работает?
ZLUDA подменяет системные библиотеки CUDA, перенаправляя вызовы через совместимый с ROCm интерфейс. Для запуска достаточно скопировать DLL-файлы в директорию приложения или использовать специальный лаунчер.
‼️ Важно:
—Поддержка пока ограничена Windows и Linux
—Требуются свежие драйверы Adrenalin Edition
—MacOS не поддерживается
🔗 Ссылка - *клик*
1400
11:31
01.04.2025
imageИзображение не доступно для предпросмотра
Поговорим про инженерные платформы и AI?
23 апреля Т-Банк приглашает на Platform Engineering Night. Приходите послушать, как AI помогает автоматизировать процессы, оптимизировать ресурсы и повысить продуктивность платформенных команд.
Что будет в программе:
— Доклады экспертов о применении AI в инженерных платформах.
— Зоны демонстрации AI-решений в платформах.
— Нетворкинг с инженерами и лидерами отрасли.
Встреча пройдет 23 апреля в 19:00 в T-Space по адресу Москва, Грузинский Вал, 7. Доклады можно послушать в онлайне.
Это бесплатно, успейте зарегистрироваться.
23 апреля Т-Банк приглашает на Platform Engineering Night. Приходите послушать, как AI помогает автоматизировать процессы, оптимизировать ресурсы и повысить продуктивность платформенных команд.
Что будет в программе:
— Доклады экспертов о применении AI в инженерных платформах.
— Зоны демонстрации AI-решений в платформах.
— Нетворкинг с инженерами и лидерами отрасли.
Встреча пройдет 23 апреля в 19:00 в T-Space по адресу Москва, Грузинский Вал, 7. Доклады можно послушать в онлайне.
Это бесплатно, успейте зарегистрироваться.
1300
09:29
01.04.2025
imageИзображение не доступно для предпросмотра
📖 Эта статья представляет O1-Pruner — метод оптимизации больших языковых моделей (LLM) с долгими цепочками рассуждений!
🌟 Современные модели, такие как OpenAI O1, выполняют сложные многошаговые рассуждения, что улучшает точность, но значительно увеличивает время вывода. O1-Pruner решает эту проблему с помощью техники Length-Harmonizing Fine-Tuning, которая уменьшает длину рассуждений без потери точности.
🌟 Метод сначала оценивает базовую производительность модели, а затем использует обучение с подкреплением (RL) для сокращения избыточных шагов рассуждения. В результате достигается меньшее время вывода и лучшие результаты на тестах математического мышления. Исследование показывает, что O1-Pruner снижает вычислительные затраты, сохраняя при этом высокий уровень точности.
🔗 Ссылка: *клик*
@machinelearning_ru
@machinelearning_ru
1500
10:01
31.03.2025
imageИзображение не доступно для предпросмотра
По Avito ML cup 2025 , документы еще не подписали. Текст согласовали:
🚀 Прими участие в ML Cup 2025 от Авито и выиграй 1,2 миллиона рублей!
Ты — специалист в области машинного обучения? Хочешь проверить свои силы в реальных задачах, с которыми ежедневно сталкиваются 1000+ специалистов Авито? Тогда не упусти шанс стать частью крупнейшего соревнования в этой области!
Что тебя ждет:
☑️ Денежный призовой фонд
☑️ Автоматизированная оценка решений
☑️ 2 практические задачи:
1️⃣ Персональные рекомендации — предскажи, какие товары вызовут интерес у миллионов пользователей → ссылка на регистрацию.
2️⃣ Поиск дублей — как с помощью CV находить похожие объявления даже при разных текстах и ракурсах фото → ссылка на регистрацию.
Выбирай одну или обе задачи, показывай лучшие результаты и получай шанс на победу! Участвовать можно как индивидуально, так и в команде до 4 человек. Загружай до 5 решений в день.
Регистрация уже открыта! Подробности и анкета по ссылкам выше.
Ты — специалист в области машинного обучения? Хочешь проверить свои силы в реальных задачах, с которыми ежедневно сталкиваются 1000+ специалистов Авито? Тогда не упусти шанс стать частью крупнейшего соревнования в этой области!
Что тебя ждет:
Выбирай одну или обе задачи, показывай лучшие результаты и получай шанс на победу! Участвовать можно как индивидуально, так и в команде до 4 человек. Загружай до 5 решений в день.
Регистрация уже открыта! Подробности и анкета по ссылкам выше.
1300
07:56
31.03.2025
close
С этим каналом часто покупают
Отзывы канала
keyboard_arrow_down
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
5.0
1 отзыва за 6 мес.
Превосходно (100%) За последние 6 мес
m
**cromarketing@****.ru
на сервисе с августа 2023
04.04.202510:18
5
Оперативное размещение
Показать еще
Новинки в тематике
Лучшие в тематике
Выбрано
0
каналов на сумму:0.00₽
Подписчики:
0
Просмотры:
lock_outline
Перейти в корзинуКупить за:0.00₽
Комментарий