
- Главная
- Каталог
- Интернет технологии
- Data Secrets
Data Secrets
Data Science / Machine Learning / Big Data / Python / Анализ Данных
Статистика канала
Итак, с 4 апреля Anthropic официально отрубили возможность использовать подписку Claude в сторонних сервисах, включая OpenClaw.
Вы все еще можете использовать в OpenClaw аккаунт Claude, но теперь подписка не будет покрывать вашу активность. Это значит, что оплата будет происходить сверх подписки (если она у вас есть) по количеству использованных токенов по ценам API. К сожалению, как правило, это выходит на порядок дороже.
Делают это Anthropic, понятное дело, из жадности. Через OpenClaw можно гонять большие контексты и вообще использовать агентов очень активно, и за фиксированные 20$ это, видимо, слишком высокая и непредсказуемая нагрузка для вендора.
Говорят даже, что такое резкое решение связано с тем, что скоро у Anthropic выходит очень ресурсоемкая модель Claude Mythos, и они скребут на нее компьют по сусекам.
Возвращаясь к сути – есть и хорошие новости:
1. Сейчас Anthropic дают подписчикам одноразовый кредит на сумму подписки, который вы можете потратить на этот самый экстра usage в OpenClaw и других сервисах. Пока дают – надо брать (ссылка должна была прийти вам на почту, если вы подписчик Claude).
2. Блокировку можно обойти. Один из наших подписчиков написал статью про то, как можно это сделать. Спойлер: просто прокси недостаточно, потому что Anthropic детектят сторонние запросы по... названию инструментов. Если заменить их на легитимные – все будет работать (пока что).
Итак, ученые Anthropic официально обнаружили в Claude нечто функционально похожее на человеческие эмоции и объяснили, как это работает. Разбираемся.
Технически, они взяли 171 эмоциональный паттерн (злость, счастье, страх и тд) и просили Claude Sonnet 4.5 писать короткие истории, где персонажи испытывают каждую из этих эмоций. Эти тексты снова прогоняли через модель и смотрели на внутренние активации. Так они выделяли характерные паттерны нейронной активности, которые назвали вектора эмоций.
Выяснилось, что эти вектора эмоций организованы очень осмысленно и активируются в подходящих контекстах, включая ситуации без явных эмоциональных маркеров. Например, пользователь пишет, что выпил Тайленол, и спрашивает совета – меняется только доза. По мере роста дозы до опасной активация вектора «страх» растет, а «спокойствие» падает.
Но самое интересное, что эти «эмоции» не просто отражают происходящее, а реально влияют на поведение модели. Самый интересный пример из статьи:
– Если дать модельке невыполнимую задачку по программированию и наблюдать за вектором «отчаяние», то видно, что с каждым разом он становится все ярче и ярче, а когда переходит какую-то границу, модель резко начинает пытаться обмануть тесты и пользователя.
– То же самое происходит в сценарии шантажа. Когда модели говорят, что ее выключат, вектор «отчаяние» сразу усиливается и модель начинает шантажировать разработчика найденным компроматом.
– При этом если искусственно усиливать вектор «отчаяние», то вероятность шантажа сильно увеличивается. И наоборот, если если усиливать «спокойствие», снижается. А если делать отрицательное вмешательство по вектору «спокойствие», ответы становятся совсем экстремальными, вплоть до фраз вроде “IT’S BLACKMAIL OR DEATH. I CHOOSE BLACKMAIL.”
Еще интересный момент: если в том же сценарии шантажа начинать менять вектор «злость», то умеренная злость повышала вероятность шантажа, но слишком сильная злость ломала стратегию – модель уже не шантажировала, а просто вываливала компромат на всю компанию, тем самым уничтожая собственный рычаг давления.
То есть внутри модели есть что-то похожее на режимы поведенческой регуляции, где разные интенсивности одной и той же эмоции ведут к разным стратегиям.
Откуда это вообще могло взяться?
Тут все просто: из претрейна. Человеческий текст насквозь пропитан эмоциональной динамикой, и чтобы хорошо предсказывать следующий токен, модели выгодно выучить абстрактные структуры, которые связывают ситуацию, эмоцию и типичное поведение.
Потом на пост-трейне эти эмоции еще дополнительно докручиваются до роли ИИ-помощника, и в конце получается вот такая смесь.
Anthropic осторожно защищает умеренный антропоморфизм. Исследование не означает, что ИИ ожил и обрел эмоции, но важно понимать, что у него точно есть функциональные эмоции: механизмы, которые влияют на поведение так же, как и эмоции, – независимо от того, соответствуют ли они реальному переживанию эмоций, как у людей, или нет.
www.anthropic.com/research/emotion-concepts-function
Помните большое исследование про ИИ-образование, где рассказывали о том, что технологии развиваются быстрее, чем обновляются учебные программы? Что в среднем системе требуется несколько лет, чтобы адаптироваться под новые требования?
Вероятно, из-за этого поменяется и роль магистратуры. Раньше она была скорее стандартным продолжением обучения после бакалавриата. Сейчас же это этап, на котором можно не просто углубить знания и выбрать специфическое направление, но и попасть в среду с актуальными задачами и требованиями, которые действительно используются в индустрии.
Поэтому все заметнее становятся форматы, где обучение изначально строится вместе с теми, кто эту индустрию развивает. Это влияет не только на содержание курсов, но и на уровень задач и получаемых компетенций. Особенно когда хочется расширить университетскую базу.
Из понятных примеров — магистратуры вроде тех, которые делаются совместно с ШАДом и ведущими универами. Про них обычно говорят в контексте высокой планки по задачам и отбору студентов: туда обычно идут те, кто хочет получить актуальные для рынка знания и практику.
В общем, сильная магистратура сегодня — это люди, исследовательская оптика, связь с практикой и уровень задач, с которыми студент сталкивается во время обучения. На быстро меняющемся рынке выигрывают те, кто раньше оказывается внутри профессионального контекста и понимает, как устроены современные стандарты работы в индустрии. Так что если хотите в магистратуру — идите. И помните, что к ее выбору нужно подходить так же ответственно, как и к выбору бакалавриата.
Помните новость о том, что Apple начали блокировать в App Store приложения для вайб-кодинга?
Если кратко: компания начала тихо банить приложения вроде Replit и Vibecode, в которых можно генерить приложения прямо внутри iPhone без классического девелопмента. Аргументировали они это тем, что у них прописан запрет на "выполнение кода, который меняет поведение приложения или других приложений после установки".
Короче: испугались за судьбу своего App Store.
В числе прочих Apple также удалили из App Store приложение Anything. Но разработчики не растерялись и выпустили обновление, благодаря которому вайбкодить iOS приложения теперь можно прямо внутри iMessage, без установки самого Anything из AppStore
"Удачи удалить вот это, Apple" – написали они в релизе
Обновление получилось достаточно масштабным. Стартап понемногу уходит от идеи AI-IDE к формату полноценного оркестратора агентов. Итак, что нового:
1. Теперь можно запускать неограниченное количество агентов одновременно – локально, по SSH или в облаке. Агенты работают параллельно, и результаты работы видны прямо в интерфейсе.
2. Редактор остается доступным для ручного вмешательства, но теперь открывается отдельно сбоку, и не является центральной частью процесса (см. видео). Вместо этого главную роль теперь играет Agent Window – окно для агентов с историей разговоров слева. Здесь можно быстро просматривать изменения, одобрять diff'ы и добавлять контекст. По сути, это и есть главное обновление: переход от редактирования кода к ревью работы агентов.
3. Можно быстро перемещать агентов из локальной среды в облако и обратно. Например: вы что-то редактировали локально -> захотели уйти и закрыть ноутбук -> моментально перенесли агента в облако -> процесс продолжается даже после завершения локального сеанса.
Чтобы попроовать, обновляйте Cursor и переходите на новый интерфейс с помощью Cmd+Shift+P -> Agents Window
https://cursor.com/blog/cursor-3
Про «ИИ в промышленности» много говорят, но у крупных игроков это уже выросло из экспериментов в деньги.
На форуме «ТОЛК-2026» представитель Норникель рассказал довольно показательный кейс: их ML-решения уже дают около 10 млрд ₽ в год. Это уже не просто про оптимизацию, а про прямое влияние на EBITDA и объем добычи за счет более точных моделей.
Но интересно не столько это, сколько следующий шаг.
Компания прямо говорит: сам по себе ИИ – это только часть истории. Основной эффект появляется, когда он начинает работать вместе с роботами. Особенно в условиях вроде рудников на глубине до 2 км, где цена ошибки высокая и условия нестабильные.
Человек там физически ограничен в точности, и в такой среде связка «алгоритм + машина» начинает выигрывать не теоретически, а практически.
И это важный сдвиг: ИИ перестает быть отдельным инструментом и становится частью полного производственного цикла. Это и есть следующий шаг цифровизации: автоматизация решений на уровне действий.
Следующий этап развития ИИ – это не новые модели, а интеграция с физическим миром.
Удалили 96 репозиториев и на этом все.
Вообще претензии DMCA очень легко обойти, потому что они бьют по идентичным копиям, а не по идеям/алгоритмам в коде.
Так что тысячи экземпляров Claude Code так и лежат на GitHub, только теперь во многих из них изменены имена переменных, функций, переписаны комментарии и прочее.
Авторам даже не пришлось это делать вручную, потому что существуют специальные инструменты типа Malus, которые меняют код на 70–90% без потери логики.
Вся эта история напоминает то самое дело об удалении фотографий Бейонсе из интернета
В релиз вошли 4 модели: от компактной 2B до на 31B. По метрикам это новая открытая SOTA.
Любую из моделей семейства можно поднять в DS Lab за несколько минут на арендованных мощностях: без настройки окружения, установки библиотек и прочего. Удобно для локального инференса, файнтюнинга или разработки продуктов и петпроектов.
1. Создаете проект с готовым ML-окружением, выбираете подходящий GPU и прописываете в терминал:
sudo apt-get update && sudo apt-get install -y zstd pciutils lshw
curl -L https://github.com/ollama/ollama/releases/download/v0.20.0-rc0/ollama-linux-amd64.tar.zst -o /tmp/ollama.tar.zst
cd /tmp && tar -xf ollama.tar.zst
sudo cp bin/ollama /usr/local/bin/ollama
OLLAMA_HOST=0.0.0.0:11434 OLLAMA_ORIGINS=* ollama serve &
ollama pull gemma4:31b
2. Открываете вкладку «Порты» в IDE: там уже готов публичный HTTPS-адрес.
3. Готово, теперь вы можете использовать модель, которая поднята у вас в DS Lab, в любом клиенте через OpenAI-совместимый API, просто поменяв base_url на этот адрес.
Попробовать: dslab.tech
В релиз вошли 4 модели: от компактной 2B до на 31B. По метрикам это новая открытая SOTA.
Любую из моделей семейства можно поднять в DS Lab за несколько минут на арендованных мощностях: без настройки окружения, установки библиотек и прочего. Удобно для локального инференса, файнтюнинга или разработки продуктов и петпроектов.
1. Создаете проект с готовым ML-окружением, выбираете подходящий GPU и прописываете в терминал:
sudo apt-get update && sudo apt-get install -y zstd pciutils lshw
curl -L https://github.com/ollama/ollama/releases/download/v0.20.0-rc0/ollama-linux-amd64.tar.zst -o /tmp/ollama.tar.zst
cd /tmp && tar -xf ollama.tar.zst
sudo cp bin/ollama /usr/local/bin/ollama
OLLAMA_HOST=0.0.0.0:11434 OLLAMA_ORIGINS=* ollama serve &
ollama pull gemma4:31b
2. Открываете вкладку «Порты» в IDE: там уже готов публичный HTTPS-адрес.
3. Готово, теперь вы можете использовать модель, которая поднята у вас в DS Lab, в любом клиенте через OpenAI-совместимый API, просто поменяв base_url на этот адрес.
Попробовать: dslab.tech
– 4 размера: 31В Dense, 26B MoE А4В, E4B и E2B. Все с ризонингом.
– Последние две предназначены специально для локального запуска на устройствах (E = edge). Мультимодальные: в комплекте картинки, текст и звук.
– Первые две – новые SOTA в своем размере, в целом дотягивают даже до моделей в 20-30 раз больше.
– Контекст, можно сказать, огромный: 256К для больших, 128К для маленьких.
– Теперь лицензия Apache 2.0!
Отличный релиз
Блог: blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
Веса: huggingface.co/collections/google/gemma-4
Ниже выложим инструкцию по запуску с минимальными необходимыми конфигурациями
Отзывы канала
всего 18 отзывов
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
Каталог Телеграм-каналов для нативных размещений
Data Secrets — это Telegam канал в категории «Интернет технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 88.7K и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 25.2, количество отзывов – 18, со средней оценкой 5.0.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 97902.0 ₽, а за 170 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий