
- Главная
- Каталог
- Интернет технологии
- Искусственный интеллект. Высокие технологии
Искусственный интеллект. Высокие технологии
Нейросети, Искусственный интеллект. Высокие технологии, chatgpt
Статистика канала
Claude 101:
http://claude101.com
→ Уровень 1 - 24 минуты: база
Claude для новичков:
https://ruben.substack.com/p/claude-for-dummies
Настройка Claude:
http://how-to-claude.ai
→ Уровень 2 - 1 час: реальные workflows
Claude Cowork:
http://claude-co.work
Claude для команд:
http://how-claude.team
Claude Design:
http://claudedesign.free
Cowork + Projects:
https://ruben.substack.com/p/claude-cowork-project
Claude для слайдов:
http://how-to-gamma.ai
Claude Skills:
http://claude-skills.free
→ Уровень 3 - 3,5 часа: pro-приемы
Как избегать подхалимства модели:
https://ruben.substack.com/p/i-love-to-be-right
Claude Code:
http://claudecode.free
Claude 101:
https://anthropic.skilljar.com/claude-101
Как не упираться в лимиты Claude:
https://ruben.substack.com/p/how-to-stop-hitting-claude-usage
Хватит просто промптить:
https://ruben.substack.com/p/stop-prompting-claude
→ Уровень 4 - 8 часов: экспертный режим
Claude Computer:
https://ruben.substack.com/p/claude-computer
Разработка с Claude API:
https://anthropic.skilljar.com/claude-with-the-anthropic-api
https://www.youtube.com/shorts/s_8hV5iCczw
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Антропии и ОпенАи будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала суперлешевой, и от это уже не отмотаешь.
В релизе есть упоминания - «950 supernodes» это отсылка к Huawei Atlas 950 SuperPoD, новой инференс-инфраструктуре Huawei на чипах Ascend. DeepSeek говорят, что во второй половине 2026 года, когда эти суперноды запустят в масштабе, цена Pro заметно упадёт. То есть они планируют гонять инференс не на Nvidia, а на китайском железе Huawei.
Тариф Pro стоит $0.145 за вход и $3.48 за выход на миллион токенов.
Flash - $0.028 за вход и $0.28 за выход, что делает его неверятно дешевым для модели, которая заявляет уровень конкуренции с передовыми системами.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Антропии и ОпенАи будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала суперлешевой, и от это уже не отмотаешь.
В релизе есть упоминания - «950 supernodes» это отсылка к Huawei Atlas 950 SuperPoD, новой инференс-инфраструктуре Huawei на чипах Ascend. DeepSeek говорят, что во второй половине 2026 года, когда эти суперноды запустят в масштабе, цена Pro заметно упадёт. То есть они планируют гонять инференс не на Nvidia, а на китайском железе Huawei.
Тариф Pro стоит $0.145 за вход и $3.48 за выход на миллион токенов.
Flash - $0.028 за вход и $0.28 за выход, что делает его неверятно дешевым для модели, которая заявляет уровень конкуренции с передовыми системами.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами. И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами. И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
Внутри каждого волокна находится герметичная трубка с электрически заряженной жидкостью и миниатюрный электрический насос.
Когда насос активируется, одна сторона сжимается, а другая расслабляется — точно так же, как работают бицепс и трицепс, когда вы сгибаете руку.
Как это работает:
Насос подаёт электрический заряд в жидкость.
В жидкости появляются ионы, которые тянут её за собой.
Без моторов, без внешних насосов, полностью бесшумно.
Поскольку это именно волокна, они объединяются в пучки, как настоящие мышцы. Сила масштабируется просто добавлением новых нитей.
В демонстрациях эти волокна были достаточно мощными, чтобы сгибать роботизированную руку и поднимать гантель, но при этом достаточно мягкими, чтобы пожать человеку руку.
От протезов до экзоскелетов и промышленных роботов — так выглядит будущее, когда инженеры перестают строить вокруг моторов и начинают копировать биологию.
Source: https://news.mit.edu/2026/new-type-electrically-driven-artificial-muscle-fiber-0409?utm_source=robotnews.therundown.ai&utm_medium=newsletter&utm_campaign=unitree-s-cheapest-humanoid-goes-global
Основатель телеграм заявляяет, что дальше будет выпускать шансон под псевдонимом «Дурикович».
Похоже, нас ждёт тур 🔈
Дуров сошел с ума?)
https://t.me/durov_russia/67
Проект честно помечен как theoretical reconstruction и hypothesis document, автор не выдаёт его за утечку, в README есть дисклеймер про отсутствие связи с Anthropic.
Архитектурные идеи не с потолка: Recurrent-Depth Transformer, MoE с роутингом в духе DeepSeek, Multi-Latent Attention, ACT-халтинг, Universal Transformers - всё это реальные направления из литературы.
Код рабочий, лицензия MIT, есть документация и конфиг через единый dataclass. Для изучения looped-трансформеров это полезная песочница.
Минусы: в посте подаётся как реконструкция Claude Mythos, но Anthropic не публиковала технических деталей Mythos, так что это по сути догадки, а не восстановление. Цифра 4.7K звёзд для автора с историей громких репозиториев мало говорит о качестве, kyegomez известен склонностью к быстрым имплементациям чужих идей с громкими названиями, к заявлениям стоит относиться осторожно.
Фраза «770M параметров догоняют 1.3B трансформер» основана на эксперименте уровня Tiny Shakespeare, экстраполировать на фронтир-модели рано. Бенчмарков в масштабе, сравнимом с реальными LLM, в репо нет.
Итог: любопытный educational-проект и набор гипотез для обсуждения, но не «открытый Mythos». Читать как discussion paper с кодом, а не как воспроизведение модели.
github.com/kyegomez/OpenMythos
Вместо восторженных отзывов о «революции ИИ» мы разберем технические и финансовые ограничения: от галлюцинаций моделей до реальной экономики внедрения.
28 апреля лидеры из Авиасейлс, Сбер, Avito, MAGNIT TECH, Cloudꓸru соберутся в прямом эфире, чтобы показать всю изнанку своих ML-процессов.
Коротко о конференции:
✅ 9 прикладных кейсов: от автоматизации маркетинга (экономия 1000+ часов в месяц) до создания ИИ-движков для управления ассортиментом в ритейле.
✅Разбор ошибок: честные истории о том, где ИИ бесполезен и как компании теряли ресурсы на неверных архитектурных решениях.
✅Хардкорные темы: ИИ-агенты, MCP-сервера и использование автономных сетей (Local LLM) для оценки качества ответов.
🎁 Бонус: Каждый участник получит 70-страничный конспект с детальными рекомендациями, которые можно внедрять в работу на следующий день.
Регистрация по ссылке 👉 https://karpov.courses/conf
Реклама
Google готовит новый девайс - Fitbit Air. Без экрана. Вообще.
Это уже не «часы», а сенсор, который просто живёт с тобой и собирает данные 24/7:
HRV, сон, восстановление - всё уходит в приложение, где решает не железо, а AI.
Фактически это ответ на Whoop, но с другим углом: дешевле (~$99), меньше трения, меньше подписочных барьеров.
Инженерный смысл очевиден:
убрали экран → меньше энергопотребление → батарея 10-14+ дней
убрали интерфейс → больше комфорта → можно носить всегда
убрали «ручное взаимодействие» → всё решает модель
Параллельно Google может объединить всё в один слой - Google Health:
единая AI-система, которая интерпретирует твое тело лучше тебя.
Железо уходит в фон.
Интеллект становится продуктом.
И вот это уже не фитнес-гаджет - это персональная модель твоего организма.
source: https://tomsguide.com/wellness/fitness-trackers/forget-the-whoop-5-0-a-screenless-fitbit-air-could-arrive-this-summer-for-just-usd99
https://9to5google.com/2026/04/20/fitbit-air-release-date-price-color-report/
SpaceX провернула сделку, которую в техе такого масштаба почти никто не делает. Они выбили себе опцион на Cursor. Либо покупают всю компанию целиком за 60 миллиардов долларов, либо отваливают 10 миллиардов и остаются просто партнёром по разработке AI-инструментов для кода. Два сценария, одна подпись, и каждый из них меняет расклад на рынке.
Сама оценка Cursor за последние восемнадцать месяцев выросла почти в двадцать раз. Это не пузырь ради пузыря, это живой спрос. AI-инструменты для разработчиков оказались той редкой нишей, где пользователи реально готовы платить и платить много.
Теперь по механике. Cursor получает доступ к Colossus, суперкомпьютеру xAI, в котором, по данным, около миллиона чипов эквивалентных H100.
Для контекста, это вычислительная мощность уровня топовых фронтир-лабораторий. До этого Cursor сидел на чужой инфраструктуре, то есть арендовал мощности у OpenAI, Anthropic и Google. А эти же компании одновременно выкатывают своих прямых конкурентов Cursor. Получается, ты платишь за аренду тому, кто тебя же и пытается съесть. Это не бизнес-модель, это ловушка.
Сделка с SpaceX эту ловушку разряжает. Cursor получает независимое железо, защиту и гарантированный нижний порог в 10 миллиардов, даже если всё пойдёт не так. SpaceX получает год эксклюзивности, возможность посмотреть на партнёрство изнутри и право первой ночи на покупку.
При этом конкуренты от Cursor автоматически отрезаны.
И вот тут самое интересное в цифрах. Вроде бы заголовок про 60 миллиардов, но настоящий сигнал в десятке. Это цена выхода, цена права передумать. SpaceX по сути оценила саму возможность подождать почти так же дорого, как и актив целиком. Это редкий случай, когда опцион стоит как половина компании.
Стратегически xAI через SpaceX одним движением залетает в самый жирный сегмент прикладного AI, где люди уже сейчас платят подписками. А Cursor наконец перестаёт быть заложником чужих GPU.
Если фронтир в программировании действительно консолидируется у тех, кто владеет чипами, то последний независимый игрок в этой нише может стоить сильно дороже 60 миллиардов. И Маск, судя по структуре сделки, именно на это и ставит.
https://x.com/SpaceX/status/2046713419978453374
Tim Cook уходит с поста CEO 1 сентября.
Компания сообщила о первой за почти 15 лет смене первого лица компании. С 1 сентября пост генерального директора займёт Джон Тернус, старший вице-президент по аппаратной инженерии.
Он превратил компанию с капитализацией $350 млрд в монстра на $4 трлн.
Его сменит John Ternus - инженер, который реально стоял за созданием iPhone.
Отзывы канала
всего 4 отзыва
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
Каталог Телеграм-каналов для нативных размещений
Искусственный интеллект. Высокие технологии — это Telegam канал в категории «Интернет технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 77.8K и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 29.8, количество отзывов – 4, со средней оценкой 5.0.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 20279.7 ₽, а за 67 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий