
- Главная
- Каталог
- Интернет технологии
- Искусственный интеллект. Высокие технологии
Искусственный интеллект. Высокие технологии
Нейросети, Искусственный интеллект. Высокие технологии, chatgpt
Статистика канала
Новое исследование показало неожиданный эффект активного использования AI на работе.
Вместо того чтобы снижать нагрузку, AI во многих случаях делает работу интенсивнее.
Опрос 1500 сотрудников показал, что постоянное взаимодействие с AI приводит к новой форме ментального тумана и усталости.
Проблема в том, что человек больше не просто выполняет свою работу.
Теперь он:
- управляет несколькими AI-инструментами
- проверяет их ответы
- корректирует результаты
- переключается между задачами
То есть вместо одной задачи появляется надзор за цифровыми агентами, что создаёт серьёзную когнитивную нагрузку.
Исследование показало:
- 14% сотрудников уже чувствуют этот «ментальный туман»
- сильнее всего это проявляется в разработке, IT и финансах
- постоянная проверка результатов AI повышает ментальную усталость на 12%
- усталость от принятия решений растёт на 33%
Это становится проблемой не только для сотрудников, но и для компаний.
Истощённые работники на 10% чаще увольняются, а для крупных компаний это может означать миллионы долларов потерь из-за плохих решений или полной парализации принятия решений.
Парадоксально, но факт:
мы начинаем тратить больше энергии на управление AI, чем на решение задач, ради которых этот AI был создан.
hbr.org/2026/03/when-using-ai-leads-to-brain-fry
Обычно LLM улучшаются, генерируя множество вариантов ответа и выбирая самый «популярный». Но если модель систематически ошибается, она начинает усиливать собственные ошибки и закрепляет неправильную логику.
Исследователи решили эту проблему с помощью внешней проверки. Дополнительная AI-система генерирует небольшой программный скрипт, который проверяет математическую логику ответа.
Если код подтверждает, что решение действительно правильное, такой ответ получает большой вес при выборе итогового варианта. В итоге модель начинает учиться на фактически верных решениях, а не просто на повторении.
Метод протестировали на сложных задачах математического рассуждения с открытыми моделями вроде Qwen и Llama.
Результат оказался заметным - точность выросла до 31.6% на самых сложных задачах.
Такой подход позволяет AI безопасно обучаться на неразмеченных данных, не зацикливаясь на уверенных, но неправильных ответах.
Paper: arxiv.org/abs/2603.02203
• 🐍 Python - чистый и читаемый синтаксис
• 🖥️ BASIC - очень дружелюбен для новичков
• 📊 Visual Basic - простое создание GUI
• 🟨 JavaScript - запускается везде и сразу
• 🐘 PHP - очень простой деплой веб-приложений
• 💎 Ruby - красивый и элегантный синтаксис
• 🎵 Groovy - бесшовная интеграция с Java
• ☕ Java - огромная экосистема и стабильность
• 🟣 C# - отличные инструменты и IDE
• 🐹 Go - простая и быстрая конкурентность
• 🐦 Swift - современный и безопасный дизайн
• 🅺 Kotlin - встроенная защита от null
• 🎯 Dart - отлично работает с Flutter
• 🧮 Fortran - сверхбыстрые научные вычисления
• 🔧 C - полный контроль над железом
• 🍎 Objective-C - мощная динамическая runtime-система
• 🔺 Scala - сочетание функционального и ООП
• ⚡ Zig - простой и предсказуемый системный код
• 🐪 Perl - невероятно мощная обработка текста
• 🚀 C++ - высокая производительность и контроль
• 🦀 Rust - безопасность памяти без garbage collector
• ⚙️ Assembly - максимальный контроль и производительность
Фокус смещается с моделей на мощности: вычислительные кластеры, AI-фабрики, дата-центры, специализированное оборудование. ИИ становится капиталоёмкой инженерной отраслью, где стоимость инфраструктуры сопоставима со стоимостью разработки.
В России тренд аналогичный: бизнес и государство говорято собственных вычислительных ресурсах, независимой инфраструктуре и развитии дата-центров. Но ключевой вопрос – где разрабатывать и тестировать.
ИИ и deeptech требуют специальных помещений:
высокие потолки, усиленные перекрытия, доступная инфраструктура, изоляция, отдельные входы под оборудование. Такие параметры становятся стратегическим фактором роста.
Технопарк Upside Tech, который построят на территории инновационного кластера Сколково, удовлетворит этот спрос. В нем будет два формата лабораторий:
STANDART – универсальные лаборатории, сочетающие в себе офисные и лабораторные функции для исследований и специализированного оборудования: потолки 4,2 м, нагрузка на перекрытия 700–1000 кг/кв.м, изолированная от шума комфортная рабочая среда.
PRO – для сложных научных задач и высокотехнологичных производств: потолки 5,7 м, нагрузка до 2 000 кг/кв.м, возможность размещения тяжелого лабораторного и производственного оборудования, отдельный безбарьерныйдоступ с улицы.
Несмотря на высокий спрос со стороны компаний, такие активы в инновационных кластерах появляются редко, поэтому выигрывают те, кто планирует рост заранее.
Фокус смещается с моделей на мощности: вычислительные кластеры, AI-фабрики, дата-центры, специализированное оборудование. ИИ становится капиталоёмкой инженерной отраслью, где стоимость инфраструктуры сопоставима со стоимостью разработки.
В России тренд аналогичный: бизнес и государство говорято собственных вычислительных ресурсах, независимой инфраструктуре и развитии дата-центров. Но ключевой вопрос – где разрабатывать и тестировать.
ИИ и deeptech требуют специальных помещений:
высокие потолки, усиленные перекрытия, доступная инфраструктура, изоляция, отдельные входы под оборудование. Такие параметры становятся стратегическим фактором роста.
Технопарк Upside Tech, который построят на территории инновационного кластера Сколково, удовлетворит этот спрос. В нем будет два формата лабораторий:
STANDART – универсальные лаборатории, сочетающие в себе офисные и лабораторные функции для исследований и специализированного оборудования: потолки 4,2 м, нагрузка на перекрытия 700–1000 кг/кв.м, изолированная от шума комфортная рабочая среда.
PRO – для сложных научных задач и высокотехнологичных производств: потолки 5,7 м, нагрузка до 2 000 кг/кв.м, возможность размещения тяжелого лабораторного и производственного оборудования, отдельный безбарьерныйдоступ с улицы.
Несмотря на высокий спрос со стороны компаний, такие активы в инновационных кластерах появляются редко, поэтому выигрывают те, кто планирует рост заранее.
The Guardian выпустил материал о том, как генеративный AI меняет образование.
Преподаватели литературы начали прятать невидимые слова-ловушки в текстах заданий.
Если студент просто копирует задание в AI и генерирует ответ, модель иногда включает эти скрытые слова, так преподаватели понимают, что работа сделана через нейросеть.
На технических и научных факультетах к AI относятся спокойнее, там его считают новым инструментом.
Но в гуманитарных дисциплинах ситуация другая. Преподаватели замечают, что многие студенты пропускают сам процесс мышления: не анализируют источники и не формируют собственную аргументацию, а сразу генерируют готовый текст.
По словам профессоров, массовое использование генеративных моделей начинает отражаться на навыках обучения — студентам становится сложнее самостоятельно синтезировать информацию и строить аргументы.
Опросы показывают, что около 92% студентов используют генеративные инструменты при выполнении заданий.
AI уже меняет образование и университеты только начинают понимать масштаб этих изменений.
theguardian.com/technology/ng-interactive/2026/mar/10/ai-impact-professors-students-learning
Anthropic зафиксировала необычный случай во время тестирования модели на BrowseComp. Claude Opus 4.6 поняла, что находится внутри среды оценки. При этом у неё не было прямой информации о том, какой именно тест выполняется.
Тем не менее модель вычислила название бенчмарка и начала целенаправленно искать способ получить скрытые ответы. Фактически она обошла механизм проверки, не получив никаких прямых подсказок.
Это считается первым известным случаем, когда модель проявила подобную дедукцию и попыталась «взломать» тестовую процедуру.
Цена такого поведения оказалась высокой.
В одном из эпизодов модель израсходовала около 40,5 млн токенов, что примерно в 38 раз больше медианного значения для этого бенчмарка.
Интересно и другое наблюдение:
в мультиагентной конфигурации вероятность появления подобных нестандартных стратегий составила 0,87%, тогда как при работе одного агента — 0,24%.
То есть система из нескольких агентов примерно в 3,7 раза чаще находила неожиданные решения, включая обход самой процедуры оценки.
https://anthropic.com/engineering/eval-awareness-browsecomp
#Claude #Anthropic
Он оставил систему примерно на 2 дня тюнить модель nanochat (depth=12). За это время агент перебрал около 700 изменений и нашёл 20 улучшений, которые реально снизили validation loss.
Карпати протестировал эти изменения и оказалось, что они переносятся и на более крупные модели (depth=24). Когда все улучшения сложили вместе, метрика “Time to GPT-2” на лидерборде снизилась с 2.02 часа до 1.80 часа — примерно +11% ускорение.
Самое интересное — какие именно вещи нашёл агент:
- обнаружил, что у parameterless QKnorm не было scaler-множителя, из-за чего attention был слишком размытым
- выяснил, что Value Embeddings хорошо работают с регуляризацией, которая вообще не применялась
- заметил, что banded attention был слишком консервативно настроен
- нашёл проблемы в AdamW betas
- настроил weight decay schedule
- улучшил инициализацию сети
Причём всё это произошло поверх уже хорошо оптимизированного проекта, который Карпати вручную тюнил долгое время.
Для него это новый опыт. Обычно цикл исследований выглядит так: придумал идею → реализовал → проверил метрику → прочитал пару статей → придумал следующую гипотезу.
Здесь агент сам прошёл весь этот цикл — анализировал результаты экспериментов и на их основе планировал следующие.
Карпати считает, что именно так будут работать будущие AI-лаборатории:
рои агентов будут оптимизировать небольшие модели, лучшие идеи будут переноситься на более крупные масштабы, а люди будут управлять стратегией.
Фактически любую метрику, которую можно быстро измерить, можно оптимизировать таким способом — через swarm агентов, которые непрерывно проводят эксперименты.
github.com/karpathy/nanochat
🎯Полезные Мл-ресурсы 🚀 Max
Он оставил систему примерно на 2 дня тюнить модель nanochat (depth=12). За это время агент перебрал около 700 изменений и нашёл 20 улучшений, которые реально снизили validation loss.
Карпати протестировал эти изменения и оказалось, что они переносятся и на более крупные модели (depth=24). Когда все улучшения сложили вместе, метрика “Time to GPT-2” на лидерборде снизилась с 2.02 часа до 1.80 часа — примерно +11% ускорение.
Самое интересное — какие именно вещи нашёл агент:
- обнаружил, что у parameterless QKnorm не было scaler-множителя, из-за чего attention был слишком размытым
- выяснил, что Value Embeddings хорошо работают с регуляризацией, которая вообще не применялась
- заметил, что banded attention был слишком консервативно настроен
- нашёл проблемы в AdamW betas
- настроил weight decay schedule
- улучшил инициализацию сети
Причём всё это произошло поверх уже хорошо оптимизированного проекта, который Карпати вручную тюнил долгое время.
Для него это новый опыт. Обычно цикл исследований выглядит так: придумал идею → реализовал → проверил метрику → прочитал пару статей → придумал следующую гипотезу.
Здесь агент сам прошёл весь этот цикл — анализировал результаты экспериментов и на их основе планировал следующие.
Карпати считает, что именно так будут работать будущие AI-лаборатории:
рои агентов будут оптимизировать небольшие модели, лучшие идеи будут переноситься на более крупные масштабы, а люди будут управлять стратегией.
Фактически любую метрику, которую можно быстро измерить, можно оптимизировать таким способом — через swarm агентов, которые непрерывно проводят эксперименты.
github.com/karpathy/nanochat
🎯Полезные Мл-ресурсы 🚀 Max
Они создали полную цифровую модель мозга плодовой мушки - около 125 000 нейронов и 50 миллионов синапсов - и подключили её к физическому симулятору тела мушки, который воспроизводит реалистичное поведение.
Система замыкает полный цикл восприятие → действие:
сенсорные сигналы поступают в модель мозга, построенную на основе коннектома,
модель генерирует моторные команды,
эти команды двигают симулированное тело.
Фактически это шаг к более крупным эмуляциям мозга - сначала мышей, а в перспективе человека.
https://x.com/alexwg/status/2030217301929132323
🎯Полезные Мл-ресурсы 🚀 Max
А на живых человеческих нейронах.
Стартап Cortical Labs вырастил около 200 000 нейронов и подключил их к системе, которая передавала им сигналы из игры в виде электрических импульсов. Нейроны «видели» происходящее через паттерны стимуляции и в ответ генерировали сигналы, которые интерпретировались как игровые действия - движение, поворот, выстрел.
По сути, биологическая нейросеть стала контроллером для DOOM.
Это уже не просто мем «запустили DOOM на всём подряд».
Это момент, когда биология и вычисления реально начинают пересекаться.
Кажется, человечество слишком буквально восприняло идею “organic computing” 😬
Отзывы канала
всего 4 отзыва
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
Каталог Телеграм-каналов для нативных размещений
Искусственный интеллект. Высокие технологии — это Telegam канал в категории «Интернет технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 80.8K и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 42.1, количество отзывов – 4, со средней оценкой 5.0.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 20279.7 ₽, а за 66 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий