

- Главная
- Каталог
- Наука и технологии
- GPTMain News
GPTMain News
Первый верифицированный канал о технологиях и искусственном интеллекте.
Статистика канала
Полная статистикаchevron_right— Прочитал 1500 научных статей — Провёл 200 исследовательских циклов — Написал 42 000 строк кода Итог — 7 открытий, из них 4 абсолютно новых, а 3 уже были известны науке. Для человека такой объём занял бы около полугода. Но без людей пока никак: — Аналитические выводы Kosmos верны на 85,5% — Интерпретация — лишь на 57,9%ИИ уже способен открывать новое, но пока не всегда понимает что именно он открыл. @GPTMainNews
Давайте немного разберемся. Обычно, когда два агента взаимодействуют в мультимодельной системе, они обмениваются текстом. Звучит нормально, но это не самый эффективный способ. Каждая модель хранит так называемый Key-Value Cache (или KV-кэш) — своеобразное «внутреннее состояние», где содержится информация о том, что она «думает». И вот если бы модели могли передавать не слова, а этот самый кэш, то все происходило бы гораздо быстрее и результат был бы точнее. Так и появился новый подход: Cache-to-Cache (C2C). В этой модели один агент передает свой кэш (Sharer), а другой (Receiver) через специальную нейросеть-проектор встраивает полученную информацию в свое собственное пространство. Звучит сложно, но на самом деле — это способ «передачи смысла» без использования токенов. Как это работает на практике? Для того, чтобы связать два разных кэша, понадобился специальный Projection module, который превращает два разных пространства в общий, понятный для обеих моделей эмбеддинг. Также в протокол добавили Weighting module, который решает, какую информацию стоит передавать. Какие преимущества этого подхода? — Скорость. Если сравнивать с классическим Text-to-Text, то обмен кэшами происходит в 2-3 раза быстрее. А это, согласитесь, огромный прирост! — Точность. Когда модели обменяются кэшами, метрика точности может подняться на 5% по сравнению с тем, если бы они общались текстом. Это уже серьезный результат, особенно если учитывать, что кэш содержит гораздо более полную информацию о «мысли» модели. Минус тут тоже есть — универсальности подхода не хватает Каждую пару моделей нужно будет обучать по-своему. Придется настроить свой «мост» между ними, что добавляет определенные сложности. Да и если модели используют разные токенизаторы, то тут будет совсем непросто — нужно будет делать Token alignment.Получается, что обмен кэшами помогает моделям понимать друг друга лучше, чем просто обмен словами. Мощно, мощно. @GPTMainNews
ИИ, который способен выполнять когнитивные задачи на уровне или лучше образованного взрослого человека.В тест включили 10 критериев: рассуждение, память, чтение, способность к обобщению, скорость «мышления» и другие параметры. Пока проверили только модели от OpenAI — и они уже набрали 58% до полного человеческого уровня.
• Графических дизайнеров — на 33% • Фотографов — на 28% • Копирайтеров — на 21%В IT-сфере задело только фронтендеров — падение на 10%. При этом, спрос на ML-спецов вырос аж на 40%. Причина: нейронки пилят контент быстрее и лучше адаптируются. @GPTMainNews
Отзывы канала
Каталог Телеграм-каналов для нативных размещений
GPTMain News — это Telegam канал в категории «Наука и технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 2.26M и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 7.5, количество отзывов – 0, со средней оценкой 0.0.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 184615.2 ₽, а за 5 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий