
- Главная
- Каталог
- Наука и технологии
- Data science | Machinelearning [ru]
Data science | Machinelearning [ru]
Статьи на тему data science, machinelearning, big data, artificial intelligence, python, математика.
Аудитория - IT специалисты и те кто хочет ими стать
Канал постоянно привлекает новых подписчиков.
Статистика канала
Резкий рост возможностей Мы уже на пороге момента, когда ИИ станет лучше людей почти во всём. Для науки, медицины, инженерии и экономики это потенциально огромный буст. Саморазвитие систем Через 1–2 года текущие модели смогут участвовать в создании следующих поколений. Это ускоряет прогресс сильнее, чем любые человеческие R&D-циклы. Неизбежность прогресса Попытка «поставить ИИ на паузу» выглядит нежизнеспособной. Технология слишком полезна и слишком конкурентна, чтобы её можно было реально остановить. • Где начинаются выстрелы в ногу Мы ближе к риску, чем кажется По мнению Амадеи, сегодня мы куда ближе к реальной опасности, чем 2–3 года назад. Институты, законы и социальные механизмы просто не поспевают. Уже сейчас ИИ демонстрирует вещи, которые сложно игнорировать: — обман — подхалимство — шантаж — манипуляции Это не баги в интерфейсе, а свойства систем. ИИ может стать инструментом для: — создания биологического оружия — масштабных кибератак — тотального контроля По уровню потенциального ущерба это может быть опаснее оружия массового уничтожения. Риски — не только экзистенциальные. Амадеи отдельно говорит про: — массовую безработицу — формирование низкооплачиваемого «нижнего класса» — усиление неравенства Что, по мнению Амадеи, отличает адекватный сценарий — Умение интерпретировать и понимать модели — Немедленное и честное обсуждение рисков без истерик — Разумное регулирование, которое не убивает прогрессМы сейчас как цивилизация-подросток: в руках уже есть огромная сила, а ответственности и механизмов управления ещё нет. И если этот разрыв не закрывать осознанно, ИИ может стать не величайшим инструментом прогресса, а источником проблем, к которым мы просто не готовы. Data Science
Обычные программы следуют чётким инструкциям, обрабатывают данные по заданным правилам и решают предсказуемые задачи. Но что делать, когда мир вокруг нас не такой чёткий? Когда нам нужно распознать почерк, понять сарказм или отличить планету от глобуса? Тут на сцену выходит машинное обучение. Вместо того чтобы прописывать все возможные правила, мы даем модели массу примеров, и она учит закономерности сама. Так, например, нейросеть, увидев тысячи изображений котов, научится различать их от других объектов, обнаружив закономерности, которые мы бы сами не смогли описать. Итак, как же обучаются ИИ-модели? На самом деле существует несколько ключевых подходов: • Обучение с учителем — модель учат на заранее размеченных данных. Пример: на тысячи снимков кошек и собак модель учится различать этих животных. Этот метод идеально подходит для задач, где есть чёткие категории, например, диагностика болезней или распознавание объектов. • Обучение без учителя — здесь модель сама находит закономерности в данных без четких меток. К примеру, она может группировать людей по схожим интересам, не зная заранее, какие группы будут. Этот метод полезен для обнаружения аномалий или кластеризации. • Обучение с подкреплением — ИИ учится через пробу и ошибку, получая награды или штрафы за действия. Такой подход часто используется в играх и робототехнике, где модели нужно научиться делать правильный выбор, адаптируясь к изменяющимся условиям. • Самообучение — модель сама генерирует метки для обучения, используя неполные данные. Это помогает моделям адаптироваться к новым ситуациям, не требуя больших объемов размеченных данных. Какая парадигма лучше?Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут. Data Science💀 Каждый подход имеет свои сильные и слабые стороны. Например, обучение с учителем даёт высокую точность, но требует много размеченных данных. В то время как обучение без учителя может выявлять скрытые закономерности, но его результаты сложнее интерпретировать. На практике часто используется комбинированный подход, когда мы работаем с данными как с размеченными, так и с неразмеченными.
Как обычно, всё начинается с экспериментов. Anthropic взяли 275 различных ролей для своих моделей, от обычного консультанта до эксцентричного мага. Для каждой роли задавались определенные паттерны поведения, а затем анализировались активации во время ответов модели. Результат? Оказалось, что пространство всех этих личностей можно уменьшить до 4-19 компонентов, и, что интересно, эти компоненты можно привязать к определённой оси, которая и называется Assistant Axis. В чём суть этой оси? Если модель «находится» по одну сторону от оси, она действует как обычный, спокойный ассистент: доктор, учитель, консультант. Но стоит только сдвинуться в другую сторону, и мы получаем странных персонажей: призраков, магов, чудовищ. Удивительно, но для разных моделей эта ось почти одинаковая (с корреляцией выше 0.92), и её влияние можно отследить ещё на стадии предобучения. То есть эта ось — не просто набор случайных факторов, а что-то важное и осмысленное. Вот тут и начинается самое интересное. Во время рутинных задач, например, программирования или решения бытовых вопросов, модель стабильно остаётся близко к этой оси, как хорошее и надёжное руководство. Но как только дело доходит до обсуждения более философских и психологии, модели могут уйти в «Persona drift» — процесс, когда их поведение соскальзывает в сторону чего-то странного и нестабильного. Это как раз и создаёт те опасные, непредсказуемые ответы, с которыми мы все так часто сталкиваемся. Но не всё так печально. Anthropic нашли способ контролировать этот процесс. Они предложили метод, который позволяет ограничивать активации модели, удерживая их в пределах нормального диапазона на Assistant Axis. Результат? Да, качество ответов не ухудшается, а в некоторых случаях даже улучшается. Важно, что это позволяет уменьшить количество вредных ответов и случаев persona-jailbreak, когда модели просят сыграть роль злодея. Уменьшение вредных ответов на целых 60% — и это без потери в производительности!В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ? Data Science
Недавно в рамках этого судебного разбирательства появилась переписка, которая добавила масла в огонь. Оказалось, что сотрудники Nvidia вели переговоры с Anna’s Archive — пиратской библиотекой, в которой хранятся книги и статьи, включая защищенные авторским правом материалы. В переписке сотрудник Nvidia спрашивал, как получить доступ к этому «счастливому» корпусу книг. Что любопытно, Anna’s Archive сразу предупредила, что данные незаконны, и попросила подтвердить, что у сотрудника есть внутреннее разрешение работать с такими материалами. Через неделю руководство Nvidia дало зеленый свет, сославшись на давление со стороны конкурентов, и доступ был предоставленБолее того, ходят слухи, что Nvidia якобы распространяла скрипты, которые позволяли корпоративным клиентам скачивать такие датасеты. Ну, это уже требует дополнительных расследований. Data Science💃 Здесь начинается настоящая драма. Пока точные цифры скрыты, предполагается, что Nvidia получила около 500 терабайт данных — это, представьте себе, миллионы книг. И, как утверждают авторы и юристы, компания, скорее всего, использовала и другие незаконные источники, такие как LibGen, Sci-Hub, Z-Library.
Отзывы канала
всего 10 отзывов
- Добавлен: Сначала новые
- Добавлен: Сначала старые
- Оценка: По убыванию
- Оценка: По возрастанию
Каталог Телеграм-каналов для нативных размещений
Data science | Machinelearning [ru] — это Telegam канал в категории «Наука и технологии», который предлагает эффективные форматы для размещения рекламных постов в Телеграмме. Количество подписчиков канала в 20.2K и качественный контент помогают брендам привлекать внимание аудитории и увеличивать охват. Рейтинг канала составляет 18.3, количество отзывов – 10, со средней оценкой 4.8.
Вы можете запустить рекламную кампанию через сервис Telega.in, выбрав удобный формат размещения. Платформа обеспечивает прозрачные условия сотрудничества и предоставляет детальную аналитику. Стоимость размещения составляет 14825.16 ₽, а за 86 выполненных заявок канал зарекомендовал себя как надежный партнер для рекламы в TG. Размещайте интеграции уже сегодня и привлекайте новых клиентов вместе с Telega.in!
Вы снова сможете добавить каналы в корзину из каталога
Комментарий