Нейросети тянут мощности
Искусственный интеллект требует все новых вычислительных ресурсов
Несмотря на проблемы, вызванные санкциями и уходом ведущих зарубежных производителей рынка, российским компаниям, развивающим искусственный интеллект (ИИ), пока удается закупать необходимое оборудование. В первую очередь это видеокарты Nvidia, пригодные для объединения в высокопроизводительные кластеры. К идее переносить часть задач на пользовательские устройства, которую продвигают производители ПК и комплектующих, в РФ относятся скептически. Более перспективным участники рынка считают системное развитие инфраструктуры, в том числе с использованием климатических особенностей страны, например строительство ИИ-дата-центров в северных широтах.
Фото: Юрий Мартьянов, Коммерсантъ
Российские технологические компании, работающие над проектами в области машинного обучения, в 2023–2024 годах вслед за мировым рынком стали активнее коммерциализировать. Так, «Яндекс» и Сбербанк не только интегрировали большие языковые модели (LLM) YandexGPT и GigaChat в свои ассистенты, но и позволили компаниям обращаться к ним за обработкой или генерацией контента (см. “Ъ” от 7 декабря 2023 года). Продукты и функции на базе генеративного ИИ, использующие собственные LLM, также представили VK и МТС.
Создание LLM требует значительных вычислительных мощностей. Чем больше у модели параметров, тем выше ее способности и число операций, предпринимаемых для ее тренировки (см. инфографику). Само по себе обращение к нейросетям, прошедшим тренировку, также расходует ресурсы. По словам директора бизнес-группы поиска и рекламных технологий «Яндекса» Дмитрия Масюка, стоимость ответов на основе YandexGPT в пересчете на пользователя в семь раз выше, чем при использовании классических технологий (см. “Ъ” от 10 апреля).
В работе с ИИ важную роль играют графические ускорители (видеокарты). Исходно они использовались только для задач, связанных с компьютерной графикой: видеоигр, 3D-моделирования и рендеринга и т. п. Однако в 2006 году американский производитель Nvidia дал разработчикам возможность применять видеокарты для вычислений общего характера. Устройства одновременно производят множество алгебраических вычислений, что важно для ИИ-задач. По итогам 2023 года на серверные графические ускорители Nvidia приходится 97% всей выручки, которую приносит сегмент во всем мире, следует из исследования Dell’Oro Group.
Инфраструктура высокого риска
В VK число связанных друг с другом высокопроизводительных серверов (HPC-кластеры), оснащенных графическими ускорителями, растет «примерно в полтора раза быстрее "обычных"», рассказал “Ъ” вице-президент компании по ИИ, контентным и рекомендательным сервисам Антон Фролов. Часть кластеров используются для выполнения ИИ-задач (в частности, работы рекомендательных систем и голосового помощника «Маруся»), часть — для обучения моделей. Рост спроса на ресурсы подтвердили в Beeline Cloud: «Мы увеличили объем закупок серверов, оснащенных графическими процессорами, преимущественно видеокартами серии Nvidia A100». Речь идет об ускорителях на микроархитектуре Ampere, представленной в 2020 году: сейчас у них, как считают в компании, «наилучшее соотношение цены и производительности». В «Яндексе» отказались от комментариев “Ъ”, в «Сбере» не ответили “Ъ”.
Российские игроки покупают и более новые, производительные ускорители на архитектурах Ada и Hopper. Selectel, по словам менеджера ML-продуктов компании Антона Чунаева, стала покупать больше видеокарт Nvidia RTX A6000 (для рабочих станций) и Tesla H100 (для серверов).
Между тем Nvidia, как и большинство других поставщиков, с 2022 года в РФ формально не работает, не поставляет продукцию и не поддерживает ее. Согласно позиции США, само по себе участие в технологическом сегменте экономики РФ служит основанием для ограничений — блокирующие санкции вводятся даже в отношении провайдеров центров обработки данных (ЦОД; см. “Ъ” от 23 февраля). Отгрузки в адрес подсанкционных компаний чреваты уже вторичными санкциями. Наиболее высокопроизводительные компоненты подпадают под экспортный контроль и при поставках в ряд других стран, в частности в КНР.
Санкции усложняют закупки и поставки серверов «с адекватными конфигурациями и ценами» и приводят к разрыву в доступности мощностей между странами, признают в Beeline Cloud. Это, подчеркивает источник “Ъ” среди производителей электроники, сдерживает рост рынка ЦОДов: «В России есть компании, готовые много инвестировать в ИИ-дата-центры, но нет тех, кто способен поставить оборудование в нужном объеме». По словам собеседника “Ъ”, один из крупнейших российских операторов ЦОДов «несколько раз открывал тендеры на поставку на миллиарды рублей, но ее никто не смог обеспечить».
Уход поставщиков из РФ затруднил масштабирование вычислительных ресурсов для задач, связанных с ИИ, подтверждает Антон Чунаев: «Привезти и собрать средние по производительности серверы еще можно, но использование высокопроизводительных вендорских платформ стало сопровождаться большим риском». Малейшая поломка, объясняет он, в отсутствие официальной поддержки может привести к необходимости полностью менять платформу, «обеспечение непрерывной работы потребует закупки резервных платформ, которые будут простаивать, или принятия рисков потери какого-то их количества».
Не всегда очевидные преимущества
В мировом масштабе популяризация ИИ уже привела к тому, что компоненты для него начали устанавливать и в потребительскую электронику. Речь идет об интеграции в технику нейронных процессоров (NPU): они обладают меньшей производительностью, чем видеокарты, но при этом не предъявляют больших требований по части энергопотребления. NPU, в частности, оснащена умная колонка «Яндекс Станция Миди», где он отвечает за распознавание команд без интернета.
Нейропроцессорами оснащаются и некоторые компьютеры, в частности Apple, начиная с моделей на M1 от 2020 года. Аналитики относят компьютеры, оснащенные NPU, в отдельную категорию AI PC (ПК для искусственного интеллекта). Canalys ожидает, что в 2024 году выход новых чипов Intel, AMD и Qualcomm со встроенными нейронными блоками закрепит эту категорию. Около 50 млн отгруженных в этом году компьютеров, по данным Gartner и IDC, будут относиться к ИИ-ПК. И если в 2023 году, по данным Gartner, рынок персональных компьютеров сократился на 14,8%, то появление ИИ-ПК призвано способствовать его росту на 3,5%.
В будущем, по мнению директора по продажам «Инферита» Олега Епишина, сформируется спрос на оптимизированные для ИИ рабочие станции, в частности, за счет тех, кто хочет развертывать нейросетевые модели в конфиденциальном режиме. «Это не уникальные суперкомпьютеры, как у Nvidia, а более доступные решения»,— отмечает он. Но руководитель «Лаборатории инноваций Норбит» (входит в «Ланит») Дмитрий Демидов считает, что эксперименты с локальным запуском LLM что на мощных рабочих станциях, что на обычных ПК выглядят скорее «неэффективными».
Nvidia исходит из того, что к ИИ-ПК относятся и компьютеры без NPU, оснащенные ее видеокартами: это позволило компании в январе заявить о «более 100 млн» уже существующих ПК такого класса. Однако на российском рынке, по словам источника “Ъ” в одном из дистрибуторов, немного подобных рабочих станций, в основном они используются для систем автоматизированного проектирования и видеоаналитики.
В случае с новой категорией компьютеров для потребителей «может сработать эффект новизны, но это скорее усилия маркетологов», считает господин Демидов. По его словам, преимущества от локального ИИ (на пользовательских устройствах) очевидны «только в отдельных случаях», в частности на смартфонах при съемке фото и видео или при использовании NPU-компьютеров для анализа данных. «Обычному пользователю ИИ-ПК, на мой взгляд, не принесут большой ценности»,— говорит он.
На перспективу внедрения вбоевую
Но и российский бизнес пока «не видит смысла переплачивать за процессоры с NPU», уточняет Олег Епишин: «Не всегда очевидно, как технические преимущества такого оборудования трансформируются в измеримые бизнес-результаты». Для российских компаний, по его словам, характерна консервативность в вопросах обновления IT-инфраструктуры, «они склонны выждать, пока новые технологии не докажут свою целесообразность». «Пока не складываются сценарии, при которых ИИ-ПК были бы экономически выгоднее серверного подхода»,— уточняет Дмитрий Демидов.
«Очень часто клиенту проще арендовать сервер с одним ускорителем с 80 Гб видеопамяти, чем адаптировать свой код для запуска на нескольких с 24 Гб»,— отметил господин Чунаев. По его словам, Selectel уже стала более активно закупать видеокарты с большим объемом видеопамяти.
При этом запросы компаний не ограничиваются одним лишь выбором моделей комплектующих, уточняет господин Чунаев: «Экспертиза на рынке растет, клиентам становится важно даже то, по какой схеме несколько видеокарт подключены в разъемы на материнской плате». Увеличились запросы на предоставление доступа к высокопроизводительным системам хранения данных, а также на построение выделенных каналов связи от оборудования заказчика (on-premise) до инфраструктуры провайдера.
Так как объем данных, передаваемых в ходе высокопроизводительных вычислений, вырос, возникает и потребность в расширении сети, говорит вице-президент по развитию инфраструктуры МТС, глава облачной платформы MWS Игорь Зарубинский: «Развитие ИИ приводит к росту спроса на накопители и диски. В будущем потребуется строительство высокоплотных энергонагруженных ЦОДов».
«Потребители уже стали запрашивать достаточно высокие мощности, вплоть до 15–20 кВт в расчете на стойку, на перспективу внедрения вбоевую ИИ, даже если эти характеристики избыточны для них в моменте»,— сказал IT-директор облачного провайдера Oxygen Александр Будкин. Он добавил, что это требует «переосмысления ЦОДа как конечного коммерческого продукта» для ИТ рынка: «ИИ требует значительно больше электричества и приводит к большему тепловыделению, но при этом не нужны каналы с высокой пропускной способностью».
Если тенденция сохранится на четыре-пять лет, полагает господин Будкин, можно будет говорить о проектах ЦОДов, рассчитанных именно под ИИ: «Они могут быть размещены в регионах с холодным климатом, работать от электричества с электростанций на попутном газе». Такие идеи высказывались и раньше, но считались нецелесообразными из-за относительной неразвитости каналов связи, но ИИ «более толерантен к задержкам».