Реальный конкурент Nvidia и один чип вместо тысяч серверов
12:37, 09.12.2025
Компания Cerebras Systems разработала Wafer Scale Engine – самый объемный процессор размером с обеденную тарелку. Данное инженерное новаторство было создано с целью минимизации времени в пути между серверами. Новая система состоит и монолита, в котором одновременно соединены вычисления и память.
Геополитические ограничения
В конце текущего года, компания Cerebras Systems вместо очевидного успеха в секторе полупроводников, столкнулась с реальными проблемами публичного размещения. Уже в октябре, компания закрыла частный раунд финансирования объемом $1,1 млрд.
Cerebras показывала фантастические результаты, ее выручка достигла $500 млн, а среди клиентов появились Meta, AWS, и IBM. Однако, ситуация резко изменилась, так как комитет по иностранным инвестициям США заблокировал ее выход на биржу из-за возможной утечки технологии в Китай.
Больше 80 процентов доходов компании генерирует холдинг G42 из Абу-Даби. Данное партнерство расценивается как стратегическая угроза из-за масштаба партнерства компаний и происхождения капитала.
Таким образом компания с решениями, которые явно превосходят Nvidia, оказалась заложником политической ситуации.
Особенности флагманского чипа Cerebras WSE-3
Cerebras WSE-3 – это пластина, которая функционирует как единый суперпроцессор. В то время, как архитектура Nvidia состоит из огромных кластеров. Также, Nvidia Blackwell использует стандарт памяти HBM, и она расположена не внутри вычислительного кристалла, а рядом. Такой подход приводит к задержке при обращении к данным.
Cerebras в свою очередь, полностью изменила подход, и вся память интегрирована в структуру чипа (SRAM). В следствии чего, компания не только минимизирует латентность, но и не будет находится в состоянии дефицита HBM памяти, так как Nvidia фактически монополизировала поставки HBM.
Сверхбыстрая память SRAM интегрирована в вычислительные ядра, что обеспечивает пропускную способность в 21 петабайт в секунду – это феноменальные показатели если сравнивать с топовыми решениями Nvidia.
Масштабирование для достижения современных мощностей
Современные LLM функционируют на кластерах видеокарт для достижения ожидаемого результата. Для создания шины NVLink и обеспечения синхронной работы тысячи чипов, Nvidia потратила много времени и ресурсов. Но кластеры все же используют больше энергии на пересылку результатов и синхронизацию.
В то время, как WSE-3 не имеет такой проблемы, из-за возможности размещения 900 000 ядер на одном куске кремния. В новом подходе нет оптических трансиверов, сетевых кабелей, и коммутаторов, потому внутренние задержки сводятся к нулю.