Google анонсировала свой новый облачный суперкомпьютер A3, который теперь доступен в закрытом предварительном просмотре.
Новая мощная станция может использоваться для обучения моделей машинного обучения (ML), продолжая недавнюю попытку технологического гиганта предложить облачную инфраструктуру для целей ИИ, таких как новый G2 (откроется в новой вкладке)первая облачная виртуальная машина (ВМ), использующая новый графический процессор NVIDIA L4 с тензорными ядрами.
В Сообщение блога (откроется в новой вкладке)Компания отметила: «Суперкомпьютеры Google Compute Engine A3 специально созданы для обучения и обслуживания самых требовательных моделей ИИ, лежащих в основе современного генеративного ИИ и инноваций в больших языковых моделях».
А2 против. А3
В A3 используется графический процессор Nvidia H100, который является преемником популярного A100, который использовался для питания предыдущего A2. Он также используется для поддержки ChatGPT, автора ИИ, который положил начало генеративной гонке ИИ, когда он был запущен в ноябре прошлого года.
A3 также является первой виртуальной машиной, в которой графические процессоры будут использовать специально разработанные Google VPU со скоростью 200 Гбит/с, что позволяет в десять раз увеличить пропускную способность сети по сравнению с предыдущими виртуальными машинами A2.
A3 также будет использовать центр обработки данных Google Jupiter, который может масштабироваться до десятков тысяч взаимосвязанных графических процессоров и «позволяет использовать реконфигурируемые оптические каналы с полной пропускной способностью, которые могут регулировать топологию по запросу».
Google также утверждает, что «пропускная способность рабочей нагрузки… неотличима от более дорогих готовых неблокирующих сетевых структур, что приводит к более низкой совокупной стоимости владения». A3 также «обеспечивает до 26 экзафлопс производительности ИИ, что значительно сокращает время и затраты на обучение больших моделей машинного обучения».
Когда дело доходит до рабочих нагрузок логического вывода, а это реальная работа, которую выполняет генеративный ИИ, Google снова делает еще одно смелое заявление о том, что A3 достигает 30-кратного повышения производительности логического вывода по сравнению с A2.
В дополнение к восьми H100 с пропускной способностью 3,6 ТБ/с пополам между ними, другие выдающиеся характеристики A3 включают процессоры Intel Xeon Scalable 4-го поколения следующего поколения и 2 ТБ основной памяти в модулях DIMM DDR5 4800 МГц.
«Виртуальные машины Google Cloud A3 на базе графических процессоров NVIDIA H100 нового поколения ускорят обучение и обслуживание генеративных приложений ИИ, — сказал Ян Бак, вице-президент по гипермасштабируемым и высокопроизводительным вычислениям в NVIDIA.
В приветственном объявлении на Google I/O 2023 (откроется в новой вкладке)компания также заявила, что поддержка генеративного ИИ в Vertex AI теперь будет доступна большему количеству клиентов, что позволяет создавать модели машинного обучения в полностью управляемой инфраструктуре, исключающей необходимость обслуживания.
Клиенты также могут развернуть A3 на Google Kubernetes Engine (GKE) и Compute Engine, что означает, что они могут получить поддержку по автомасштабированию и оркестровке рабочих нагрузок, а также право на автоматические обновления.
Похоже, что Google использует подход B2B, когда дело доходит до ИИ, а не выпускает ИИ для всех, с которым можно поиграть, возможно, обжегшись на зловещем запуске своего конкурента ChatGPT, Google Bard. Тем не менее, он также анонсировал PaLM 2 на Google I/O, который является его преемником и предположительно более мощным, чем другие LLM, поэтому нам придется следить за этим пространством.