Google использует ИИ для разработки процессоров ИИ гораздо быстрее, чем люди

Google использует ИИ для разработки процессоров ИИ гораздо быстрее, чем люди

В той или иной степени искусственный интеллект практически везде в наши дни, от игр до масштабирования изображений до смартфонов «личных помощников». Более чем когда-либо исследователи тратят кучу времени, денег и усилий на разработку ИИ. В Google алгоритмы ИИ даже используются для разработки ИИ-чипов.

Это не полный дизайн кремния, с которым имеет дело Google, а подмножество чипов, известных как оптимизация размещения. Это трудоемкая задача для людей. Как пояснил IEEE Spectrum (через LinusTechTips ), это подразумевает размещение блоков логики и памяти (или кластеров этих блоков) в стратегических областях, чтобы максимально использовать имеющуюся недвижимость, как с точки зрения производительности, так и энергоэффективности.

Группе инженеров может потребоваться несколько недель, чтобы наметить идеальное место, потому что это сложная задача с кучей переменных. В отличие от этого, нейронная сеть Google может создать лучший дизайн для процессора Tensor менее чем за 24 часа. По сути, это похоже на ядра Tensor, которые Nvidia использует в своих графических картах GeForce RTX на основе Turing, но с разными целями.

Это само по себе интересно, но в равной степени относится и к типу искусственного интеллекта, который использует Google. Вместо того чтобы использовать модель глубокого обучения, которая требует обучения ИИ на большом наборе данных, Google использует систему «обучения с подкреплением». Краткое объяснение состоит в том, что модели RL учатся на практике.

Здесь задействована система вознаграждений, поэтому модели RL идут в правильном направлении. В этом случае вознаграждение представляет собой сочетание снижения мощности, улучшения производительности и уменьшения площади. Я немного упрощаю, но в основном, чем больше дизайнов делает искусственный интеллект Google, тем лучше он становится при выполнении поставленной задачи (создание искусственных чипов).

«Мы полагаем, что именно сам ИИ обеспечит средства для сокращения цикла разработки микросхем, создавая симбиотические отношения между аппаратным обеспечением и ИИ, причем каждый из них способствует прогрессу другого», – объясняют исследователи Google. Если это сработает для Google, похоже, AMD, Intel и Nvidia в конечном итоге тоже попробуют тот же подход.

Вы ознакомитесь с техническими подробностями в статье, опубликованной в Arxiv.

Спасибо, LinusTechTips.