Google использует ИИ для разработки процессоров искусственного интеллекта

В Google Научились использовать искусственный интеллект для заметного ускорения процесса проектирования новых чипов с более эффективным тепловыделением и производительностью. Обучение быстрое. Чем больше чипов сделано, тем эффективнее.

Google использует ИИ для разработки процессоров искусственного интеллекта

В той или иной степени искусственный интеллект присутствует практически везде в наши дни, от игр до масштабирования изображений и «личных помощников» в смартфонах. Более чем когда-либо исследователи вкладывают массу времени, денег и усилий в разработки искусственного интеллекта. В Google алгоритмы искусственного интеллекта даже используются для разработки чипов искусственного интеллекта.

Это не законченные схемы чипов, с которым имеет дело Google, а подмножество схем, известное как оптимизация размещения. Это очень трудоемкая задача для человека. Как поясняет IEEE Spectrum (через LinusTechTips), это предполагает размещение блоков логики и памяти (или кластеров этих блоков) в стратегических областях, чтобы максимально использовать полезную площадь кристалла, как для повышения производительности, так и для повышения энергоэффективности.

Команде инженеров может потребоваться несколько недель, чтобы наметить идеальное место размещения, потому что это сложная задача с тонной переменных. В отличие от людей, нейронная сеть Google может создавать лучшую схему для тензорного процессора менее чем за 24 часа. Это похоже по своей концепции на Тензорные ядра, которые Nvidia использует в своих графических картах GeForce RTX по принципу Тьюринга, но только с другими целями.

 

Это интересно само по себе, но в той же степени это и тип искусственного интеллекта, который используется Google. Вместо того чтобы использовать модель глубокого обучения, которая требует обучения ИИ с большими данными, Google использует систему «подкрепляющего обучения». Краткое объяснение заключается в том, что модели обучения с подкреплением, которые учатся на практике.

Здесь задействована система вознаграждения, поэтому такие модели движутся в правильном направлении. В этом случае вознаграждение представляет собой комбинацию снижения мощности, улучшения производительности и уменьшения площади. Я немного упрощаю, но в принципе, чем больше проектов делает искусственный интеллект Google, тем лучше он справляется с поставленной задачей (создание чипов искусственного интеллекта).

«Мы считаем, что именно ИИ сам по себе обеспечивает средства для сокращения цикла проектирования чипов, создавая симбиотические отношения между аппаратным обеспечением и ИИ, причем каждый из них подпитывает прогресс в другом», — объясняют исследователи Google. Если это сработает с Google, то кажется неизбежным, что AMD, Intel и Nvidia в конечном итоге тоже попытаются использовать тот же подход.

Источник: PCGamer.

Если вам интересны новости мира ИТ также сильно, как нам, подписывайтесь на наш Telegram-канал. Там все материалы появляются максимально оперативно. Или, может быть, вам удобнее "Вконтакте" или Twitter? Мы есть также в Яндекс.Дзене и даже Facebook.

Фото автораАвтор: buddy24

Поговорить?

Читайте нас где удобно

Ещё на эту тему было

Для тех, кто долистал

Ай-ти шуточка бонусом. iPhone - он как солнце, вечером садится.