Google использует ИИ для разработки процессоров искусственного интеллекта
В Google Научились использовать искусственный интеллект для заметного ускорения процесса проектирования новых чипов с более эффективным тепловыделением и производительностью. Обучение быстрое. Чем больше чипов сделано, тем эффективнее.
В той или иной степени искусственный интеллект присутствует практически везде в наши дни, от игр до масштабирования изображений и «личных помощников» в смартфонах. Более чем когда-либо исследователи вкладывают массу времени, денег и усилий в разработки искусственного интеллекта. В Google алгоритмы искусственного интеллекта даже используются для разработки чипов искусственного интеллекта.
Это не законченные схемы чипов, с которым имеет дело Google, а подмножество схем, известное как оптимизация размещения. Это очень трудоемкая задача для человека. Как поясняет IEEE Spectrum (через LinusTechTips), это предполагает размещение блоков логики и памяти (или кластеров этих блоков) в стратегических областях, чтобы максимально использовать полезную площадь кристалла, как для повышения производительности, так и для повышения энергоэффективности.
Команде инженеров может потребоваться несколько недель, чтобы наметить идеальное место размещения, потому что это сложная задача с тонной переменных. В отличие от людей, нейронная сеть Google может создавать лучшую схему для тензорного процессора менее чем за 24 часа. Это похоже по своей концепции на Тензорные ядра, которые Nvidia использует в своих графических картах GeForce RTX по принципу Тьюринга, но только с другими целями.
Это интересно само по себе, но в той же степени это и тип искусственного интеллекта, который используется Google. Вместо того чтобы использовать модель глубокого обучения, которая требует обучения ИИ с большими данными, Google использует систему «подкрепляющего обучения». Краткое объяснение заключается в том, что модели обучения с подкреплением, которые учатся на практике.
Здесь задействована система вознаграждения, поэтому такие модели движутся в правильном направлении. В этом случае вознаграждение представляет собой комбинацию снижения мощности, улучшения производительности и уменьшения площади. Я немного упрощаю, но в принципе, чем больше проектов делает искусственный интеллект Google, тем лучше он справляется с поставленной задачей (создание чипов искусственного интеллекта).
«Мы считаем, что именно ИИ сам по себе обеспечивает средства для сокращения цикла проектирования чипов, создавая симбиотические отношения между аппаратным обеспечением и ИИ, причем каждый из них подпитывает прогресс в другом», — объясняют исследователи Google. Если это сработает с Google, то кажется неизбежным, что AMD, Intel и Nvidia в конечном итоге тоже попытаются использовать тот же подход.
Источник: PCGamer.
Тогда можно поддержать её лайком в соцсетях. На новости сайта вы ведь уже подписались? ;)
Или хотя бы оставить довольный комментарий, чтобы мы знали, какие темы наиболее интересны читателям. Кроме того, нас это вдохновляет. Форма комментариев ниже.
Что с ней так? Своё негодование вы можете высказать в комментариях. Мы постараемся учесть ваше пожелание в будущем, чтобы улучшить качество материалов сайта. А сейчас проведём воспитательную работу с автором.
Если вам интересны новости мира ИТ так же сильно, как нам, подписывайтесь на Telegram-канал. Там все материалы появляются максимально оперативно. Или, может быть, удобнее "Вконтакте"?
Поговорить?
Читайте нас где удобно
Для тех, кто долистал
Ай-ти шуточка бонусом.
Узнав про популярность Айфона, Айпада и Айпода, Айгуль стала гордиться своим именем.
Пока нет комментариев. Будьте первым!