28.02.2021

Startup заново изобретает математику в нейронных сетях и выпускает Edge AI Chip мощностью 20 мВт

Стартап из Кремниевой долины утверждает, что он заново изобрел математику нейронных сетей и создал дополнительный периферийный ИИ- чип, уже имеющий выборку, который не использует обычный большой массив единиц умножения-накопления (MAC). По данным компании, чип может работать в эквиваленте 4 TOPS при впечатляющем энергопотреблении 55 TOPS / Вт и обеспечивает определение класса центра обработки данных менее 20 мВт (YOLOv3 при 30 кадрах в секунду).

Компания Perceive из Сан-Хосе до сих пор работала в сверхстелс-режиме; будучи дочерним предприятием Xperi, он полностью финансировался своей материнской компанией с момента его официального создания два года назад. Команда состоит из 41 человека, примерно столько же в Xperi работают над приложениями для этого чипа. Генеральный директор-основатель Стив Тейг также является техническим директором Xperi; Ранее он был основателем и техническим директором Tabula, стартапа с трехмерной программируемой логикой, который закрылся пять лет назад, а до этого был техническим директором Cadence.

Тейг объяснил, что первоначальная идея заключалась в том, чтобы объединить классические знания Xperi в области обработки изображений и звука с машинным обучением. Xperi владеет такими брендами, как DTS, IMAX Enhanced и HD Radio. Его технологический портфель включает программное обеспечение для обработки изображений с такими функциями, как уменьшение эффекта «красных глаз» на фотографиях и стабилизация изображения, которые широко используются в цифровых камерах, а также программное обеспечение для обработки звука для проигрывателей дисков Blu-Ray.

«Мы начали с чистого листа бумаги и использовали теорию информации, чтобы спросить: какие вычисления на самом деле выполняют нейронные сети, и есть ли другой подход к этим вычислениям, который мог бы изменить то, что возможно [на грани]?» — сказал Тейг. «После пары лет выполнения этой работы мы обнаружили, что [там] есть, а затем решили … мы должны сделать чип, воплощающий эти идеи».

Идея, которую Тейг представил для платы Xperi, заключалась в том, чтобы выделить компанию для создания чипа, который мог бы делать значимые выводы в периферийных устройствах с бюджетом мощности 20 мВт. В результате чип 7 × 7 мм под названием Ergo может работать с 4 TOPS без внешней ОЗУ (фактически, он работает в эквиваленте того, чего может достичь графический процессор с рейтингом 4 TOPS, сказал Тейг). Ergo поддерживает множество стилей нейронных сетей, включая сверточные сети (CNN) и рекуррентные нейронные сети (RNN), в отличие от многих имеющихся на рынке решений, предназначенных для CNN. Ergo может одновременно запускать несколько разнородных сетей.

«Единственное, что ограничивает количество сетей, которые мы можем запустить, — это общий объем памяти, необходимый для комбинации», — сказал Тейг, добавив, что Perceive продемонстрировала одновременное выполнение YOLOv3 или M2Det — с 60 или 70 миллионами параметров — плюс ResNet 28 с несколькими миллионов параметров, плюс сеть с долгой краткосрочной памятью (LSTM) или RNN для обработки речи и звука. В приложении это может соответствовать одновременному включению визуализации и звукового вывода.

Perceive также утверждает, что его чип Ergo чрезвычайно энергоэффективен, достигая 55 TOPS / Вт. Эта цифра на порядок превышает то, что заявляют некоторые конкуренты. По данным Perceive, на нем работает YOLOv3, большая сеть с 64 миллионами параметров, со скоростью 30 кадров в секунду при потреблении всего 20 мВт.

Эта энергоэффективность сводится к некоторым агрессивным методам стробирования мощности и синхронизации, которые используют детерминированный характер обработки нейронной сети; в отличие от других типов кода, здесь нет ветвей, поэтому время известно во время компиляции. Это позволяет Perceive точно определить, что и когда нужно включить.

Теория информации

«Мы придумали другой способ представления самих вычислений и связанных с ними арифметических операций», — сказал Тейг. «Мы представляем саму сеть по-новому, и именно в этом наше преимущество».

Восприятие началось с теории информации — раздела науки, который включает математические способы отличить сигнал от шума — и использовал свои концепции, чтобы посмотреть, сколько вычислений требуется, чтобы выделить сигнал из шума. В качестве примера Тейг использует сеть обнаружения объектов.

«Вы передаете сети миллионы пикселей, и все, что вам нужно знать, это: есть ли на этой картинке собака или нет?» он сказал. «Все остальное на картинке — шум, кроме собачьего [сигнала]. Теория информации позволяет измерить это количественно — сколько вам нужно знать [, чтобы сказать, есть ли на картинке собака]? Вы действительно можете сделать это математически точным ».

Как описывает Тейг, обычные нейронные сети могут делать обобщения на основе просмотра множества изображений собак, потому что они обнаружили хотя бы часть сигнала в шуме, но это было сделано эмпирическим путем, а не с помощью математически строгого подхода. Это означает, что шум переносится с сигналом, что делает основные нейронные сети очень большими и делает их восприимчивыми к примерам противодействия и другим уловкам.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять