您的位置: 主页 > Google 推出 EfficientNet-EdgeTPU 演算法,加快 AI 边缘设备性能

Google 推出 EfficientNet-EdgeTPU 演算法,加快 AI 边缘设备性能



EfficientNet-EdgeTPU 是针对 Coral Dev Board、Tinker Edge T 等搭载 Edge TPU 张量处理器进行最佳化的演算法,能提升神经网络运算性能达 10 倍,对运算能量有限的边缘设备来说,是相当重要的突破,并能带来更多应用可能性。

透过 AI 弥补摩尔定律放缓

摩尔定律(Moore’s law)由 Intel 创始人之一戈登‧摩尔提出,他预测每隔两年积体电路可容纳的晶体管数目会增加 1 倍,过去数十年,电脑发展都相当契合这条定律。

Google 在官方 AI 研究部落格提到,在半导体制程越来越精进之后,要进一步缩小晶体管的尺寸比以往更困难,因此资讯产业便逐渐将开发焦点转移到硬件加速等特殊应用领域,以持续推动产业发展。

这个现象也发生在 AI、机器学习领域,许多研发单位都在致力打造神经网络(Neural Network,NN)的加速运算单元,但是讽刺的是,即便应用于资料中心或边缘设备的神经运算设备越来越普遍,但却很少为这些硬件最佳化设计的演算法。

为了解决这个问题,Google 发布了 EfficientNet-EdgeTPU 影像分类演算模型,顾名思义可猜到它以 Google 自家开源 EfficientNets 模型为基础,并针对 Edge TPU 最佳化,以利提升边缘设备在 AI 运算的性能表现。

▲ 摩尔定律至今仍准确描述半导体产业发展。

▲ Coral Dev Board 藉由 Edge TPU 强化 AI 运算性能。

▲ Asus 推出的 Tinker Edge T 开发板也搭载 Edge TPU。

针对 Edge TPU 最佳化

为了将 EfficientNets 最佳化,Google 的研发团队使用 AutoML MNAS 框架,并针对 Edge TPU 的特性调整神经网络的搜索空间(Search Space),同时也整合延迟预测模组,以利预估 Edge TPU 的运算延迟。

执行运算时,EfficientNets 主要采用深度可分离卷积(Depthwise-Separable Convolutions),虽然可以降低运算量,但并不适合 Edge TPU 的架构,因此 EfficientNet-EdgeTPU 改采一般常规卷积,虽然会让运算量增加,但还是有较好的整体运算性能。

实际验证的测试中,EfficientNet-EdgeTPU-S 代表基本模型,而 -M 和 -L 模型则代先采用复合缩放将原始图像调整为最佳解析度,以更大、更准确的模型判读,牺牲延迟换取更高准确度。结果报告显示,无论使用哪款模型,性能与准确度都有出色表现,性能大幅领先 ResNet-50,准确度也远高于 MobileNet V2。

▲ EfficientNet-EdgeTPU 采用最佳化的 AutoML 运算流程。

▲ 常规的 3×3 卷积(右)具 173M 个乘积累加运算,而深度可分离卷积则只有 24M 个乘积累加运算,但是 Edge TPU 在常规卷积却有约 3 倍的整体性能。

▲ EfficientNet-EdgeTPU-S/M/L 模型有高度效率与准确度,性能甚至比 ResNet-50 快 10 倍。

Edge TPU 原本就是电力效率相当好的运算单元,在 EfficientNet-EdgeTPU 的加持下,甚至可以完成原本需要更高端电脑才能负荷的即时影像识别、分类,让边缘运算有更多可能性。

上一篇:看脸测心跳、路灯抓超速,台湾 5G 战队曝光
下一篇:任正非:人工智能才是华为战略要地,现在要战胜美国

您可能喜欢

回到顶部