提交 7d8c296b 编写于 作者: M MaoXianxin

首次统一卷积与自注意力,X-volution发力网络核心基础架构创新

上级 39519d5f
# 首次统一卷积与自注意力,上海交大、华为海思提出X-volution,发力网络核心基础架构创新
# 首次统一卷积与自注意力,X-volution发力网络核心基础架构创新
> 卷积和自注意力各有优势,但二者的有效结合一直是一大难题。为了取二者之长,上海交大 - 华为海思联合团队提出了一种名为 X-volution 的新型算子。该算子在性能上的显著提升、计算的通用性与即插即用的特性为深度学习基础计算单元库以及 NPU 计算架构的演进提供了一种新的基础武器。
> 卷积和自注意力各有优势,但二者的有效结合一直是一大难题。为了取二者之长,提出了一种名为 X-volution 的新型算子。该算子在性能上的显著提升、计算的通用性与即插即用的特性为深度学习基础计算单元库以及 NPU 计算架构的演进提供了一种新的基础武器。
众所周知,卷积操作(convolution)与自注意力操作(self-attention)是深度学习两大核心的基础网络计算单元(或称为模型算子)。卷积操作通过线性乘子,提取图像局部特征;自注意力操作通过高阶乘子运算,提取图像全域 / 局部的特征关联特性。两种算子成为深度学习两大重要网络架构演化——CNN 与 Transformer 的计算基石。两种算子在图像特征提取与语义抽象方面的互补性不言而喻:线性 vs. 高阶, 局部 vs. 全局。因此,能否设计一种包含这两种操作的融合算子并使其发挥互补优势,一直是深度学习架构研究者热衷的研究方向之一。
......@@ -14,7 +14,7 @@
论文链接:[https://arxiv.org/pdf/2106.02253.pdf](https://arxiv.org/pdf/2106.02253.pdf)
针对这些挑战,日前,**上海交大 - 华为海思联合团队在 arXiv 上发表了「X-volution: On the Unification of Convolution and Self-attention」**,首次在计算模式上统一了这两大基础算子,并在推理阶段归并成一个简单的卷积型算子:X-volution。
针对这些挑战,日前,**团队在 arXiv 上发表了「X-volution: On the Unification of Convolution and Self-attention」**,首次在计算模式上统一了这两大基础算子,并在推理阶段归并成一个简单的卷积型算子:X-volution。
X-volution 兼顾卷积与自注意力操作的互补优势,并且在现有通用网络计算框架上不需要额外算子支持,也不增加除卷积外的额外算力或影响网络的规范性 / 可用性(即插即用)。
......@@ -76,6 +76,4 @@ X-volution 兼顾卷积与自注意力操作的互补优势,并且在现有通
作者在文中提出了一种新型的算子——X-volution,整合了卷积和 self-attention 的互补特性。同时,他们从 self-attention 的公式中导出了一种巧妙的全局自注意力的逼近形式——PSSA。作者通过在分类、目标检测、实例分割等任务中的优秀表现证实了所提出的算子的有效性。实验也揭露了卷积与 self-attention 的配合确实能较为显著地提升性能,并且两者达到了实质上的特性互补。该新型算子在性能上的显著提升、计算的通用性与即插即用性方面的巨大优势,为深度学习基础计算单元库,以及 NPU 计算架构的演进提供了一种新的基础武器。
注:该论文作者是上海交通大学海思实习生陈炫宏和王航,由计算机视觉知名专家倪冰冰教授指导。
![](https://maoxianxin1996.oss-accelerate.aliyuncs.com/codechina1/20210609012321.png)
\ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册