经过 筑波大学
用于图像识别的人工智能(AI)技术具有模仿人类视觉和大脑神经元的结构。存在三种已知的方法来减少计算视觉和神经元组件所需的数据量。到目前为止,这些方法的应用比例是通过反复试验确定的。
筑波大学的研究人员开发了一种新算法,可以自动识别每种方法的最佳比例。该算法有望降低人工智能技术的功耗,并有助于半导体的小型化。
卷积神经网络 (CNN) 在机场入境处的面部识别和自动驾驶车辆的物体检测等应用中至关重要。
CNN 由卷积层和全连接层组成;前者模拟人类视觉,而后者使大脑能够从视觉数据中推断出图像的类型。
通过减少计算中使用的数据位数,CNN 可以保持识别精度,同时大幅降低计算需求。这种效率使得支持硬件更加紧凑。
到目前为止,已经确定了三种减少方法:网络瘦身(NS)以最小化视觉成分,深度压缩(DC)以减少神经元成分,以及整数量化(IQ)以减少所使用的位数。此前,对于这些方法的实施顺序或分配没有明确的指导方针。
这项新研究发表于 IEEE接入 ,确定这些用于最小化数据量的方法的最佳顺序是 IQ,其次是 NS 和 DC。此外,研究人员还创建了一种算法,可以自主确定每种方法的应用比例,从而消除了反复试验的必要性。
该算法使 CNN 能够比以前的模型压缩 28 倍,速度提高 76 倍。
这项研究的意义在于通过大幅降低人工智能半导体设备的计算复杂性、功耗和尺寸来改变人工智能图像识别技术。这一突破可能会增强部署先进人工智能系统的广泛可行性。
更多信息: Danhe Tian 等人,将量化应用于结构化和非结构化修剪技术组合的 CNN 模型启发式压缩方法, IEEE接入 (2024)。 DOI:10.1109/ACCESS.2024.3399541
期刊信息: IEEE接入
由...提供 筑波大学