内存计算技术在人工智能存储系统中的应用前景(图文)

更新日期:2022年06月21日

       2019冠状病毒病肆虐全球, 但也加速了全球数字化转型, 也改变了存储半导体的发展模式。
       随着人工智能、物联网、大数据等相关技术的发展, 远程办公、视频会议、在线课程等实时应用大量涌现, 需要处理的数据量也越来越大。也暴涨了。根据2017年公布的数据, 预计到2025年, 全球产生的数据量将达到163个(12^70字节, 其中52个需要数据分析。 图1 预计到2025年的数据量 目前计算机系统使用Feng Neumann 架构, 在处理来自片外的数据时, 将经常使用的数据存储在缓存中(1、2 和 3 级, 不仅速度快、功耗低, 而且性能最大化。但是, 在需要处理的应用程序中)大量数据, 绝大多数数据是从内存中读取的, 因为要处理的数据相比缓存的容量要大得多。 图2 计算机中的内存架构 在这种情况下, 数据通道之间的带宽内存和内存成为了限制性能的瓶颈, 内存和内存之间的数据传输也消耗了大量的能量, 为了突破这个瓶颈, 之间的通道带宽内存和内存都需要扩展, 但是如果当前的pin数量已经达到极限, 进一步的带宽提升将面临技术上难以逾越的困难。在数据存储和数据计算分离的现代计算机架构中, 这样的数据墙问题是不可避免的。我们不妨假设处理器用于乘法运算的功耗约为1单位, 从获取数据到处理器消耗的能量是实际计算数据的650倍, 这意味着减少数据移动是性能和功耗的巨大提升。图 3. 数据计算和数据内存传输的功耗比较。深度神经网络是机器学习的一种, 其中用于计算机视觉的卷积神经网络和用于自然语言处理的递归神经网络是众所周知的, 并且最近得到了广泛的应用。
       热推荐模型等新应用也倾向于使用。
       对于这种情况, 它的主要运算是矩阵向量乘法运算。由于其低数据重用特性, 内存访问次数越多, 通过内存通道的数据移动越多, 性能瓶颈就会很明显。所以为了改善这一点, 有很多人提出应用技术来重构内存, 其操作和计算都是在内存中进行的, 正如它所定义的那样, 即预期的效果是通过在内存中执行操作而不把数据放在移动到, 从而最大限度地减少用于提高性能的数据移动。从 1990 年代末到 2000 年代初, 这个概念在学术界得到了积极的研究, 但由于处理和逻辑计算的技术难度, 以及使用处理实现 in-memory 的高成本, 竞争力大大削弱, 并且未商业化。但是今天对性能的需求已经把概念的商业化提上了日程。如果我们想了解, 首先我们需要知道执行了什么样的操作。下图向我们展示了神经网络中的全连接层。单个输出神经元 1 节点链接到 1、2、3 和 4 节点。
       , 每个节点突触的权重分别为 11、12、13 和 14。要处理这个全连接层, 需要将每个计算节点乘以权重并求和, 然后应用激活函数, 例如等。更复杂的情况是, 当有多个输入 1 和输出 1 时, 每个单元乘以将其对应输出的权重分别相加, 这就是数学矩阵的乘法和加法运算。
       图4的全连接层例子也在图5中。如果我们把这些操作的所有电路都设计到存储单元中, 根本不需要携带和传输数据, 只需要在存储中完成计算即可单位和只知道结果;这不仅显着降低了功耗,

还尽可能地处理了更复杂的操作。公司目前正在大力开发使用该技术的应用, 对于内存瓶颈等应用, 如果在应用中使用计算电路来执行应用, 预计性能和功耗将有显着提升。未来, 需要处理的数据还在不断增加,

有望成为计算机性能提升最有力的解决方案。图5的概念编辑器:我的果果超可爱编译自:

Copyright © 2004-2022 上海电气股份有限公司 shanghaidianqigufenyouxiangongsi ,All Rights Reserved (septicsurgeonspa.com)