1月2日最新消息,我么都知道,2020年,除了基础科研方面的突破,物联网、AI、云计算等新兴技术发展新动向,也同样值得关注,我们一起来看看2020年将会由哪些技术发展新趋势。
1.物联网+工业的迎来爆发
随着5G的落地、IoT设备数量的爆发、边缘计算概念的提出,使得工业生产的各个要素,得以深度整合。
这将促进制造效率提高、产品质量改善、产品成本和资源消耗的降低,并将传统工业提升到智能工业的新阶段。
从当前技术发展和应用前景来看,物联网在工业领域的供应链管理、生产过程工艺优化、产品设备监控管理、环保监测及能源管理、工业安全生产管理等方面,都发挥了巨大作用,其帮助人类实现了工控系统、通信系统和信息化系统的智能化融合。
通过物联网+方案,制造企业将实现设备自动化、搬送自动化和排产自动化,进而实现柔性制造。同时,工厂上下游制造产线能实时调整和协同。这将大幅提升工厂的生产效率、及企业的盈利能力。
对产值数十万亿、乃至数百万亿的工业产业而言,提高5%-10%的效率,就会产生数万亿人民币的价值。所以,物联网+工业,必将在2020年迎来爆发。
2.AI+物联网,使机器间大规模协作成为可能
传统单体智能,无法满足协调大规模智能设备共同完成实时感知和决策等工作。但随着物联网协同感知技术、5G高速通信技术的发展,多智能体之间的协同合作,将会成为可能。
多智能体协同,将使物联网进一步智能化,并进一步强化智能系统的价值。比如,大规模智能交通灯调度,将实现动态实时调整;仓储机器人协作,将完成货物分拣的高效协作;无人驾驶车可以感知全局路况;群体无人机协同,将高效打通最后一公里配送,超大规模的智能终端合作成为可能。
3.计算存储一体化,突破AI算力瓶颈
目前,深度学习需要采用规模非常庞大的网络、存储很多参数以及完成大量计算。同时,在这些计算过程中,会生成大量数据。
为完成这些计算,芯片设计中,会增加很多运算单元,如几千到几万个运算单元。随着运算单元数目的增加,每个运算单元能够使用的存储器的带宽和大小都在减小。因此,存储器会成为计算瓶颈。
由于深度学习并不属于通用计算的范畴,冯·诺伊曼(John von Neuman)架构的存储和计算分离,已经不适合数据驱动的人工智能应用需求。
频繁的数据搬运,导致的算力瓶颈以及功耗瓶颈,已经成为更先进算法探索的限制因素。类似于脑神经结构的存内计算架构,将数据存储单元和计算单元融合为一体,这样能显著减少数据搬运,提高计算并行度和能效。而计算存储一体化,在硬件架构方面的革新,也将突破AI算力瓶颈。
4.云服务下沉,成为新十年的基础设施
笔者在《神龙飞天,国士王坚》中,曾经介绍过在阿里神龙服务器和飞天操作系统的加持下,阿里、乃至整个云服务中的虚拟化层,所带来的损耗,正在被不断降低。
云服务凭借其标准化、弹性化的优势,使得用户只需专注应用开发,无需关注基础设施及基础服务。
而且,通过云原生的资源交付方式,计算效率、易用性、用户的计算和运维成本都会得到优化。可以说,云服务变得像电力和自来水一样无处不在,它还会成为数字经济时代基础设施。
最后,大家对这些2020年技术发展新趋势有什么看法吗?欢迎留言。
此文由 网站目录_网站网址收录与提交入口 编辑,未经允许不得转载!: