您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。2016-2020 年全球产生的数据量规模

2016-2020 年全球产生的数据量规模

分享
+
下载
+
数据
2016-2020 年全球产生的数据量规模
数据
© 2026 万闻数据
数据来源:安信证券研究中心,Statista
最近更新: 2023-08-20
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

应用20212022用户规模 用户规模(万)网民使用率用户规模(万)网民使用率同比增长率

即时通信 100666 97.5% 103807 97.2% 3.1%

网络视频 (含短视频) 97471 94.5% 103057 96.5% 5.7%

短视频 93415 90.5% 101185 94.8% 8.3%

网络支付 90363 87.6% 91144 85.4% 0.9%

网络购物 84210 81.6% 84529 79.2% 0.4%

网络新闻 77109 74.7% 78325 73.4% 1.6%

网络音乐 72946 70.7% 68420 64.1% -6.2%

网络直播 70337 68.2% 75065 70.3% 6.7%

网络游戏 55354 53.6% 52168 48.9% -5.8%

网络文学 50159 48.6% 49233 46.1% -1.8%

网上外卖 54416 52.7% 52116 48.8% -4.2%

线上办公 46884 45.4% 53962 50.6% 15.1%

网约车 45261 43.9% 43708 40.9% -3.4%

在线旅行预订 39710 38.5% 42272 39.6% 6.5%

互联网医疗 29788 28.9% 36254 34.0% 21.7%

线上健身 - - 37990 35.6% -

表1:2021-2022年中国各类互联网应用用户规模和网民使用率

资料来源:CNNIC、安信证券研究中心

用户规模增长及线上用户场景的多元化也在推动数据量的快速增长,从而提供了海量的信息供机器进行学习。根据Statista给出的数据,2016-2020年全球产生的数据量依次是18ZB、

26ZB、33ZB、41ZB、47ZB,数据量增长的复合增速是27.11%。我们认为随着各类应用的用户使用率提升,未来全球产生的数据量规模也将加速增长。

47 41 33 26 18 50 40 30 20 10 0 20162017201820192020

资料来源:Statista、安信证券研究中心

2)大模型展示出泛化能力,“模型”系统正走过拐点——机器能够理解人类世界

得益于数据、算力滋养,神经网络模型能力逐步显现,行业主流模型从CNN、RNN走向Transformer。2006年提出深度学习算法后,神经网络结构经历了RNN、CNN等几代的进化,在视觉领域取得了非常显著的突破,2014年3月,香港中文大学多媒体实验室自主研发的

DeepID系列面部识别算法准确率达到98.52%,在全球范围内首次超过人眼识别准确率,突破工业应用的红线。因为语序对于语义理解很重要,而不同语言间语序的重心又有所不同,因此在小模型阶段CNN、RNN算法在语言模型并未取得显著进步,因此这一阶段人工智能技

术的突破主要体现在计算机视觉领域。2016年AlphaGo打败世界围棋冠军李世石,进一步引爆了人工智能的浪潮,推动人工智能应用在金融、安防等场景的渗透率提升及全球人工智能创业热潮。但这一阶段均为小模型,需要针对不同场景重新标注数据对模型进行训练,人工标注成本较高且模型泛化能力较差,导致拓展项目边际成本较高而收入增长速度缓慢。2017年谷歌在论文《AttentionIsAllYouNeed》中提出了Transformer架构,Transformer架构基于自注意力机制,通过赋予权重能够并行化处理序列间关联关系,在自然语言处理领域中得到了广泛的应用,如机器翻译、文本分类和生成模型等。