您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。生成式 AI 行业产业链条

生成式 AI 行业产业链条

分享
+
下载
+
数据
生成式 AI 行业产业链条
数据
© 2026 万闻数据
数据来源:信达证券研发中心
最近更新: 2023-11-03
补充说明:1、E表示预测数据;2、*表示估计数据;

数据描述

2023年5月15日,交易得到了欧盟的批准。2023年7月11日,美国加州法官驳回了FTC的初步禁令请求,允许微软完成这笔交易,后续继续观望英国竞争和市场管理局的决定进程。2023年7月,微软已与索尼签署了一份协议,在收购案完成后动视暴雪旗下最受欢迎的游戏《使命召唤》将继续在索尼PS上发行,授权期10年。2023年10月13日,微软正式发布公告以687亿美元收购动视暴雪,意味着微软成为世界上收入第三高的游戏公司,仅次于腾讯和索尼。微软收购后有望补足自身一方游戏优质内容不足的短板,动视暴雪的游戏研发能力也有望为微软游戏持续贡献优质游戏储备,同时微软XGP的订阅服务也有望打开空间,目前XGP订阅用户数为2500万。

很长一段时间,文本生成采用的是类RNN(循环神经网络)架构,但RNN也存在着诸如顺序计算、并行计算能力偏弱等缺点——T时刻的隐形状态St还依赖(t-1)时刻的状态S(t-1)的输出。尽管后期也出现了能解决一定长期记忆问题弱的LSTM架构,LSTM通过引入额外的存储单元存储长期记忆信息并忘掉不再需要的信息,但Transfomer架构的出现又带来了新的技术革命。

2017年,谷歌提出Transformer模型,成为日后大语言模型的通用解。随后,谷歌、微软等巨头,基于这一模型分别推出BERT和GPT,在文本领域展开了激烈的竞争。Transformer本质上是字预测字的过程。通过上一个字,结合训练的技巧方法和下一个不同字出现的概率,选取概率最高的来输出。Transformer算法的革命性在于其避免了RNN中的顺序计算问题、长序列处理问题,且通过自注意力机制和多头注意力机制可以使模型更好的理解和生成文本。自注意力机制将序列中的任意两个位置之间的距离缩小为一个常量,可以使模型对输入序列的不同位置进行加权,从而更好的捕捉输入序列之