
Scaling Law仍是AI大模型技术发展的指引,模型效果取决于算力和数据。“ScalingLaw”,直译为缩放定律,最早由OpenAI的技术团队在《Scaling Laws for Neural LanguageModels》论文中提出,其内涵为通过增加计算量、训练数据量和模型参数量,可以显著降低模型误差,从而提升模型性能。当下确实也有理解认为,“Scaling Law”存在一些难以解决的问题,比如成本问题、数据问题等等,或许现存的AI大模型技术方案都无法实现最终的通用人工智能,但以目前情况来看,Scaling Law仍是AI大模型技术发展的指引,AI大模型的模型效果取决于算力和数据。
北美云厂商Capex季度增速创下新高,后续算力投入仍有保障。北美四大云厂商发布2024年Q3财报,Meta、Microsoft、Google、Amazon四家云厂商的2024年Q3合计资本开支达到598亿元,同比增长61.66%,季度增速达到近四年新高,环比Q2增速的