今日要闻
(资料图)
1、英伟达发布超强AI计算平台,大模型训练不仅速度快还更省钱;
2、英伟达提供全新AI游戏模型服务,行业将开始新一轮创新式洗牌;
3、全自研国产安全数据库来了,拓尔思发布海贝搜索数据库,专用需求特征强;
海外AI
1、英伟达超强AI计算平台面世,内存提高500倍、不但传输速度高,而且还节能5倍
Nvidia发布史上最强人工智能超级计算平台DGX GH200和MGX系统的核心组件,专门为处理海量的生成型人工智能任务而设计。并且表示Grace Hopper 超级芯片已经全面投产。云服务客户也可以通过DGX Cloud部署AI系统以及使用AI Foundations。
此外,Nvidia正在构建自己的 Helios 超级计算机,该款超级计算机将包括四个DGX GH200 系统,所有系统都与 Nvidia 的 Quantum-2 InfiniBand 互连,预计会在今年年底上线。
见智研究认为:英伟达推出生成型人工智能任务的DGX GH200超级计算平台对于大模型训练以及超级计算能力来说,又上升到一个新的高度。当然,Grace Hopper 超级芯片并不属于消费类的PC芯片、而主要适用于企业级大规模人工智能的研发。
对于应用侧来说,龙头企业必然会陆续应用该款计算平台,包括谷歌云、Meta和微软用于生成式 AI 工作负载上。软银也表示,将使用Grace Hopper超级芯片用于生成人工智能和5G/6G技术,为软银的下一代数据中心提供动力。
对于产业链来说,该计算平台的应用会加大对通信传输领域的采购需求,比如光纤、高速光模块等。服务器对于光模块业需求的影响可参见此前文章:光模块需求为何反转。
DGX GH200有多厉害?
从单个DGX GH200系统来看,通过 256 台 NVLink 交换机将 36 个 Grace-Hopper 超级芯片连接起来,内存比单个 Nvidia DGX A100 系统多近 500 倍,能提供强大计算能力,为用户提供了可扩展的更大规模数据吞吐量,使其非常适合推进复杂语言模型的训练。
特别值得关注的是,该款芯片取消了传统的Pcle链接方式,而是采用了一种更高速的连接方式——NVLink-C2C。使得处理器和显卡之间的带宽显着提高7倍,并且节省能耗高达5倍之多。
2、英伟达首发生成式AI游戏模型服务,行业将开始新一轮创新式洗牌
英伟达宣布开始提供定制AI模型代工服务——Avatar Cloud Engine (ACE) for Games,可开发在云端和PC上运行的AI模型。开发者可以使用该服务在其软件和游戏中搭建和部署定制化的语音、对话和动画AI模型。该服务通过AI驱动的自然语言交互为非玩家角色(NPC)带来智能,从而直接改变游戏行业曾经的创作模式。
见智研究认为:
一方面,云端开发能够很大程度帮助企业节省固定成本,包括本地化部署的设备采购、系统扩容等支出,在云端开发能够按照需求进行扩容,拥有更大的灵活性和可扩展的弹性。仍值得注意的是,云端开发也并非在所有情况下都比本地开发更加经济,还需要根据定制化程度来评估。
另一方面,AI模型这种具备生成式创作能力的模型能够从底层改变游戏角色设计、与人交互的方式。对于游戏开发领域来说是翻天覆地的变化,降本增效已经是行业所默认的,更重要的是内容生成的方式打破了行业现有的途径。
此外,游戏行业今年迎来版号发放高峰,今年5月份国产网络游戏共有86款获批,截至目前年内累计发放433款游戏版号,接近2022年全年总数。在AI模型的创新性带领下, 游戏制作会迎来新一轮小高潮。
国内AI
全自研国产安全数据库来了
拓尔思发布海贝搜索数据库V10。海贝搜索数据库是目前国内唯一一款从底层分词算法,到核心引擎以及上层系统都完全自研的纯国产搜索引擎数据库;系统已完成与龙芯、海光、飞腾、鲲鹏等国产芯片以及中标麒麟、统信UOS等国产操作系统的适配工作。
此前,国内厂商基本上都以开源的ElasticSearch作为他们的搜索引擎数据库;还有一小部分厂商在开源Lucene引擎的基础上进行封装。
见智研究认为:海贝作为全自研数据库,具有更高等级安全性、兼容性以及高性能检索的特征,不仅能够做到全字段索引,支持任意维度的组合查询,在数据查询和分析的效率上高于其他的大数据管理系统;同时还可以实现冷热数据自动分区,支持多种存储混合使用。
在应用层面来看,特别是对于专用性强、安全性高的领域,比如:银行、政务、军工等表现出非常强的竞争力。
关键词: