2月24日,DeepSeek发布首个开源项目FlashMLA,该项目适用于Hopper GPU的高效MLA解码内核。有观点认为,目前限制DeepSeek推理的主要瓶颈就是显存,FlashMLA则是“以算代存”。PPIO派欧云王闻宇指出,DeepSeek模型与其他主流模型相比参数量更大,决定了其需要更大容量显存以加载模型权重,显存容量是门槛,不是瓶颈。
8 分钟on MSN
在科技界的瞩目下,ROG近日盛大发布了其最新力作——ROG幻X 2025,价格区间锁定在13999元至16999元之间。这款创新产品以其独特的平板笔记本二合一形态,为用户带来了前所未有的使用体验。 ROG幻X ...
字节跳动旗下AI助手豆包正在小范围测试深度思考模型,但接入的不是DeepSeek模型。据豆包相关负责人表示,当前测试的是自己深度思考模型的不同实验版本。实测发现,在豆包对话页面暂未显示“深度思考”功能的入口,但被灰度到的用户在询问不同问题后,豆包生成的答复中会显示思维链。(蓝鲸新闻) ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果