搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按相关度排序
按时间排序
8 天
揭秘AI大模型的基石:Transformer如何推动全球智能革命
在人工智能领域,Transformer作为一种革命性的技术架构,成为了大型语言模型(LLM)和各种语言处理应用的核心。自2017年被提出以来,Transformer不仅提升了自然语言处理(NLP)领域的创新性,还推动了智能写作、智能营销、智能对话等多 ...
1 小时
95后用AI搞企业服务,估值400亿
2023年5月,Cohere迎来了一场更为豪华的2.7亿美元C轮融资。这轮融资由Inovia Capital领投,参投方阵容堪称顶级——包括英伟达、甲骨文、Salesforce、Index Ventures、DTCP、Mirae Asset等。
10 天
三种 Transformer 模型中的注意力机制介绍及 Pytorch 实现:从自注意力到 ...
本文深入探讨Transformer模型中三种关键的注意力机制:自注意力、交叉注意力和因果自注意力。这些机制是GPT-4、Llama等大型语言模型(LLMs)的核心组件。通过理解这些注意力机制,我们可以更好地把握这些模型的工作原理和应用潜力。
腾讯网
6 天
深入解析图神经网络:Graph Transformer的算法基础与工程实践
点击上方“Deephub Imba”,关注公众号,好文章不错过 !Graph ...
腾讯网
16 天
揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补 ...
新智元报道 编辑:LRST【新智元导读】北京大学研究团队开发的FAN模型能有效捕捉数据中的周期性模式,相比传统模型在多项任务中表现出色,同时降低了参数量和计算量,增强了对周期性特征的建模能力,应用潜力广泛。周期性现象广泛存在,深刻影响着人类社会和自 ...
17 天
一夜小模型王座易主!英伟达发布超强小模型,新混合架构威力超 ...
它在所有公开可用的、参数少于20亿的模型中表现优异,并以平均准确率高出1.32%、缓存大小减少11.67倍、吞吐量提升3.49倍的成绩超越了Llama-3.2-3B。
8 天
被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事
其中最值得注意的一个故事是真正首次提出注意力机制的论文其实是 Dzmitry Bahdanau、Kyunghyun Cho 和 Yoshua Bengio 的《Neural Machine Translation by Jointly ...
8 天
Karpathy揭秘:被忽略的注意力机制起源与Transformer的光芒
Karpathy在推文中谈到,Bahdanau曾向他分享过自己发现注意力机制的经过,这一机制最初的灵感来源于人类的认知过程。在处理机器翻译任务时,Bahdanau团队设计了一种新方法,允许解码器在生成翻译时动态关注源句中的不同词汇,从而有效解决了编码 ...
7 天
刚刚,三名谷歌Vision Transformer作者官宣加入OpenAI
在 DeepMind 工作期间,Beyer 似乎一直在密切关注 OpenAI 发布的研究成果以及该公司卷入的公共争议,他经常在 X 上向自己的 7 万多名粉丝发布相关信息。去年,当首席执行官 Sam Altman 被 OpenAI ...
来自MSN
8 天
AI大模型的基石——Transformer
现有的大模型几乎都是在Tranformer的基础上开发的,可以说Tranformer就是大模型的基石。这篇文章 […] ...
3 天
on MSN
RockAI中国生成式AI大会揭秘:非Transformer架构大模型引领端侧智能革命
在科技日新月异的今天,人工智能领域再次迎来了重大突破。2024年中国生成式AI大会(上海站)于12月5日正式拉开帷幕,以“智能跃进 ...
36氪
28 天
Transformer打破三十年数学猜想,Meta研究者用AI给出反例,算法杀手 ...
AI用PatternBoost突破30年数学猜想。 【导读】30多年的数学猜想首次获得了进展!Meta等学者提出的PatternBoost,使用Transformer构造了一个反例,反驳了一个 ...
当前正在显示可能无法访问的结果。
隐藏无法访问的结果
反馈