搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按相关度排序
按时间排序
人人都是产品经理 on MSN
4 小时
AI大模型的基石——Transformer
现有的大模型几乎都是在Tranformer的基础上开发的,可以说Tranformer就是大模型的基石。这篇文章 […] ...
5 小时
Andrej Karpathy 首次公开私人邮件:揭秘Transformer 注意力机制真相
注意力机制的本质是一种“数据依赖的加权平均”,是一种灵活、高效的全局池化操作。它的提出不仅是技术上的突破,也反映了人类认知的深刻影响。正如 Andrej Karpathy 所评价的:“注意力是一种重大解锁,是神经网络架构设计的一次飞跃。” ...
人人都是产品经理 on MSN
3 小时
大模型:从“大”到“跃迁”的核心逻辑
大模型并不是一项“新的技术”,其所依赖的Transformer架构早在2017年就已问世,并以“Attenti […] ...
17 天
独家专访新型神经网络FAN作者:用傅里叶分析弥补Transformer重要缺陷 ...
这篇开创性的论文介绍了基于Transformer的深度学习架构。Transformer彻底改变了自然语言处理(NLP)领域,它的自注意力机制也被广泛应用于计算机视觉等其他领域,并对AI研究产生了深远影响,成为了AI发展史上的一个里程碑。截至今天,这篇 ...
7 天
揭示Transformer「周期建模」缺陷,北大提出新型神经网络FAN,填补 ...
周期性现象广泛存在,深刻影响着人类社会和自然科学。作为最重要的基本特性之一,许多规律都显式或隐式地包含周期性,例如,天文学中的行星运动、气象学中的季节变化、生物学中的昼夜节律、经济学中的商业周期、物理学中的电磁波,以及数学运算和逻辑推理等。
腾讯网
11 天
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器 ...
点击上方“Deephub Imba”,关注公众号,好文章不错过 !Transformer 架构由 Vaswani 等人在 2017 年发表的里程碑式论文《Attention Is All You ...
腾讯网
12 天
左手Transformer,右手世界模型,我们距离AGI还有多远?
文 | ...
来自MSN
23 小时
无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024
范玮 投稿量子位 | 公众号 QbitAI 无需Transformer,简单滤波器即可提高时间序列预测精度。 由国家信息中心、牛津大学、北京理工大学、同济大学、中国科学技术大学等机构的团队提出了一个FilterNet。 目前已被NeurlPS ...
腾讯网
2 天
Nature Methods | 核苷酸转换模型(Nucleotide Transformer, NT):解锁基因组 ...
引言在生命科学的领域,DNA曾被誉为生命的“天书”,承载了生物体所有的遗传信息。然而,如何解读这本“天书”,从中提取关键的生物学信息,一直是科学界面临的巨大挑战。从基因表达到增强子活性,再到与疾病相关的遗传变异,这些复杂的分子表型背后隐藏着大量的规律 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈