最近,Google Research 发布了一篇 Blog《Titans + MIRAS:帮助人工智能拥有长期记忆》。它们允许 AI 模型在运行过程中更新其核心内存,从而更快地工作并处理海量上下文。这篇 Blog 虽然没有提及 Gemini ...
你有没有试过跟智能客服聊到一半,换个人工就得从头再说一遍?不是客服不专业,是背后的AI模型“失忆”了这就是现在AI在超长对话里最头疼的毛病。
现在的AI虽然能写代码、作诗,但让它持续学个新技能,或者规划个长期目标,那就抓瞎了,这就像一个偏科严重的学霸,数学考满分,语文不及格,离“均衡智能”还差得远。
谷歌DeepMind掌门人断言,2030年AGI必至!不过,在此之前,还差1-2个「Transformer级」核爆突破。恰在NeurIPS大会上,谷歌甩出下一代Transformer最强继任者——Titans架构。
八年前,谷歌 Transformer 奠基之作出世,彻底改变了 AI 界。如今,谷歌另一个极有潜力成为 Transformer 的全新架构 ——Titans,正式在 NeurIPS 2025 亮相。 它完美融合了「RNN 极速响应 ...
今天让 AI 写一段漂亮的回答不难,难的是隔了一周、换了工作任务,它还记得你之前某次对话的关键细节,不断更新对你的个性化记忆。也只有在这一刻,大模型才真正开始接近「持续工作的智能体」,而不是一次性消耗品。
在NeurIPS ...
谷歌推出新型 AI 模型架构:Titans 打破上下文限制,引领未来智能 随着人工智能技术的飞速发展,谷歌研究院最近公布了其创新的“Titans”系列模型架构,这一突破性的技术将有望打破现有 AI 模型的上下文限制,引领未来的智能技术。 “Titans”最大的特点是 ...
Transformer的提出者谷歌,刚刚上来给了Transformer梆梆就两拳(doge)。 两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。
当前正在显示可能无法访问的结果。
隐藏无法访问的结果