当前AI应用的三重驱动:
当前AI应用的三重驱动:
第一,四巨头启动AI入口之战,加速国民AI普及,伴随春节流量的爆发(需求)+大模型的密集更新(供给),供需双轮驱动,国产AI应用将进入新阶段。
2014年,移动互联网时代,腾讯、阿里双巨头在春晚展开流量入口之争,微信通过摇一摇红包一举奠定龙头地位。
2026年,AI时代,字节、腾讯、阿里、百 ...
openclaw的很多设计还是可圈可点的。 但是它那个东西有点太多了。
openclaw的很多设计还是可圈可点的。
但是它那个东西有点太多了。
其实openclaw的底层是一个编码智能体,但并不是claude code。
因为claude code太大太复杂了,东西太多了,耗费的资源也比较多。
openclaw用的是一个叫pi-mono的智能体框架。
如果你不想装openclaw那么复杂的东西,想自己做一个智能体。
但是你又不想从零 ...
现在的各种clawbot框架搞个几十几百个技能就拉倒了,小博则可以容纳亿级的。
现在的各种clawbot框架搞个几十几百个技能就拉倒了,小博则可以容纳亿级的。所以现在玩大模型的人很快就会落后,以后的大模型不需要现在的技术,不需要跟现在搞大模型的人合作。
但是大模型这个技术不管怎么发展,都无法做出比现在的某些机械设备更便宜的产品,它就始终要跟这些机械设备生产商合作。
还有一些千锤百炼的独 ...
Andrej Karpathy:2026年了,为Agent而构建! CLI 之所以令人兴奋
Andrej Karpathy:2026年了,为Agent而构建!
CLI 之所以令人兴奋,恰恰因为它是一种“传统”技术——这意味着 AI 智能体可以原生且轻松地使用它们,把它们组合起来,并通过完整的终端工具链与之交互。
例如,让你的 Claude 或 Codex Agent安装新的 Polymarket CLI,然后让它生成任意的仪表盘、界面或逻辑。智能体会帮你 ...
我有一个很粗暴的看法,LLM大概率已经过了优化的甜点期
我有一个很粗暴的看法,LLM大概率已经过了优化的甜点期,因为在获取了大量和人类交互的数据以后,LLM都陆续获得了高强度强化学习后遗症。以前的语料都是人类创作的,而现在插入了大量的AI生成语料,属于自己拉的自己再吃一遍,以前的语料都是人类之间的沟通互动和辩论,现在人和AI的互动数据,已经占了很大一部分,新增的数 ...
去年开始脑 的AI
去年开始脑 的AI,其实是DEEPSEEK开始的,这个东西之所以引起这么大的震动是因为技术层面使用者的确感觉电脑的一侧是有人在对面的感觉,核心的技术就是LLM,LLM全称叫大语言模型,LLM生成自然语言文本或理解语言文本的含义,看上去像自然的语言,因此一下子就火了,问题在于LLM现在只能去解决理解人的自然语言的讲话以及, ...
DeepSeek 又发新论文啦!
DeepSeek 又发新论文啦!给大家带来解读。说实话这次的论文我看完了心里挺不是滋味
DeepSeek 联合北大、清华发了一篇新论文 DualPath, 解决了一个很多人可能没意识到的问题: 在 Agent 场景下, GPU 大部分时间不是在算, 而是在等数据从硬盘搬过来.
先说背景. 大家都知道现在 AI Agent 任务火爆. 问题是: 每一轮上下文的 9 ...
⼤神 Karpathy 最新推⽂:AI 技术栈⻓出了新的⼀层 ,叫 Claw
Andrej Karpathy⼜造词了。
上⼀次是“vibe coding”——不看代码 ,⽤⾃然语⾔告诉 AI 你想要什么 ,它替你写。这个词从⼀条推⽂变成了全⾏业通⽤语。这⼀次他拎出来的词是 Claw。
他说了什么
Karpathy 发了条长推:买了台新 Mac mini,准备周末折腾 OpenClaw——最近爆火的开源 AI Agent 项⽬,GitHub 上 20 万颗星。 ...
谷歌刚刚发布了自己的 Agent 构建器
谷歌刚刚发布了自己的 Agent 构建器
现在你可以在 Google Opal 里添加一个 Agent 模块,并用纯英文对它进行“编程”。
而且它原生支持:
工具调用(比如 Nano Banana、Veo、网页搜索等)
跨会话记忆(可以保存信息)
条件逻辑
这可能是我目前见过最简单的 AI Agent 构建方式了。 http://t.cn/AXcJ8fyH
...
LLM 为何很难处理好记忆?因为记忆不是简单的知识分类和存储,而是同原模型的融合进化
LLM 为何很难处理好记忆?因为记忆不是简单的知识分类和存储,而是同原模型的融合进化
可以做个想象类比,把我们每次输入的提示词看作一簇有无数触角的“信息结构”,它无法进行简单的归类存储,而是需要把这些触角同模型可以激活的思维部分链接,并消化因关联带来的层层涟漪(人类要通过睡眠来进行深层修剪),这个过程超 ...
如何从零构建一个 LLM 记忆层系统
如何从零构建一个 LLM 记忆层系统
towardsdatascience.com/how-to-build-your-own-custom-llm-memory-layer-from-scratch/
这篇文章介绍了如何从零构建一个受 Mem0 架构启发的 LLM 记忆层系统,通过 DSPy 框架 实现四阶段流水线:提取(将对话转为原子化事实)、嵌入(使用 text-embedding-3-small 存入 QDrant 向量数据库 ...
智能的本质在于对时间的抽象。
[LG]《Compositional Planning with Jumpy World Models》J Farebrother, M Pirotta, A Tirinzoni, M G. Bellemare... [FAIR at Meta & Mila – Québec AI Institute] (2026)
智能的本质在于对时间的抽象。
为什么即便拥有了强大的预训练基础策略,机器人依然难以解决复杂的长程任务?本文给出了答案:因为我们一直试图 ...
(2026) AdaEvolve:让LLM进化的“齿轮”动起来,从静态搜索到层级自适应优化
[LG]《AdaEvolve: Adaptive LLM Driven Zeroth-Order Optimization》M Cemri, S Agrawal, A Gupta, S Liu... [UC Berkeley] (2026) AdaEvolve:让LLM进化的“齿轮”动起来,从静态搜索到层级自适应优化
AI自动编程正经历从“一键生成”到“推理侧搜索”的范式转移。虽然让LLM在进化算法中充当变异算子已成主流,但现有的 ...
#模型时代# 菲尔兹奖、诺贝尔奖、图灵奖得主同台:AI正在怎样改变科学?
#模型时代# 菲尔兹奖、诺贝尔奖、图灵奖得主同台:AI正在怎样改变科学?
2026年2月10日,UCLA的数学科学研究所IPAM举办了一场学术聚会。菲尔兹奖得主陶哲轩、诺贝尔物理学奖得主Barry Barish、图灵奖得主、强化学习之父Richard Sutton,与来自OpenAI、微软研究院、NVIDIA、AWS的技术负责人,以及宾大、布朗、USC等学者同台 ...
最近技术圈都在关注一个新概念——WebMCP
最近技术圈都在关注一个新概念——WebMCP
它可能是继大模型之后,改变我们与互联网交互方式的下一个关键技术。
什么是 WebMCP?
简单来说,它是 Anthropic 提出的 MCP (Model Context Protocol) 协议在浏览器端的原生实现。目前正在作为 W3C 标准推进。
它可以让网页(Web App)直接向浏览器里的 AI Agent 主动“暴露”出 ...
AI agent 的能力增长曲线。
AI agent 的能力增长曲线。
AI 发展已跨过奇点
【AI 发展已跨过奇点】
Boris(Claude 缔造者)认为如果硬要类比的话,当前我们所处的AI革命与印刷术比较类似。
在印刷术发明之前,读写能力只被掌握在少数人中。随着印刷术的出现,各类印刷制品疯狂传播,文化得以普及,这为之后的“文艺复兴”奠定了土壤。
在这轮AI革命之前,“编程”是一项专业技能,由一个特定人群 ...
神经网络在AI中的作用
神经网络是人工智能领域中的一种重要技术,它通过模拟人脑神经元的工作方式来实现智能。神经网络在AI中扮演着以下关键角色:
[*]神经网络是AI的核心组成部分。深度学习等基于深度神经网络的机器学习方法已经推动了AI的发展,在计算机视觉、自然语言处理、语音识别等领域发挥关键作用。[1][2]
[*]神经网络是AI中模仿人脑的一种 ...
运行 AI Agent 应用为什么要先安装 Node.js 和 Git ?
在电脑上安装 AI Agent 应用要先安装 Node.js 和 Git,几乎是目前(2025-2026年)绝大多数开源 AI Agent 项目 / 框架 / 模板的标配前置环境,主要原因如下:为什么几乎都要先装 Node.js?一句话总结:你要运行的那个“Agent 应用”大概率就是一个 Node.js 项目,所以必须先有 Node.js 环境才能执行 npm install 和后续的启 ...
今日推介(第2054期):大语言模型智能体中具备成本意识的探索策略
今日推介(第2054期):大语言模型智能体中具备成本意识的探索策略、误差有界且代数可组合的偏微分方程神经求解器、通过二元Token实现自回归生成模型的规模化扩展、通过动作匹配串联动态人类技能、基于球面编码器的图像生成 公·众·号:爱可可爱生活 http://t.cn/AXcPtBW2 ##
...