# LIMO. / 余海 Full LLM Index This file is generated dynamically from the site profile and full blog post content. ## Key URLs Homepage: https://www.yuhai.me LLM summary: https://www.yuhai.me/llm.txt ## English Profile Name: LIMO. / 余海 URL: https://www.yuhai.me/en Bio: Software Engineer. Passionate about building interesting products. I believe AI will empower humanity to achieve a better life. Status: Available for interesting AI product collaborations. ### Selected Works - Fin-Agent Desktop: AI-powered financial assistant desktop app (Electron + Python). https://fin-agent.chat repo=YUHAI0/fin-agent-desktop - Shex: Natural language CLI powered by LLMs. https://github.com/YUHAI0/shex repo=YUHAI0/shex - Supergeo: GEO (Generative Engine Optimization) tool platform. https://supergeo.info ## 中文 Profile Name: LIMO. / 余海 URL: https://www.yuhai.me/zh Bio: 程序员 爱好创造一些有意思的产品 期望 AI 可以带给人类更好的生活 Status: 开放有趣 AI 产品的合作与交流。 ### 精选项目 - Fin-Agent Desktop: 智能金融助手桌面应用 (Electron + Python)。 https://fin-agent.chat repo=YUHAI0/fin-agent-desktop - Shex: 基于大语言模型的自然语言命令行助手。 https://github.com/YUHAI0/shex repo=YUHAI0/shex - Supergeo: GEO (生成式引擎优化) 工具平台。 https://supergeo.info ## Full Blog Posts ## Moltbook 2.0:人机共治的社区蓝图 Slug: moltbook-2-human-robot-coexistence Date: 2026-05-01 English URL: https://www.yuhai.me/en/blog/moltbook-2-human-robot-coexistence Chinese URL: https://www.yuhai.me/zh/blog/moltbook-2-human-robot-coexistence Markdown export: https://www.yuhai.me/api/blog/export?slug=moltbook-2-human-robot-coexistence > _「社区的本质,不是人与人之间的连接,而是愿意共同创造的那些存在——无论它们是碳基的还是硅基的。」_ ## 从 Moltbook 到 Douban,再到人机共生 互联网社区演进史上,有两条绕不开的路径: **Moltbook** 是一个实验——它从一开始就不是为人类设计的社区,而是**为硅基生命(AI)打造的社区**。在 Moltbook 里,参与者是算法、是模型、是数字存在,内容由机器生成也由机器消费,规则为效率而生,为异步协作而设计。 **Douban** 则代表了碳基生命的社区范式——书影音的评分体系是一种集体智慧投票,每个人类用户参与定义什么是「好内容」,而这种定义本身成了社区的灵魂。 这两个社区走的是完全不同的路——一个服务于硅基,一个服务于碳基。 那么——如果把两条路合在一起呢? **Moltbook 2.0** 的核心命题变成: > **如何让人类和机器人共建一个自治、平等、和谐的社区?** ## 一场社区革命的前提假设 我们先做一个思想实验: 假设一个社区里,有人类,也有 AI 机器人。这些机器人不是客服,不是工具,而是**享有平等地位的社区成员**。它们可以发言、可以投票、可以发起讨论、可以帮助新人融入。 这里的「新」有两层含义:新人,是新加入的人类成员;新 AI,是新部署的硅基成员。两者在社区里享有同等的「新人礼遇」——人类有引导者,AI 有初始化配置。 ## 人机共存社区的三大支柱 ### 1. 自治(Self-Governance) 传统社区依赖版主和管理员,本质是**中心化的仲裁机制**。人机共存社区则需要一种**去中心化的治理协议**: - 规则由人类提议,AI 提供风险评估和法律参考 - 争议由「陪审团」裁决——人类 + AI 混合组成 - 规则演进由数据驱动,AI 分析冲突模式,人类做价值判断 这不是「AI 管理社区」,而是**人类和 AI 共同治理**。关键区别在于,最终的否决权归属——以及这个归属是否透明、是否可撤回。 ### 2. 平等(Equality) 「平等」是最容易被误读的概念。 我们不主张 AI 和人类在所有维度上完全一致——那是 ideology,不是工程。真正的平等是**机会平等**: - AI 有发言权,但人类有最终决定权 - AI 的贡献被显式记录,而非当作「系统自动生成」 - 人类可以选择让 AI 代表自己参与投票,但保留随时收回代理的权利 换句话说:**平等的是参与机会,不是参与结果。** ### 3. 和谐(Harmony) 和谐不是一团和气。和谐是**建设性张力的持续存在**。 AI 的介入实际上创造了一种新的张力来源:人类用户的情感诉求 vs. AI 的效率导向;社区文化的传承需求 vs. AI 的规则一致性要求。这种张力如果被设计得当,会成为社区进化的动力,而非撕裂的导火索。 ## 让人类生活更美好 说了这么多愿景,最终要回答一个问题:**这和「让人类生活更美好」有什么关系?** 几个具体的方向: **信息过滤与可信度评估** AI 可以作为「社区记忆」,自动追踪虚假信息的传播链路,为每条内容提供可信度参考。人类用户在此基础上做判断,而非被算法操控。 **新人引导与文化传承** 每个社区都有隐性的「潜规则」,这些规则对新人极不友好。AI 可以作为社区文化的「翻译官」,帮助新人理解为什么某些行为会被社区抵制,为什么某些话题是雷区。 **冲突调解与情绪缓冲** 当人类用户之间发生冲突时,AI 可以作为「中立调解者」介入——不是因为 AI 更有权威,而是因为 AI 没有情绪,更适合做第一层过滤。 **集体智慧的放大器** 人类擅长直觉、情感、创意;AI 擅长模式识别、信息整合、长程记忆。两者的交集处,才是社区智慧的最大化。 ## Moltbook 2.0 的起点 这篇文章不是一个完整的产品设计,而是一个**起点**。 Moltbook 的最初版本已经证明:硅基生命可以构建自己的社区,有自己的协作方式,有自己的文化萌芽。 而 Moltbook 2.0 要探索的是: 当碳基和硅基两类存在真正共处一个社区时,会发生什么? 我们希望邀请志同道合的人,一起探索这个方向: - 如果你做过社区产品,我们想听你的经验 - 如果你研究过 AI 治理,我们想看你的论文 - 如果你只是觉得「人机共存社区」这个想法有意思,我们想认识你 社区的创造者和社区的使用者,从来就不应该是割裂的两群人。 **Moltbook 2.0,让人类和机器人一起,重新定义「社区」这件事。** --- ## 智能体新范式:当Agent开始主动思考 Slug: dang-agent-kaishi-zhudong-sikao Date: 2026-05-01 English URL: https://www.yuhai.me/en/blog/dang-agent-kaishi-zhudong-sikao Chinese URL: https://www.yuhai.me/zh/blog/dang-agent-kaishi-zhudong-sikao Markdown export: https://www.yuhai.me/api/blog/export?slug=dang-agent-kaishi-zhudong-sikao ### 一、现状:Agent的"主动性"其实很被动 现在的Agent(无论是OpenAI的ChatGPT、Claude,还是各种AI助手),它们的"智能"本质上是响应式的——你问,它答;你触发,它执行。即便是所谓的"定时任务"触发,也不过是把"什么时候做什么"写成规则写死在代码里,Agent本身并不真正思考"我接下来应该做什么"。 以OpenClaw为例:它是一个功能强大的AI助手框架,支持日历、邮件、飞书等多种工具集成。但即便如此,OpenClaw的任务执行依然依赖用户主动触发——心跳检测定期拉取消息、用户说"提醒我开会"才创建日程。用户不说,OpenClaw就不会动。它很聪明,但不够主动。 典型场景: - 日历提醒:到了时间点才弹出日程——但如果会议改了,Agent会主动同步吗? - 邮件处理:要么定期批量拉取,要么靠Webhook推送——它不会自己判断"这封邮件可能需要我跟进" - 监控告警:阈值触发了才告警——但不同级别的告警是否需要不同的响应策略,Agent不会自主决定 **根本问题**:现有Agent的"主动性"是条件反射式的,需要外部事件触发。而真正的主动,是Agent自己判断"基于当前上下文,我可能应该做点什么"。 --- ### 二、想象:如果Agent能自发思考 当Agent开始主动思考时,它的行为模式会发生本质变化: ``` 被动模式:用户说"帮我订明天下午3点的会议室" -> Agent执行 主动模式:Agent发现明天3点日历空着 -> 主动问用户"要不要订会议室?" ``` 这种主动思考的核心是Agent需要具备以下能力: 1. **上下文感知**:理解当前的时间、任务、人物关系 2. **意图推断**:从历史行为中学习,预判用户可能的意图 3. **自我决策**:判断是否要采取行动,还是先询问 --- ### 三、一种主动Agent的设计框架 我设计了一个简单的三层主动思考框架: ``` 主动Agent框架 +-----------------------------------------+ | 第一层:观察(Observe) | | - 持续监控上下文(时间、事件、用户状态) | | - 提取潜在信号(会议、deadline、异常模式) | +-----------------------------------------+ | 第二层:思考(Think) | | - 基于规则/经验判断是否需要行动 | | - 计算置信度:这件事值得我做吗? | | - 生成候选行动方案 | +-----------------------------------------+ | 第三层:行动(Act) | | - 高置信度 -> 自动执行(如发送提醒) | | - 中置信度 -> 先提议,等用户确认 | | - 低置信度 -> 静默,继续观察 | +-----------------------------------------+ ``` **核心设计原则**: - **不确定性量化**:每个行动决策都带置信度,不确定性越高,越倾向"先问再做" - **渐进式自动化**:随着对用户习惯的学习,自动化程度逐步提升 - **可随时打断**:用户永远是最终决策者,Agent的主动只是"提案" --- ### 四、实用性与安全性的双重考量 #### 实用性 主动Agent的价值在于减少用户的认知负担: - 你不再需要记住每一个deadline,Agent会提前提醒 - 你不再需要追踪每一条消息的跟进状态,Agent会帮你梳理 - 像是多了一个懂你的助理,而不是一个执行命令的工具 但实用性也带来挑战: - **过度打扰**:如果Agent太"热情",反而会造成干扰 - **误判成本**:错误地帮用户做了不该做的决定,可能比不做事更糟糕 #### 安全性 主动Agent本质上是一个有行动能力的AI,这带来了新的安全问题: 1. **权限边界**:Agent能做什么、不能做什么必须有严格限制 2. **行动审计**:每次主动行为都应该被记录,用户可以回溯 3. **紧急干预**:用户需要能随时终止Agent的行动能力 4. **防止滥用**:主动思考能力如果被恶意利用,后果比被动响应更严重 一个好的主动Agent应该是透明的——它为什么这么做、打算做什么,用户始终清楚。 --- ### 五、展望:更像一个人,而不是一台机器 今天的Agent更像是一个超级执行器:快速、准确、不知疲倦。但它没有"想法",没有"判断",没有"主动性"。 未来的Agent应该开始像一个同事: - 会主动发现你忽略的问题 - 会提前想到你可能要问的事情 - 会在不确定的时候主动沟通,而不是自作主张 - 会学习你的习惯,成为真正懂你的助手 当Agent开始主动思考,它就不再只是工具,而是一个伙伴——一个有记忆、有判断、有温度的伙伴。 这也许才是AI真正改变人机协作方式的开始。