编程 MiroFish 深度解析:当群体智能引擎把"预测未来"做成了一门生意

2026-04-09 03:35:55 +0800 CST views 10

MiroFish 深度解析:当群体智能引擎把"预测未来"做成了一门生意

背景:从舆情分析到群体预测

2026年3月,一个名为MiroFish的开源项目在GitHub悄然登顶全球趋势榜。与大多数昙花一现的爆款项目不同,这个项目从诞生起就带着明确的商业化路径——北邮大四学生郭航江(网名BaiFu)用Claude Code 10天时间写出核心代码,随后获得陈天桥3000万人民币战略投资,盛大集团为其提供孵化支持。

这不是一个野生项目的偶然爆发。在MiroFish之前,同一个团队已经做了BetataFish——一个多智能体舆情分析系统。MiroFish是BetataFish的产品升级版:不再只是回看"发生了什么",而是开始推演"接下来可能发生什么"。

这个脉络至关重要。它说明MiroFish不是为蹭热度临时拼出来的Demo,而是同一产品思路的持续迭代。

本文将从技术架构、核心原理、代码实现、性能表现、局限性与未来方向等多个维度,对MiroFish进行全景式深度解析。

一、MiroFish到底是什么

MiroFish的官方定义是:基于多智能体技术的预测引擎(A Simple and Universal Swarm Intelligence Engine, Predicting Anything)。

这个定义里有几个关键词需要拆解:

多智能体技术:不是让一个模型直接输出预测结果,而是构建大量具有独立人格、记忆和行为逻辑的AI智能体,让它们在模拟环境中互动、博弈、演化,最终通过群体行为涌现出预测结论。

预测万物:这里的"预测"不是狭义的金融预测或天气预报,而是广义的"后果推演"——从政策影响、舆情走向、市场反应,到小说结局推演、创意情景模拟。

群体智能引擎:核心思想来自复杂系统研究中的"群体智能"(Swarm Intelligence)概念——大量简单个体通过局部交互产生超越个体能力的集体行为。MiroFish将这一思想移植到AI Agent领域:让成千上万个LLM Agent构成一个数字社会,通过它们的交互推演现实世界的可能走向。

1.1 与传统AI预测的根本区别

大多数现有AI预测工具的范式是:你给一个Prompt,它给一个答案。这本质上是"问答模式"——模型在已有知识库中检索、推理、生成答案。

MiroFish的范式完全不同:构建一个平行数字世界,让智能体在里面跑一遍。这个差异类似于:

传统AI预测MiroFish
本质问答+推理仿真+涌现
输入Prompt+上下文种子材料
输出单一答案演化过程+报告
可交互性
解释性黑盒白盒(可追问每个Agent)
适用场景信息检索复杂系统推演

1.2 产品定位:不是预测机器,而是数字沙盘

MiroFish真正卖的不是"AI能预测未来"这个噱头,而是低成本试错系统

官方给出的场景横跨宏观和微观两个层面:

宏观场景:政策预判、公关策略推演、舆情走向预测、金融市场分析、战略决策验证。

微观场景:小说结局推演、创意情景模拟、内容世界观构建。

表面看这些场景差得很远,但底层逻辑完全一致:把复杂问题放进系统里先演一遍,再看结果。这件事的价值在于——很多决策做错一次的代价,远高于建一个模拟系统的成本。

用一个类比来理解:传统AI预测像是"问一个经验丰富的顾问",而MiroFish像是"先在数字沙盘上演练一遍"。前者的局限在于顾问的经验和偏见,后者的局限在于模型对现实世界的理解深度。

二、技术架构:五步构建平行数字世界

MiroFish的核心工作流程分为五个阶段:图谱构建 → 环境搭建 → 双平台并行模拟 → 报告生成 → 深度交互。每个阶段都有明确的技术实现。

2.1 图谱构建(Graph Building)

第一步是种子信息提取。用户上传的原始材料(新闻报道、政策文件、分析报告、小说文本等)经过处理后,被分解为可操作的"种子节点"。

具体技术包括:

  • 实体关系抽取(Entity Relation Extraction):从文本中识别出关键人物、组织、事件及其相互关系
  • 个体与群体记忆注入:为每个智能体注入与其身份对应的记忆片段
  • GraphRAG构建:基于抽取的实体和关系,构建知识图谱,为后续的智能体交互提供结构化的上下文

GraphRAG在这里的作用尤为关键——它不只是简单的向量检索,而是将种子信息组织成语义网络,使得每个智能体在仿真过程中都能访问到与其视角相关的上下文。

2.2 环境搭建(Environment Setup)

有了图谱之后,第二步是生成智能体和环境配置

  • 角色生成(Persona Generation):根据种子材料中的实体信息,为每个智能体生成独立人格。不同类型的角色(如政策制定者、媒体从业者、普通民众、投资者)拥有不同的目标、偏见、信息获取渠道
  • 环境配置Agent:负责设置仿真世界的物理规则、时间流速、交互边界等参数

以金融预测场景为例,一个完整的仿真环境可能包含:央行官员(关注通胀和就业)、企业主(关注成本和市场)、散户投资者(关注短期收益)、机构分析师(关注基本面)等数十种不同角色的智能体。

2.3 双平台并行模拟(Dual-Platform Simulation)

这是MiroFish最核心的部分——让智能体在虚拟环境中真实地"活"起来

MiroFish的仿真引擎底层依赖OASIS(Open Agent Social Interaction Simulations),这是CAMEL-AI团队开源的大规模多智能体社会仿真框架。OASIS的核心能力是:

  • 支持百万级Agent并发:理论上可以同时运行100万个智能体的社交媒体仿真
  • 23种Agent动作:包括发帖、评论、点赞、关注、转发等,模拟真实社交媒体行为
  • 兴趣推荐+热榜推荐双算法:模拟真实平台的内容分发逻辑
  • 动态社交网络适应:模拟真实平台上的用户关系变化

MiroFish在此基础上做了两层封装:

  1. 双平台并行:同时在Twitter-like和Reddit-like两个平台运行仿真,不同平台的社交规则和内容形态分别建模
  2. 时序记忆更新:仿真过程中,智能体的记忆会随时间动态更新,使得长周期的推演成为可能

一个典型仿真流程可能是:

  • 第1轮:种子事件触发(如"某国央行宣布降息")
  • 第5轮:市场开始反应(智能体发帖讨论)
  • 第20轮:舆情分化(不同立场的智能体开始对峙)
  • 第50轮:涌现群体行为(某一观点占据主流)
  • 第72轮:ReportAgent分析输出结论

2.4 报告生成(Report Generation)

仿真结束后,ReportAgent负责解读仿真结果并生成结构化报告。

ReportAgent拥有丰富的工具集,可以:

  • 与仿真后的环境进行深度交互(查询任意时间点的任意智能体状态)
  • 追溯任意观点的演变路径
  • 生成包含事件脉络、因果分析和策略建议的完整报告

实测显示,ReportAgent生成的报告在叙事性、逻辑闭环和宏观历史对比方面表现突出,但在精确的量化判断方面仍有局限。

2.5 深度交互(Deep Interaction)

这是MiroFish区别于传统仿真系统的重要特性——仿真结束后,用户仍然可以继续与这个世界交互

  • 可以与模拟世界中的任意一个智能体对话,追问它在某个时间点的想法和判断依据
  • 可以与ReportAgent对话,深入探讨报告中的某个结论
  • 可以注入新的变量("如果央行加息而不是降息呢?"),重新运行部分仿真

这种交互能力使得MiroFish不只是一个一次性预测工具,而是一个可探索的数字平行世界

三、代码实现:从零看懂MiroFish的安装与运行

3.1 环境要求

MiroFish对运行环境有明确要求:

工具版本要求说明
Node.js18+前端运行环境
Python≥3.11, ≤3.12后端运行环境
uv最新版Python包管理器
LLM APIOpenAI SDK兼容格式推荐阿里百炼qwen-plus
Zep Cloud免费账户即可长期记忆与时序关系处理

3.2 安装部署

MiroFish提供两种部署方式:源码部署Docker部署

源码部署(推荐有经验的开发者)

# 克隆项目
git clone https://github.com/666ghj/MiroFish.git
cd MiroFish

# 复制配置文件
cp .env.example .env

# 编辑.env,填入API密钥
# LLM_API_KEY=your_api_key
# LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
# LLM_MODEL_NAME=qwen-plus
# ZEP_API_KEY=your_zep_api_key

# 一键安装所有依赖
npm run setup:all

# 启动前后端
npm run dev

Docker部署(推荐大多数用户)

# 配置环境变量
cp .env.example .env
# 编辑.env填入API密钥

# 一键启动
docker compose up -d

# 服务地址:
# 前端: http://localhost:3000
# 后端API: http://localhost:5001

3.3 OASIS底层调用示例

MiroFish的仿真引擎基于OASIS,了解OASIS的API有助于理解MiroFish的工作原理。以下是OASIS的基础调用示例(来自官方文档):

import asyncio
import os
from camel.models import ModelFactory
from camel.types import ModelPlatformType, ModelType
import oasis
from oasis import ActionType, LLMAction, ManualAction, generate_reddit_agent_graph

async def run_simulation():
    # 创建模型实例(支持OpenAI兼容格式)
    model = ModelFactory.create(
        model_platform=ModelPlatformType.OPENAI,
        model_type=ModelType.GPT_4O_MINI,
    )

    # 定义Agent可执行的动作(23种之一)
    available_actions = [
        ActionType.LIKE_POST,
        ActionType.CREATE_POST,
        ActionType.CREATE_COMMENT,
        ActionType.FOLLOW,
        ActionType.SEARCH_POSTS,
        # ... 其他动作
    ]

    # 从配置文件加载Agent人格
    agent_graph = await generate_reddit_agent_graph(
        profile_path="./data/reddit/user_data_36.json",
        model=model,
        available_actions=available_actions,
    )

    # 创建仿真环境
    env = oasis.make(
        agent_graph=agent_graph,
        platform=oasis.DefaultPlatformType.REDDIT,
        database_path="./data/reddit_simulation.db",
    )

    # 初始化环境
    await env.reset()

    # 第一步:手动操作(指定某些Agent的行为)
    actions_1 = {}
    actions_1[env.agent_graph.get_agent(0)] = [
        ManualAction(
            action_type=ActionType.CREATE_POST,
            action_args={"content": "央行宣布降息,市场将如何反应?"}
        ),
    ]
    await env.step(actions_1)

    # 第二步:LLM自主决策
    actions_2 = {
        agent: LLMAction()
        for _, agent in env.agent_graph.get_agents()
    }
    await env.step(actions_2)

    # 关闭环境
    await env.close()

asyncio.run(run_simulation())

这个示例展示了OASIS的核心逻辑:指定某些Agent的初始动作,其余由LLM自主决策,然后通过多轮迭代观察群体行为的涌现。

3.4 Zep Cloud长期记忆集成

MiroFish的另一层关键能力是长期记忆——这是通过Zep Cloud实现的。Zep Cloud提供了:

  • 智能体记忆持久化:仿真过程中每个Agent的思考和决策被持久化存储
  • 时序关系处理:能够按时间顺序检索Agent的历史状态
  • 语义检索:通过自然语言查询任意时间点的Agent状态

Zep Cloud的免费月度额度足以支撑简单使用,对于需要大规模仿真的场景(72轮×60个Agent×多平台),Token消耗会相当可观。

四、实测表现:预测能力边界在哪里

4.1 完整工作流实测

根据搜狐科技的实测报告(2026年4月),以2026年黄金走势预测为案例的完整工作流如下:

  1. 种子输入:上传8项材料(包含黄金历史数据、宏观经济报告、地缘政治事件分析等)
  2. Agent生成:系统自动生成60个不同类型的金融领域智能体
  3. 并行仿真:双平台(类Twitter+类Reddit)同时运行72轮互动推演
  4. 报告输出:ReportAgent生成含事件脉络、因果分析和策略建议的结构化报告

4.2 能力测评结果

能力维度表现评价
知识图谱构建优秀
Agent人格设计优秀
端到端流程自动化优秀
多元视角模拟优秀
量化预测精度一般
大规模深度交互受Token成本限制

4.3 基座模型对比

模型优势场景
Claude Opus因果推演、结构化分析
Qwen 3.5-plus数据密度、结论具象化

4.4 关键发现:预测精度并未显著超越联网LLM

这是最值得关注的结论:在相同信息条件下,MiroFish的预测精确性并未显著超越直接使用联网LLM进行推理

具体来说:

优势方面

  • 报告叙事性强,逻辑闭环更完整
  • 历史对比深度更深
  • 能够从多元视角(央行、企业、散户等)展开分析
  • 可解释性强,可以追溯每个观点的来源

局限方面

  • 封闭环境容易放大种子文件中的假设偏误
  • Token成本限制了大规模深度交互
  • 难以给出精准的量化判断
  • 无法处理实时信息(需要手动补充事实)

结论:MiroFish目前最适合的角色是逻辑推演与查漏补缺的"沙盒"工具,而非高精度预测终端。它更像是一个"强叙事性的分析框架生成器",适合辅助政策影响推演、技术路线排查和假设情景测试,而非替代传统的量化模型。

五、技术哲学:为什么这件事现在才发生

5.1 多智能体仿真的演进路径

多智能体社会仿真并不是新概念。学术界的相关研究可以追溯到上世纪的Agent-Based Modeling(ABM)传统——经济学家Schelling的"种族隔离模型"、社会物理学家Epstein的"人工社会"都属此类。

但这些传统方法的局限在于:个体行为规则需要人工设计。研究者需要为每个Agent编写详细的if-then规则库,这使得仿真的规模上限和现实感都受到严重制约。

LLM的出现彻底改变了这个局面:Agent的行为规则不再需要人工编写,而是通过预训练大模型"涌现"出来。一个基于LLM的智能体可以自主决定"在某个情境下我应该说什么、做什么",而无需研究者逐条定义行为规则。

这就是为什么MiroFish和OASIS这样的项目在2024-2026年间才成为可能——GPT-4及其后继者提供了足够强的语言理解和推理能力,使得"让Agent自主行为"不再是一个不可靠的假设。

5.2 群体智能的三层涌现

MiroFish的预测能力建立在三层涌现之上:

第一层:个体涌现。单个LLM Agent能够基于其人格设定和上下文,自主生成符合该人格的行为——这是LLM本身的能力。

第二层:交互涌现。多个Agent在共同环境中互动时,会产生个体行为叠加的群体效应——如观点分化、共识形成、信息级联等。这是多智能体系统本身的特性。

第三层:叙事涌现。ReportAgent从仿真历史中提取有意义的模式和规律,形成可理解的叙事。这是高级推理能力的体现。

三层涌现层层叠加,使得MiroFish能够从简单的种子材料出发,最终生成包含因果逻辑的复杂分析报告。

5.3 "预测"与"推演"的本质区别

MiroFish的官方定位刻意区分了两个概念:

  • 预测(Prediction):基于历史规律外推未来,准确率是核心指标
  • 推演(Simulation):构建可能性的空间,探索不同条件下的不同走向

MiroFish目前的能力更接近后者。它不是告诉你"黄金价格三个月后会涨到X元",而是告诉你"如果央行降息且地缘冲突持续,以下几类市场参与者会有哪些反应路径"。

这种定位更务实,也更准确。它承认了AI预测的根本局限:真实世界的复杂性远超任何模型的认知能力。但它同时找到了另一个价值点:帮助你系统性地探索可能性空间

六、局限性与挑战:它现在还不能做什么

6.1 工程化成熟度

从GitHub的Issues和社区反馈来看,MiroFish目前还存在不少工程问题:

  • 部署和依赖配置复杂,对新手不够友好
  • 部分环境下的报错信息不够友好
  • 安全相关的配置文档不足
  • Docker镜像体积较大,拉取速度不稳定

这个状态更像一个快速迭代的前沿开源项目,而不是已经稳定运行在生产环境的成熟系统。对于企业用户来说,需要有技术团队能够处理这些工程问题。

6.2 规模与成本矛盾

MiroFish的核心价值来自大规模仿真——Agent越多、交互轮次越深,涌现出的模式越丰富。但这也意味着Token消耗呈线性增长。

以一次完整的金融预测任务为例:

  • 60个Agent × 72轮 × 2平台 × 每次交互约500 Token
  • 粗略估算:约400万Token
  • 使用qwen-plus的成本:约数十元人民币(尚未计入Zep Cloud的调用)

这个成本对于个人用户来说可以接受,但对于需要频繁、大规模使用的企业用户来说,需要更精细的成本控制方案。

6.3 信息偏差放大问题

MiroFish的仿真是在一个相对封闭的环境中运行的。一旦种子材料中存在系统性偏误(如信息来源单一、特定立场主导),这些偏误会在仿真过程中被Agent继承和放大,最终导致结论偏离现实。

虽然系统支持在仿真后补充事实进行修正,但这种修正仍然是手动的,无法从根本上解决"垃圾进、垃圾出"的问题。

6.4 难以给出精准量化判断

这是目前所有LLM类预测工具的共同局限。MiroFish擅长生成叙事性的定性分析("某政策可能导致市场信心下降"),但难以给出可操作的量化预测("市场将在30天内下跌12%±2%")。

对于需要精确数字支撑决策的场景(如量化交易、精准营销),MiroFish目前还无法替代传统的统计模型和机器学习方法。

七、商业化路径与行业影响

7.1 从开源爆款到商业孵化

MiroFish最值得关注的一点是它的商业化起点非常早——项目刚发布就获得了陈天桥3000万投资和盛大集团的战略支持。这与传统开源项目"先做影响力、再商业化"的路径完全不同。

这种路径的优势在于:团队能够在项目早期就获得足够的资源来进行工程化完善和商业化探索,而不必在生存压力下牺牲产品质量。

盛大的战略逻辑也值得玩味:作为曾经的游戏巨头,盛大近年来在AI领域布局频繁。MiroFish所代表的"数字沙盘"概念,与游戏世界观构建、互动叙事有天然的结合点。

7.2 企业级数字沙盘的想象空间

如果将MiroFish的思路延伸到企业级应用,几个场景值得关注:

政策沙盘:政府在出台重大政策前,可以先用MiroFish构建政策仿真,预测不同利益相关方的反应路径和可能的社会影响。

公关演练:企业可以在发布重大声明前,用MiroFish模拟舆情演化,提前识别可能失控的场景并准备预案。

战略推演:企业在做出重大战略决策前(如进入新市场、调整定价策略),可以通过MiroFish推演竞争各方可能的反应。

金融压力测试:虽然MiroFish的量化能力有限,但可以用作传统量化模型的补充——通过Agent仿真发现模型未覆盖的非线性场景。

7.3 AI产品的第四范式

过去两年,AI产品市场最熟悉的三类范式是:

  1. 问答助手:你问它答(ChatGPT、Claude)
  2. 内容生成:你给主题它创作(Midjourney、GPT-4)
  3. 任务执行:你描述任务它完成(Copilot、Devin)

MiroFish代表了第四类:结果预演——你描述一个情境,它帮你推演可能的后果。

这与前三种范式的根本区别在于:前三种都在帮你更快地做事,而第四种在帮你更好地决策。如果这个范式成立,AI的价值将向上迁移一层:从效率工具变成决策支持系统。

八、未来展望:群体智能的下一步

8.1 当前瓶颈

MiroFish目前面临几个核心瓶颈:

  1. Agent人格的一致性维护:随着仿真轮次增加,Agent是否会逐渐偏离初始人格设定?
  2. 涌现模式的可靠性:仿真中涌现出的群体行为,有多少是可复现的、有多少是随机噪声?
  3. 与真实世界的闭环:如何让仿真结果能够反馈到现实决策中,形成"仿真→决策→验证→修正"的闭环?
  4. 可解释性增强:如何让用户理解某个预测结论背后的完整推理链?

8.2 可能的演进方向

从GitHub的更新记录来看,团队已经在探索以下方向:

  • 多模态平台支持:从Twitter/Reddit扩展到更多类型的社交平台
  • 群聊和私信功能:让Agent之间的交互更加丰富
  • 自定义模型和Prompt:让高级用户能够深度定制每个Agent的行为
  • Interview Action:让研究者能够直接询问Agent特定问题并获得回答

8.3 开源社区的生态价值

MiroFish选择开源是有战略考量的。在AI预测这个方向上,闭源系统的最大问题是无法获得广泛验证——如果预测失败,用户可以将责任归咎于"模型不行";而如果预测成功,又会面临"数据泄露"的质疑。

开源策略则完全不同:任何人都可以复现实验结果,学术研究者可以基于项目发表论文,开发者可以贡献改进。这种社区化的验证机制,反而更容易建立信任。

此外,MiroFish依赖的OASIS框架本身也是开源的,这形成了一个有价值的技术生态:CAMEL-AI提供底层仿真引擎,MiroFish提供上层应用封装,两者相互促进。

九、安装实战:手把手跑通第一个预测任务

9.1 快速安装

# 克隆项目
git clone https://github.com/666ghj/MiroFish.git
cd MiroFish

# 安装依赖
npm run setup:all

# 配置环境变量
cp .env.example .env
# 打开.env,填入:
# LLM_API_KEY=你的API密钥
# LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
# LLM_MODEL_NAME=qwen-plus
# ZEP_API_KEY=你的Zep密钥

# 启动服务
npm run dev

# 访问 http://localhost:3000

9.2 Docker安装(更简单)

# 同样需要先配置.env
cp .env.example .env
# 填入API密钥

# 启动
docker compose up -d

9.3 第一个预测任务

启动后,按照以下步骤创建你的第一个预测任务:

  1. 打开 http://localhost:3000
  2. 上传种子材料(可以是新闻报道、政策文件或分析报告)
  3. 用自然语言描述你要预测的问题
  4. 点击"开始推演",等待仿真完成
  5. 查看ReportAgent生成的预测报告
  6. 继续与智能体或ReportAgent对话,深入追问

9.4 推荐尝试的场景

如果你想快速体验MiroFish的能力,以下场景比较适合作为入门:

场景1:舆情预测。上传一条热点新闻,让系统推演不同立场网民的反应和讨论走向。

场景2:政策影响分析。上传一份政策草案(如某城市调整限购政策),推演房地产市场的可能反应。

场景3:小说结局推演。上传一部小说的前50章,让系统推演可能的结局走向——这既是娱乐,也是对系统叙事能力的测试。

十、总结:MiroFish的位置与价值

10.1 它是什么

MiroFish是一款基于多智能体技术的新一代AI预测引擎,通过构建高保真的平行数字世界,让具备独立人格和长期记忆的AI智能体在虚拟环境中互动、演化,最终输出分析预测报告。

它将群体智能(Swarm Intelligence)、GraphRAG、OASIS仿真引擎和LLM推理能力整合为一个完整的端到端系统,提供了传统AI预测工具不具备的交互性和可解释性。

10.2 它不是什么

MiroFish不是高精度预测机器。它的预测结论不应被直接用于投资、法律、医疗等高风险决策。

它也不是传统意义上的"更聪明的搜索引擎"。虽然它可以处理新闻和分析报告,但它的价值不在于检索,而在于将信息转化为可交互的模拟环境

10.3 它的真正价值

MiroFish真正值钱的地方,是它把"预演后果"这件事产品化了。

过去,数字沙盘、决策仿真、多智能体推演,这些能力只存在于大型企业、政府机构和咨询公司的内部系统中。MiroFish第一次将这些能力以开源产品的形式开放给所有开发者。

无论它最终能否成为高精度预测工具,这个产品化过程本身就是有价值的——它让更多人有机会接触和理解群体智能的潜力,为未来的发展培育了开发者和用户基础。

10.4 值得关注的信号

以下几个信号值得持续关注:

  • 盛大集团的后续资源投入规模和方向
  • 开源社区对项目的贡献活跃度
  • 企业用户的实际使用案例和效果反馈
  • 与传统量化模型和BI系统的集成方案
  • 基座模型能力升级后(如GPT-5、Qwen3)对系统能力的提升幅度

GitHub地址:https://github.com/666ghj/MiroFish
在线Demo:https://666ghj.github.io/mirofish-demo/
技术文档:https://docs.oasis.camel-ai.org/

推荐文章

PHP如何进行MySQL数据备份?
2024-11-18 20:40:25 +0800 CST
Golang 几种使用 Channel 的错误姿势
2024-11-19 01:42:18 +0800 CST
一些好玩且实用的开源AI工具
2024-11-19 09:31:57 +0800 CST
Vue3中的Scoped Slots有什么改变?
2024-11-17 13:50:01 +0800 CST
html折叠登陆表单
2024-11-18 19:51:14 +0800 CST
Nginx 性能优化有这篇就够了!
2024-11-19 01:57:41 +0800 CST
PHP来做一个短网址(短链接)服务
2024-11-17 22:18:37 +0800 CST
Go中使用依赖注入的实用技巧
2024-11-19 00:24:20 +0800 CST
使用 node-ssh 实现自动化部署
2024-11-18 20:06:21 +0800 CST
Rust 并发执行异步操作
2024-11-18 13:32:18 +0800 CST
使用 Git 制作升级包
2024-11-19 02:19:48 +0800 CST
程序员茄子在线接单