OpenClaw(龙虾)进阶优化指南:告别失忆与吞金,打造“可用不可见”的安全智能体

引言

2026年,OpenClaw(曾用名Clawdbot)凭借“灵活扩展、跨平台适配、低门槛部署”的核心优势,成为个人与轻量团队搭建专属AI助手的首选。GitHub星标飙到27.3万+,国内部署用户破12万,直接掀起开源AI新热潮。

但在实际使用中,用户普遍面临三大痛点:一是“失忆”——长对话中关键信息被随机丢弃,任务执行到一半偏离目标;二是“吞金”——默认上下文压缩机制导致Token消耗剧增,长期使用成本高昂;三是“裸奔”——敏感凭证与思维过程在内存中明文暴露,安全风险难以管控。

3月7日,OpenClaw 2026.3.7版本重磅更新,将硬编码的上下文管理改为可插拔插件架构,官方同步推出lossless-claw等革命性组件。本文深度整合最新社区实践与官方技术白皮书,从无损记忆管理、极致成本控制、硬件级安全隔离三个维度,为你提供一套“保证质量+减少幻觉+安全隔离”前提下最小化Token消耗的完整方案。

所有代码命令均可直接复制执行,助力你在1-2小时内彻底解决OpenClaw的“失忆”与“吞金”痛点,真正发挥AI Agent的核心价值。

一、核心认知:OpenClaw优化的底层逻辑

1.1 质量、成本、安全的“不可能三角”

OpenClaw的本质是一个“自带记忆体和工具集”的智能体框架。它的运行逻辑决定了三个关键指标的相互制约:

  • 记忆深度 → 质量:长期记忆保留越完整,任务连贯性越好,但Token消耗越高
  • 上下文压缩 → 成本:压缩越狠,Token越省,但信息丢失导致幻觉增加
  • 执行权限 → 安全:权限越开放,工具调用越灵活,但安全风险越大

传统优化思路是在这三个维度间“做妥协”。而2026年的OpenClaw生态,通过插件化架构硬件级机密计算,正在打破这个三角——让记忆更深、成本更低、安全更强,三者可以兼得。

1.2 从“能用”到“精通”的四个层次

层次 特征 典型表现
新手层 跑通即满足 长对话失忆、费用账单惊心、不敢给权限
入门层 知道装Skill 安装exa-search等基础技能,有一定改善
进阶层 理解上下文管理 配置QMD/lossless-claw,Token消耗降低70%+
精通层 构建可信执行环境 部署OpenClaw-CC,实现硬件级安全隔离

二、进阶优化一:用lossless-claw实现“无损记忆”

2.1 传统上下文管理的致命缺陷

OpenClaw此前的上下文管理为硬编码设计,采用“滑动窗口压缩”机制,核心问题集中在三点:

  • 信息不可逆丢失:对话长度超过阈值后,系统随机截断旧消息,关键决策、用户偏好等重要信息可能被丢弃,导致Agent“失忆”
  • 上下文冗余:未区分有用信息与无效内容,冗余数据占用大量Token,模型在噪声中难以聚焦核心任务,同时推高使用成本
  • 不可定制化:压缩规则固定,插件无法干预,无法适配不同场景(如长文档分析、多轮任务协作)的需求

这种设计直接导致恶性循环:脏上下文→高Token消耗→换低规格模型→表现更差→用户体验下滑。

2.2 lossless-claw的革命性突破:DAG层次化摘要

lossless-claw插件基于《LCM: Lossless Context Management》论文实现,核心思路是“不删除、仅压缩、可回溯”。当LCM论文的作者告知OpenClaw核心开发者Josh Lehman他们的工作时,Josh立刻认为这会是OpenClaw的一个极棒的补充。他花了9天时间疯狂开发,在自己的Agent上运行了一周,结果令人印象深刻:“对话感觉永远不会丢失信息(因为某种程度上确实不会),始终在30-100K Token范围内运行,零维护。”

五大核心机制:

  1. 持久化存储:所有对话消息、工具调用记录、文件内容均存入SQLite数据库,无任何信息丢失
  2. DAG增量摘要:超出最新32条消息(可配置)后,异步生成Leaf层级摘要,同层摘要积累到阈值后向上凝练,形成层级化DAG结构
  3. 动态上下文组装:每轮对话自动拼接“最新原始消息+历史层级摘要”,XML格式包装节点ID、深度、时间范围等元数据
  4. 按需回溯展开:Agent可通过lcm_grep(搜索)、lcm_describe(查看)、lcm_expand(展开)工具,随时调取任意层级的原始内容
  5. 三层收敛保障:压缩失败时自动降级(详细LLM→要点模式→确定性截断),确保任务不中断

架构图示意:

┌─────────────────────────────────────────────────────────┐
│                    SQLite 持久化存储                       │
│  ┌──────────────────────────────────────────────────┐   │
│  │  Immutable Store(不可变存储)                      │   │
│  │  = 所有原始消息的逐字副本,永不修改                  │   │
│  └──────────────────────────────────────────────────┘   │
│                          │                               │
│                          ▼                               │
│  ┌──────────────────────────────────────────────────┐   │
│  │  DAG 摘要层                                       │   │
│  │                                                    │   │
│  │  Depth 0 (叶子节点):                               │   │
│  │    [摘要 A] ← 消息 1-8                             │   │
│  │    [摘要 B] ← 消息 9-16                            │   │
│  │    [摘要 C] ← 消息 17-24                           │   │
│  │    [摘要 D] ← 消息 25-32                           │   │
│  │                                                    │   │
│  │  Depth 1 (浓缩节点):                               │   │
│  │    [浓缩摘要 X] ← 摘要 A + 摘要 B                  │   │
│  │    [浓缩摘要 Y] ← 摘要 C + 摘要 D                  │   │
│  │                                                    │   │
│  │  Depth 2 (更高层级):                                │   │
│  │    [超级摘要 Z] ← 浓缩 X + 浓缩 Y                  │   │
│  │                                                    │   │
│  │  每个摘要都链接回它的源消息 ← 这就是"无损"的含义     │   │
│  └──────────────────────────────────────────────────┘   │
│                          │                               │
│                          ▼                               │
│  ┌──────────────────────────────────────────────────┐   │
│  │  Active Context(活跃上下文 = 发送给模型的内容)     │   │
│  │                                                    │   │
│  │  [系统提示] + [DAG 摘要] + [最近 N 条原始消息]      │   │
│  │                                                    │   │
│  │  始终控制在模型 Token 限制内(30K-100K 范围)       │   │
│  └──────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────┘

2.3 与传统机制的对比

特性 传统滑动窗口 lossless-claw无损管理
信息处理方式 直接删除旧消息 摘要压缩+原文存储
信息可逆性 不可逆丢失 可随时展开回溯
Token消耗 冗余高,消耗大 精准压缩,降低30%+
额外依赖 仅需SQLite(默认预装)
定制化程度 固定规则,不可改 支持插件自定义策略

2.4 OOLONG基准测试:74.8 vs 70.3的真实含义

OOLONG是一个长上下文推理基准测试,要求在原子级别分析文本块,然后聚合这些分析来回答分布性问题。简单说:OOLONG测的不是“能不能在长文本中找到一根针”(那是NIAH),而是“能不能理解和推理整段长文本的全局信息”。这对Agent的上下文管理能力是终极考验。

在OOLONG基准测试中,lossless-claw得分74.8,而Claude Code得分70.3,使用的是相同模型。更重要的是,上下文越长差距越大——在所有测试的上下文长度上,lossless-claw的得分都高于Claude Code。

2.5 安装与配置实战

前置条件

  • OpenClaw版本需 ≥ 2026.3.7(检查命令:openclaw --version
  • Node.js ≥ v22.0.0
  • SQLite 3(系统默认预装)

第一步:安装lossless-claw插件

# 全局安装ClawHub(插件管理器)
npm install -g clawhub@latest

# 安装lossless-claw插件
clawhub install lossless-claw

# 验证安装
clawhub list
# 应显示 "lossless-claw" 在列表中

第二步:配置OpenClaw启用lossless-claw

编辑配置文件 ~/.openclaw/openclaw.json(Windows路径:C:\Users\你的用户名\.openclaw\openclaw.json):

{
  "memory": {
    "backend": "lossless-claw",
    "lossless-claw": {
      "sqlite": {
        "path": "~/.openclaw/lossless-memory.db"
      },
      "chunk": {
        "size": 32,          // 每32条消息生成一个叶子摘要
        "overlap": 0
      },
      "tools": {
        "grep": true,        // 启用lcm_grep搜索工具
        "describe": true,    // 启用lcm_describe查看工具
        "expand": true       // 启用lcm_expand展开工具
      }
    }
  }
}

第三步:重启服务

openclaw gateway restart

验证是否生效:

openclaw logs --follow
# 如果看到 "Using lossless-claw memory backend" 的日志,说明配置成功

三、进阶优化二:用QMD实现“极致瘦身”

如果说lossless-claw解决了“记忆完整”的问题,那么QMD解决的就是“记忆精准”的问题——让AI只获取与当前问题最相关的那几句话,而非整个历史。

3.1 QMD是什么

QMD (Quantum Memory Database)是Shopify联合创始人兼CEO Tobias Lütke (Tobi)开发的本地语义搜索引擎。它的核心价值是:

不要把整个文件塞给AI,而是先用本地搜索找到最相关的片段(通常只有2-3句话),再把这些精准内容传给AI

底层技术:

  • 基于TypeScript + Bun开发,使用node-llama-cpp运行本地模型
  • 三层混合检索:BM25全文搜索 + 向量语义搜索 + LLM重排序
  • 所有模型在本地运行(GGUF格式),完全离线,数据不出本地

3.2 实测效果:Token削减95%+,成本降低200倍

根据用户实测数据:

场景一:长期会话记忆查询

测试问题:"我们三个月前讨论的那个项目,最后用的什么方案?"

对比项 启用前 启用后 改善幅度
上下文大小 8万+ tokens 削减95%+ -
响应时间 45秒(超时失败) 2秒 快20+倍
API成本 $2.4 $0.01 降低200+倍
成功率 失败 成功

场景二:跨文件知识检索

测试问题:"我们之前所有项目用过哪些技术栈?"

对比项 启用前 启用后 改善幅度
上下文大小 15000+ tokens 削减90%+ -
响应时间 25-30秒 3秒 快10倍
稳定性 容易触发rate limit卡死 从不卡死

场景三:日常对话

测试问题:"帮我写个函数"

对比项 启用前 启用后 改善幅度
上下文大小 5000+ tokens 削减95%+ -
响应时间 8-10秒 1秒 快8-10倍

3.3 技术深度:为什么上下文变小,速度就快那么多?

大模型的推理时间和输入token数量基本成正比关系:

上下文大小 平均响应时间 成本水平 稳定性
200 tokens 0.5-1秒 💰
2,000 tokens 5-8秒 💰💰💰
10,000 tokens 25-40秒 💰💰💰💰 ⚠️
50,000 tokens 1-2分钟 💰💰💰💰💰💰 ❌ 容易超时
100,000+ tokens 2-5分钟 💰💰💰💰💰💰💰💰 ❌ 基本失败

极端案例:那个20万token的会话,单次请求成本高达$6-8,而且基本上都是超时失败,钱白花了。

启用QMD后:无论历史记录有多长,每次只提取最相关的几句话(通常削减95%以上):

  • ✅ 响应快了5-50倍
  • ✅ 成本降低90-99%
  • ✅ 精准度反而更高(因为噪音少了)
  • ✅ 再也不会因为上下文太长而卡死或超时

3.4 安装与配置实战

第一步:安装QMD

使用Bun安装(速度更快):

# 安装Bun(如未安装)
curl -fsSL https://bun.sh/install | bash

# 安装QMD
bun install -g @tobilu/qmd

或使用npm:

npm install -g @tobilu/qmd

验证安装:

qmd --version
# 应显示版本号

第二步:确保SQLite支持向量扩展

macOS用户

brew install sqlite
sqlite3 --version  # 需≥3.40.0

Linux用户 (Ubuntu/Debian)

sudo apt update
sudo apt install sqlite3

Windows用户
访问SQLite官网下载页面,下载sqlite-tools-win-x64-*.zip,解压后添加到系统PATH。

第三步:配置OpenClaw使用QMD

编辑配置文件 ~/.openclaw/openclaw.json

{
  "memory": {
    "backend": "qmd",
    "qmd": {
      "limits": {
        "timeoutMs": 8000  // 设置超时时间为8秒(默认4秒可能不够)
      }
    }
  }
}

第四步:重启服务

openclaw gateway restart

验证是否生效:

openclaw logs --follow
# 如果看到 "Using QMD memory backend" 的日志,说明配置成功

3.5 QMD vs lossless-claw:如何选择?

维度 QMD lossless-claw
核心优势 精准检索、极致瘦身 无损记忆、按需回溯
Token削减率 95%+ 30%+
信息完整性 只返回最相关片段 保留全部信息的摘要+原文
适用场景 海量知识库检索、长期记忆查询 长对话连贯性、复杂任务拆解
技术基础 BM25+向量+LLM混合检索 DAG层次化摘要
离线能力 完全离线 依赖数据库

建议组合使用:以lossless-claw为基础上下文管理,同时在Agent Prompt中引导其使用QMD进行精准检索。这种“摘要管理+精准检索”的双层架构,可以最大化记忆效果与成本效率。

四、进阶优化三:用“搜索技能”替代“模型硬想”

如果说记忆管理解决的是“历史信息怎么用”的问题,那么搜索技能解决的就是“实时信息怎么拿”的问题。模型遇到未知信息(如最新API文档、实时股价、你的内部代码)只能靠“猜”,这是幻觉的主要来源。

4.1 搜索Skill的战略定位

在OpenClaw中,搜索Skill就是你的“工具搜索”,而且是降低幻觉最立竿见影的手段

技能名称 核心作用 Token节省率 适用场景
exa-search 纯净网页搜索,过滤HTML标签、广告等冗余信息 70%-90% 联网查询、获取实时资料
qmd 本地知识库精准检索,仅提取与指令相关的核心片段 85%-95% 处理大文件(PDF、代码库)、本地数据查询
index1 轻量级代码检索,仅返回相关函数块而非完整文件 约80% 代码开发、项目维护、函数查询

4.2 实战技巧:让AI先搜后答

在Prompt中明确要求:“请先使用exa-search查询[关键词]的最新信息,然后基于搜索结果回答。”这强制模型依赖实时数据而非陈旧记忆,从源头阻断幻觉。

4.3 exa-search安装配置

# 安装exa-search技能
clawhub install exa-search

# 获取exa.ai API密钥(需注册)
# 访问 https://exa.ai 注册获取API Key

# 配置环境变量
# 编辑 ~/.openclaw/openclaw.json
{
  "env": {
    "EXA_API_KEY": "your-exa-api-key-here"
  }
}

五、进阶优化四:用OpenClaw-CC实现“硬件级安全隔离”

以上优化聚焦于“质量”和“成本”,但“安全”是底线——一旦发生意外(如删库、泄露隐私),损失无法用Token衡量。

随着AI Agent介入金融、医疗、政务等高敏感领域,数据隐私与模型安全已成为制约落地的核心瓶颈。传统的软件防御手段已显不足,行业亟需一种能够从根源上重塑安全边界的新范式。

5.1 传统安全模型的盲区

Gartner在《2026年十大战略技术趋势》中将机密计算(Confidential Computing)推向了舞台中央。它不再满足于数据仅在传输和存储时的加密,而是提出了一个更具挑战性的目标:让数据在“使用中(In-Use)”也保持加密。

更令人担忧的是,AI Agent正在演变为具备感知、规划与行动能力的“数字员工”,需要调用各种工具,记忆多轮对话的上下文,甚至持有访问第三方服务的凭证。如果这些“思维过程”和“身份钥匙”暴露在明文内存中,后果不堪设想。

5.2 OpenClaw-CC:基于Intel TDX的机密计算方案

OpenClaw-CC是社区推出的机密计算版本,基于Intel® TDX(可信域扩展)技术与龙蜥操作系统(Anolis OS)构建。它能将Agent的整个运行环境(包括内存中的Prompt、思维链、API密钥)包裹在硬件加密的“可信域”中。

四大核心安全能力:

  1. 守护思维的“黑盒”:动态上下文的机密性

    • AI的“短期记忆”——包括敏感Prompt、多轮对话状态及推理思维链,在传统内存中往往明文裸奔
    • OpenClaw-CC利用Intel TDX硬件加密引擎,将Agent运行空间包裹在独立可信域中:数据仅在CPU寄存器内解密,一旦写入物理内存即刻转为密文
    • 这意味着,即便云厂商拥有最高权限,也无法通过内存dump窥探AI的思考过程,真正实现了隐私数据的“可用不可见”
  2. 封印身份的“钥匙”:凭证的动态注入与加密落盘

    • API Key、数据库密码等核心凭证若静态存放在镜像中,极易被窃取滥用
    • 实例初始为无钥“空壳”,唯有向信任中心自证环境清白后,敏感凭据才被动态下发
    • 从链路上切断了密钥泄露路径
  3. 捍卫行为的“灵魂”:执行逻辑的防篡改

    • System Prompts与Skills文件定义了Agent的“人设”与“技能”,是其灵魂所在
    • OpenClaw-CC将防篡改粒度细化至所有配置文件,利用dm-verity锁定文件系统,并将所有关键哈希值计入TDX远程证明度量
    • 任何微小修改(如植入恶意工具)都会导致度量值不匹配,触发证明失败并拒绝启动
  4. 验明正身的“信道”:通信链路的真实性

    • 引入RATS-TLS协议,将远程证明嵌入握手流程:在建立加密通道前,客户端强制校验服务端的TDX硬件证据
    • 只有确认对方运行在真实可信硬件且软件未被篡改时,隧道才会建立
    • 彻底终结中间人攻击与身份伪造,确保数据只流向经硬件认证的“真身”

5.3 部署实践

硬件要求

  • 支持Intel TDX的实例(如阿里云g8i系列、8代以上Intel至龙蜥节点)
  • 或本地支持TDX的服务器(Intel 5代以上Xeon)

部署步骤

第一步:本地确权与信任注册
用户在本地可信环境中构建包含OpenClaw的加密镜像,并自动生成包含代码、配置哈希值的唯一的“黄金参考值”。

第二步:一键部署云上实例
通过自动化脚本,在支持TDX的云平台上快速部署上述镜像。

第三步:可信代理网关与安全接入
启动本地的TNG客户端,发起远程证明请求。验证通过后,通过端到端加密隧道安全访问Agent。

5.4 安全隔离的“降级方案”

如果暂时无法部署OpenClaw-CC,以下措施可提供基础安全保障:

  1. 权限最小化:在配置文件中设置沙箱模式

    {
      "agents": {
        "defaults": {
          "sandbox": {
            "mode": "non-main"  // 非核心任务在隔离环境运行
          }
        }
      }
    }
    
  2. 通信渠道白名单:只允许信任的号码/用户访问

    {
      "channels": {
        "whatsapp": {
          "allowFrom": ["+8613912345678"],  // 只允许你自己
          "groups": { "*": { "requireMention": true } },
          "dmPolicy": "pairing"  // 需配对确认
        }
      }
    }
    
  3. 凭证管理:使用环境变量而非硬编码

    {
      "env": {
        "OPENAI_API_KEY": "${OPENAI_API_KEY}"  // 从系统环境变量读取
      }
    }
    

六、进阶优化五:精细化参数调优与模型选型

6.1 Temperature:控制“创造力”的开关

Temperature参数直接影响模型的输出风格:

任务类型 Temperature建议值 目标
严谨任务(代码生成、系统运维、API调用) 0.1 - 0.2 降低随机性,严格遵循指令,减少编造
创意任务(文案写作、头脑风暴、诗歌创作) 0.7 - 0.9 增加多样性,激发灵感,允许适度发散

踩坑案例:有用户将temperature设为1.0,让AI写个总结,结果硬是给写了一首诗。日常使用设0.2,逻辑严谨,特别省钱(减少无意义Token消耗)。

配置方式:

{
  "agents": {
    "defaults": {
      "temperature": 0.2
    }
  }
}

6.2 模型选型:按任务复杂度选择

2026年,有多家平台提供免费或极低成本的模型API:

平台 免费额度/方案 核心优势 适用场景
阿里云百炼Coding Plan 新用户90天免费,10 QPS,超7000万tokens 国内节点,稳定低延迟,从按tokens计费升级为按次收费 日常办公、长文本处理、国内用户首选
智谱AI 新用户2000万Token(永久有效) 中文优化,支持长文本 中文内容生成、学术研究
硅基流动 注册即送2000万Token 兼容OpenAI协议 临时兜底、多模型测试

多Agent角色分工:通过将不同国产模型按角色分工,可构建一支“分工明确、高效协同”的AI军团:

角色 核心模型 核心职责 优势亮点
主控Agent 智谱GLM-5 任务拆解、流程编排、工具调用 20万上下文窗口,长链推理能力强
写作Agent 月之暗面Kimi K2.5 长文创作、报告生成 25.6万超大上下文
编程Agent DeepSeek 代码生成、重构、调试 编程领域专业度高
本地Agent 通义千问Qwen3-Coder-Next 私有仓库分析、离线任务 本地部署,数据不泄露

6.3 万能救命稻草:openclaw doctor

如果你改完配置,机器人起不来了,或者报一些看不懂的错——别慌,OpenClaw内置了“医生”:

openclaw doctor --fix

这行命令会自动检测语法错误、路径错误,甚至能帮你备份并修复配置文件。版本升级后必跑一次,稳得很。

七、部署选型:云端vs本地

7.1 部署模式对比

部署模式 核心优势 适配场景 操作难度
阿里云部署 7×24小时运行、多设备访问、稳定性强 长期使用、远程控制、多技能协同 ⭐⭐⭐
本地部署 数据隐私可控、无需服务器费用、配置灵活 隐私敏感、轻量任务、局域网使用 ⭐⭐

7.2 阿里云一键部署(30分钟完成)

阿里云提供OpenClaw专属预制镜像,一键部署无需手动配置环境:

第一步:访问阿里云OpenClaw一键部署专题页面,点击【一键购买并部署】

第二步:选购轻量应用服务器

  • 镜像:OpenClaw(Moltbot)镜像
  • 实例:内存必须2GiB及以上
  • 地域:优先中国香港(免备案,联网搜索功能正常)

第三步:获取阿里云百炼API-Key
访问阿里云百炼控制台,进入“密钥管理”创建API-Key

第四步:配置OpenClaw
在服务器控制台放行18789端口,配置API-Key,生成访问Token

7.3 本地部署(MacOS示例)

# 安装Homebrew
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"

# 安装核心依赖
brew install node@22 python@3.9 git

# 配置npm国内镜像
npm config set registry https://registry.npmmirror.com

# 一键安装OpenClaw
curl -fsSL https://openclaw.ai/install.sh | bash

# 运行配置向导
openclaw onboard

# 启动网关
openclaw gateway start

# 获取访问令牌
openclaw config get gateway.auth.token

八、结语:从“养虾”到“驯龙”

2026年的OpenClaw,早已不是那个简单问答的聊天机器人。通过lossless-claw实现“永不遗忘”,通过QMD做到“极致瘦身”,通过OpenClaw-CC构建“可用不可见”的安全环境——你手中的这只“龙虾”,正在进化成真正的数字巨龙。

最后送你三个锦囊:

  1. 永远记得备份:改配置前先 cp openclaw.json openclaw.json.bak
  2. 善用日志openclaw logs --follow 是调试的照妖镜
  3. 拥抱社区:无锡高新区已发布12条“养龙虾”扶持政策,火山引擎ArkClaw与飞书无缝集成——你不是一个人在战斗

去试试把temperature调到0.2,装上lossless-claw和QMD,给API Key加上硬件防护,你会发现一个更懂你、更安全、更省钱的AI助手。


参考文献

  1. 阿里云开发者社区. (2026). 保姆级教程:1分钟阿里云/本地部署 OpenClaw
  2. 阿里云开发者社区. (2026). OpenClaw 告别失忆与费 Token 吞金教程
  3. 阿里云开发者社区. (2026). 智算新范式:基于 Anolis OS 构建 Confidential AI Agent
  4. CSDN博客. (2026). OpenClaw 又慢还费钱,你需要给它安装这个 Skill 技能
  5. 阿里云开发者社区. (2026). 从“会用”到“会改”:第一次打开OpenClaw配置文件
  6. 无锡高新区管委会. (2026). 华东地区首场火山引擎“龙虾节”在无锡高新区启动
  7. 阿里云开发者社区. (2026). OpenClaw多Agent实战保姆级指南
  8. CSDN博客. (2026). Lossless-Claw 插件实战:告别上下文截断

本文基于OpenClaw 2026.3.7版本撰写,所有命令在Ubuntu 22.04/MacOS 14+环境中实测通过。如有问题,欢迎在评论区交流。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • """1.个性化消息: 将用户的姓名存到一个变量中,并向该用户显示一条消息。显示的消息应非常简单,如“Hello ...
    她即我命阅读 5,100评论 0 6
  • 1、expected an indented block 冒号后面是要写上一定的内容的(新手容易遗忘这一点); 缩...
    庵下桃花仙阅读 1,080评论 1 2
  • 一、工具箱(多种工具共用一个快捷键的可同时按【Shift】加此快捷键选取)矩形、椭圆选框工具 【M】移动工具 【V...
    墨雅丫阅读 1,527评论 0 0
  • 跟随樊老师和伙伴们一起学习心理知识提升自已,已经有三个月有余了,这一段时间因为天气的原因休课,顺便整理一下之前学习...
    学习思考行动阅读 993评论 0 2
  • 一脸愤怒的她躺在了床上,好几次甩开了他抱过来的双手,到最后还坚决的翻了个身,只留给他一个冷漠的背影。 多次尝试抱她...
    海边的蓝兔子阅读 986评论 1 4

友情链接更多精彩内容