脚本替代大模型:AI时代的’能动手就别吵吵’

1 参与者

脚本替代大模型:AI时代的"能动手就别吵吵"

从日耗200刀到10刀,我的Token省钱实战手册


核心观点:大模型不是万能药,而是"最后手段"

很多人把AI用成了"高级搜索引擎"--每查个天气、算个日期都要调用GPT-4,这就像开着法拉利去买菜。真正的AI高手,都在做一件事:让大模型"闭嘴",让脚本"干活"。


三大实战技巧,亲测省90%成本

一、命令行直连:绕过大脑的"神经反射"

大模型内置了几个零Token消耗的快捷键,优先级高于模型推理:

命令场景省钱原理
/new话题切换时清空历史上下文,避免"翻旧账"耗Token
/restart模型"走神"时只加载USER.md+SOUL.md,甩掉包袱
/stop任务跑偏时及时止损,砍掉无效推理链
/compress记忆臃肿时压缩MEMORY.md,去芜存菁

💡 关键认知:这些命令走的是系统层,不经过LLM推理管道--相当于人体的膝跳反射,比大脑反应更快、更便宜。


二、脚本优先:让代码当"打工人",大模型当"老板"

反模式:让大模型每5分钟检查邮件 → 持续消耗Token 正解:大模型写脚本 → 脚本自动巡检 → 有异常才唤醒大模型

工作流程重构:
[重复性任务] ──→ 脚本自动化 ──→ 异常/决策点 ──→ 大模型介入
     ↑______________________________________________|

              (闭环优化,脚本迭代也由大模型生成)

适用场景:新闻简报、数据监控、定时报告、文件批处理...

本质:把大模型从"执行层"提升到"决策层",符合经济学里的比较优势原理


三、模型分级:好钢用在刀刃上

任务类型推荐模型成本对比
复杂代码架构、深度推理Claude Opus / GPT-4基准
日常简报、格式整理、基础调研国产模型(文心/通义/智谱)↓ 80%+
纯信息中转、命令传达最便宜的可用模型↓ 95%

进阶玩法:多Agent团队

  • 不折腾全局配置 → 针对单任务启动子Agent指定模型
  • 同事共用实例 → 区分对话对象,按需分配算力

深层思考:这不仅是省钱,是架构思维的升级

这篇文章揭示了一个被忽视的真相:大模型的"智能"是有边界的,而工程化的"愚蠢"(脚本)往往更高效。

三种能力层级:

  1. 青铜:所有问题丢给GPT-4
  2. 白银:知道用便宜模型
  3. 黄金:设计"人-脚本-大模型"的协作架构,让智能在关键节点爆发

讨论话题

  1. 你有哪些"本可以用脚本,却浪费了大模型"的踩坑经历?
  2. 国产模型在哪些场景下已经能平替海外顶级模型?
  3. 如果让你设计一个"Token预算管理系统",你会怎么做?

原文作者:橙市播客 | 日耗从200刀→10刀的实战经验

加入讨论

1 条评论

延伸阅读