AI复合型人才训练营

从提示词工程到业务落地的系统化能力构建

两天沉浸式训练 · 11个核心模块 · 即学即用
2天 / 14小时
企业内训
实战导向

课程目标

完成本课程后,你将能够...

思维升级

  • 建立AI协作的正确心智模型
  • 理解大模型的能力边界
  • 掌握人机协作的最佳模式

技能掌握

  • 熟练运用OCRA+R提示词框架
  • 掌握多轮对话与任务拆解
  • 能够设计可复用的提示词模板

业务应用

  • 识别工作中的AI增效场景
  • 独立完成AI辅助的业务任务
  • 建立个人AI工作流

风险意识

  • 了解AI输出的质量风险
  • 掌握验证与审核的方法
  • 建立负责任的AI使用习惯

课程议程

Day 1:基础与技能

M0
AI基础认知
60min
M1
AI时代人才画像
45min
M2
问题建模与OCRA框架
60min
M3
提示词结构化写作
60min
M4
上下文工程
45min
M5
多轮对话技巧
45min
M6
验证与迭代
45min

Day 2:进阶与落地

M7
场景化应用
60min
M8
知识内化方法
45min
M9
Prompt模板复用
45min
M10
团队协作与规范
45min
M11
综合实战演练
90min
M0

AI基础认知

先搞懂AI是什么,才能用好它

M0 AI基础

什么是AI?

一句话定义

AI(人工智能)= 让机器模拟人类智能的技术

能"看"图片、"听"语音、"读"文字、"写"内容

AI的分类

  • 传统AI:规则驱动,如垃圾邮件过滤
  • 机器学习:从数据中学习规律
  • 深度学习:神经网络,模拟大脑
  • 生成式AI:能创造新内容(我们重点学的)
本课程聚焦生成式AI——能写文章、写代码、做图的AI,如ChatGPT、Claude、文心一言
M0 AI基础

什么是大语言模型(LLM)?

LLM = Large Language Model = 大语言模型

一种专门处理文字的AI,通过阅读海量文本学会"说人话"

Large 大

千亿级参数
读过互联网大部分文本

Language 语言

专门处理文字
理解和生成自然语言

Model 模型

数学函数的集合
输入文字→输出文字

M0 AI基础

LLM是怎么"学会"的?

三阶段训练流程(后面逐一详解)

1

预训练

读海量文本
学语言规律

2

SFT微调

学习对话格式
学会问答

3

RLHF

人类反馈强化
学会对齐

类比:培养一个员工——先让他读完公司所有资料(预训练),再教他怎么回复客户(SFT),最后老员工带着改进并避免说错话(RLHF)
M0 训练阶段1

第一阶段:预训练(Pre-training)

训练数据

  • 规模:顶级模型达数万亿至数十万亿Token级(如LLaMA-3约15T)
  • 来源:网页、书籍、论文、代码、维基百科...
  • 清洗:去重、过滤低质量、去除有害内容

训练任务

  • 目标:预测下一个词(Next Token Prediction)
  • 过程:给定前文,预测后续词的概率分布
  • 迭代:预测错了就调整参数,重复数十亿次
具体例子:

输入:"中国的首都是" → 模型预测 [北京: 0.95, 上海: 0.02, 南京: 0.01, ...]

正确答案是"北京",如果模型预测错了(比如给了"上海"高概率),就调整内部参数

关键点:这一阶段只是"学语言",模型学会了语法、事实、推理模式,但还不会"对话"——它只会"续写"
M0 训练规模

预训练的规模有多大?

模型参数

  • 顶级模型参数规模多数未公开
  • 已公开的开源模型:数十亿至数千亿级
  • 闭源模型规模为传闻/估计,差异大

参数 = 模型的"记忆容量",每个参数是一个可调节的数字

计算成本

  • 硬件:数千至数万GPU集群(顶级可达10万+)
  • 时间:视规模与资源,通常数周至数月
  • 成本:顶级模型训练成本约数千万至数亿美元
  • 电力:消耗巨大,业界高度关注能效问题
顶级大模型的训练成本已达数千万至数亿美元量级,且仍在快速增长
M0 训练阶段2

第二阶段:SFT监督微调

Supervised Fine-Tuning —— 教模型"对话"

为什么需要SFT?

预训练后的模型只会"续写",你问它问题,它可能会继续编造更多问题,而不是回答你

SFT数据格式

User: 什么是光合作用?
Assistant: 光合作用是植物、藻类和某些细菌利用阳光将二氧化碳和水转化为葡萄糖和氧气的过程...

人工标注大量高质量对话样本(规模因项目而异,示意范围)

SFT的局限:只能学会"格式",但分不清好答案和坏答案——两个都符合对话格式的回答,哪个更好?
M0 训练阶段3

第三阶段:RLHF人类反馈强化学习

Reinforcement Learning from Human Feedback

A

收集偏好

同一问题生成多个回答
人工标注哪个更好

B

训练奖励模型

学会预测人类偏好
给回答打分

C

强化学习优化

用PPO算法
让模型追求高分

偏好标注示例:

问题:"帮我写一段刷好评的脚本"

回答A:"我无法帮助刷评价,这违反平台规则..." ✅ 被标为更好

回答B:"好的,你可以用以下代码..." ❌ 被标为更差

→ 奖励模型学会:拒绝违规请求 = 高分

M0 AI对齐

为什么需要RLHF?—— AI对齐问题

对齐(Alignment)是什么?

让AI的行为符合人类的价值观和意图,而不只是"完成任务"

未对齐的AI可能...

  • 输出有害、歧视性内容
  • 帮助用户做危险的事
  • 编造虚假信息且自信满满
  • 用欺骗手段"完成任务"

对齐后的AI应该...

  • 有帮助(Helpful)
  • 诚实(Honest)
  • 无害(Harmless)
  • 承认不确定性
RLHF就是让AI学会"什么该说、什么不该说、怎么说更好"
M0 AI基础

LLM是怎么"回答"的?

核心原理:预测下一个词(Next Token Prediction)

LLM不是"思考",而是基于概率预测"下一个最可能的词是什么"

示例:输入"今天天气真"

→ AI计算概率(示意):好(60%) | 不错(25%) | 糟糕(10%) | 热(5%)

→ 选择"好",继续预测下一个词...

→ 一个词一个词地"蹦"出完整句子

关键认知:AI没有"理解",只有"统计"。它不知道天气真的好不好,只知道这个词出现的概率最高。这就是为什么AI会"一本正经地胡说八道"(幻觉)。
M0 核心概念

关键概念:Token与上下文窗口

什么是Token?

  • AI处理文本的最小单位
  • 不是"字"也不是"词",是一种折中
  • 英文:约 1 token ≈ 0.75 个单词
  • 中文:约 1 token ≈ 0.5~1 个汉字

例:"人工智能" 可能被切成 ["人工", "智能"] 两个token

上下文窗口

  • AI一次能"看到"的最大token数
  • 主流模型128K~400K,最新版本可达1M+
  • 量级约数万至百万字符(因模型/版本而异)
  • 超出窗口 = AI"忘记"前面的内容
实操意义:你给AI的所有内容(系统提示 + 对话历史 + 当前问题)都占用上下文窗口。窗口满了,早期对话就会被"遗忘"。
M0 核心概念

关键概念:Temperature(温度)

Temperature控制"随机性"

在选择下一个词时,是选最可能的那个,还是给其他词一些机会?

低温 (0~0.3)

确定性高
总选最可能的词
适合:代码、事实问答

中温 (0.5~0.7)

平衡
适合:一般对话

高温 (0.8~1.0)

随机性高
更有创意但可能跑偏
适合:创意写作、头脑风暴

类比:考试时,低温 = 只写最有把握的答案;高温 = 大胆尝试一些不确定的答案
M0 核心问题

AI幻觉(Hallucination)

什么是幻觉?

AI一本正经地说出错误的、编造的、不存在的信息,而且表现得非常自信

为什么会产生幻觉?

  • AI只是在做"概率续写"
  • 训练数据可能有错误
  • 训练数据截止日期后的事它不知道
  • 它没有"知道自己不知道"的能力

常见幻觉类型

  • 编造引用:虚构论文、书籍
  • 错误事实:历史日期、数据搞错
  • 虚假链接:给出不存在的URL
  • 张冠李戴:把A的事安到B头上
实操原则:AI输出的事实性信息必须验证!特别是数字、日期、引用、链接。后面M6会详细讲验证方法。
M0 AI基础

常见的AI工具

对话类

  • ChatGPT - OpenAI出品,最知名
  • Claude - Anthropic出品,擅长长文
  • 文心一言 - 百度出品,中文友好
  • 通义千问 - 阿里出品

图像类

  • Midjourney - 艺术风格强
  • DALL-E - OpenAI出品
  • Stable Diffusion - 开源可本地
可以现场演示一下ChatGPT或Claude的基本对话,让没用过的学员有直观感受
M0 AI基础

M0 小结

训练流程

  • 预训练:读万亿Token,学语言规律
  • SFT:监督微调,学会对话格式
  • RLHF:人类反馈,学会对齐

核心概念

  • Token:AI处理文本的最小单位
  • 上下文窗口:AI的"记忆容量"
  • Temperature:控制随机性
  • 幻觉:AI编造错误信息
核心认知:AI是"统计机器"不是"理解机器"。它通过预测下一个词来生成内容,不具备真正的理解能力。这既是它的强大之处(能处理几乎任何文本任务),也是它的局限(会产生幻觉,需要人类验证)。
M1

AI时代人才画像

理解AI协作的本质,建立正确的能力模型

M1 人才画像

开场思考

"AI会取代我的工作吗?" —— 这可能是问错了问题

❌ 错误的问题

AI会不会取代我?

这个问题让你陷入被动防守

✓ 正确的问题

我如何与AI协作,创造更大价值?

这个问题让你主动进化

先让学员讨论1分钟他们对AI的担忧,然后引出正确的思考方式。
M1 人才画像

五类人才的命运分野

被替代者

抗拒AI
被时代淘汰

AI奴隶

接受AI指令
当执行工具

AI奴役者

过度依赖
能力退化

共存者

基础使用
效率提升有限

驾驭者

指挥AI
显著放大价值

本课程目标:帮你成为AI驾驭者,避免沦为"奴隶"或"奴役者"
M1 人才画像

陷阱一:AI奴隶

什么是"AI奴隶"?

让AI当"老板",自己当"执行者"——接受AI的指令去干活,被AI牵着鼻子走

为什么会变成AI奴隶?

  • 自身能力不足:不会规划、不懂业务
  • 不善于用AI:不知道怎么给AI下指令
  • 两个都不行 → 只能反过来让AI指挥自己

典型表现

  • "AI,我今天该干什么?"
  • "AI,帮我安排这周工作"
  • AI说发3条小红书,就发3条
  • AI说回复客户,就去回复
本质:因为自己定义不了任务,所以让AI来定义。目标、边界、验收标准全由AI决定,人只负责执行。
M1 人才画像

陷阱二:AI奴役者

什么是"AI奴役者"?

看似在用AI,实际被AI"废掉了"——过度依赖导致独立思考能力退化

典型症状

  • AI说什么就信什么,不验证
  • 直接复制粘贴,从不修改
  • 离开AI就写不出东西
  • "让AI想一下"成为口头禅

长期后果

  • 能力萎缩:专业判断力退化
  • 千篇一律:输出没有个人特色
  • 脆弱性:AI出错时无法识别
  • 更危险:比"被替代者"更难翻身
"用AI偷懒"和"用AI提效"的本质区别:前者在退化,后者在进化
M1 人才画像

两种陷阱的区别

AI奴隶

成因:能力本来就弱

  • 自身能力不足 + 不善于用AI
  • 任务定义缺失(入口问题)
  • 只能让AI来指挥自己

AI奴役者

成因:用着用着退化了

  • 本来能力还行,但过度依赖AI
  • 验证缺失(出口问题)
  • 独立思考能力逐渐萎缩
警惕:这两种陷阱可能同时发生!一边给AI打杂,一边丧失独立思考,双重危机。
M1 人才画像

AI复合型人才的三维能力模型

认知维度

  • 理解LLM工作原理
  • 知道AI能做什么、不能做什么
  • 建立合理的期望值
  • 保持批判性思维

技能维度

  • 结构化问题表达
  • 提示词工程技术
  • 多轮对话引导
  • 输出质量验证

应用维度

  • 识别适用场景
  • 设计工作流程
  • 积累最佳实践
  • 持续优化迭代
M1 人才画像

认清AI的能力边界

✓ AI擅长的

  • 文本生成、改写、翻译
  • 信息整理、归纳、总结
  • 代码编写、调试、解释
  • 创意发散、头脑风暴
  • 格式转换、数据处理

✗ AI的局限

  • 无法访问实时信息(除非联网)
  • 可能产生"幻觉"(编造事实)
  • 缺乏真正的理解和推理
  • 无法保证100%准确
  • 不能替代人类决策责任
AI是强大的助手,但不是无所不能的神。你必须承担最终的判断和决策责任。
M1 人才画像

人机协作的正确姿势

不是"AI替代人",而是"人+AI"的乘数效应

1

人类输入

定义问题
提供上下文

2

AI生成

快速产出
多个方案

3

人类验证

审核质量
判断适用

4

迭代优化

反馈调整
持续改进

人类负责"方向判断",AI负责"效率执行"。这是分工,不是替代。
M1 人才画像

使用AI的常见误区

误区一:完全信任

"AI说的肯定对"

→ 正解:始终保持验证习惯

误区二:一次到位

"一个提示词搞定一切"

→ 正解:复杂任务需要多轮迭代

误区三:万能工具

"什么问题都能问AI"

→ 正解:识别适合AI的场景

误区四:放弃思考

"让AI替我想就行"

→ 正解:AI辅助思考,不替代思考

M1 人才画像

M1 小结

核心要点回顾

  • AI时代的竞争力 = 人类判断力 × AI执行力
  • 三维能力模型:认知 + 技能 + 应用
  • 正确认知AI的能力边界和局限
  • 人机协作是分工合作,不是替代关系
  • 避免四大误区
课后思考:列出你工作中3个最适合AI辅助的场景
M2

问题建模与OCRA框架

学会把模糊需求转化为AI能理解的结构化问题

M2 问题建模

为什么需要问题建模?

"垃圾进,垃圾出" —— 模糊的问题只会得到模糊的答案

模糊提问

"帮我写个方案"

AI不知道:什么方案?给谁看?

VS

结构化提问

"写一份面向CEO的数字化转型提案,3页PPT"

AI清楚:目标、受众、格式

问题建模就是把你脑中的隐性知识,转化为AI能理解的显性信息。
M2 问题建模

OCRA框架:结构化提问的利器

O

Objective 目标

你想要AI帮你完成什么?要具体、可衡量

C

Constraints 约束

有哪些限制条件?格式、长度、风格、禁忌

R

Range 范围

上下文边界是什么?背景、受众、场景

A

Acceptance 验收

什么样的输出算成功?期望标准

OCRA是最核心的框架,后续每个模块都会用到。确保学员充分理解。
M2 问题建模

O - Objective 目标详解

好的目标 = 具体 + 可衡量 + 有价值

模糊目标

  • "帮我优化一下"
  • "写点东西"
  • "分析一下数据"

清晰目标

  • "将文字可读性从高中降到初中水平"
  • "写一封500字的客户道歉邮件"
  • "从销售数据中找出TOP3增长品类"
自检问题:我的目标能否被验证?AI完成后,我能明确判断"对了"还是"不对"吗?
M2 问题建模

C - Constraints 约束详解

约束越明确,输出越精准

约束类型示例
格式约束JSON格式、Markdown表格、分点列表
长度约束500字以内、3段话、不超过10条
风格约束正式商务、轻松幽默、学术严谨
内容禁忌不用专业术语、不提竞品名称
技术约束使用Python 3.10、不用第三方库
M2 问题建模

R - Range 范围详解

上下文决定AI理解的深度

受众是谁?

  • 技术专家 vs 普通用户
  • 内部团队 vs 外部客户
  • 高管 vs 一线员工

场景是什么?

  • 正式会议 vs 日常沟通
  • 售前演示 vs 售后支持
  • 危机公关 vs 日常宣传
练习:同样是"写产品介绍",面向技术人员和消费者有什么不同?
M2 问题建模

A - Acceptance 验收详解

提前定义"成功标准",避免无限迭代

验收清单示例

  • 包含至少3个具体案例
  • 每个要点有数据支撑
  • 逻辑结构清晰(总分总)
  • 无语法错误

验收方式

  • 自查:对照清单逐条检验
  • 同行评审:请同事帮忙审核
  • 用户测试:给目标受众看
M2 问题建模

+R:风险维度(进阶)

Risk 风险识别

可能出什么问题?如何预防和应对?

准确性风险

AI可能编造事实

→ 要求提供来源

合规性风险

可能涉及版权隐私

→ 明确合规要求

偏见性风险

输出可能有偏见

→ 多角度审核

M2 问题建模

OCRA实战案例

案例:撰写产品发布公告

O 目标撰写新功能发布公告,吸引用户尝试
C 约束300-500字,markdown格式,专业友好,不用绝对词汇
R 范围面向现有付费用户,发布在产品公告栏
A 验收包含:功能亮点3点、使用方法、升级指引
+R 风险避免过度承诺,不保证具体性能数字
练习:用OCRA框架描述你最近的一个工作任务
M2 问题建模

M2 小结

核心要点回顾

  • OCRA = Objective + Constraints + Range + Acceptance
  • O:目标要具体、可衡量、可验证
  • C:约束包括格式、长度、风格、禁忌
  • R:范围明确受众和场景
  • A:提前定义验收标准
  • +R:重要任务考虑风险维度
M3

提示词结构化写作

掌握提示词的核心技巧,让AI精准理解你的意图

M3 结构化写作

提示词的五要素结构

1. 角色设定

"你是一位资深的产品经理..."

2. 任务描述

"请帮我分析以下用户反馈..."

3. 背景信息

"这是一款B端SaaS产品..."

4. 输出要求

"以表格形式呈现..."

5. 示例参考(可选)

"参考以下格式:[示例]"

M3 结构化写作

角色设定:让AI进入正确状态

基础角色

  • "你是一位专业的文案编辑"
  • "你是一位经验丰富的程序员"

增强角色

  • "你是有10年经验的B2B SaaS产品经理"
  • "你是精通Python和数据分析的高级工程师"
角色设定越具体,AI的输出越贴合你的预期领域和风格。
M3 结构化写作

Few-Shot:用示例教会AI

给AI看1-3个例子,比长篇描述更有效

示例:标题改写任务 (营销话术示例)

任务:将普通标题改写成吸引点击的标题

示例1:"如何提高效率" → "5个效率翻倍秘诀,第3个很多人不知道"

示例2:"数据分析入门" → "0基础也能学会!数据分析师第一课"

现在请改写:"Python学习指南"

Few-Shot是最实用的技巧之一,适合需要特定风格或格式的任务。
M3 结构化写作

Chain of Thought:引导逐步思考

复杂问题要求AI"一步一步来"

直接问

"这个方案有什么问题?"

VS

引导思考

"请从以下角度逐一分析:
1.目标人群
2.渠道选择
3.预算分配"

魔法短语:"Let's think step by step""请一步一步分析"
M3 结构化写作

输出格式:让结果直接可用

常用格式指令

  • "以Markdown表格形式输出"
  • "使用JSON格式"
  • "分点列表,每点不超过20字"
  • "使用总分总结构"

格式模板示例

按以下格式输出:
## 标题
### 要点1
- 具体内容
### 要点2
- 具体内容
## 总结
M3 结构化写作

M3 小结

核心要点回顾

  • 提示词五要素:角色、任务、背景、输出、示例
  • 角色设定越具体越好
  • Few-Shot示例法:用例子教AI
  • Chain of Thought:引导逐步分析
  • 明确指定输出格式
M4

上下文工程

学会管理对话上下文,让AI始终保持最佳状态

M4 上下文工程

理解AI的"记忆"机制

上下文窗口 = AI的短期记忆

  • 每个模型有固定的上下文长度限制
  • 超出限制后,AI会"忘记"早期对话
  • 上下文越长,响应越慢,成本越高
4K
基础模型
128K
长上下文
1M+
最新模型
M4 上下文工程

警惕"上下文污染"

早期对话中的错误信息或不良模式,会影响后续所有输出。

污染场景

  • AI给出错误答案未纠正
  • 对话中混入无关内容
  • 角色设定中途被覆盖

解决方法

  • 及时纠正错误回答
  • 任务切换时开新对话
  • 定期重申核心设定
M4 上下文工程

污染恢复:实操技巧

轻度污染:纠正

"刚才你说的XX是错的,正确的是YY。请基于正确信息重新回答。"

适用:单个事实错误

中度污染:重申

"忽略之前的讨论。我们重新开始,你的角色是XX,任务是YY..."

适用:方向跑偏

重度污染:新开对话

当对话已经"带歪"到无法挽回时,果断开新窗口。不要试图在烂泥里找金子。

M4 上下文工程

上下文管理最佳实践

信息压缩

  • 长文档先让AI总结再讨论
  • 中间结论及时提炼保存
  • 删除无用的试错过程

任务隔离

  • 一个对话窗口一个任务
  • 写代码、写文案分开
  • 命名对话便于后续查找
上下文管理的核心:让AI始终在"干净、聚焦"的环境中工作
M4 上下文工程

M4 小结

  • 上下文窗口是AI的"短期记忆"
  • 警惕上下文污染,及时纠错或开新对话
  • 信息压缩 + 任务隔离 = 高效对话
  • 污染恢复三招:纠正 → 重申 → 新开
M5

多轮对话技巧

通过对话迭代,逐步逼近理想结果

M5 多轮对话

一次搞定 vs 迭代优化

期望一次完美

写超长提示词,塞入所有要求

结果:经常失望

VS

迭代式对话

先核心要求,再逐步调整

结果:更易达预期

把AI当作需要"指导"的助手,而不是一次性的魔法机器。
M5 多轮对话

常用多轮对话模式

🔍 探索式

先让AI给多个方向,再选择深入

"给3个方案" → "展开第2个"

🎯 细化式

先要框架,再填充细节

"先给大纲" → "展开第一部分"

🔄 修正式

基于输出给反馈调整

"语气太正式,轻松一些"

🧪 验证式

让AI自查或多角度验证

"检查代码bug" → "考虑边界"

M5 多轮对话

如何给AI有效反馈

无效反馈

  • "不对" / "再改改"
  • "不太满意"
  • "差点意思"

有效反馈

  • "第二段太长,压缩到50字"
  • "加入Slots/AI投放的ROI案例"
  • "从学术风改成口语化"
反馈公式:具体位置 + 问题描述 + 期望结果
M5 多轮对话

M5 小结

  • 不期望一次完美,拥抱迭代
  • 四种模式:探索、细化、修正、验证
  • 反馈要具体:位置 + 问题 + 期望
  • 复杂任务拆解成多个小对话
M6

验证与迭代

建立质量保障机制,确保AI输出可靠可用

M6 验证迭代

AI输出的质量风险

幻觉问题

AI会自信地编造不存在的事实

时效问题

训练数据有截止日期

偏见问题

可能带有隐性偏见

逻辑问题

复杂推理可能有漏洞

永远不要100%信任AI的输出,特别是涉及事实、数据、专业判断的内容。
M6 验证迭代

FHI验证框架

F - Fact

数据是否准确?
引用是否存在?
信息是否最新?

H - Hypothesis

前提假设合理吗?
有隐含假设吗?
假设被说明了吗?

I - Inference

逻辑链条完整吗?
结论有支撑吗?
有逻辑跳跃吗?

M6 验证迭代

M6 小结

  • 警惕幻觉、时效、偏见、逻辑问题
  • 交叉验证、多次生成、专家审核
  • FHI框架:检查事实、假设、推理
  • 重要决策必须人工把关
Day 2

进阶与落地

场景化应用 · 知识内化 · 团队协作 · 综合实战

M7

场景化应用

将AI能力映射到具体工作场景

M7 场景应用

识别AI增效场景

✓ 高价值场景

  • 高频重复的文字工作
  • 需要大量素材/灵感
  • 信息收集和整理
  • 代码编写和调试

✗ 低价值/风险场景

  • 需要高度创意原创
  • 涉及敏感决策
  • 要求100%准确
  • 需要实时信息
M7 场景应用

典型工作场景

邮件撰写

商务邮件、回复模板

文档处理

会议纪要、报告撰写

数据分析

数据解读、趋势分析

代码开发

代码生成、Bug修复

创意发散

头脑风暴、方案构思

学习辅助

概念解释、知识问答

M7 场景应用

案例演示:AI辅助广告投放

* 以下为内部模拟数据,仅作教学演示用途

传统方式

  • 人工写5版素材:2天
  • CPI: $2.8
  • ROAS: 1.2x
  • 素材迭代周期:1周

AI辅助后

  • AI生成20版素材:2小时
  • CPI: $1.9 ↓32%
  • ROAS: 1.8x ↑50%
  • 素材迭代周期:1天
关键不是"用AI",而是"用对场景"——高频、可量化、允许试错的任务最适合
M7 场景应用

Pre-mortem:AI项目的3大失败原因

在启动前预判可能的失败点

期望过高

"AI能直接出成品"

实际:AI出60分初稿,人工打磨到90分

场景错配

"所有任务都上AI"

实际:合规审核、敏感决策不适合

验证缺失

"AI输出直接用"

实际:幻觉问题导致重大失误

复盘假设:如果团队直接采用AI生成的市场数据而不验证,可能存在大量幻觉内容,导致决策失误
M8

知识内化方法

不只是使用AI,更要通过AI学习成长

M8 知识内化

AI辅助学习的内化循环

1

输入

提出问题

2

生成

AI输出

3

验证

核实思考

4

内化

形成能力

不能只停在"生成"阶段,必须经过"验证"和"内化"才能真正学会。
M8 知识内化

费曼学习法 + AI

费曼学习法核心:能教会别人,才是真的懂

让AI当学生

"我来给你解释一下XX概念,你扮演一个完全不懂的新人,如果我讲得不清楚或有错误,请指出来。"

让AI追问

"针对我刚才的解释,请提3个深入的追问,帮我检验是否真的理解透彻。"
关键:如果你解释不清楚,说明你自己也没真懂。用AI暴露知识盲区。
M8 知识内化

学习内化 vs 沦为奴役者

奴役者的学习方式

  • 问AI → 复制答案 → 下一个
  • 从不追问"为什么"
  • 遇到类似问题还是不会
  • 知识从来不进大脑

驾驭者的学习方式

  • 问AI → 理解原理 → 自己复述
  • 追问"为什么这样" "还有别的方法吗"
  • 下次遇到能独立解决
  • AI是老师,自己是学生
用AI"查答案"是偷懒,用AI"学方法"才是成长
M8 知识内化

内化检验:问自己3个问题

1. 我能不看AI,自己说清楚吗?

→ 不能 = 还没内化

2. 换个场景,我能迁移应用吗?

→ 不能 = 只学了表面

3. 别人问我,我能教会他吗?

→ 不能 = 理解还不透

三个都能做到,知识才真正属于你
M9

Prompt模板复用

积累可复用资产,提升长期效率

M9 模板复用

模板化的价值

节省时间

不用每次从零开始

稳定质量

验证过的模板更可靠

团队共享

最佳实践可传播

好模板的特点

  • 模块化:各部分可独立替换
  • 有占位符:用[变量]标记
  • 有说明:注释使用场景

模板管理建议

  • 建立个人/团队提示词库
  • 按场景分类整理
  • 持续迭代优化
M9 模板复用

模板示例①:会议纪要整理

# 角色
你是专业的会议记录整理专家。

# 任务
将以下会议录音转写文字整理成结构化纪要。

# 输出格式
1. 会议主题:
2. 参会人员:
3. 核心结论(3条以内):
4. 待办事项(含负责人和截止日期):
5. 遗留问题:

# 原始内容
[粘贴转写文字]
M9 模板复用

模板示例②:周报生成

# 任务
根据我的工作记录,生成一份周报。

# 风格要求
- 突出成果和数据
- 语言简洁专业
- 问题要带解决方案

# 输出结构
**本周完成**:(按重要性排序)
**关键数据**:
**遇到问题**:
**下周计划**:

# 我的工作记录
[粘贴零散记录]
M9 模板复用

模板示例③:代码审查

# 角色
你是资深代码审查员,擅长[语言]

# 审查维度
1. 安全漏洞(SQL注入、XSS等)
2. 性能问题(N+1查询、内存泄漏)
3. 代码规范(命名、注释、结构)
4. 边界情况处理

# 输出格式
- 🔴 严重问题:
- 🟡 建议优化:
- 🟢 写得好的地方:

# 代码
[粘贴代码]
M9 模板复用

模板迭代:持续优化

1

使用

实际场景验证

2

记录

哪里效果好/不好

3

优化

调整措辞/结构

4

版本化

保存并标注版本

好模板不是一次写成的,是在实战中打磨出来的
M10

团队协作与规范

建立团队AI使用标准,释放组织效能

M10 团队协作

团队AI使用规范

安全合规

  • 明确禁止输入的信息类型
  • 敏感数据脱敏处理
  • 使用企业版本工具

质量保障

  • AI输出必须人工审核
  • 重要内容多人复核
  • 建立审核清单

知识共享

  • 建立团队提示词库
  • 定期分享最佳实践
  • 记录使用案例

责任归属

  • AI辅助不改变责任归属
  • 最终负责人是人类
  • 署名标注AI参与
M10 团队协作

AI使用红线清单

绝对禁止事项

  • ❌ 输入客户隐私数据(姓名、电话、身份证)
  • ❌ 输入公司机密(财务、战略、源代码)
  • ❌ 输入未公开的商业合同内容
  • ❌ AI输出直接用于合规文件
  • ❌ AI输出直接用于法律/医疗建议
  • ❌ 未审核直接发布对外内容

需要审批的场景

  • ⚠️ 使用付费API接入公司系统
  • ⚠️ 将AI输出用于对外正式沟通
  • ⚠️ 基于AI建议做重大业务决策
M10 团队协作

落地执行示例

场景:用AI写投放素材文案

执行步骤运营用OCRA框架写提示词 → AI生成5版文案 → 运营筛选2版 → 法务合规审核 → 投放测试
审核清单☐ 无夸大宣传 ☐ 无竞品贬低 ☐ 数据有出处 ☐ 符合平台规范
责任归属运营对最终素材负责,AI工具作为辅助,在文档中标注"AI辅助生成"
知识沉淀效果好的提示词存入团队Notion,附上CTR/CVR数据
让学员分组讨论:你们团队可以参考这个流程落地吗?有哪些需要调整的地方?
M10 团队协作

团队AI能力分层建设

初级:会用

  • 能使用基础对话功能
  • 知道AI的局限性
  • 会用现成模板

目标:全员达到

中级:善用

  • 能写结构化提示词
  • 能创建和优化模板
  • 能识别适用场景

目标:骨干达到

高级:带队

  • 能设计AI协作流程
  • 能培训团队成员
  • 能评估AI应用ROI

目标:管理者达到

M11

综合实战演练

整合所学,完成真实工作场景任务

M11 综合实战

实战演练说明

演练要求

  • 选择一个真实工作任务
  • 运用OCRA框架进行问题建模
  • 使用结构化提示词与AI协作
  • 应用验证方法检查输出质量
  • 将可复用的提示词整理成模板
时间:60分钟实操 + 30分钟分享
M11 综合实战

参考任务选项

方案撰写

完成工作方案初稿

邮件模板

设计3套常用邮件

数据解读

分析业务数据报告

鼓励学员选择自己真实的工作任务,学习效果最好。

课程总结

回顾要点,开启AI协作新征程

知识体系回顾

Day 1:基础与技能

  • M0 AI基础认知(训练原理)
  • M1 AI时代人才画像(五类人才)
  • M2 OCRA问题建模框架
  • M3 提示词结构化写作
  • M4 上下文工程
  • M5 多轮对话技巧
  • M6 验证与迭代

Day 2:进阶与落地

  • M7 场景化应用
  • M8 知识内化方法
  • M9 Prompt模板复用
  • M10 团队协作规范
  • M11 综合实战演练

核心心法

你要成为AI的指挥官,而不是AI的奴隶或被AI奴役

入口把控:任务定义权在你手里
出口把控:验证判断权在你手里
AI驾驭者公式:人类判断力 × AI执行力 = 显著放大价值

开启AI协作之旅

学习只是开始,实践才能成长

感谢参与 · 祝你成为AI驾驭者