本站
▲ 信任边界是 AI 赋能的基础
当我们把 AI(转录、总结、对话机器人、测评与分析)引入教练与团队引导时,最容易出风险的不是“技术不够先进”,而是 信任与边界:保密、知情同意、偏见、角色冲突与危机处置。
ICF 的《AI 教练框架与标准》就是用来把这些底线说清楚,并给出“怎么做才算合格”的行业参照。
在 AI 时代,ICF 把规范拆成“两条线”,分别约束两类主体:
人类教练如何负责任地使用 AI 工具:主要体现在新版《ICF 道德准则》对 AI 使用的要求(例如透明披露、知情同意、数据安全、偏见警惕)。
如果要做“AI 教练系统”:(直接面向客户对话、提供教练式互动的软件)应满足什么标准:这就是《ICF Artificial Intelligence (AI) Coaching Framework and Standards》。
把它翻译成中国从业者能立刻理解的一句话:
👉 你是教练/引导师:这套文件帮你判断 “我用 AI 会不会踩红线、协议怎么写、流程怎么设”。
👉 你是产品方/服务方/采购方:这套文件帮你判断 “这个 AI 教练产品是否靠谱、是否可验证、是否可审计”。
不论你做的是一对一教练、团队教练还是团队引导项目,这三件事是最高频、最高风险、也最容易被忽略的。
你只要在服务过程中使用了 AI(特别是录音/转录/总结/分析/对话式辅助),就应该提前说明:
用在哪里:会谈中实时转录?会后总结?材料润色?行动追踪?
数据怎么流转:数据存在哪里、保存多久、谁能访问、能否导出、如何删除。
客户有哪些选择:客户能否拒绝?拒绝后你用什么替代方式提供服务。
很多人会说“是会议软件自动转录的,不是我”。但 ICF 的逻辑是:你选择了工具,你就对这个选择负责。最低限度你要做到:
读过工具的隐私条款与数据保留策略
做到“最小化采集”:能不录就不录;能脱敏就脱敏
有明确的删除与留存规则(比如项目结束后 30/90 天删除)
在中国企业内训/OD/咨询项目中,从业者经常身兼多职:教练、培训师、顾问、引导师、甚至参与评估与汇报。ICF 强调:
多重角色要提前披露:你在项目里到底是什么角色?你的角色边界是什么?
避免“悄悄切换角色”:例如从教练式探索突然变成顾问式建议、或把个人表达带入组织评价。
当角色冲突不可避免时要处理:必要时转介或重新约定服务形式。
ICF 把“一个合格的 AI 教练系统”拆成六个领域。你可以把它理解为一个行业级的验收清单。
通俗说:AI 必须明确告诉用户“我不是人类教练”。同时它要说明:能做/不能做什么、它的局限(可能误读)、可能存在偏见。
服务前获得明确同意 (Opt-in);不要过度拟人化;必须具备风险识别与转介机制(心理危机时明确提示“无法处理”)。
AI 需要记住上下文、做澄清与总结,使用合适的提问方式促进觉察。
强调“有效性”:目标设定对齐(SMART)、进度跟踪提醒、复盘巩固。
对外宣称“有效”时要有严谨验证;需在多样化人群中测试;内容经专家审查。
直接影响信任的因素:数据加密权限、系统稳定不宕机、无障碍可及性。
(可直接拿去用的操作化指引)
AI 使用的目的与范围(转录/总结/行动追踪等)
数据处理方式(存储地点、保留期限、访问权限、删除机制)
参与者选择权(不同意的替代方案)
若涉及跨境服务:提示可能触发的合规要求
列出常用的工具(会议平台、大模型等),逐项确认:
是否会用于模型训练?能否关闭?
数据保留多久?能否一键删除?
谁能访问?是否支持权限管理与审计?
✅ 能做:纪要整理、材料初稿、行动项追踪、复盘提示
❌ 不能做:替代引导师判断现场风险、替代伦理决策、替代危机处置、替代对敏感信息的边界判断
AI 可以让教练更普及、更高效,但专业信任必须由透明、同意、保密、边界与可验证的有效性来支撑;技术应增强而非取代人的判断与同理心。
信任优先于效率:任何 AI 介入都可能影响心理安全;优先守住关系与边界,再谈提效。
透明 + 选择加入(Opt-in)要前置:在开场契约中说清“用在何处、给谁看、存多久、怎么删、可否拒绝”。
产出物颗粒度要“保护关系”:团队引导更常需要“主题级总结 + 决策与行动”,并做必要脱敏,避免把个人表达变成可追责证据。
多重角色与责任归属更要写清:你是谁、AI是谁(工具不是裁判)、最终输出由谁背书。
让 AI 做低风险高价值的环节:会前做议题库、会后做追踪;会中实时转录/分析要谨慎使用并强同意。
专业 · 洞见 · 实战赋能
主理人:Kenny
SPOT 认证培训师| AI 赋能引导师
#AI赋能 #高管教练 #团队引导 #工作坊设计