面试禁用 AI:是坚守底线,还是错失未来?
撕裂的职场现实
程序员用GitHub Copilot/Cursor 3分钟生成代码,面试时却只看能不能“手撕”算法;文秘岗位日常使用 ChatGPT 撰写报告,面试只看是否能“限时手写”;设计师可以通过可灵/Ideogram 快速生成简易海报,但是面试只看能不能手画。
这种职场与面试的“双标”场景,正在成为 AI 时代的现实。
根据 Anthropic 发布的《Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations》论文显示,已经有超过 75% 的职业在工作中使用 AI,甚至有大约 4% 的岗位在他们日常 75% 的任务中使用 AI,也就是重度依赖 AI 了。
但是,截止目前为止,几乎找不到任何关于大型公司在面试中对候选人使用 AI 的能力进行考察的信息。
这种割裂背后,其实是效率、安全、伦理三重矛盾的复杂交织
使用 AI 的三大矛盾
1. 效率与安全的博弈
初创企业
初创企业往往追求创新和效率,对传统规则的束缚较少。他们对于员工使用 AI 这件事情持更加开放的态度,甚至有不少初创企业会鼓励员工使用 AI 工具,公司会出钱为大家采购Cursor、Midjourney 等工具。
因为使用这些工具可以极大提升员工的工作效率,可以更快的迭代产品,更早地把产品推向市场。这对于初创企业来说是非常重要的。
下面这张图是使用一句话创建的妇女节的海报,即使是一个非专业人士,也能在短时间内创作出一个勉强可用的设计稿,尤其是在考虑的费用成本之后。
大企业
大企业一般来说更加重视数据安全,会限制员工使用各种 AI 工具,害怕出现数据泄露。这么做虽然减少了潜在的数据安全问题,但是长期来说,是与市场趋势相违背的。随着 AI 的发展,职场中大量使用 AI 几乎是必然事件,尤其是白领岗位。
2. 简历优化的灰色地带
使用 AI 润色简历已经是一个非常普遍的行为了。
也有很多这方面的产品,比如国内的心动 AI 简历,国外的Kickresume都是做的还不错的产品。
使用 AI 对简历的排版、措辞进行适当的调整和润色,这无可厚非,而且应该是一个值得推荐的行为。但是,不论出于有心还是无意,使用 AI 润色过的简历,会出现编造经历和技能的情况。这就触及到诚信问题了,而诚信几乎是所有企业的红线。
软件工程和管理领域的著名博主Gergely Orosz在他的《How GenAI is reshaping tech hiring》中提到,生成式 AI 的出现迫使企业和面试调整面试流程,因为有很多造假行为。
3. 作弊与反作弊的攻防战
比起简历润色更严重的另一个问题是候选人在面试过程中使用 AI 进行作弊。
由于现在很多面试都是线上视频面试,这给作弊带来了很大的便利。甚至也出现了不少这方面的产品,比如Final Round AI。
这一类产品被开发的初衷大多是辅助候选人进行面试练习的,但是往往会被用于作弊。
有作弊,就有反作弊。
比如Glider AI 和 Apriora 这两个产品就是帮助企业检测候选人是否在面试过程是作弊的。它们会检测候选人是否分享屏幕、电脑中是否有异常进程,甚至会分析候选人的眼神、语气和微表情等等。
为什么不考察使用 AI 的能力?
现在几乎没有企业会否认 AI 的重要性,那为什么面试时不考察候选人使用 AI 的能力呢?可能有以下三个原因。
1. 能力锚定效应
能力锚定效应是指人们倾向于用历史经验锚定能力标准,如同马车时代用‘驯马技能’评价司机驾驶能力
全球的教育体系中,或多或少都存在“知识储备量=能力”的观点。而且这种认知在面试中尤为显著。就像计算器普及后,学校依然会考察心算的能力。社会需要时间接受“使用工具的能力本身也是一种重要的能力”这个观点。
企业在面试中禁止使用 AI 或者不考察候选人使用 AI 的能力,很大程度上是对旧有评估模式的惯性坚持。
2. 组织进化滞后
大企业的岗位能力模型的调整可能 3-5 年才有比较大的变化,而现在的 AI 技术进展是月为单位的。这种差异让 HR 和用人团队的面试官更倾向于选择风险可控的传统方式,而非拥抱AI带来的变革。
如果允许候选人在面试中使用 AI,怎么考察候选人使用 AI 的能力对于面试官来说也是一个难题。毕竟没有先例可循,需要自己去摸索,在没有明确 KPI 的驱动下,可能动力不足。
3. 重视基础技能
无论 AI 如何发展,基础知识、逻辑思维、独立思考等核心能力都非常重要。
AI 可以提效,但前提是候选人本身应该具备中高级以上的技能,而不是完全依赖 AI。
如何设计AI友好型面试?
毫无疑问,AI 越来越重要,但是职场基础技能也非常重要。那应该如何设计一个 AI 友好的面试?
以下是我的个人想法,大概率是不对的。
首先,保留所有传统的面试内容,该考察的还是考察。
但是要增加一个考察使用 AI 能力的环节。在这个环节中需要做好两件事:设计任务和制定评估标准。
1. 设计任务
设计任务的时候应当做到分岗位 + 结合工具 + 难度略高。
分岗位很好理解,不同的岗位应该设计不同的任务,传统面试中也是这样的。
至于结合工具。每家企业,甚至每个团队使用的 AI 工具是不一样的,比如程序员会使用 Github Copilot/Cursor,设计师可能会使用 Midjourney,文秘可能会使用秘塔写作等等。
既然使用的 AI 是不一样的,那么在设计任务的时候也应当有所区分。
关于难度略高,既然 AI 可以提效,可以扩展能力边界,那就不应该考察传统面试中的问题,应该专门设计大一些、难一些的任务给候选人,否则起不到效果。
2. 制定评估标准
评估标准可以参考这几个。
- 是否完成任务:能否使用 AI 完成任务
- prompt 设计能力:观察候选人如何设计有效的 prompt 来引导 AI 生成高质量内容。
- AI输出结果的评估和优化能力:考察候选人如何辨别 AI 生成内容的优劣,是否会进行评估、优化和改进,还是完全照搬 AI 的结果。
- 效率和创新性:候选人使用 AI 工具的效率,以及是否能通过 AI 工具实现创新性解决方案。
结语
AI时代的到来,尤其是大模型的快速发展,正在推动面试评估的认知升级。Gergely Orosz在《How GenAI is reshaping tech hiring》中说,GenAI会在未来 12 个月内重塑科技行业的面试(这篇文章发表于 2024 年 12 月)。
完全禁止AI可能让企业错失具备AI应用能力的优秀人才,而完全依赖AI又可能掩盖候选人的核心能力。未来的面试或许需要一种平衡:既考察基础技能,又测试人机协同能力。
对于初创企业,放开AI限制可能是识才的新路径;而对于大企业,解决数据安全与效率难题则是关键。
无论如何,人类智能与机器智能的协同正在形成新型认知架构。面试评估若能与时俱进,拥抱这场变革,才能更好地抓住AI时代的机遇。