若你曾尝试将人工智能引入人力资源领域,便深知这项工作早在技术上线前就已启动。Mitratech公司的苏珊·安德森和艾米·佩德雷蒂深谙此道——她们亲历模型测试、变革管理,并时刻提醒众人:"以人为本"绝非口号,而是践行准则。在SHRM 2025会议上,她们分享了关于负责任人工智能的五大经验教训,这些都源自现实世界中错综复杂的实践。
这个承诺令人振奋:更快获得洞察、减少人工操作、为真正需要人类参与的工作腾出更多时间。然而,在模型测试、法律审查以及善意利益相关者无休止的"假设性问题"之间,你可能会感觉自己像是在边造飞机边驾驶。
在Mitratech,我们近距离见证了这种张力——野心与实践之间的鸿沟,人工智能能为人力资源领域做些什么与它应该做些什么之间的差距。关键在于,人工智能并不能自动使流程更智能或更符合伦理;真正实现这些的是人。正因如此,我们打造的技术始终让人类保持参与,我们的HR数字助理ARIES™的设计初衷也并非取代专业知识,而是增强专业能力。
Mitratech人工智能助力人力资源管理
赋能人力资源团队,使其始终领先于不断演变的雇佣法律与监管要求。ARIES™通过对话式人工智能技术,从联邦及州法律、专家问答以及Mitratech Mineral内容团队与人力资源专家创建的合规材料等庞大数据库中提取信息,提供快速可靠的解答与资源支持。
使用 ARIES™,您可以:
- 快速获取符合您需求的精准合规信息;
- 通过让员工自助获取人力资源相关问题的解答,减轻行政工作量;以及
- 为员工提供清晰的指导,简化入职流程、休假管理及工作场所政策等流程。
在人力资源领域实施人工智能
在SHRM 2025会议上,苏珊·安德森和艾米·佩德雷蒂分享了实现这一目标的真正要诀——五条通过反复试错与深度协作总结出的经验。这些并非白皮书中的理论,而是团队在人力资源领域复杂现实中构建负责任、以人为本的人工智能时积累的实践智慧。
以下是他们所学到的经验,也是每位人力资源领导者在将"人工智能在人力资源中的应用"从构想转化为实践前必须了解的内容:
1.以终为始
若你曾被递来一款"变革性"工具却不知该解决什么具体问题,便深知兴奋感如何迅速沦为喧嚣。人工智能亦是如此。在引入新平台或功能前,请先停下脚步问最根本的问题:我们究竟要解决什么问题?当团队以成果为起点——比如缩短岗位填补周期或减少20%行政工作量——每个人都清楚"成功"的模样。
麦肯锡研究表明,与可衡量业务成果挂钩的人力资源人工智能试点项目,其成功扩展的可能性是缺乏明确目标项目的三倍。这种清晰度不仅关乎目标一致性,更关乎信任建立。请尽早引入合作伙伴——包括IT、法律、合规和风险部门——确保人工智能项目从一开始就具备健全的防护机制,使其不被视为人力资源部门的附属项目,而是全公司共同推进的战略举措。
说到防护栏——不妨将其视为防止创新偏离正轨的缓冲装置。它们不会拖慢进程,而是守护人们的安全。以Mitratech为例,我们的ARIES™数字助理在设计之初就刻意避免介入解雇决定或骚扰投诉等场景。这些时刻需要人类的判断与同理心,而非算法捷径。正是这样的防护栏,在首个输出结果发布前就已奠定信任基石。
从小处着手,证明价值所在,审慎推进规模化。关键不在于第一季度获取最耀眼的投资回报率,而在于赢得能够支撑变革的内部信任。
关键要点:
- 预先确定人工智能用例和成功指标。
- 尽早让 IT、法律、合规和风险团队参与进来。
- 有意识地确定工具的范围,护栏会产生信任感。
- 从小事做起,建立动力和内部信任。
2.为正确的团队赋权
人工智能在人力资源领域的成功并非始于技术,而是始于人。艾米·佩德雷蒂从实践中总结出的最重要经验之一是:人力资源部门必须从项目初期就深度参与人工智能项目,而非在项目尾声才作为评审方介入。
基于自身经验,她发现深度参与技术团队、掌握其专业术语并理解工具底层架构,有助于她以赢得信任的方式倡导人力资源需求,从而塑造更优成果。产品创新思维对人力资源从业者而言或许尚属新领域,而对于快速迭代和产品功能优先级排序,不同从业者可能存在不同程度的适应性差异。
根据莱迪思的 《2026年人才战略现状报告》显示,在跨职能部门合作推进人工智能应用的人力资源负责人,对人工智能成果的公平性和质量信心提升40%。
这里还有一个常被忽视的要素:心理安全感。开创事物必然伴随着草率的草稿、半成品的构想,以及技术可行性与道德正当性之间的张力。艾米对此有精辟的总结:最优秀的团队并非从不失败,而是能在安全环境中失败并持续学习的团队。
关键要点:
- 人力资源必须从一开始就融入人工智能项目,而不仅仅是审查最终成果。
- 建立一个跨职能团队,让人力资源专家和技术专家并肩协作。
- 鼓励心理安全,以支持学习、提问和迭代。
- 让人力资源领导者掌握人工智能技术的语言(如产品和工程),从而更好地倡导以人为本的解决方案。
- 设定明确的预期:早期版本并不完美,这是过程的一部分。
3. 审计与质量至关重要
如果人工智能的性能取决于其学习数据的质量,那么信任的牢固程度则取决于审核其工作的人类。这正是人机协同(HITL)发挥作用之处。人机协同(HITL)是指让人类持续参与人工智能系统的审查、优化和改进,而非放任技术独立决策的实践方式。
从项目启动之初,艾米团队就将领域专家与技术工程师并肩协作,全程参与每个环节:从评估基础模型("大型语言模型比拼")、编写并优化系统提示词,到持续测试与精炼。这种深度协作有效弥合了思维差异——工程师可能将95%准确率的AI输出视为胜利,而人力资源主管深知那缺失的5%可能暗藏实际风险。
质量保证是一个持续的过程。团队建立了一套结构化的审查流程,由人工评估员持续对AI生成的输出内容进行准确性、清晰度和偏见性评估。HITL机制确保AI在首次发布后仍能保持相关性、责任感和准确性。
关键要点:
- 让领域专家贯穿整个人工智能生命周期,而不仅仅是在最后阶段。
- 通过校准的人工审核,创建可重复的质量保证流程。
- 频繁测量输出结果的准确性、清晰度和偏倚度。
- 计划如何在一段时间内识别、标记和修复错误。
- 为持续改进而建设,而不是一劳永逸的启动。
4. 培养人才,而非仅搭建平台
每项新技术都会引发人力资源领域的相同疑问:"这会取代工作岗位吗?" 事实远比表面复杂。人工智能在取代工作之前会先改变工作形态,而在人力资源领域,它在减少工作量之前反而会创造更多工作。
在早期试点阶段,团队需要编写指令、测试响应、记录边界案例,并向利益相关者解释变更。Gartner《2025年人力资源技术趋势》报告显示,72%的人力资源负责人表示,由于新增的培训、监督和数据清理工作,其团队在人工智能实施期间的工作量有所增加。
变革管理是将人工智能融入人力资源的关键一环,它值得关注的程度远超过我们在此所能涵盖的范围。关键见解是什么?人工智能会转变角色,而不是取而代之。现在,在构建和测试阶段,要做的工作实际上更多了,而不是更少了,这为参与开发的人力资源专家提供了工作保障。
随着时间的推移,工作会不断发展,人力资源专业人员可以专注于更多以人为中心的任务,而人工智能则负责处理日常琐碎的工作。担心失去工作或被滥用是很自然的。透明度至关重要:领导层清晰、有意的沟通有助于缓解恐惧和不确定性。
不仅仅是人力资源团队需要得到保证,管理人员和邻近的利益相关者也需要了解情况并参与其中。参与这一过程并随时了解情况的人往往会更有信心,更少受到人工智能影响的威胁。
关键要点:
- 人工智能会转变角色,但不会取代人工;更多的工作发生在开发阶段。
- 领导层透明的沟通可以建立信任,缓解恐惧。
- 让管理人员和所有利益相关者参与变革对话。
- 尽早让团队参与进来,创建共同的旅程,减少不确定性。
- 强调不断发展的人力资源角色以人为本的价值。
5. 通过设计构建负责任的人工智能
如果你曾目睹"黑匣子"工具吐出答案时疑惑"这结论从何而来",便已领悟可解释性的重要性。负责任的人工智能意味着展示工作过程,追溯每个输出结果的可信来源,确保其建立在专业知识基础上,并赋予人们质疑的权利。当人们理解人工智能输出背后的"原因"时,他们才更愿意使用这些技术。
Mitratech的ARIES™人力资源数字助理便是实例。它汇集了人力资源与雇佣法专家撰写的经过严格审核的内容,每条建议都直接链接至其来源。这种透明度让用户能够放心地采纳建议,而非反复推敲其准确性。
关键要点:
- 创建和使用来源透明、可信的人工智能系统,避免使用 "黑盒 "工具。
- 优先考虑可解释性,以追踪人工智能决策,尤其是在敏感的人力资源流程中。
人力资源领域人工智能的人类蓝图
当你剥离掉专业术语和"搞定人工智能"的压力,剩下的仍是人力资源工作一贯的核心——明智的判断、清晰的沟通以及对人的深刻理解。工具在变,工作的本质却始终如一。无论你是测试人工智能试点项目、更新SMART目标,还是仅仅想让团队的工作日更顺畅些,衡量进步的真正标尺始终是信任。
若说2025年是人力资源领域尝试运用人工智能之年,那么2026年将成为我们将其付诸实践之年——以更深的同理心、更严密的防护机制,以及更深刻的认知:技术的公平性与有效性,终究取决于塑造它的那些人。
从小处着手,保持好奇心,并让人类始终参与其中。
