当高管用AI做决策时,为什么反而更容易出错?

最近,哈佛商学院的一项研究发现了一个令人意外的结论:那些依靠生成式人工智能(Gen AI)来辅助高风险决策的企业高管,反而更容易做出错误的预测。

这似乎与我们对人工智能的期待背道而驰。在日常工作中,AI工具已经成功地帮助我们完成简单或重复的任务,比如撰写邮件、整理数据,甚至提高沟通效率。那么,为什么当涉及到重要决策时,AI却反而让我们栽了跟头呢?

认知偏差的幕后推手

哈佛的研究指出了一个关键问题:认知偏差(Cognitive Bias)。当高管们使用AI工具时,他们会在潜意识中更容易过度依赖AI提供的信息,而忽视了自身的判断力和经验积累。

具体来说,当AI给出明确的建议或预测时,人们往往倾向于过度信任这些信息。这种现象被称为“自动化偏差”(Automation Bias)。换句话说,人们会不假思索地接受AI的结论,降低了对决策本身的质疑和审慎思考。

为什么AI建议未必正确?

AI的强大之处在于其数据处理和模式识别的能力。但在复杂、模糊、或高风险的决策情境中,AI仍然面临巨大的挑战。

首先,AI依赖于历史数据。如果历史数据本身存在偏差,那么AI所做的预测也会继承并放大这些偏差。其次,在快速变化和充满不确定性的环境中,AI很难捕捉到实时的变化和新出现的趋势,导致预测与实际情况脱节。

人工智能与人类智慧的平衡

哈佛研究给我们的一个重要提醒是:在使用AI时,我们必须保持一种审慎的怀疑态度。AI并非万能,特别是在战略决策、风险管理或创新方向的选择上,人类的直觉、洞察力和经验仍然无法被替代。

最佳实践是将AI视为决策辅助工具,而非决策替代工具。决策者应该利用AI帮助搜集、整理信息,并从中获得启发。但最终的决策仍然需要人类来权衡各种复杂因素,避免陷入自动化偏差的陷阱。

如何避免AI造成的决策偏差?

这里有几个简单的方法,帮助企业高管更好地使用AI:

  • 保持怀疑精神:永远对AI的建议抱有批判性思维。
  • 鼓励多元观点:邀请团队成员一起审视AI的结论。
  • 明确AI局限:认识到AI擅长和不擅长的领域。
  • 定期审视决策流程:持续检查AI的决策参与度,避免过度依赖。

小结

哈佛的最新研究清楚地告诉我们:尽管AI的能力令人兴奋,但我们不能盲目相信技术,而忽视了自身的决策责任。只有明智地使用AI,我们才能真正从中获益,而不是让它成为决策失误的帮凶。