使用 Microsoft Copilot for Microsoft 365 时的挑战和风险
人工智能的奇妙世界似乎比以往任何时候都更加无限。这个话题无处不在,尤其是由于微软对 OpenAI 的大力投资以及随后于 2023 年 11 月发布的 Copilot for Microsoft 365 作为日常 Office 应用程序中的 AI 助手。Copilot for Microsoft 365在不断增长的领域的潜力从第一次使用起就可以看到生产力和流程优化。但在此之前,对于大多数公司来说,这最初是一条崎岖的道路,在引入新的 Microsoft 服务时总是必须回答一些典型问题。简单地“打开”Microsoft 365 的 Copilot 会带来陷入数据混乱的风险。在这篇博文中,我们重点介绍了引入 Microsoft 365 Copilot 和其他基于大型语言模型的 AI 服务时的关键治理注意事项。
在引入生成式人工智能时,您通常首先会考虑该技术的潜在应用领域 。作为一家公司,我们为什么要使用人工智能?在哪些业务领域,在哪些应用领域?可能的用例有哪些?现有的应用示例在多大程度上可以转移到我的公司?许多公司已经超越了这个阶段,并且知道未来应该在哪些地方和哪些领域使用 Copilot for Microsoft 365 等人工智能服务。随着流程的进展,随之而来的问题是如何在公司中安全地实施和引入人工智能服务。我们区分两个维度:
1.赋能,即员工通过培训、及时培训和随附的变更管理措施,能够在 Microsoft 365 应用程序(Outlook、Teams、Word、Excel、PowerPoint 等)中使用 Copilot 等 AI 服务。
2. 治理,即制定和实施规则和框架条件,以便在您自己的组织中安全且合规地使用人工智能服务。
下面我们介绍了各个治理方面以及如果不考虑这些方面各自的风险和挑战。
M365 Copilot 简介中的挑战和风险
Microsoft 365 Copilot 的部署速度很快。管理员分配许可证后,您就可以实际开始使用了。然而,理想很快破灭并出现以下问题的情况并不少见: 员工对不相关的结果不满意。这些内容要么包含过时的信息,要么不准确,要么完全偏离主题。人工智能助手所带来的缓解并没有实现。
“如果你将一个糟糕的流程数字化,你就会得到一个糟糕的数字化流程。”
托尔斯滕·德克斯(Telefonica 德国前首席执行官)
即使 Thorsten Dirks 的名言并不 100% 适用于此,它仍然适用于 Microsoft 365 Copilot 等 AI 助手的使用。如果人工智能输入的是旧的、不相关的或冗余的数据,你也会收到旧的、不相关的或冗余的答案。这个问题通常也被称为“shit-in-shit-out 原则”。