人工智能编写了代码。您已被黑客攻击。现在会发生什么?
 
当人工智能系统开始发布工作代码时,许多团队欢迎它们作为生产力的助推器。开发人员已转向人工智能来加快日常任务的速度。领导人庆祝生产率的提高。但几周后,公司遇到了由该代码引起的安全漏洞。问题是:谁应该承担责任?这不是假设。在对美国和欧洲 450 名安全领导者、工程师和开发人员进行的一项调查中,五分之一的组织表示他们已经经历过与人工智能生成的代码相关的严重网络安全事件,超过三分之二 (69%) 表示他们已经发现了人工智能生成的缺陷。机器而不是人所犯的错误与已经造成实际财务、声誉或运营损失的违规行为直接相关。但人工智能并没有消失。许多组织都感到有压力,需要迅速采用这一技术,既是为了保持竞争力,也是因为前景如此强大。但责任仍然集中在人身上。没有规则的指责游戏 当被问及谁应该对人工智能相关的违规行为负责时,没有明确的答案。超过一半 (53%) 的人表示,安全团队应该为遗漏问题或未实施要遵循的具体准则承担责任。与此同时,几乎同样多的人(45%)指出是谁让人工智能产生了错误代码。这种分歧凸显了日益扩大的责任差距。人工智能正在模糊曾经清晰的责任界限。虽然开发人员可能声称他们只是使用工具来提高输出,但安全团队可能会辩称,不能指望他们能够发现人工智能引入的每个缺陷。如果没有明确的规则,团队之间的信任可能会受到削弱,共同责任的文化可能会开始破裂。一些参与者走得更远,甚至指责批准代码的同事或想要控制代码的外部工具。没有人知道该向谁负责。人力成本 在我们的调查中,92% 的组织表示他们担心人工智能生成的代码产生的漏洞。这种担忧符合更广泛的工作场所趋势:人工智能的目的是减轻负担,但它往往会起到相反的作用。 Fast Company 已经探索了“工作现场”的兴起,这意味着低价值产出会带来更多的监视和清洁工作。我们的研究表明这如何转化为安全性:人工智能不但不会消除压力,反而会增加压力,让员工感到压力重重且责任不清。倦怠已经相当普遍,尤其是在网络安全领域;近三分之二的专业人士表示存在这一问题,其中繁重的工作量被认为是一个主要因素。这些压力共同创造了一种犹豫的文化。团队花更多的时间担心责备,而不是尝试、构建或改进。对于组织来说,为加速进步而引入的技术实际上可能会减慢进度。为什么责任分配这么难?人工智能给工作场所增添了一层混乱。传统的编码错误可以追溯到个人、决策或团队。有了人工智能,这种责任链正在被打破。是开发人员信任不安全代码的错,还是人工智能首先创建了不安全代码的错?即使人工智能错了,承担后果的也不会是它的创造者。这种不确定性不仅出现在公司内部。世界各地的监管机构都在努力解决同一个问题:如果人工智能造成伤害,谁应该承担责任?由于两个层面都缺乏明确的答案,员工和领导者面临同样的责任差距。工作场所政策和培训仍然落后于人工智能采用的步伐。很少有法规或先例来指导如何划分责任。一些公司跟踪人工智能在其系统中的使用情况,但许多公司没有这样做,导致领导者只能将事后发生的事情拼凑起来,就像拼图缺少重要的部分一样。领导者可以采取哪些措施来缩小责任差距?领导人不能忽视责任问题。但设定期望并不一定会放慢速度。通过正确的步骤,团队可以快速行动、创新并保持竞争力,而不会失去信心或产生不必要的风险。跟踪 AI 使用情况标准化跟踪 AI 使用情况并使其在团队中可见。分担责任 避免团队相互对抗。使用双重登录,人力资源部和财务部可以批准新员工,这样责任就不会落到一个人身上。设定明确的期望 通过确保员工知道谁审查了人工智能输出、谁批准了它以及谁拥有结果来减轻压力。在终止前创建一个简短的人工智能清单。使用提供可见性的系统领导者应该寻找实用的方法来使人工智能的使用透明且可跟踪,这样团队就可以花更少的时间争论指责,而花更多的时间解决问题。使用人工智能作为早期预防措施人工智能不仅是风险的来源,而且也是风险的来源。它还可以充当额外的眼睛,尽早标记问题并让团队更有信心快速采取行动。沟通是关键组织通常只有在严重的安全事件发生后才会改变其方法。这可能代价高昂:除了声誉损失之外,平均违规事件估计价值 440 万美元。通过明确传达期望并落实正确的流程,领导者可以减轻压力,加强信任,并确保当人工智能发挥作用时,责任不会消失。人工智能可以成为强大的推动者。如果缺乏清晰度和可见性,信任就有可能被削弱。然而,有了正确的护栏,它可以提供速度和安全性。那些能够为无所畏惧地使用人工智能创造条件的公司将会取得成功:认识到人工智能的弱点,改善问责制,并培养以人工智能的速度进行审查和改进的文化。 
已发布: 2025-10-29 06:00:00
 
            