天极大咖秀

登录 | 申请注册

怎样防止DeepSeek胡说八道?企业需要构建安全防御

趣味科技 2025-02-20 阅读: 546 次

迈入2025年以来,在飞速发展的生成式AI领域,DeepSeek-R1等大型语言模型凭借卓越的性能和创新潜力风靡全球,正在成为推动AI技术进步的重要力量。

然而,随着DeepSeek模型在各类应用场景中的广泛部署,越来越多的安全问题也逐渐浮出水面。幻觉问题、数据隐私、有害信息输出等安全挑战,使得企业级AI在部署和应用过程中不得不面对一系列复杂的风险。

DeepSeek带来的安全隐患与挑战

作为生成式AI领域的佼佼者,DeepSeek以其强大的自然语言处理能力,为众多应用场景提供了前所未有的可能性。然而,随着模型在真实环境中的广泛应用,幻觉问题也成为了用户不容忽视的隐患。

近日,在Vectara HHEMAI幻觉测试中,DeepSeek-R1出现了高达14.3%的幻觉率,远高于此前V3版本3.9%的表现。这一数据表明,即便是DeepSeek这样业界领先的模型,也无法完全避免幻觉问题的发生。

除了幻觉问题之外,企业级AI在部署和应用过程中,还需要面对潜在的安全风险、保护敏感信息、实施负责任AI、合规等一系列的安全挑战。如何保护敏感信息不被泄露?如何实施负责任的AI政策,确保模型输出的合规性?如何构建全面的安全防御体系,以应对不断演变的威胁?这些问题都是企业在部署生成式AI模型时必须考虑的关键要素。

针对这些安全隐患和挑战,亚马逊云科技提出了一套全面的安全防护指南三部曲,涵盖了基础的安全防护,有害内容的过滤防护,以及稳健的深度防御策略,以满足DeepSeek R1和更多重量级的开源模型部署和应用需求。亚马逊云科技CEO Matt Garman表示:“安全是构建业务的根基。对于我们来说,安全性在每一项工作中都至关重要。它体现在数据中心的设计方式里,体现在芯片的设计方式里,体现在虚拟化堆栈与服务架构的设计方式里,体现在所有软件开发实践中。安全性自始至终都要在设计阶段、实现阶段、部署阶段、补丁阶段等所有环节占据核心地位,万事皆以安全性为起始。”

【Vectara HHEM人工智能幻觉测试结果】

基础安全防护:确保模型安全托管与运营

面对DeepSeek等生成式AI模型的安全挑战,亚马逊云科技提供了一套基础的安全防护方案。该方案与Amazon Bedrock深度集成,借助亚马逊云科技的安全和身份访问管理服务,为开源模型提供全面的安全功能。

作为亚马逊云科技提供的一项完全托管的服务,Amazon Bedrock通过高性能基础模型,帮助用户构建和扩展生成式AI应用程序。在基础安全防护方面,Amazon Bedrock提供了静态数据和传输中数据加密、细粒度访问控制、安全连接选项以及各种合规认证等功能。

通过Amazon Key Management Service(Amazon KMS)密钥管理服务,用户可以轻松实现对静态数据和传输中数据的加密,确保数据在传输和存储过程中的安全性。同时,Amazon Identity and Access Management(Amazon IAM)提供了身份与访问管理功能,允许用户根据需求配置不同的访问权限,确保只有经过授权的用户才能访问模型和数据。

此外,Amazon Bedrock还提供了网络安全功能,包括部署Amazon VPC虚拟私有云、VPC终端节点以及用于传输层安全(TLS)检查和严格策略规则的Amazon Network Firewall网络防火墙服务。这些措施共同构成了亚马逊云科技基础安全防护的基石,为DeepSeek等生成式AI模型的托管与运营提供了强有力的安全保障。

有害信息处理:Guardrails安全防护栏功能

除了基础安全防护之外,亚马逊云科技还推出了Guardrails安全防护栏功能,以进一步加强对有害信息的处理。该功能提供了两种使用方式:一种是直接与调用模型式(InvokeModel)或对话式(Converse)API集成,在推理过程中应用防护机制;另一种是通过ApplyGuardrail API调用,在不调用模型的情况下直接对内容进行评估。

Guardrails安全防护栏功能提供了多种配置防护策略,包括内容过滤、主题过滤、词汇过滤、敏感信息过滤以及上下文基础检查等。这些策略允许开发人员根据其用例实施定制的安全防护措施,确保生成式AI应用程序中的交互安全合规。

其中,内容过滤功能可以屏蔽特定类型的有害内容,如暴力、色情等;主题过滤功能可以限制特定主题的出现,防止查询和响应中出现未经授权的主题;词汇过滤功能可以屏蔽特定的词汇或短语;敏感信息过滤功能则可以阻止个人信息查询等敏感操作。

值得一提的是,Guardrails安全防护栏功能还包含了用于防止幻觉的自动化推理检查功能。该功能利用数学逻辑方法来验证内容的正确性,在处理用户需要精确答案的问题时表现出色。通过验证事实响应的准确性,并生成可审计的输出,该功能提升了模型的透明度,确保了模型响应符合客户的规则和政策。

深度防御策略:构建全面的安全防御体系

在基础安全防护和有害信息处理的基础上,亚马逊云科技还提供了深度防御策略,以帮助企业构建全面的安全防御体系。该策略涵盖了韧性的企业架构、全生命周期的安全设计、安全的云基础架构、经典的分层防御策略以及信任边界控制等多个方面。

在生成式AI工作负载及整个企业架构中,用户应部署分层的亚马逊云科技安全服务,并关注数字供应链中的集成点,以保障云环境的安全。通过利用Amazon SageMaker和Amazon Bedrock等AI/ML服务中提供的增强型安全和隐私功能,用户可以为其AI应用增添更多层面的强化安全和隐私控制。

此外,用户还应定期审查和更新防护机制,以及所有安全控制措施,以应对新出现的潜在漏洞,并在快速演变的AI安全环境中抵御新兴威胁。通过将安全视为一个持续的评估、改进和适应过程,企业才能够在保持强大安全控制的同时,自信地部署创新的AI解决方案。

安全是生成式AI创新的基石

针对DeepSeek产生的幻觉问题,亚马逊云科技大中华区产品部总经理陈晓建指出,以前大模型缺乏可证明事实的逻辑,导致出现幻觉时难以纠正。但是有了自动推理技术之后,亚马逊云科技就能够通过数学验证方式严密证明事实性错误是否会发生,从而有效改善幻觉问题。

陈晓建表示:“2024年,我们看到许多客户从思考阶段进入实践阶段,进行了大量场景试验。2025年,很多客户将从原型验证阶段转化为生产阶段,这是必经之路。届时客户需求将更加复杂,不仅是选择模型,还需要各种技术支持。我们开发Amazon Bedrock的目的不仅是提供模型市场,更重要的是提供能让模型推理运行时所需的各种生产力工具和生产环境工具,这才是Amazon Bedrock的真正价值所在。”

DeepSeek-R1模型现已通过Amazon Bedrock Marketplace或Amazon SageMaker JumpStart获取,并通过Amazon Bedrock自定义模型导入获取蒸馏版本的精简模型。在部署到生产环境时,企业应遵循亚马逊云科技提供的基础安全防护、有害信息处理、深度防御策略等安全防护指南三部曲,以确保DeepSeek等生成式AI模型在部署和应用过程中的安全性和合规性。与此同时,这些安全指南也为企业提供了构建全面安全防御体系的指导思路和实践方法。

随着技术的不断进步和应用的持续拓展,生成式AI将会在更多的领域发挥越来越重要的作用。然而安全始终是技术创新和应用的基石。只有确保模型的安全性和合规性,才能为企业的数字化转型和创新发展提供强有力的保障。

趣味科技
年度十大媒体人,十佳科技自媒体,美通社媒体传播专家

特别声明:文章版权归原作者所有,文章内容为作者个人观点,不代表大咖秀专栏的立场,转载请联系原作者获取授权。(有任何疑问都请联系wemedia@yesky.com)