CrowdStrike网络安全事件简析及安全管理控制措施

网络安全公司CrowdStrike软件更新引发了全球性Windows设备崩溃事件。该事件源于一个名为“Channel File 291”的内容验证问题,一个人的失误导致了数百万台Windows设备受到影响。对此,昆明亭长朗然科技有限公司网络安全专员董志军表示:外部黑客都搞不出的危害,内部威胁的一个简单的变更失误就能达成,强烈的对比即具讽刺意味又值得人们反思。

根本原因分析

此次事件的根本原因在于CrowdStrike引入了一个新的Template Type,旨在提高对滥用命名管道和其他Windows进程间通信(IPC)机制的新攻击技术的可见性和检测能力。然而,在实施过程中出现了参数数量不匹配的问题,即Content Validator通过IPC Template Type传递给Content Interpreter的输入参数数量不一致。具体来说,Content Validator传递了21个输入参数,而Content Interpreter只期望接收20个。

由于在测试阶段未能发现这一不匹配,导致在7月19日推送的Channel File 291更新中出现了问题。当传感器接收到含有问题内容的新版本Channel File 291时,它们暴露于Content Interpreter的一个潜在越界读取问题中。当操作系统发出下一个IPC通知时,新的IPC Template Instances被评估,并尝试比较第21个输入值,而Content Interpreter只期望接收20个值。因此,尝试访问第21个值导致了越界内存读取,超出了输入数据数组的边界,最终导致系统崩溃。

安全管理控制措施

为了防止类似事件再次发生,CrowdStrike采取了以下措施:

  1. 编译时验证输入字段数量:在编译传感器时验证Template Type中的输入字段数量。
  2. 运行时输入数组边界检查:添加运行时输入数组边界检查,以防止Content Interpreter进行越界内存读取。
  3. 修正输入参数数量:修正IPC Template Type提供的输入参数数量。
  4. 增加测试覆盖率:在开发Template Type时增加测试案例,特别是非通配符匹配条件的测试。
  5. 修改Content Validator:增加新的检查,确保Template Instances的内容不会包含超过Content Interpreter期望输入数量的匹配条件。
  6. 更新Content Configuration System:更新测试程序,确保每个新的Template Instance都经过测试。
  7. 增强部署层和接受检查:增加额外的部署层和接受检查。
  8. 客户控制权增强:更新Falcon平台,为客户提供更多控制权,以便他们能够自主决定Rapid Response Content的交付。
  9. 第三方审查:聘请两家独立的第三方软件安全供应商进行代码审查,以确保安全性和质量。
  10. 与微软合作:与微软合作,探索新的安全功能实现方式,减少对内核驱动程序的依赖。

信息安全的人因要素

此次事件凸显了信息安全领域中的人因要素的重要性。虽然技术问题是根本原因,但缺乏全面的测试和验证流程、以及未能及时识别和修复问题也起到了推波助澜的作用。这表明即便是在高度专业化的安全公司中,人因要素也不容忽视。

网络安全培训内容

为了提高员工的安全意识,组织可以提供以下方面的培训:

  • 基础网络安全概念:包括网络安全威胁模型、常见攻击方法等。
  • 安全最佳实践:如使用复杂密码、双因素认证等。
  • 安全政策与规程:确保员工熟悉组织的安全政策和操作规程。
  • 社交工程学防御:识别和抵御社会工程学攻击。
  • 应急响应流程:了解在遭遇安全事件时的应急响应步骤。
  • 持续教育与更新:定期更新安全知识,了解最新的威胁趋势。

为了帮助企业加强员工的安全意识,昆明亭长朗然科技有限公司提供了一套全面的安全意识培训解决方案,包括:

  • 定制化培训计划:根据组织的具体需求量身定制。
  • 交互式模拟:通过模拟真实的攻击场景来提高员工的实战经验。
  • 持续教育平台:提供在线课程、案例分析和定期更新的安全资讯。
  • 合规性监测工具:帮助组织确保员工遵守相关的安全政策和法规。

通过我们的解决方案,组织可以有效地提高员工的安全意识,减少因人为失误而导致的安全事件,从而保护组织的信息资产和声誉。如果您对该方案感兴趣,欢迎不要客气地联系我们。

  • 电话:0871-67122372
  • 手机:18206751343
  • 微信:18206751343
  • 邮箱:[email protected]
  • QQ:1767022898

人工智能与内容安全需技术与管理两手抓

随着人工智能技术的飞速发展,AI生成内容(AIGC)已经成为一种普遍现象。然而,这项技术也带来了一系列新的挑战,其中最为突出的就是如何防止AI生成有害内容。对此,昆明亭长朗然科技有限公司信息安全专员董志军说:如同信息安全管理的三要素一样,管好生成式人工智能,也需要我们从技术、管理和用户意识等多个角度探讨这一问题,特别是重点特别强调用户在维护网络环境安全中的重要作用。

一、AI生成有害内容的现状与风险

AI生成的有害内容主要包括虚假信息、仇恨言论、暴力内容、色情内容等。这些内容不仅会对个人造成伤害,还可能引发社会矛盾,破坏公共秩序。目前,我们面临的主要风险包括:

  1. 信息真实性难辨:AI生成的虚假信息越来越逼真,普通用户难以辨别真伪。
  2. 传播速度快:有害内容可以通过社交媒体等渠道快速传播,造成广泛影响。
  3. 个性化推荐加剧影响:算法可能将有害内容推送给易受影响的群体,加剧负面影响。
  4. 监管难度大:AI生成内容的海量性和多样性,使得传统的人工审核方式难以应对。

二、技术层面的防范措施

完善AI模型训练

    • 优化训练数据:确保训练数据的质量和多样性,减少偏见和有害信息的引入。
    • 强化道德约束:在模型训练过程中加入道德和伦理规范,让AI”学会”区分善恶。
    • 引入对抗训练:通过模拟攻击,提高模型识别和抵御有害内容的能力。

    增强内容过滤技术

      • 多模态识别:结合文本、图像、音频等多种模态,提高有害内容识别的准确性。
      • 深度学习算法:利用深度学习技术,不断优化有害内容识别模型。
      • 实时监测:建立实时监测系统,及时发现和处理可疑内容。

      开发AI内容溯源技术

        • 数字水印:在AI生成内容中嵌入不可见的数字水印,便于追踪内容来源。
        • 内容指纹:为每个AI生成的内容创建唯一标识,方便后续管理和追溯。

        建立AI内容可解释性机制

          • 透明度提升:要求AI系统能够解释其生成内容的依据和过程。
          • 审计记录:记录AI系统的决策过程,便于后期审核和问责。

          三、管理和政策层面的应对策略

          完善法律法规

            • 制定专门法规:针对AI生成内容的特点,制定专门的法律法规。
            • 明确责任界定:明确平台、开发者和用户在AI内容生成过程中的责任。

            加强行业自律

              • 制定行业标准:建立AI内容生成的行业标准和最佳实践。
              • 成立行业联盟:组建AI内容安全联盟,共同应对挑战。

              建立多方合作机制

                • 政府-企业-学界合作:建立多方合作机制,共同研究和应对AI内容安全问题。
                • 国际合作:加强国际间的信息共享和技术合作,共同应对全球性挑战。

                加强教育和培训

                  • 增强公众意识:通过各种渠道提高公众对AI内容安全的认识。
                  • 专业人才培养:培养AI内容安全领域的专业人才。

                  四、用户安全意识的重要性

                  在应对AI生成有害内容的挑战中,用户的安全意识和责任至关重要。用户不仅是内容的消费者,也是网络环境的共同维护者。以下几个方面尤其重要:

                  提高辨识能力

                    • 批判性思维:培养批判性思维,不轻易相信网上看到的信息。
                    • 多方验证:对重要信息进行多渠道验证,不轻信单一来源。
                    • 了解AI特征:学习识别AI生成内容的特征,提高辨别能力。

                    谨慎分享

                      • 信息核实:在分享信息前,先验证其真实性。
                      • 考虑影响:思考分享内容可能造成的影响,避免无意中传播有害信息。
                      • 保护隐私:注意保护个人和他人的隐私信息,不轻易在网上分享。

                      主动报告

                        • 举报机制:熟悉各平台的举报机制,及时举报发现的有害内容。
                        • 社区监督:参与到社区自治中,共同维护良好的网络环境。

                        持续学习

                          • 关注趋势:持续关注AI技术和内容安全领域的最新发展。
                          • 参与讨论:积极参与相关的公共讨论,贡献自己的想法。

                          树立责任意识

                            • 内容创作:在使用AI工具创作内容时,遵守道德和法律规范。
                            • 传播责任:对自己传播的内容负责,避免成为有害信息的传播者。

                            结语

                            杜绝AI生成有害内容是一项复杂的系统工程,需要技术、管理和用户意识多管齐下。在这个过程中,每个用户都扮演着重要角色。通过提高安全意识,培养批判性思维,主动参与社区治理,我们每个人都可以为构建一个更安全、更健康的网络环境贡献力量。让我们共同努力,确保AI技术在为我们带来便利的同时,也能维护网络空间的安全和秩序。

                            正确无比却略显苍白无力的“官话”讲的差不多了,我们经常吐槽:在内容安全方面,对于不良网络内容,到底是工具坏呢?还是人类坏呢?到底是受众坏呢?还是创作者坏呢?相信读者会有自己的答案。如果您对这个话题感兴趣,欢迎联系我们,与真实的网络安全专家一起探讨。

                            昆明亭长朗然科技有限公司

                            • 电话:0871-67122372
                            • 手机:18206751343
                            • 微信:18206751343
                            • 邮箱:[email protected]
                            • QQ:1767022898