信息安全意识行业创新概要

通过确定何时更可能发生错误,从而能够更有效地预测、缓解和解决问题,可以大大改善网络安全策略。从本质上讲,大多数网络安全问题都有一个共同点,那就是人员(用户)。因此,对人为因素的研究是一个新兴且重要的领域。对此,昆明亭长朗然科技有限公司网络安全研究员董志军表示:当人工智能被越来越多地应用于防诈、反恐、舆论监控甚至危机预测,业界开始对网络安全环境中人为因素进行数字化、虚拟化的应用。

互联网的普及为我们提供了同时存在于物理空间和数字空间中的机会,这意味着我们可以始终保持在线联系。因此,人们很容易忘记我们的在线安全责任始于我们自身,同时也且止于我们自身。但是,有几个因素会影响我们保护自己免受威胁并最终维护数据完整性的能力。涵盖这些考虑因素的一个关键领域是人为因素。最近,该领域出现了一些自动化提高用户的网络安全意识的产品和服务。当然,人脑的复杂度远非这些试水的产品和服务所能轻易理解并恰当处理,然而话说回来,任何创新都不是一步登天一蹴而就的。当人们有了一定的前进方向,就会持续不断地改进,最终必定能达到且超越那个目标。对大脑意识认知的“操控”是近年来新兴的话题,通常是通过各种教育培训活动来实现。不过,随着人脑数字化与生物芯片科技的发展,人脑如计算机一样被读写,“操控”他人的认知便不是什么魔术或神话了。

网络安全中人为因素的主要问题是当前在网络安全中积极使用它的状态。而且,在确实存在的研究中,其范围常常是有限的,模棱两可的并且是变化的,或者仅承认人为因素的概念。网络安全既包括安全的在线行为(例如,扫描下载的文件),也包括使用工具和资源来实现此目的(例如,防病毒、防火墙)。因此,从根本上讲,与解决或引起网络安全问题有关的所有行为都需要一定程度的人工投入。例如,用户对网络钓鱼诈骗及其影响的认识可能会因多种原因而有所不同,例如不知道网络钓鱼诈骗是什么,或者在打开文件之前不对其进行扫描。使用情境方法是当前心理学专家、教育专家以及网络安全专家达成的人为因素解决方案,其中引用了网络安全范围内的12种人为因素,包括:缺乏沟通、自满、缺乏知识、分心、缺乏团队合作、疲劳、缺乏资源、外部压力、缺乏自信、内部压力,缺乏意识和标准规范等等。在网络安全的背景下,这12种人为因素中的任何一种都可能起到关键的作用。例如,知识的缺乏会导致员工向诈骗者泄露敏感信息;缺乏团队合作可能会损害每个人都扮演特定角色的系统,从而导致额外的外部压力和内部压力,从而导致更多的网络安全错误及事件。

许多跨国供应商(例如:KnowBe4、Terranova、PhishLabs、Ninjio、Barracuda PhishLine、Cofense PhishMe、Global Learning Systems、PhishingBox、Inspired eLearning PhishProof、Sans Institute、Broadcom Symantec、Infosec IQ、LUCY Security、Proofpoint Wombat)提供的解决方案侧重于降低员工点击网络钓鱼电子邮件中 ​​URL 的频率。尽管每家供应商提供了独特的解决方案,但基本方法是相同的,即如下步骤:

  • 向员工发送模拟网络钓鱼电子邮件。
  • 单击其中 URL 的员工会立即被推送到电子学习。
  • 记录点击率和拒绝点击 URL 以进行纵向趋势分析。

国际上的一些使用证明,上述这种方法可有效降低网络钓鱼攻击的成功率。通过将点击 URL 与参与在线电子学习紧密耦合,这些解决方案能够提供人员的认知与行为改变之间因果关系的有效证据。反过来,这为对此类解决方案的投资带来正投资回报率的主张提供了支持。不过,这主要是国际方面情况,在国内,很多机构,特别是政府机关单位和中小型企业,基本上没有独立的企业级电子邮件服务,在线学习方面的实践也很落后。不过,这倒给云计算方案带来了利好,直接走上基于云端的在线学习系统,是最快捷的方案。当然,这里面也有安全保密方面的顾虑,特别是政府机关往往受各种政策限制,偏好使用私有云;而中小企业则更有可能考虑到商业秘密如员工信息的保护,对云服务持有一些警惕。

不管如何,以最终用户为中心的安全教育和培训市场正在迅速增长。安全和风险管理领导者需要影响人们(员工、公民和消费者)的安全行为,这推动了对这些产品的需求。交互式基于计算机的培训 (CBT) 是综合安全教育和行为管理计划的核心组成部分。 CBT 通过计算设备提供学习体验,例如笔记本电脑、平板电脑、智能手机和物联网 (IoT) 设备。市场上有关安全意识的 CBT 供应商产品包括即用型交互式软件模块。这些模块可作为基于互联网的慕课服务,或通过客户端管理的学习管理系统 (LMS) 和供应商对可共享内容对象参考模型 (SCORM、AICC、H5P) 标准的支持进行内部部署。

正如所建议的那样,在人员安全领域内的研究还为威胁建模领域提供了一个绝好的机会,这可能有助于确定可能损害数据安全性的行为的前兆。例如,如果我们可以确定压力、工作场所规范、缺乏知识等,那么我们就可以使用此信息来实施减少它们的策略,并预测人为因素何时会影响系统安全性的可能性。展望未来,我们的工作需要着眼于改善和发展这种关系,并考虑到预期,缓解和解决与人为因素有关的问题。

昆明亭长朗然科技有限公司是国内定制信息安全培训课程的领先提供商,这一点让我们与众不同。我们通过提供多种灵活的设计、制作与技术服务,来为帮助客户成功地发起安全意识宣教活动,进而为工作人员做好安全知识和能力的准备,以便保护组织机构的成功。包括如下两种在线电子学习方案:

一站式的学习管理计划,这是使用基于互联网的托管解决方案。在内容方面,您可以选择我司现有的课程内容,也可以提供一些内部培训素材和课程需求,我司按照您的想法创作电子课件并上传到在线学习系统。在学员账号管理方面,您只需定期或不定期将学员清单发给我们,包括初次一次性的全员名单,后期入职和离职的人员名单,以便我们及时创建和删除学员学习账号。在学习进度推进方面,可以定时推送详细的学习进度报表报告,格式为Excel电子表格,非常容易使用。

基于自建平台的学习管理计划,即使用自主管理的学习管理系统。在培训平台方面,如果有的话,可以直接使用已有的;如果没有现成可用的平台,可以自行搭建系统,也可以使用我司的培训系统技术服务。在内容方面,我司提供电子课件的创作,包括业界标准的SCORM格式及Web格式,可以无缝集成到学习管理系统平台。在学习进度跟踪方面,您可以通过学习管理系统,获得详细的完成进度跟踪,以确保审计方面的合规要求。

如果您有相关的兴趣或需求,欢迎不要客气地联系我们,预览我们的作品,试用我们的平台,以及洽谈采购及合作事宜。

  • 电话:0871-67122372
  • 微信、手机:18206751343
  • 邮件:info@securemymind.com
  • QQ: 1767022898

通用人工智能(AGI)的机遇与挑战:信息安全的新视角

引言

在当今数字化时代,人工智能(AI)技术的发展日新月异,其中通用人工智能(AGI)作为AI领域的终极目标,引发了广泛的关注和讨论。AGI不仅具有解决人类面临的根本性挑战的潜力,同时也带来了诸多潜在的风险。对此,昆明亭长朗然科技有限公司网络安全研究员董志军表示:如同任何其他革命性的科技一样,AGI将为人类带来巨量的利好价值,同时也将带来难免的强烈阵痛。接下来我们将从信息安全意识的角度出发,探讨AGI的发展机遇与潜在风险,并强调在推进AGI技术的同时,如何确保其安全、可控,最终造福全人类。

AGI的显著机遇

解决根本性挑战

AGI具有帮助人类解决一些最根本和最复杂的挑战的潜力,目标是实现“极端丰富”的状态。这种极端丰富不仅指物质上的丰富,更包括知识、健康和机会的普及。通过AGI,我们可以想象一个世界,其中资源不再稀缺,每个人都能享有基本的生活保障和发展机会。

科学与医学的突破

AGI在基础科学和医学领域的应用,有望加速人类对生命过程的理解,推动新药的设计和开发,甚至有可能征服癌症和阿尔茨海默病等顽疾。这将极大地提升人类的健康水平,延长寿命,改善生活质量。例如,AGI可以通过分析海量的医学数据,发现新的治疗方法,优化药物配方,甚至预测疾病的发生和发展趋势。

解决全球能源问题

能源问题是当今世界面临的重大挑战之一。AGI有望通过发现新的清洁能源解决方案、优化能源存储(如电池技术)、发现新材料(如高温超导体)以及实现可控核聚变,提供几乎无限的清洁能源。这将彻底改变人类的能源结构,减少对化石燃料的依赖,降低环境污染,应对气候变化。

结束资源稀缺

随着能源变得丰富和廉价,AGI可以实现大规模、低成本的海水淡化,解决全球水资源短缺问题。这将改善数十亿人的生活条件,减少因水资源竞争引发的冲突。此外,丰富的能源还将降低材料生产和太空探索的成本,例如从水中生产火箭燃料,推动人类探索和殖民太阳系。

提升生产力与创造新就业机会

在短期内,AI工具(如当前的大型语言模型)可以显著提升个人生产力,使用户能够完成以前难以想象的任务。从长远来看,虽然AGI可能会取代一些传统职业,但它也将创造大量新的就业机会,特别是在开发、管理、维护和创造性使用AI工具方面。这些新职业可能比被取代的职业更具吸引力和价值。

道德责任

考虑到AGI在解决疾病、气候变化等关键问题上的潜力,不发展和利用AI可能在道德上是值得商榷的。人类有责任利用技术手段改善生活条件,解决全球性问题,而AGI正是实现这一目标的重要工具。

AGI的潜在风险

滥用与恶意行为

AGI技术可能被恶意行为者滥用,包括个人、组织或国家,导致灾难性后果。例如,AGI可以被用于设计和生产更具破坏性和难以防御的武器,包括自主武器系统。这些武器可能被用于大规模杀伤,甚至威胁全球安全。

大规模操纵与网络攻击

AGI可能被用于前所未有的大规模社会控制、操纵和信息战。例如,精确影响选举结果、煽动社会冲突或对关键基础设施发动破坏性网络攻击。AGI的通用性使其在多个领域都具有被滥用的潜力,这需要我们高度警惕和防范。

控制与对齐问题

随着AI系统变得更加强大和自主,确保它们能够被有效引导和控制,并且其目标与人类价值观和意图一致,是一个核心挑战。存在一种风险,即AGI在追求目标时,可能采用从人类角度来看不可接受或灾难性的方法。为一个潜在的超级智能系统设计安全屏障是困难的,它可能会找到绕过这些限制的方法。

嵌入的偏见与价值观错位

第一个AGI系统可能会体现其创造者及其文化的价值观和潜在偏见。如果这些价值观有缺陷或存在偏见,或者存在安全漏洞,该系统的影响可能是全球性的、灾难性的且不可逆转的。因此,在开发AGI时,必须确保其价值观和目标与全人类的利益一致。

地缘政治竞争与仓促开发

各国之间在AGI领域的激烈竞争可能导致开发过程被加速,而忽视安全措施或伦理指南。这种“军备竞赛”心态可能增加失去控制的风险。因此,国际社会需要合作,建立共同的伦理和安全标准,确保AGI的发展是可控的和负责任的。

就业不确定性

虽然AGI预计会创造新的就业机会,但其复制人类认知能力的潜力可能导致就业市场的结构性变化。历史上,技术变革通常会创造新的就业机会,但AGI可能打破这一模式,导致大量传统职业被取代,而新创造的就业机会可能不足以吸收被取代的劳动力。这需要社会提前规划,通过教育和培训帮助劳动力适应新的就业市场。

社会与政治问题的持续存在

即使在AGI带来的物质丰富的未来,人性中的贪婪、对权力的欲望和社会比较等因素,以及根深蒂固的社会结构和文化偏见,仍可能导致新形式的不平等、分裂和冲突。因此,在推进AGI技术的同时,必须关注社会公平和正义,确保技术发展的成果能够惠及所有人。

技术巨头的垄断

AGI的发展可能被少数大型营利性公司主导,这引发了对技术垄断的担忧,可能加剧现有的不平等。为了防止这种情况的发生,需要建立公平的竞争环境,鼓励多元化的参与者,确保AGI技术的发展是开放和包容的。

公众的恐惧与焦虑

AGI带来的巨大、未知的变化自然会引发公众的焦虑、恐惧和抵触,类似于历史上其他技术革命时期的反应。为了减少公众的担忧,需要加强科普教育,提高公众对AGI的理解和认知,使他们能够更好地适应和接受这一技术变革。

结论

AGI的发展既带来了巨大的机遇,也伴随着显著的风险。为了确保AGI的安全、可控和造福全人类,我们需要以极大的智慧、远见、努力和谨慎来导航其发展和部署。这包括建立国际合作机制,制定伦理和安全标准,加强公众教育,以及促进多元化的参与和竞争。对此,昆明亭长朗然科技有限公司网络安全研究员董志军补充说:只有这样,我们才能充分发挥AGI的潜力,解决人类面临的根本性挑战,实现“极端丰富”的美好愿景。

在信息安全意识教育方面,我们需要提高公众对AGI潜在风险的认识,培养他们的安全意识和防范能力。这包括了解AGI的基本原理和应用,认识其可能带来的安全威胁,以及掌握基本的防护措施。通过加强信息安全意识教育,我们可以更好地应对AGI带来的挑战,确保其发展是安全、可控和造福全人类的。

最终,AGI的发展不仅是技术问题,更是社会、伦理和政治问题。我们需要以开放、包容和负责任的态度,共同应对这一挑战,确保AGI的发展能够真正造福全人类,实现“最大限度的人类繁荣”。

如果您需要对组织内部人员进行关于包括AGI风险与安全相关的意识宣教,欢迎不要客气地联系我们,预览我们的安全意识内容和体验安全培训服务,并进一步洽谈业务合作。

  • 电话:0871-67122372
  • 微信、手机:18206751343
  • 邮件:info@securemymind.com
  • QQ: 1767022898