自2023年起,人工智能(AI)领域持续展现出巨大突破与广泛的实用性,各行各业的企业与消费者正积极寻求利用AI的规模效益。AI已渗透至商业运营的方方面面,助力数据分析、文本转换、客户服务等任务的高效执行。今年7月在上海举行的“2024世界人工智能大会”上,相关部门公布了一份《中国AI大模型工业应用指数(2024年)》报告,揭示了AI在关键行业,如电力、石化、钢铁、医药等领域的应用能力显著增强。这标志着AI已成为企业提升生产效率的重要工具。
F2 Strategy的一项调查显示,超过半数的财富管理公司已启动AI项目,他们关注的领域包括市场状况和证券随时间的变化预测、文档光学字符识别、工作流程自动化以及聊天机器人等。AI的应用潜力巨大,据估计,它可以将人工操作时间削减最多达90%。然而,同时有60%以上的公司表示需要加强AI应用的安全培训,凸显出尽管AI潜力显而易见,但部署和应用AI工具的风险成为用户关注的重点。
安全专家Check Point指出,不法分子也在利用AI,为攻击者提供了扩大量和强度的攻击手段。攻击者可能利用AI模型本身进行中毒操作,导致敏感信息泄露或传播恶意内容。此外,未经充分培训的员工在向AI工具输入信息时可能无意间暴露敏感数据,进而影响AI的学习过程,增加企业遭受攻击的风险。因此,安全控制应贯穿AI生命周期的各个环节,包括员工培训,确保AI工具只能访问其训练所需的数据。
在AI解决方案实施时,首要目标是明确工具的功能边界,确保其仅能访问必要的数据集。深入了解信息隐私、数据来源及内置的安全机制至关重要。许多AI工具内建防御机制,旨在防止滥用,如ChatGPT的规则旨在防止不良用途,但可通过精心设计的提示词规避。企业应采取零信任网络策略,为员工提供深度培训,确保他们了解工具的运作原理及安全使用方法,明确哪些数据可以使用,哪些数据绝对不能暴露于大型语言模型(LLM)中,尤其是支持生成式AI应用的模型。
在引入AI工具时,必须设定严格的工作范围限制,确保其访问权限仅限于必要数据。这包括对信息隐私、模型数据来源及内置安全机制的全面了解。AI工具,特别是支持生成式AI的大型语言模型(LLM),不应被视为传统的软件工具,而应视为一种融合了工具与用户特性的新型工具。零信任策略通过限制资源访问和横向移动范围,有效防范攻击者通过单点入侵造成的影响。
AI工具的部署需谨慎,避免无限访问敏感信息,以防潜在的安全威胁。企业应优先考虑安全防护措施,防止网络安全事件的发生。AI技术的广泛应用为企业带来了前所未有的机遇与挑战,特别是在确保业务正常运营的同时,防范新出现的安全风险。零信任模式下的网络安全分析与控制、针对性的安全解决方案对于企业充分利用AI工具的潜力至关重要。作为网络安全领域的领导者,Check Point公司近期推出了Infinity AI Copilot,通过自动化加速安全管理,提高事件响应速度,并与微软合作,进一步增强其解决方案的效能,以应对日益复杂的网络安全挑战。