奇安信集团董事长齐向东
8月28日,2024中国国际大数据产业博览会正式开幕,本届数博会以“数智共生:开创数字经济高质量发展新未来”为主题,大会开幕前夕,钛媒体app与奇安信集团董事长齐向东进行了深入的交流。
数据安全已经成为当下各行业关注的焦点,也是企业在应用数字技术赋能的前提条件。从技术趋势上看,数据安全解决方案正经历着从传统产品安全向实战化场景安全的重要转变。这种转变体现在安全防护不再局限于单一产品或技术,而是更多地融入到用户的实际业务场景中,提供更为全面和深入的安全保障。
在对话中,齐向东向钛媒体app表示,数据安全问题实际上是一个“数据三角”问题,包括数据的生产域、应用域和流通域,每个领域都面临着不同的安全问题。
生产域方面,网络环境相对封闭,最高的风险是内鬼盗窃,最大隐患是“三员”:管理员、技术员、操作员。“三员”掌握特权账号,很容易主动泄密,或者被收买、被利用。另外,生产数据的物联网设备、各种传感器和IT系统,也可能成为机密传输、数据篡改的工具。
应用域方面,应用环境全面开放,面向公众和政企机构,最高的风险是黑客攻击和后门,最大隐患是API。据统计,八成以上的黑客攻击和九成以上的后门是通过API接口实现的,API接口数量越多,漏洞和后门隐患越大。
流通域方面,较为依赖第三方平台,最高的风险是数商违规,最大的隐患是技术平台漏洞。全局数据、重要数据和敏感数据以及一般数据,都需要以业务场景为导向,不能违背数据权属方的意愿、不能违反个人信息保护法律、不能损害国家利益等原则。“上述原则一般通过技术平台保障,一旦出现漏洞,就会发生重大数据安全事故。”齐向东强调。
基于此,齐向东告诉钛媒体app,由于“数据三角”是互为支撑、互相影响的,数据安全问题不能孤立解决。关键是构建统一的体系化安全体系,覆盖“数据三角”的每个域,确保数据安全,任何一个“角”出现问题都能够“及时止损”,保障数据生产、应用、流通各方安全,护航数字经济高速发展。
当AI大模型的风席卷全球,各行各业都在积极拥抱大模型带来的红利。与此同时,AI技术也让网络攻击者的成本下降,效率提升。不过目前业内公认的可以将AI技术融合进安全产品中,“用AI打败AI”已经是业内公认的事实。在齐向东看来,人工智能带来了新的安全挑战,其中最突出的挑战是“饱和式”攻击,网络空间更加“易攻难守”。“网络攻击好比偷东西,攻击者会特意制造群众性事件分散目标注意力。AI大模型的出现,让黑客可以在短时间内发动大范围连续进攻,导致目标处于无法应付的饱和状态,然后趁虚而入。”齐向东如是说。
钛媒体app注意到,本届数博会的主题就是数智共生,结合这一主题,面对钛媒体app抛出的安全行业如何实现数智共生的话题,齐向东表示,安全是数智共生的基石,是一切科技链、创新链、产业链的底板,一旦出现问题,不仅会打击链上企业,更会破坏整个供应链的稳定和效率。作为网络安全行业的领军者,奇安信不断强化科技创新,以“AI驱动安全”为千行百业筑牢网络安全底板,护航数智共生行稳致远,共同开创数字经济高质量发展新未来。
面对AI可能带来的网络和数据安全风险,齐向东认为,可以通过“四步”,筑牢安全防线。
首先,要做好安全基础。“通过建纵深防御的内生安全体系,确保新系统安全就绪。”齐向东强调,“现在,许多政企机构的数字化系统快速扩张,但是安全建设跟不上,还停留在“堆盒子”的阶段。”对此,齐向东为安全行业提出了建议,他表示,要构建纵深防御的内生安全体系,把安全能力内置到网络的全链条和业务系统中,实现安全能力无死角;并确保多道网络安全防线有效协同,实现安全防护从宏观管控到微观检测全面进行。
其次,做好基础以后,企业可以利用AI驱动安全,提高安全防御效率。“在构建好内生安全体系的基础上,还要积极拥抱“人工智能 安全”,提高网络安全防护效率。”齐向东指出。而从当下各大安全厂商的布局上也不难看出,AI 安全已经成为各个安全厂商积极布局的重点领域。
再次,在利用AI赋能安全的过程中,AI自身的安全性也是企业不得不关注的话题,“越是先进的东西,出现安全事故后带来的损失和影响就越大。”齐向东指出。
最后,企业需要强化人工智能的监管和治理,杜绝“内鬼”隐患。“现在,许多政企机构在员工使用人工智能大模型方面出现了管理脱节,”齐向东强调,“从企业视角来看,大模型的使用处在 ‘只用不管’的状态,导致许多员工在不自知的情况下被动成为‘内鬼’。”企业需要从顶层设计到企业层面都要加强对人工智能大模型的监管和治理,在保护数据安全上形成合力。
(本文首发于钛媒体APP,作者|张申宇,编辑丨盖虹达)
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com