2024年服贸会专题论坛之一——“2024中国AIGC创新发展论坛”于9月13日-14日在北京举行。安恒信息中央研究院院长王欣出席并演讲。

王欣认为,国内有很多厂商在做通用大模型,但通用大模型最后只会剩下成少量的一两家,“我们看到各个垂直领域反而在做各类的垂直模型,我认为这路是对的”,他认为,最终是围绕通用大模型或者相对小参数的模型围绕业务下沉的模型。

以下为演讲实录:

王欣:大家下午好,刚才两位专家都介绍了围绕AI大模型运营这块的很多时间,我今天围绕这个话题继续延伸。

过去两年多时间AI很火,AI破圈,我不是做人工智能,我是做攻防出身的,但现在我也加入到人工智能序列里,因为各行各业在看到AI这块技术的革新之后,我们看到了原来做不好的技术围绕着现在整个大模型出现可以达到非常好的效果。

我在比较早期的时候针对于AI已经做了很多战略层面的铺垫。但客观地讲,从大模型这件事情上,我们距离国外还是有比较远的距离。从ChatGPT出现之后,我国各大互联网公司、各大行业在训练自己的大模型,去年的时候可以理解为是国内外大模型的技术元年,去年一年时间内,我看到最多的是几乎每天都有新的大模型出现,在每天技术不断更新过程中,我们思考我们为什么要去做这件事情。所以这个PPT里面第一页看到所有浪潮退去之后要回归到价值本质。

对于AI来说,本质是一个工具,工具的核心是解决业务问题,无论是在安全行业还是在其他行业,包括前一段时间我参加了Gartner一个会,在很多企业里面,大家对于AI有什么期待?核心总结起来是三个方面:第一是降低生产成本,第二是提高产品质量,第三是推动产业转型。

我们看到各个垂直领域反而在做各类的垂直模型,我认为这路是对的,我们可以看到国内有很多厂商过去在做通用大模型,我认为通用大模型最后只会变成少量的一两家,最终围绕通用大模型或者相对小参数的模型围绕业务往下走的模型。

安全行业也一样,安全行业发展了二十多年,我大学毕业前就开始接触安全,也将近二十年左右的时间,在整个感触里面,其实安全是存在一个天平的问题,很多时候我们希望告警比较少,但又不希望有漏洞,我们希望业务优先但又希望安全第一,我们希望用更少的成本又希望安全整体防御做的更好。

在整个技术迭代过程中可以看到,原来出现了很多安全产品,但这些安全产品有时候不能完全去解决客户问题,在这个情况下怎么办?堆人。但人是不是一个最优解?很多,包括后面会讲到一些case,我们铺了很多产品不够人去凑,但人的成本持续上升,很难通过人去填补最后一公里。所以我们就在看,围绕着安全现在这样一个痛点现状,我们大模型能否带来这里面的变化,我们把AI作为一个工具,我们核心分析了痛点,看大模型能不能解决。

大模型我总结了几个点,第一个,就之前人工智能技术有更强的理解指令的能力,这里我认为是两层:一是本身为软件工程,对机器理解的指令更强;二是人工智能为拟人化的学科,本身更接近于跟人的对话。第二个,理解意志。就是它有更强的泛化能力,所以我们在安全很多的业务很难做到非常标准的SOP。所以我们是希望掌握一些知识之后还有更强的泛化能力。第三个,具有更强的COT能力,因为很多安全任务不是一个简单的问题,其实是一个复杂问题,所以在很多安全任务处理过程中需要加一个复杂问题把它拆解成更加简单的问题、多个问题,大模型思维链的问题本身比较适合做安全相关任务。第四个,有快速的学习成长跟复制的能力。很多安全行业里面,人的经验复制是很难的,如何从数据驱动到知识驱动,到变成一个平台级的能力,这个层面我觉得是大模型对这个行业来说很大的价值。

所以围绕着上面所有,我认为人工智能可以填补这里面的鸿沟,建立起一座桥梁之后,向左可以提高我们整个产品质量,向右可以提高整个服务的能效。所以我们不断地在思考、在探索,在具体的每个业务链上到底有什么样的安全问题。

在另外一个层面,刚才余总也介绍到,大模型本身偏向于是人的大脑,偏向于类似于咨询专家。但我们更希望,具体的一些咨询专家能不能动手帮助完成所有任务,所以我们这上面的思考是通过智能体的放,通过连接下层原来的产品,围绕着上述业务场景构建相关智能体,融入原来的安全体系。

所以这里我想抛一个观点,新的技术出现不是去解决新的问题,而是更多和原来产品进行结合,解决原来传统解决不好的问题,这是王道、是正道。另外,很多时候对于大模型来说,是不是可以提高很高的效率?在这个点上,我原来跟很多业内专家去聊,其实它提升的是机器做不好的、需要人介入的这一块的工作效率,对于现在大模型本身推理和各方面性能原因,原来机器性能已经这样,在机器性能上再叠加,这在当前技术阶段不是特别成熟。

第二个层面,在整个AI这一块,我在很多客户聊,大模型是不是很多原来解决不了的问题现在都可以通过人工智能来解决了?其实远远不够,我们的梦想非常高,但大模型现在还在一个技术的爬坡阶段,有很多问题,无论是幻觉问题、性能问题、指令遵循问题等等一系列,并不是在所有任务上都能处理得很好,但不能低估了这个技术未来发展空间。所以当前阶段要看有哪些痛点,大模型当前阶段最合适做什么工作,主编边走边爬坡,边跟现在的业务结合,给现在业务痛点带来相关价值。

过去我们内部做了很多头脑风暴,思考现在有什么样的痛点,大模型能否解决什么问题,如果可以,我们就开始组织预演,组织预演可以,然后工程化,工程化再可以给客户一个持续的优化过程。所以我们其实做了好多好多的尝试,这里面有很多也是失败了,包括最早的时候我们想说原始流量是否可以直接丢给大模型,大模型是否能够独立针对于大型的软件工程,然后进行源代码的挖掘,包括能不能做全自动化复杂场景的渗透。刚才我说的这个场景分别代表了大模型现在的三个缺陷。这里不展开详细去聊这个话题了。

实践过程中有几个点做的还可以,第一个是安全运营相关的场景,安全运营,刚才两位专家也提到,我们越来越关注安全,整个法律体系的构建越来越完善,采集到的日志越来越多,形成的告警越来越多。第二个是我们对手整个攻击越来越智能化、自动化,包括互联网上攻击攻防之间的博弈越来越强烈,所以我们其实在现在发现告警越来越多,我走访了很多客户,一天告警可能在几十万到几百万,但是一个工程师一天大概只能处理个一千个左右的告警,所以我看了很多客户招了几十个人专门做安全运营,但是几十个人,假设我们要把所有的日志告警分析的话,远远不够。我们在思考大模型在这个点上可以解决很好的问题,因为它本身的分析逻辑、它的技能是可以相对的通过一些知识经验传递的方式给到大模型。但这一块,就不展开讲了,因为前面两位专家主要是围绕这个话题来讲。

大家对于安全运营期待的第二点是未知威胁的发现。今年8月份我们团队去BlackHat(全球一个顶尖的黑帽子大会),当时做了一个分享,就是利用大模型进行威胁狩猎。这个相关技术成果在2024年国家网络安全宣传周上进行了公布,这个赛道我们也是拿到了第一名。因为大模型有比较强的泛化的能力,对于原来很多规则都是从已知到已知问题的发现,但是大模型可以在一定程度上做的一个已知到未知的发现,通过这样的方式极大提升了我们整个狩猎能力包括过去很多APT的线索,通过这样的方式得到了有效的产出。

这些相关成果我就不展开讲了,因为文字比较多,全部阐述清楚需要比较长的时间。

前面讲的东西都偏向安全运营,后面讲数据安全相关的东西。业界做数据安全国内已经推了很多年,但整体落地存在挑战,这里本身有数据安全跟业务更加连接,跟业务更加相关,不同客户整个数据安全需求也不一样。另外一个层面,过去很多传统技术无法很好的支持数据安全的落地,比如分类和分级,过去客户侧结构化数据有不同的业务类型和不同程序员开发,数据库涉及方式不一样,表字段命名不一样,很难通过原来通过规则或者关键字的方式形成一套识别的工具,我们过去看过很多数据分类分级的产品,识别率是比较低的只有对于他认识的,之前做过关键词这类的识别的比较高,相对业务更新一点或者整个数据库设计、命名有一些特殊性或者有其他差异就识别不出来。

围绕这个,就是我画的图,前面产品,后面堆人,通过这样的方式堆了很多人,数据分类分级,我们知道很多客户非结构化数据,然后一个数据库可能就几千张几万张表甚至十几万表,或者一个客户现场,一天一个人,分析的大概也是差不多一千个。

我们有一个运营商的客户跟我们说了一个事情,说我这边有1500万个字段,能不能做相关的数据分类分级。用传统的方式,不知道大家有没有概念,但做了计算,如果按照传统的方式,大概需要把两到三个人从实习阶段直接干到退休。我们去推动这个点,我觉得是打开数据安全的基础,我们也做了很多实践,其实本身是对于自然语言的理解,结构化数据里面本身字段表之间有关系,所以我们通过AI的方式让它自动化的去推测每一个字段里的含义,并且归到相应的内容。这里面我们识别到的准确率,其实比人工专家还要高,因为专家有时候是带情绪的,有时候不是理性的,认为这一秒应该分到这里,下一秒做类似工作认为应该在另外一边,整个思维更加跳跃。

在具体案例里面我们做了很多的客户实践发现,整体效率提升30倍左右,虽然这里面百万个字段除1000个字段,10万字段除以1000个字段,效率提升不仅30倍,但因为整个项目交付有其他环节,所以我们整体算下来大概有30倍效率的提升。这后面是具体的项目,我不展开讲了。

刚刚讲的是结构化数据,数据安全里面非结构化数据,过去这一块也是老大难的问题,因为我们肯定知道有很多终端的DLP包括网络的DLP去针对于文本的内容进行识别,过去DLP的初代、二代更多是通过一些文件的格式、编码、关键词,后面又增加了一些NLP的技术,其实整体的识别率是很低的,误报率很高的。

今天是安全场,在座很多人可能是知道这一块的现状,所以我就不展开讲了。大模型本身有很强的文本理解能力、有很强的总结归纳的能力。所以我们对于不同的业务数据进去之后,这边分析完一个文档之后,认为是一个员工工资表,所以认为是一个4级文档。后面分析完认为是一个技术设计文档,所以属于4级高敏感等等。通过这种方式,原来是把人的思维抽象成了一个规则,而现在是用借助人的思考方式、阅读方式、总结归纳的能力让它去识别相关的信息。所以我认为在过去原来传统技术叠加是一代二代三代,大模型在这个点上的价值是跨代的。如果有兴趣后面再详细交流。

关于API安全也是一样,在整个API安全这一块也是围绕数据安全这几年比较火的一个点,过去API安全里面存在一些问题,比如API接口识别的准确率,包括API脆弱性的一些识别以及研判能力,包括API接口调用的敏感数据以及敏感数据所对应的行为事件所分析出来的一些异常行为之类等等安全相关的维度,但过去在这里面处理的都不是特别好,然后我们通过让大模型去做API的提纯,包括做异常行为的分析。这是一个真实的例子(PPT图),央企的例子,通过这样的方式识别到真正某一个IP在夜间拖取相关数据大概达到多少条,API的安全其实有很多的产品功能,但是我认为对于客户来说,这是最最关心的,就因为API安全建好之后,到底有谁通过我这个API接口偷数据和爬数据。

最后一页我快速讲一下,整个数据大模型这一块针对于安全,包括大模型本身技术当前现状,我们认为还是在爬坡阶段。过去我们提到的是偏向于一个智能问答到现在的一个辅助驾驶,可以做大部分工作,最后人工做一些check。我相信在不远的将来,在一些关键的任务上可以实现无人驾驶的效果,因为目前我们在一些新的领域上已经看到了,已经实践出来了,后面找机会再跟各位再做进一步的汇报,我的汇报就是这些,谢谢大家。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:梁斌 SF055