AI大模型席卷全球,为各个行业带来了颠覆式创新机遇,同时也打开了未知的潘多拉魔盒。随着大语言模型能力的不断增强和适用范围延伸,大模型本身带来的隐私泄漏、数据安全等问题越发成为各大厂商关注的核心,引发了各界更多的思考与发声,今天我们邀请到了王吉伟频道创始人、AIGC&超自动化分析师王吉伟做客实在智能会客厅,开启深度对话的共同探索之旅——Agents如何破解LLM应用安全谜题?
不少企业早已感受到了大模型惊艳四座的“阳面”能力,将其作为提升工作效率的工具,但对于大模型安全保护的“阴面”疑虑也是记忆犹新。
3月份ChatGPT发生了用户隐私数据泄露事件,OpenAI声明由于开源代码库中存在一个漏洞,使得部分用户能够看到另一个用户的聊天标题记录,并把ChatGPT短暂下线紧急修补了此漏洞。此事件,让大家认识到大模型并不是“大安全”。
试想如果不加限制地使用LLM,随着更多敏感数据被传输LLM服务器,并被用作模型训练数据集,也就意味着竞争对手通过随意的聊天对话就能获悉了你的核心数据。如果竞对用这些数据建模对你进行降维打击,会对企业会造成多大损失?
“数据泄露会造成严重的企业的信任度降低,让业务连续性受到影响,并可能会带来一定的法律责任。”王吉伟如是说。
实在AI Agent-个人PC数字助理
- 全球首个“实在RPA-Agent”生成式数字员工
- “你说PC做,所说即所得”
- 只需一句话,帮你操作电脑完成各种工作
实在TARS-Agent智能体应用加速落地赋能行业安全运营
与此同时,随着技术的不断发展,LLM的应用也进入到了AI Agent智能体阶段。
AI Agent正在快速与许多领域融合,超自动化领域尤为如是。目前厂商们都在积极引入或投入到自研大语言模型上去,并基于这些大语言模型打造自己的Agent,以从安全、易用性等各方面提升超自动化的应用效率。而实在智能在今年8月已发布在业界首发基于大模型的Agent智能体产品,即TARS-RPA-Agent——则是基于“TARS+ISSUT”双模引擎,有“大脑”,更有“眼睛和手脚”的超自动化智能体。
实在TARS-Agent是由AI驱动的程序,当给定目标时,能够自己创建任务、完成任务、创建新任务、重新确定任务列表的优先级、完成新的顶级任务,并循环直到达到目标。只需输入一句话或者更简单的指令,就能通过理解与分析获悉用户的意图,进而规划并执行一系列任务,最终输出详尽而具体的答案。不仅让输入更加简单,也在一定程度上提高了安全系数,有效避免了数据泄露的可能,还能最大限度发挥LLM的能力。
当然,超自动化Agent在数据安全方面远不是减少提示词输入那么简单。出于安全考虑,企业都希望在应用LLM时过滤内部敏感信息。以实在智能与湘财证券共建的财经行业大模型TARS-Finance-7B为例,一方面,金融领域的数据分散在各个金融机构,通用大模型缺少金融数据进行训练,金融专业知识不足;另外一方面,如果从底层开始训练大模型,所需要投入的算力成本非常高,比如千亿级别的通用大模型,训练一次需要付出几千万的成本。同时,金融是强监管行业,安全合规是大模型落地的前提条件和重要保障,金融大模型安全合规既需要监管政策的约束,更需要大模型企业自身的主动作为,防范大模型的潜在合规风险成为不少类似金融行业落地应用的刚性需求。
想要实现LLM的安全使用,需要分析数据泄露的相关因素。从已经发生的实践案例来看,造成LLM数据泄露的主要原因,大概有这几点:用户隐私泄露、内部安全风险、系统漏洞。
理论上,只要我们针对性的解决这几个问题,LLM的安全使用也就不在话下。现在,很多引入LLM的企业基本都建立了风控机制,按照LLM使用流程的先后顺序,这些机制包括加强安全培训、定期审查系统、加密处理敏感信息、使用可靠的人工智能服务提供商、建立应急预案等。
王吉伟认为,在这些安全措施中,“使用可靠的人工智能服务提供商”这一点最为重要,毕竟引入一个具备高度安全机制的LLM会事半功倍。其他几点也能起到一定的作用,但多是为了防患于未然以及事后补救,并且其中的很多人为因素难以避免。
实在RPA Agent智能体创新解决方案,有效避免LLM数据泄露
当然,凡事皆有利弊。虽然对话式交互的生成式AI会造成敏感数据泄露,但AI和自动化的使用,整体上正在降低数据泄露的成本。随着大语言模型技术在各行各业的应用越来越多,传统的安全工具、经验、策略将失去效力,企业急需重新构建能适应智能化时代的安全体系。
实在智能在服务众多大型企业客户的LLM实际落地中扮演着重要角色,着力打造“更有效、安全、可信任、可落地”、提供隐私保护和数据安全防护功能的创新解决方案,即业界首发的实在RPA Agent智能体用以保障用户数据安全,在超自动化领域通过AI Agent破解LLM安全谜题、提升安全系数。
实在RPA Agent智能体是基于实在智能自研垂直领域大模型TARS构建的RPA\超自动化智能体,是一种能够自主拆解任务、感知当前环境、执行并且反馈、记忆历史经验的RPA全新模式。为了让用户更安全的使用AI智能体,实在RPA Agent智能体在TARS大语言模型和RPA工具包都设置的多重安全机制。
TARS大语言模型的安全机制侧重于敏感数据、内部政策和提示检查。在预训练或SFT阶段通过数据处理和文本分类算法删除敏感数据,在大模型的输出结果之上叠加一个辅助安全模型,RLHF(人类反馈强化学习)阶段使用内部策略,检查用户查询并添加安全提示等。这样就能保证用户输入内容的多层过滤,防止敏感数据的外露。
实在TARS-Agent中的LLM安全机制
TARS大语言模型基于充分细致的语料收集和清洗、数据处理及标注,超千亿Tokens的预训练语料和超百万条指令微调数据,实在智能独立完整复现大模型构建的预训练、指令微调和RLHF三阶段,使大模型具备完整能力。同时实在智能自主研发用于中文不当言论判别和生成终止的Detoxify系统,也提升了TARS的安全性和无害性,让大模型“既懂事,又懂法”。在RPA工具包上,TARS-RPA-Agent安全机制侧重于机器人授权继承和指挥官分配或分发授权:
实在TARS-Agent中的RPA安全机制
实在TARS-Agent中的RPA安全机制“利器攻利器”
阻碍广大企业应用大语言模型(LLM,Large Langeuage Models)的诸多因素中,无疑数据安全是最重要的。对于开发者和企业而言,大模型的开发与部署过程需要经过严格的审查,对数据的处理要严格遵循隐私保护原则,确保每一位用户的信息都得到妥善保管,确保其不会对用户和企业造成伤害。
目前市面上的数据安全管理软件,功能丰富但应用复杂且价格不菲。为了LLM数据过滤这种单一应用场景而斥巨资购买全数据监控软件,显然过于浪费,并不是LLM数据过滤的最优选。事实上,这类需求更适合LLM技术供应商基于大语言模型技术路径去做。
需在其LLM产品体系中添加隐私数据过滤功能,为企业用户开放不断更新或增删敏感数据库内容的权限。这种模式,不仅能为本身大语言模型提供过滤安全功能,还能用于企业所使用的第三方大语言模型,能够在最大限度保护员工创造力的同时做好公司敏感数据的防护。这样,企业就能实现花一份钱去保障更多LLM的安全。
实在TARS-Agent中的RPA安全机制正是采用这样的解决之道:
首先,RPA机器人的授权均继承自创建机器人的用户,同时其权限范围也和所在账号的权限是一致的,不会获取超出其权限范围的信息;
其次,RPA指挥官可以分配和控制TARS-RPA-Agent的授权;
第三,在开发过程中,实在智能设计了一个易于处理敏感数据的模块,使得敏感数据更易于通过配置、删除、导入等方式进行设置。除了LLM和RPA,TARS-RPA-Agent还包含其他辅助模块,其中的安全机制侧重于内部知识库认证、内部文档访问以及用户确认。
有了实在智能面向LLM、RPA和辅助模块的多重安全机制,在十几层防护墙的共同作用下,想要泄露隐私数据都很难,彻底杜绝了前文所讲的人为泄露数据的情况。再加上应对系统漏洞的相关安全机制,足以把LLM应用安全打造得固若金汤。当然,这还是直接使用TARS大模型或者调用API的情况。如果你是现金流充沛的企业,采用本地部署大语言模型的方式,安全情况会更上一层楼,这种整体安全解决方案非常适用于一些大型企业的LLM应用安全过滤。
如果你的企业正在为LLM的应用安全及预算而发愁,不妨试试实在智能的这种创新安全解决方案,会让你眼前一亮。实在智能从最初的大语言模型产品布局开始就将企业客户敏感数据的安全性防护列入了产品的SOP设计当中,目前已经为实在TARS垂直类大语言模型上了一道敏感数据过滤网,能够在源头上将企业客户的敏感数据进行过滤后再输出给到安全的数据,同时提供给企业客户一个可以对敏感数据库进行维护的权限,真正实现从企业客户内部就轻松实现数据安全的把控,让企业真正放心将智能体引入到整个企业数字化转型的各个阶段。
当前的大模型发展得尚不成熟,面临着诸多安全隐患与风险。随着深度学习技术的发展和研究的深入,未来大模型的攻防将在动态抗衡中不断升级,大模型需要应对的新型安全威胁将不断涌现和升级,建立完善统一的大模型安全评估框架、探索有效的防御机制、实现 AI 大模型安全监管和可控生成,以及促进大模型安全生态的建设等任务迫在眉睫,实在智能已在率先领跑的道路上迈着坚实的步伐,帮助企业解决数据安全和使用成本问题,助力越来越多的企业实现安全智能化转型。