Salesforce最近推出了一个优先考虑隐私的生成式人工智能系统。该系统被设计为“忘记”它通过大型语言模型(llm)处理的数据。
第三波生成式人工智能以数字“代理”的形式出现:智能系统,几乎是企业用户,可以在没有人为干预的情况下理解和回应客户的询问。
Salesforce的首席执行官马克·贝尼奥夫称这是他所见过的“最大突破”。但他到底是什么意思呢?
在最近的一次活动中,Salesforce负责产品和行业的执行副总裁帕特里克?斯托克斯(Patrick Stokes)表示:“对能够帮助你加快工作速度的东西的需求很大。”
他补充说,这个新的人工智能系统是专门设计来帮助公司避免开发自己的法学硕士的成本和风险。
“他们不想DIY自己的人工智能,”他解释道。“成本太高,公司无法以可持续的方式做到这一点。”
到目前为止,公司所忽略的是,这种生成模型只是系统的一个组成部分,就像人类的大脑或汽车的引擎一样。而大脑,正如斯托克斯解释的那样,“除非它有胳膊、腿、眼睛和耳朵,否则它不是很有用。”
然而,尽管人工智能带来了机遇,但对数据隐私的担忧已经影响了它的发展和适应。
Stokes解释说,Salesforce并没有构建最强大的法学硕士,而是专注于创建能够安全地连接数据和操作的人工智能代理。
这解决了对隐私和安全的担忧,这些担忧通常会阻止客户在工作场所使用或依赖生成式人工智能。
“我们并没有试图建立一个更强大的法学硕士,”斯托克斯说。“我们想要实现的是将数据和行动联系起来,因为如果我们能做到这一点,我们就能以一种驱动真正价值的方式利用它。”
Salesforce英国和爱尔兰首席执行官扎赫拉?巴罗洛卢米也谈到了人们对人工智能应用日益增长的担忧,尤其是在隐私和安全方面。
“人们很害怕,”她说。归根结底,关键是要能够信任人工智能。把所有东西都集成到一个平台上,加上公司的记忆和护栏,让人们对如何使用生成式人工智能感到更加自信和安全。
Bahrololoumi说:“客户正在考虑他们可以赋予人工智能代理什么角色。”他指出,已经创建的1000个人工智能代理正在帮助公司提高生产力,减少倦怠。
为了解决隐私问题,Salesforce在其生成式人工智能系统的底层实现了一个不可或缺的“信任层”。
Stokes是这样描述它的:“它会确保当你问一个问题时,它会检索一些数据作为额外的上下文添加到提示中,它会确保它添加的数据是你作为用户首先能够拥有的数据。”
他进一步强调,“你可能在工作中使用过ChatGPT,也许不应该这样做,因为你可能会泄露敏感数据。”
他补充道:“进入法学硕士课程的所有内容都没有被保留下来……我们在每一次电话会议上都给法学硕士课程提供了它需要的一切,然后它就忘记了。”
“我们在需要的时候获得数据,我们将其添加到提示中,我们给法学硕士提供上下文,然后它就会忘记它”,这与试图训练法学硕士随时了解你的业务的一切非常不同。
这是一个更安全的环境,因为你可以维持对环境的治理。”
这种“零保留”方法避免存储LLM处理过的任何数据。