银行、科技公司都害怕尝到信息泄漏的苦头,因此对人工智能谨慎远观。
财联社5月3日讯(编辑 马兰)据一份内部备忘录显示,三星本周推出了一项新政策,要求员工不得在工作场所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。
据三星称,4月时,该公司的一名工程师将内部源代码上传到ChatGPT后,意外泄漏了内部源代码。这让三星担忧其数据将通过人工智能平台最终落入其他用户手中。
(资料图片)
目前,三星员工被禁止在公司设备上使用人工智能工具,包括电脑、平板电脑、手机等。但员工仍可以在个人设备上使用人工智能工具,不过仅限于与工作无关的事情。
备忘录中还强调,要求员工认真遵守安全准则,若违规并导致公司信息或数据泄漏的话,员工将得到纪律处分,情节严重者将被解雇。
三星补充称正在创造一个安全环境,以让生成式人工智能可以在没有风险的情况下,帮助员工提高生产力。但在此之前,人工智能将被限制使用。
与此同时,三星正在研发自己的人工智能工具,供员工完成软件开发和翻译等工作。
保持距离
三星并不是第一个禁止员工使用人工智能工具的公司。摩根大通、美国银行和花旗等大型银行早已对人工智能下了禁令,是首批限制员工访问ChatGPT的公司。
这些银行同样担忧第三方软件访问敏感信息带来的风险,并害怕人工智能可能将银行的财务信息泄漏出去,导致更严格的监管行动。
此外,1月时,科技巨头亚马逊也同样出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。
OpenAI在4月时称将出台新措施,解决数据泄露问题,比如允许用户禁用聊天记录。OpenAI称,在禁用聊天记录后,ChatGPT会将新对话保留30天,公司只会在需要监控滥用情况时才会对对话进行审查,然后永久性删除。
谷歌则表示将通过自动化工具帮助删除用户的个人身份信息,来改进Bard的隐私安全。谷歌还保证,用户与Bard的对话将由专家进行审阅,并与用户的谷歌账户分开保存3年。
关于我们| 客服中心| 广告服务| 建站服务| 联系我们
中国焦点日报网 版权所有 沪ICP备2022005074号-20,未经授权,请勿转载或建立镜像,违者依法必究。