科技 2023-05-03 07:25

三星电子(Samsung Electronics Co.)发现员工将敏感代码上传至ChatGPT等流行的生成式人工智能(generative AI)工具,因此禁止员工使用ChatGPT等生成式人工智能工具,这给这种技术在工作场所的普及带来了挫折。

周一,这家总部位于韩国水原的公司通过彭博新闻社看到的一份备忘录,将新政策通知了其最大部门之一的员工。该文件称,该公司担心,传输到b谷歌巴德和必应等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。

该公司上个月进行了一项关于内部使用人工智能工具的调查,并表示65%的受访者认为此类服务构成安全风险。备忘录显示,今年4月初,三星工程师上传到ChatGPT时意外泄露了内部源代码。目前还不清楚这些信息包含什么内容。

三星的一名代表证实,三星上周发出了一份备忘录,禁止使用生成式人工智能服务。

三星对员工表示:“公司内外对ChatGPT等生成式人工智能平台的兴趣一直在增长。”“虽然人们的兴趣集中在这些平台的实用性和效率上,但人们也越来越担心生成式人工智能带来的安全风险。”

三星只是最新一家对这项技术表示担忧的大公司。今年2月,就在OpenAI的聊天机器人服务激起人们对该技术兴趣的几个月后,包括摩根大通(JPMorgan Chase & Co.)、美国银行(Bank of America Corp.)和花旗集团(Citigroup Inc.)在内的一些华尔街银行禁止或限制了该服务的使用。出于对隐私的担忧,意大利也禁止使用ChatGPT,不过最近几天它改变了立场。

三星的新规定禁止在公司拥有的电脑、平板电脑和手机以及内部网络上使用生成式人工智能系统。它们不会影响该公司销售给消费者的设备,比如安卓智能手机和Windows笔记本电脑。

三星要求在个人设备上使用ChatGPT和其他工具的员工不要提交任何可能泄露其知识产权的公司相关信息或个人数据。它警告说,违反新政策可能会导致被解雇。

三星在备忘录中表示:“我们要求你努力遵守我们的安全准则,如果不这样做,可能会导致公司信息泄露或泄露,从而导致纪律处分,甚至终止雇佣关系。”

与此同时,该公司正在创建自己的内部人工智能工具,用于翻译和总结文档以及软件开发。该公司还在研究阻止公司敏感信息上传到外部服务的方法。上个月,ChatGPT增加了一种“隐身”模式,允许用户阻止他们的聊天记录被用于人工智能模型训练。

备忘录称:“总部正在审查安全措施,为安全使用生成式人工智能创造一个安全的环境,以提高员工的生产力和效率。”“然而,在准备好这些措施之前,我们暂时限制了生成式人工智能的使用。”