在发现员工将敏感代码上传到平台后,三星电子禁止员工使用流行的生成人工智能 (AI) 工具,如 ChatGPT,从而阻碍了此类技术在工作场所的传播。
这家总部位于韩国水原的公司周一通过彭博新闻社看到的一份备忘录,将新政策通知了其最大部门之一的员工。该文件称,该公司担心传输到 AI 平台(包括 Google Bard 和 Bing)的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。
该公司上个月进行了一项关于内部使用 AI 工具的调查,并表示 65% 的受访者认为此类服务存在安全风险。备忘录称,4 月初,三星工程师将内部源代码上传到 ChatGPT,不小心泄露了内部源代码。目前尚不清楚这些信息包含什么内容,三星代表拒绝置评。
“内部和外部对 ChatGPT 等生成式人工智能平台的兴趣一直在增长,”三星告诉其员工。 “虽然这种兴趣集中在这些平台的实用性和效率上,但人们也越来越担心生成人工智能带来的安全风险。”
三星只是最新一家对这项技术表示担忧的大公司。今年 2 月,就在 OpenAI 的聊天机器人服务激起人们对该技术的兴趣风暴仅几个月后,包括摩根大通、美国银行和花旗集团在内的一些华尔街银行就禁止或限制了它的使用。出于对隐私的担忧,意大利也禁止使用 ChatGPT,不过它最近几天改变了立场。
三星的新规定禁止在公司自有的电脑、平板电脑和手机以及内部网络上使用生成式人工智能系统。它们不会影响公司销售给消费者的设备,例如 Android 智能手机和 Windows 笔记本电脑。
三星要求在个人设备上使用 ChatGPT 和其他工具的员工不要提交任何可能泄露其知识产权的公司相关信息或个人数据。它警告说,违反新政策可能会导致被解雇。
三星在备忘录中表示:“我们要求您认真遵守我们的安全准则,否则可能会导致公司信息泄露或泄露,导致纪律处分,甚至包括解雇。”
与此同时,该公司正在创建自己的内部人工智能工具,用于翻译和总结文件以及软件开发。它还在研究阻止敏感公司信息上传到外部服务的方法。上个月,ChatGPT 添加了一种“隐身”模式,允许用户阻止他们的聊天被用于 AI 模型训练。
“总部正在审查安全措施,以创造一个安全的环境,以安全地使用生成人工智能来提高员工的生产力和效率,”备忘录说。 “但是,在准备好这些措施之前,我们暂时限制生成人工智能的使用。”