近期,三星公司因数据安全和隐私问题,暂时禁止员工使用如ChatGPT、Google Bard和Bing等流行的生成性AI工具。这一禁令源于上个月三星内部敏感数据意外泄露给ChatGPT的事件。根据彭博社看到的一份备忘录,这项禁令是暂时的,将持续到实施安全措施以确保使用生成性AI工具的安全环境,从而提高员工的工作效率和效能。
这项禁令涵盖了公司所有的设备,包括电脑、平板和手机,以及不属于公司但在内部网络上运行的设备。除了ChatGPT,其他使用类似技术的生成性AI服务,如微软的Bing和谷歌的Bard,也被包括在禁令之内。
推动这一决策的主要担忧之一是AI系统使用的存储数据可能存放在外部服务器上,这可能会导致数据公开。检索和删除此类数据面临重大挑战,难以确保数据隐私和安全。三星在4月份进行的一项内部调查显示,65%的参与者认为使用生成性AI工具存在安全风险。
三星正在开发自己的内部AI工具,用于软件开发和翻译,以期为员工提供一个更安全的环境,使他们能够在不担心数据隐私问题的情况下使用AI提高工作效率。自去年11月推出以来,OpenAI的生成性AI聊天机器人ChatGPT在全球迅速流行。人们依赖它提供从基础研究到商业任务的文本答案。然而,AI技术的兴起正面临严重障碍。除了专有数据泄露给服务外,还有人指出可能违反数据隐私、版权侵犯和ChatGPT回应中的不准确性。
包括LG和内存芯片制造商SK海力士在内的韩国几家大型科技公司,正在努力制定使用生成性AI工具的指导方针。包括花旗银行、德意志银行、美国银行、高盛、富国银行和摩根大通在内的主要银行最近也限制了员工使用ChatGPT。
OpenAI一直在努力解决围绕生成性AI工具的一些更具争议性的问题,包括引入新的隐私控制。最近,在OpenAI公布了解决数据隐私问题的计划后,ChatGPT服务在意大利恢复。