近期,OpenAI公司对其政策页面进行了更新,悄然移除了对军事应用的明确禁令,包括“武器开发”和“军事战争”等。该公司将这一变化描述为使文件“更清晰”和“更易读”的一部分,强调了一个普遍的原则:避免造成伤害。
在变更之前,OpenAI的政策明确禁止了某些军事和战争相关的应用。但在变更之后,这些明确的禁令被移除,取而代之的是一个更通用的指令,即避免造成伤害。这种变化引发了争议,并引发了关于公司与军事实体合作立场的疑问。
尽管OpenAI的发言人Niko Felix强调了不造成伤害的重要性,但人们对新政策的模糊性表示了担忧。批评者认为,从明确的禁令转向基于合法性的更灵活的方法可能会对AI安全产生影响,可能导致操作偏见和增加伤害,特别是在军事环境中。
包括Lucy Suchman和Sarah Myers West在内的专家指出,OpenAI与微软的紧密合作是影响公司政策演变的一个因素。微软是主要的国防承包商,已向语言模型制造商投资了130亿美元,这为讨论增加了复杂性,尤其是随着全球军队对集成大型语言模型如ChatGPT的兴趣日益增加。
网络安全公司Trail of Bits的工程总监Heidy Khlaaf强调了潜在的伦理问题,指出转向更注重合规的方法可能会影响AI安全。移除明确的禁令导致了关于OpenAI愿意与军事实体合作的猜测,批评者认为这是公司对不与军队做生意立场的默许削弱。