OpenAI军事领域禁用规则删除,“潘多拉魔盒打开”?
科技
科技 > 人工智能 > 正文

OpenAI军事领域禁用规则删除,“潘多拉魔盒打开”?

凤凰网科技讯 北京时间1月13日 OpenAI突然更新其使用政策,为其技术应用于军事领域打开了大门,过去其明确禁止将技术投入到“军事和战争”为目的的应用中,而今这样的话语已经消失。

早在1月10日已有外媒关注到这一变化,技术领域中的政策更新是会经常随着产品发展和管理方针的更变而变化的,OpenAI亦是如此。

政策变更前

政策变更前

政策变更后

政策变更后

显然从官网公布的界面来看,整个事情都被重写了,过去直接否定“军事与战争”的禁令被改写换成了更加模糊的词汇——“不要伤害任何人”,后者这种说法显然是更加宽泛和模糊的,但OpenAI的政策制定者显然不这么认为,该公司在声明中表示,虽然“不要伤害他人”这一定义较为宽泛,但在许多情况下很容易理解。

但从读者感官而言,过去那种明确反对从事军事和武器应用的要求,显然已经消失。

综合来看,OpenAI正在转变其“不与军方做生意”的立场是毋庸置疑的,这种变更或会为军事格局带来不小的变化,尽管如今Open AI所提供的内容不能直接伤害或杀害任何人,也并不具备任何的杀戮能力,但向军队“开放拥抱”,依然会带来许多令人担心的隐忧。

至少如今的OpenAI已经存在为军队从事杀戮任务助力的可能,或至少在一定程度上可以帮助军队提升其杀戮能力。

比如像 ChatGPT这样的大语言模型可以帮助军事队伍进行代码编写或处理采购订单等。此外,直接支持美国作战行动的国家地理空间情报局也曾公开猜测,ChatGPT可以帮助人类分析师进行某种工作或分析某些内容。换而言之即使部分军事力量确是以非直接暴力目的使用OpenAI的,但究其根本,它帮助的对象仍是一个致命性的机构。

迄今为止,OpenAI还未公开对这次政策转变发布其明确态度,而从OpenAI的禁止用途中完全删除“军事和战争”内容观之,该公司至少对为军事客户提供服务持开放态度。(作者/尹明顺)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载