OpenAI+谷歌工程师联合发声,呼吁加强「高级人工智能」监管,对人类社会存在巨大潜在风险

互联网6月5日报道丨近日,好几位 OpenAI 与谷歌的 AI 工程师「反水」背刺自家公司。7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名

互联网6月5日报道丨近日,好几位 OpenAI 与谷歌的 AI 工程师「反水」背刺自家公司。7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工在网上联名发布一封面向 AI 安全监管的公开信,共计 13 名工程师签署了这封公开信。旨在对正在发展的「高级人工智能」的潜在风险以及当前缺乏对 AI 科技公司的监管表示担忧。

这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。

信中写道,「人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和风险水平的信息讳莫如深」。公开信认为,不能指望这些带有商业利益性质的公司主动自愿地分享这些对人类社会负面的信息,因此呼吁内部人士站出来发声。

由于缺乏有效的政府监管,这些现任和前任员工成为能够让这些公司对公众负责的少数群体之一。然而,由于公司制定了严格的保密协议制度,员工被限制发声,只能向可能并未妥善处理这些问题的公司反映问题。传统的举报人保护措施并不适用,因为此类措施侧重于违法行为,而目前令人担忧的许多风险尚不受监管。

员工们呼吁,AI 科技公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体包括:

  • 不得创建或执行阻止员工对风险相关问题提出批评的协议
  • 提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧
  • 支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧
  • 在其他程序失效后,避免对公开分享风险相关机密信息的员工进行报复

在上周,业界领先的 AI 科技公司 OpenAI就被报出丑闻,通过隐私保密条款,限制员工发声并威胁取消其既得的合理股权权益,并要求员工签署严格的保密协议,在离职之后依然限制他们批评公司。随后 OpenAI CEO 奥特曼对此事道歉,并取消了这一措施。

标签: