复制成功

分享至

主页 > 比特币 >

图灵奖得主吵起来了,LeCun:Bengio、Hinton 等的 AI 灭绝论是荒谬的

2023.10.30

来源:机器之心

图灵奖得主吵起来了,LeCun:Bengio、Hinton 等的 AI 灭绝论是荒谬的

图片来源:由无界 AI生成

LeCun 表示,绝大多数学术同行都非常支持开放式 AI 研发,但还是有反对者。

关于 AI 风险的问题,各路大佬们也是意见不统一。有人带头签署联名信,呼吁 AI 实验室应立即暂停研究,深度学习三巨头 Geoffrey Hinton、Yoshua Bengio 等都支持这一观点。

就在近几日,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,呼吁各国政府应该采取行动,管理 AI 带来的风险。

文中提到了一些紧急治理措施,例如,让国家机构也参与进来,从而防止人们对 AI 的滥用。为了实现有效的监管,政府需要全面了解人工智能的发展。监管机构应采取一系列措施,如模型注册、对举报人进行有效保护以及对模型开发和超级计算机使用的监控等。监管机构还需要在部署之前访问先进的人工智能系统,以评估其危险功能。

不仅如此,时间再往前一点,今年五月,美国非营利组织人工智能安全中心发表了一份声明,警告人工智能应被视为与流行病一样存在灭绝人类的风险,支持该声明的人同样包括 Hinton、Bengio 等人。

今年 5 月,为了畅所欲言地谈论人工智能带来的风险,Hinton 还辞去了在谷歌的工作。在一次纽约时报的采访中,他表示:「大多数人认为这(AI 危害)还很遥远。我过去也认为这还很遥远,可能是 30 到 50 年甚至更长的时间。但显然,我现在不这么想了。」

可以预见,在 Hinton 等 AI 大佬眼里,管理 AI 带来的风险是一项非常紧急的事情。

然而,作为深度学习三巨头之一的 Yann LeCun,对 AI 发展持有非常乐观的态度。对于签署关于 AI 风险的联名信,他基本上都是持反对态度,认为人工智能的发展远未构成对人类的威胁。

刚刚, LeCun 在与 X 用户的交流中,对网友的一些关于 AI 风险的问题给出了回答。

图灵奖得主吵起来了,LeCun:Bengio、Hinton 等的 AI 灭绝论是荒谬的

该网友是针对 LeCun 对文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法进行提问的,文章认为 Hinton、Bengio 等人发表联名信的行为使人们转变了对 AI 的看法,从一开始将 AI 视为辅助助手,转变为将 AI 视为潜在威胁。文章接着表示,近几个月来,观察家们在英国发现了越来越多的关于 AI 会造成世界末日的氛围。今年三月,英国政府公布了一份白皮书,承诺不会扼杀 AI 领域的创新。然而仅仅两个月后,英国就开始谈论对 AI 设置护栏,并敦促美国接受其全球人工智能规则计划。

图灵奖得主吵起来了,LeCun:Bengio、Hinton 等的 AI 灭绝论是荒谬的

文章地址:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/

LeCun 对这篇文章的反应是这样的,他不希望英国对 AI 存在宿命论风险的担忧传播给其他国家。

图灵奖得主吵起来了,LeCun:Bengio、Hinton 等的 AI 灭绝论是荒谬的

之后,就有了我们前面提到的 LeCun 与 X 用户的交流,以下是 LeCun 全部的回答:

「Altman、Hassabis 以及 Amodei 正在进行大规模的企业游说。他们正尝试对 AI 产业进行监管。而你、Geoff,还有 Yoshua 正在给那些游说禁止开放 AI 研究的人提供『弹药』。

如果你们的恐惧宣传活动取得成功,将不可避免地造成你我都认为是灾难的结果:少数公司将控制 AI。

绝大多数学术同行都非常支持开放式 AI 研发。很少有人相信你所鼓吹的末日场景。你、Yoshua、Geoff 和 Stuart 是唯一的例外。

和许多人一样,我非常支持开放式 AI 平台,因为我相信各种力量的结合:人们的创造力、民主、市场力量和产品法规。我也知道,生产安全且受我们控制的 AI 系统是可能的。我已经为此提出了具体建议。这一切都将促使人们做正确的事。

你写得好像 AI 是凭空产生的,它是我们无法控制的自然现象。但事实并非如此。它之所以取得进步,是因为你我所认识的每一个人。我们和他们都有能力打造『正确的事物』。要求对研发(相对于产品部署)进行监管,其实暗含了这样的假设:这些人和他们所服务的组织都是无能、鲁莽、自我毁灭或者邪恶的。但事实并非如此。

我已经提出了很多论据来证明你所害怕的末日场景是荒谬的。在此我就不再赘述了。但主要的一点是,如果强大的 AI 系统是由目标(包括护栏)驱动的,那么它们就会是安全可控的,因为他们设定了这些护栏和目标。(目前的自回归 LLM 并不是由目标驱动的,所以我们不要从自回归 LLM 的弱点来推断)。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

加⼊OKEx全球社群

和全球数字资产投资者交流讨论

扫码加入OKEx社群

相关推荐

industry-frontier