千人联名要求“暂停巨型AI实验”在网上经过一天的发酵,各方声音都已经涌现出来。
继LeCun之后,吴恩达、田渊栋等一众AI大牛也发文公开反对“千人联名”。
吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:
它(GPT-4)在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。
随后田渊栋也转发并附议,称“我不签暂停令”,并将AI的发展比作囚徒困境:
一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。
应该换个角度继续向前看,更好地理解 LLM,适应它并利用其力量,感受热度。
在吴恩达的帖子下面,meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同。
对于这个暂停令,还有一些领域大佬“妙语连珠”,直接yygq了起来:
本特利学院的数学教授表示,那既然这样,我呼吁暂停碳排放6个月,这样我们就可以在此期间解决气候变化问题。
谷歌大脑的高级研究员Yi Tay直接调侃,如果是把那些在网上胡乱讨论大语言模型(LLM)的人禁言6个月,我会签的。
而处于这场讨论中心的无疑是OpenAI,CEO奥特曼今早也发了一条“展望未来AGI”的推文,疑似对昨天这场风波做出回应:
一个好的AGI应该具备这三个特点:
1、对齐超级智能的技术能力;2、大多数*AGI之间的充分协调;3、一个有效的全球监管框架。
01、“潘多拉的魔盒”已经打开
在吴恩达的帖子里,除了上面提到的应用价值外,他还从竞争、风险以及AI发展的角度详细阐明了“为什么要反对暂停令”。
首先是竞争方面,让第三方暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策。
然后是AI风险,目前很多流媒体平台渲染的“AI公司疯狂发送不安全代码”是不正确的,绝大多数AI团队都十分注重人工智能的安全问题。
最后再回到“6个月暂停令”本身,这并不是一个非常切实可行的建议,是在扼杀AI进步。
要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行。
对此,有网友也同样聚焦“6个月的暂停”呼吁,称“要求暂停”并不能让诉求更好地被解决:
暂停令即使出于好意,也会让更微妙、更有建设性的对话变得更难进行。
当然也有人质疑起了马斯克、Bengio等人发起“暂停巨型AI实验”的动机,将其归结为巨头之间的利益之争:
对于发起者以及签署者们的心理,网友直接锐评道:
签署暂停是因为他们不信任人工智能吗?不是,是因为他们不信任人类。
也有网友直接将AI发展比作潘多拉的魔盒:一旦打开,一切都不可避免了。
02、利益之争?
虽说我们一众“看客”并不清楚“暂停令”的发起者或签署者们是不是有什么私心,但仅仅将这条呼吁归结为利益之争肯定是不全面的。
那为什么他们要发起这项呼吁?为什么非得是暂停六个月呢?
先是为什么要发起这项呼吁,在那封公开信“暂停巨型AI实验”已经有讲明一些原因。
而为什么非要暂停六个月,或许可以从赞同的声音中窥探到一些其他答案。
赞成的网友这边,有人称正是因为AI发展像“潘多拉的魔盒”,但目前还没有被打开,还有挽救的余地:
任何具有实验室逃逸潜力的研究都应该受到国际监管,我们应该尽力去挽回,但如果你释放了一些无法挽回的东西,我们就有麻烦了。
还有一种观点是,目前的AI发展成果已经足够人类使用,暂停几个月也无妨:
GPT-4够用了,仅仅是优化它和扩展插件就能满足至少几年的需求,我们现在需要更多的时间来理解AI如何与互联网互动,并且我认为测试越来越强大的AI是危险的。
当然在这样一群争论中,还有一股清流,无所谓“AI安全”,他们自称降临派:
有高赞微博直接明晃晃地称:
我们羰基生物本来就是开启硅基生命的钥匙罢了。
是对人类太失望了吗(Doge)
对于这长达一天多的“是否暂停巨型AI实验”之争,网友一针见血地总结:
有的人看到利益,有的人看到文明,有的人看到热闹。
但无论如何,对于“拯救派”们来说,依旧有几个问题不容忽视:
人工智能安全的问题该如何解决?
暂停AI发展是明智之举吗?还有没有其他方法?
对此,你怎么看?