本地视角记录硅谷,全球视野关注创新
别忘了给我们加星标 ~
2023
【资料图】
新技术追踪
BUSINESS
22字声明,350人签名
文| VickyXiao Juny 编辑| VickyXiao
自从生成式AI以势如破竹的速度席卷几乎每一个领域,AI挑战人类的担忧也越来越真实。
上次,马斯克就人工智能研究界和产业界的大佬们一起发布了一篇呼吁的公开信,呼吁全球所有实验室暂停比更强的AI模型研发,暂停时间至少为6个月。但结果被人扒出其实他为Twitter购买了1万个GPU用于推进一个全新的AI项目,极有可能正在开发自家的大语言模型。
但这一次,又一封呼吁人们要重视AI带来威胁的公开信又发出。比上一次更引人注目的是,目前生成式AI领域鼎立的三大巨头: OpenAI 、DeepMind(隶属于Google)、Anthropic都加入其中。
22字声明,350人签名
这份声明由总部位于旧金山的非营利组织AI安全中心发布,就他们认为AI对人类构成的生存威胁发出了新的警告。整份声明才22个字——对,你没看错,才22个字,全部内容如下:
尽管AI威胁论并不新鲜,但如此直白地把它和“核战争”、“大流行病”等危害全体人类的危机因素列在一起公开作比较,还是属于首次。
声明的署名部分比声明的内容长得多。
除去OpenAI首席执行官Sam Altman、DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode以外,超过350名顶级AI研究人员、工程师和创业者也加入其中,包括曾经获得图灵奖的“AI三巨头”之二Geoffrey Hinton和 Yoshua Bengio,但另一位和他们一起获奖的、现任Facebook母公司Meta首席 AI 科学家的Yann LeCun尚未签名。
此外,名单里还出现了中国学者的身影,包括中国科学院的自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等。
完整签名名单,可以在这里进行查看:https://www.safe.ai/statement-on-ai-risk#open-letter
声明发布者AI安全中心的执行主任Hendrycks表示,这一份声明很简洁,特意没有提出任何减轻人工智能威胁的潜在方法,就是为了避免分歧。“我们不想推动包含30种潜在干预措施的庞大措施组合,”Hendrycks说。“当这种情况发生时,它会淡化信息。”
马斯克公开信的加强版
这封公开信可以看做是今年早些时候马斯克公开信的加强版和“清白版”。
此前,马斯克联合超过千名产业界和学术界的大佬们在“生命未来研究所(Future of Life Institute)”网站上发布联名公告。公开信中主要传达了两个方面的信息:一是警告人工智能存在对人类社会的潜在威胁,要求立刻暂停任何比GPT-4更强大的人工智能系统的训练,时间跨度至少6个月。二是呼吁整个人工智能领域以及政策制定者们,要共同设计一套全面的人工智能治理系统,对人工智能技术的发展进行监督和审查。
这封信当时在多个层面受到批评。不仅因为马斯克被爆出“不讲武德”,一边公开呼吁暂停AI研究,一边偷偷推进一个全新的AI项目,并挖走了一些Google和OpenAI的技术人才,还因为“暂停开发”的建议并不可行,而且也并不能解决问题。
比如当年跟Yoshua Bengio一起获得图灵奖,人工智能“三巨头”之一的Yann LeCun当时就明确表示他并不同意这封信的观点,也没有签名。
不过,此次这封全新的更为含糊的公开信,Yann LeCun同样没有签名。
人工智能领域的著名学者、Landing AI的创始人吴恩达当时也在LinkedIn上发文表示,认为全面暂停AI训练6个月的想法是一个糟糕、不切实际的想法。
他表示能够真正让整个行业都暂停研究AI训练的唯一办法是政府的介入,但让政府暂停他们不了解的新兴技术是反竞争的,显然也不是一个很好的解决办法。他承认负责任的AI很重要、AI确实也有风险,但一刀切的方式不可取。当前更重要的是各方要在发展AI技术的同时更多的投资于人工智能的安全领域,并且配合制定围绕透明度和审计的法规。
Sam Altman更是在接受美国国会质询的时候就直接表示,马斯克这个呼吁的框架是错误的,日期上的暂停毫无意义。“我们暂停6个月,然后呢?我们再暂停6个月?”他说。
但和吴恩达一样,Sam Altman一直也是要求政府加强对AI监管的最积极的呼吁者。
他甚至在听证会上向美国政府提出了监管建议,要求政府组建一个新的政府机构,负责为大型AI模型颁发许可,如果有公司模型不符合政府标准,该机构可以撤销该公司的许可证。
上周,他还联合了另外几位OpenAI的高管,呼吁建立类似国际原子能机构的国际组织来监管AI,号召国际间领先的人工智能开发商展开合作。
反对者的声音
和马斯克的公开信一样,这封最新的公开信同样基于AI系统能力会迅速提高、但人类没法完全控制其安全运行的假设。
许多专家指出,大型语言模型等系统的迅速改进是可以预见的。一旦人工智能系统达到一定的复杂程度,人类就可能无法控制它们的行为。来自牛津大学的学者Toby Ord就表示,正如人们希望大烟草公司能够早一点承认他们的产品会带来严重的健康危害、并开始讨论怎么限制这些危害一样,现在AI的领袖们正在这么做。
但也有不少人人怀疑这些预测。他们指出人工智能系统甚至无法处理相对平凡的任务,例如驾驶汽车等。尽管在这一研究领域付出了多年的努力并投入了数百亿美元,但全自动驾驶汽车仍远未成为现实。怀疑论者说,如果人工智能连这一挑战都无法应对,那么在未来几年,这项技术有什么机会造成威胁?
Yann LeCun就在Twitter上表达了对这一担忧的反对,他表示,超人AI完全不在人类灭绝危机的名单前面——主要因为它现在还不存在。“在我们可以设计出狗这个级别的AI(更不用说人类级别的AI了)之前,讨论如何让它更安全完全为时过早。”
而吴恩达对于AI持有更加乐观的态度。他称他眼里会对大部分人类造成生存危机的因素,包括流行病、气候变化、小行星等,AI反而会是这些危机的关键解决办法。如果人类想要在未来1000年生存并发展,那就需要让AI更快发展,而不是更慢。
你怎么看?欢迎在评论区告诉我们。
*参考资料:
注:封面图来自于Pexels ,版权属于原作者。如果不同意使用,请尽快联系我们,我们会立即删除。
2)分享到你的朋友圈和微信群
3)赶快关注硅星人,给硅星人加星标⭐️吧
关注硅星人,带你用本地视角看硅谷,全球视野看创新
关于我们| 客服中心| 广告服务| 建站服务| 联系我们
中国焦点日报网 版权所有 沪ICP备2022005074号-20,未经授权,请勿转载或建立镜像,违者依法必究。