3月29日,创立于美国波士顿的研究机构“生命未来研究所”(Future of Life Institute,FLI),发布了一封震动人工智能圈的公开信。在这封公开信中,FLI 呼吁全球所有机构暂停训练比 GPT-4 更强大的人工智能(AI)至少 6 个月,并利用这个窗口期制定AI安全协议。
据称,这份公开信已有超过1000人签名附议,其中包括特斯拉创始人兼 CEO 埃隆·马斯克、2018年度图灵奖得主约书亚·本吉奥及苹果公司联合创始人史蒂夫·沃兹尼亚克等在内的业界知名人士。但同时也有业界“大佬”明确表态反对这份倡议。与约书亚·本吉奥一起获得图灵奖的杨立昆(Yann LeCun)、知名 AI 科学家吴恩达等提出了相反的意见,认为公开信提出的暂停计划“想法很糟糕”,“并不赞同这封信的前提”。
这样一封看似“格局打开”的公开信,并没有获得一边倒的支持,这是为何?
(资料图片)
首先,或许是为了引起广泛关注的刻意为之,这封信的措辞令人不安。信中充斥着“淘汰、取代人类”“文明失控”等字眼,言下之意,仿佛当前以GPT-4为代表的AI,正在或即将打开强人工智能(或通用人工智能)的潘多拉魔盒,随时面临失控风险。
ChatGPT 和 GPT-4确有过人之处,但是否真的到了能脱离人类控制、“进化”出自主意识、开启“硅基智能”时代的地步?显然并没有。相反,即便是OpenAI最新推出的 GPT-4,也仍然没能摆脱“大数据+大算力”这样的负重前进模式,其所展现出来的“智能”仍然处于“数据智能”(或称“信息智能”)的层次,与人类所担忧的“强人工智能”或通用人工智能相去甚远。
但令人失望的是,公开信中“淘汰人类”“文明失控”等过激的措辞,事实上制造和放大了人们对AI快速进步的焦虑,不仅容易给人们造成诸如“AI发展过快了”等不切实际的错觉,还更无助于大家客观地厘清AI安全的边界。
其次,即便这封公开信的本意确实是希望引起人们对AI潜在失控风险的警觉、推动人们对AI采取“提前行动”,但由于其立论不稳、所提出的建议也失之科学严谨,使得其“暂停更强AI研发”的倡议形同虚空打靶。
比如,公开信倡议的焦点是对“比GPT-4更强大的AI系统”进行限制、采取“暂停”措施。那就要问了,该如何定义“比GPT-4更强大”?只是GPT-5、GPT-6 吗?抑或是其他实验室正在训练的大模型?如果是前者,那这份建议几乎直冲OpenAI而来,多少有些“OpenAI你慢点等等我”的嫌疑;如果是后者,则面临更大的漏洞:如果其他在训大模型并不是足以捣毁人类文明的“强人工智能”,为什么要暂停或退后一步?这种模棱两可的提法,实在不怎么高明。
另外,公开信提及的“政府介入、令行禁止”“确保AI的发展在安全范畴内”等建议,则显得不够尊重技术演进规律。政策和法律规范的“到位”往往滞后于新技术的发展。在新技术前景尚不明朗的时间节点,仅仅因其潜在具有颠覆性,就要不加甄别地关起、“管”起,这恐怕不符合科学精神。照此说来,量子计算、核聚变、脑机接口等的研究是不是也要暂停一年半载,确保安全之后再研究?
我们不妨看看《不扩散核武器条约》的出现:人类亲眼所见了原子弹和氢弹爆炸的威力,切切实实地认识到了它的恐怖,之后才有了关于核不扩散的讨论和约定。GPT-4 的确展现了AI的强大能力,但它自身的缺陷和问题,丝毫不比其能力少。一言以蔽之,人工智能尚未迎来“核爆”时刻。在AI 还远没有强大到能进化出自我意识、足以摧毁人类文明的地步的现阶段,提出“暂停研发更强大AI”无异于杞人忧天。
实际上,关于人工智能技术演进中的伦理与安全边界问题,学界一直都有关注;几乎相对应地,非常有市场的“硅基智能威胁论”,也经常以各种形式(如科幻电影、小说,大佬语录等)出现在人们面前。现在我们是否应该担忧?应该,但绝不是用这种神经过度紧张的方式。
并且,笔者以为,眼下似乎更应该致力于解决类似 GPT-4 等AI系统知识侵权、恶意使用、成本过高等问题,从而让AI工具真正对社会运作效率提升发挥作用。做好当下,不去“为了担忧而制造担忧”,也许才是对未来最好的打算。