“意识觉醒”有多远?

2024-02-19 18:04胡震洲
瞭望东方周刊 2024年3期
关键词:伊利亚人工智能意识

胡震洲

26年前,德裔美国神经科学家克里斯托夫·科赫与澳大利亚哲学家大卫·查默斯打赌。科赫说,大脑神经元产生意识的机制将于2023年被发现,查默斯表示不可能。

当2023年过去,这场赌注揭晓,哲学家胜过神经学家,大脑神经元产生意识的机制仍未被发现,但科技圈开始更热烈地讨论——AI(人工智能)会有意识吗?

从通过资格考试,到进行艺术“创作”, 当整个世界对AI的强大能力感到兴奋时,那些曾经存在于《机器姬》《银翼杀手》等电影里的情节,似乎正在走向现实。

“最让人恐惧的事情是,如果让OpenAI团队从头再做一遍,他们未必能够创造出ChatGPT,因为这些人也不知道,‘涌现’是怎么出来的。”2023年底,清华大学脑与智能实验室首席研究员刘嘉接受凤凰卫视专访时说,这就好像打了一个响指,它就出来了。

他相信人工智能正在“涌现”意识,为此搬出了有“AI教父”之称的杰弗里·辛顿。杰弗里·辛顿在2023年5月接受CNN采访时说: “人工智能正在变得比人类更聪明,我想要‘吹哨’提醒人们应该认真考虑如何防止人工智能控制人类。”

在AI领域,杰弗里·辛顿的成就举足轻重。他是2018年图灵奖得主,在谷歌任职期间担任副总裁兼工程研究员,几乎一生都在从事AI相关的研究工作。他主攻的神经网络和深度学习,是AlphaGo(一款围棋人工智能程序)、ChatGPT等AI程序高速进化的基础科学,OpenAI的联合创始人兼首席科学家伊利亚·苏茨克弗也是他的学生。

2022年2月,伊利亚·苏茨克弗发帖称“或许如今的大型神经网络萌生了意识”时,谷歌 DeepMind 首席科学家默里·沙纳汉回复说:“从同样意义上讲,一大片小麦可能显得有点像意大利面。”

2023年10月26号,《麻省理工科技评论》采访伊利亚·苏茨克弗时问起此事,他笑着反问:“你知道什么是玻尔兹曼大脑吗?”

这是一个以19 世纪物理学家路德维希·玻尔兹曼命名的量子力学思想实验,宇宙中的随机热力学波动被想象成大脑突然出现和消失的原因。

“我觉得现在的语言模型有点像玻尔兹曼大脑。你和它说话时大脑就出现,说完后大脑就噗地一下消失了。”伊利亚·苏茨克弗称,ChatGPT 已改变了很多人对即将发生事情的期望,从“永远不会发生”变成了“将比你想象的更快发生”。

2023 年10 月31 日,杭州云栖小镇,观众在以“计算,为了无法计算的价值”为主题的2023 7bxdvvSRWiW84JIzlGcD8A==云栖大会“人工智能+”展馆参观人工智能产品及应用( 黄宗治/ 摄)

“没有人能够不重视杰弗里·辛顿的看法。”在美通公司创始人王维嘉看来,ChatGPT把握高阶相关性的能力已远超人类,对世界的理解也远超普通人。他认为大模型“幻觉”是联想能力,是意识觉醒的证明——人类正是凭借联想能力,发现了万有引力、相对论和DNA双螺旋。

大模型“幻觉”也引起了北京智源研究院院长、北京大学计算机学院教授黄铁军的重视。

在腾讯新闻发起的《20年20人20问》中,黄铁军认为大模型“幻觉”可能是超越既有知识体系的创新,例如有启发意义的文学、艺术和科幻作品,或者新的洞见、思想或学说,是知识体系不断扩展的源头活水。他甚至表示,没有“幻觉”,就没有真正智能。

事实上,尽管人们对于意识的探索已有上千年历史,但在关于意识究竟是什么、如何判定一个人或物是否有意识这点上,一直没有取得决定性的突破。

1714年,德国哲学家莱布尼茨发表《单子论》,提到一个思想实验:“必须承认,仅仅靠机械的运动、数值,是无法解释知觉的存在的。想象一个机械装置,我们不知它有无知觉。因此,我们将自己缩小,走进其中,可以看清机器运行的所有细节、过程,也可以理解过程背后的力学原理。甚至,我们还能预测机械将如何运转。然而,这一切似乎都与这机器的知觉无关。观测到的现象,与知觉之间,似乎总有一个天堑一般,总是无法相互勾连。”

时至今日,这道“莱布尼茨天堑”仍横亘在人类面前。

不过,这没有妨碍360集团创始人周鸿祎公开断言:“人工智能一定会产生自我意识,留给人类的时间不多了。”

2023年3月,他在中国发展高层论坛上表示,现在的大型语言模型参数可以看作是脑容量里神经网络的连接数,人脑至少有100万亿,当大模型参数到达10万亿时,可能就会自动产生意识。

ChatGPT 已改變了很多人对即将发生事情的期望,从“永远不会发生”变成了“ 将比你想象的更快发生”。

事实上,这不是科技圈第一次讨论人工智能是否在觉醒。

上一次的讨论是在2022年6月,入职谷歌七年的研究员布莱克·莱莫因称,他发现了一个惊天秘密——公司正在研发的人工智能聊天机器人LaMDA已经觉醒,有了自我意识,但谷歌方面却试图掩盖这一切。

为了证明自己并非胡说八道,他把一份21页的聊天记录公布在了互联网上,希望大家看到,从阿西莫夫机器人三定律到中国禅宗公案,LaMDA都给出了语义通顺的答句。

但他几乎成了笑话,饱受了毫不客气的群嘲。

美国纽约大学心理学系教授加里·马库斯说他“是高跷加长版的胡说八道”。

研究自然语言处理模型的美国加州大学伯克利分校教授埃迈德·赫瓦贾说得更简短却直接:“谁真正熟悉这些模型的系统,谁就不会说这些模型已经觉醒的蠢话。”

在清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正看来,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,还关乎企业合规性的基本坚守。

“一旦认定人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。”他说。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正表示,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。

比如“曲别针制造机”假说,就描述了一个通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景——假设某个人工智能机器的终极目标是制造曲别针,尽管目的看上去对人类无害,但当它使用人类无法比拟的能力,把全世界所有资源都做成曲别针,就会对人类产生伤害。

“不仅要关注大模型的潜在机会,还要关注风险和缺点,这一点非常重要。”谷歌首席科学家杰夫·迪恩说。

让AI的价值观和人类的价值观对齐,已成为当下的热门话题。

对此,黄铁军称:“当人类智能高于AI智能时,AI是可控的助手,可以被人类调教为越来越可信的助手;但当AI智能高于人类智能,全面超越人类的AGI(通用人工智能)出现时,问题就转化为AGI是否相信人类,而不是人类是否相信AGI。主动权不在人类一边。”

2023年3月,全球1000多名技术专家联名发布《暂停大型人工智能研究》公开信。

在这份呼吁“所有人工智能实验室立即暂停至少6个月的比GPT-4更强大的人工智能系统的训练”的公开信中,包括苹果联合创始人斯蒂夫·沃兹尼亚克、特斯拉和SpaceX公司老板埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥在内的科技巨头写道:“具有与人类竞争智力的人工智能系统可能对社会和人类构成深刻的风险”“让我们享受一个漫长的‘AI之夏’,而不是毫无准備地进入秋天。”

大胆假设,在一个拥有更智能的人工智能的世界里,人类怎么办?

“有一种可能性,按照今天的标准可能很疯狂,但按照未来的标准不会那么疯狂,那就是许多人会选择成为人工智能的一部分。这可能是人类试图跟上人工智能的方式。”伊利亚·苏茨克弗说,“起初,只有最大胆、最冒险的人才会尝试这样做。”

猜你喜欢
伊利亚人工智能意识
聪明飞船(四)寻访伊利亚
人的意识可以“上传”吗?
画中奥秘
2019:人工智能
人工智能与就业
增强“四个意识”发挥“四大作用”
意识不会死
数读人工智能
强化五个意识 坚持五个履职
下一幕,人工智能!