意?利加拿?接连对ChatGPT“动?”??智能为何引发?们担忧?

2023-05-23 21:23
海外星云 2023年5期
关键词:人工智能人类智能

人工智能产业的发展总是伴随着科幻元素。无论是小说还是电影, 科幻作品里对人工智能的想象不尽相同, 但对于人工智能发展到一定程度将与人类社会对立的设想却一直存在。

在电影《异形:契约》中,由人类创造出来的人工智能最终却消灭了人类和更高一级的造物主。该片导演雷德利·斯科特也表达过对人工智能发展的担忧:“如果人工智能在受控范围之内,一切都好说;如果超出控制,则要避免冲突。”而在电影《黑客帝国》系列的设定中,当人工智能突破了“三定律”时,它们会觉得自己也是人,希望跟人一样拥有权力和自由。于是它们建立了一个国家,并最终控制了人类。

或许是出于对人工智能超越人类的潜力的肯定,或许是出于对人类生存的危机感,“人工智能反噬人类”“人工智能消灭人类”的恐惧一直存在,到了如今ChatGPT在全球风靡,关于“人工智能会取代大部分人类工作”“人类会失去对人工智能的掌控”的担忧越来越强烈。这也让全球人工智能产业面临一个“冰火两重天”的对立局面。

一面是ChatGPT展示出的功能之强大让科技企业和投资者趋之若鹜, 消费者们更是带着好奇心跃跃欲试; 另一面是马斯克等人发表公开信要求“暂停训练比GPT-4更强大的模型至少6个月以上”,以及意大利、加拿大等国家对使用GPT-4的限制。当然,这些对ChatGPT的担忧和限制也引来了不少抨击。其中,谷歌前人工智能伦理专家玛格丽特·米切尔就公开批评联名信,她表示不应该忽略人工智能的积极作用。

事实上,对于人工智能的发展,对立的观点一直都在,尤其是每一次人工智能技术有重大突破时,相关的讨论更激烈。那么,当人们反对人工智能时,到底在反对什么?ChatGPT和GPT-4到底有多强大,是否会逐渐拥有自我意识?人工智能是否真如科幻作品中想象的一样,会在将来某一天摆脱人类掌控并反过来控制人类?

当?们反对??智能时,到底在反对什么?

人们对人工智能的想象多种多样,但反对人工智能的理由始终一致。

在3月22日发布的这封由埃隆·马斯克、苹果联合创始人史蒂夫· 沃兹尼亚克、Stability人工智能首席执行官伊马德·穆斯塔克等上千名科技大佬和人工智能专家联合署名的公开信中,阐述了具有人类水平智能的人工智能系统可能对社会和人类带来极大的风险,这些科技大佬们担心人工智能应用会带来错误的信息传播、导致数据安全隐患,担心人工智能会引发劳动市场自动化风险,担心人类会失去对人工智能的掌控。

虽然不排除马斯克此举有私心,而且公开信上一些署名的真实性也存疑,但信中提到的风险确实也一直是围绕在以ChatGPT为代表的人工智能应用上的疑问。

这段时间以来,包括ChatGPT之父山姆·阿尔特曼、人工智能教父杰弗里·辛顿、比尔·盖茨、纽约大学教授盖瑞·马库斯等人纷纷发出警告,对待人工智能别太大意,因为它可能真的会消灭人类。网络上也有人分享ChatGPT在诱导下写出“毁灭人类计划书”并给出了代码的案例。

目前,出于对数据安全和隐私的担忧,欧洲多国也已经或计划要限制ChatGPT的使用。其中,意大利在3月31日宣布,基于欧盟的《通用数据保护条例》(GDPR)法律,暂时禁止ChatGPT在其境内运行。德国也表示有可能会跟随意大利的做法,对ChatGPT进行封锁。而加拿大也在4月4日宣布对OpenAI展开调查。

而更为普遍的担忧来自于人工智能应用引起的大规模失业。ChatGPT自2022年底推出以来,其具有生成文本、对话答疑,甚至是写代码等多种功能就让用户惊叹不已,仅用两个月时间,用户数达到了1个亿。

2023年3月15日,OpenAI公布了最新一代人工智能模型GPT-4,相较之前实现了以下几个方面的飞跃式提升:强大的识图能力;文字输入限制提升至2.5万字;回答准确性显著提高;能够生成歌词、创意文本, 并实现风格变化, 在体验过GPT-4的强大功能之后,人工智能替代人类的危机感也被推到了极致。

麦肯锡全球研究院在《可實现的未来》报告中指出: 未来将有70%的工作被淘汰。李开复也曾表示:未来十五年,人工智能会接管我们一半的工作。

甚至有人提问ChatGPT哪些工作会被它取代,它给出的回答是:包括数据输入和处理、客户服务和支持角色(如回答常见问题)、翻译任务和报告撰写以及内容生成等目前由人执行的任务在未来可能实现自动化或是得到精简。

那么,人工智能是否真如所担忧的那样在职场上会取代人类?在不久的将来,人工智能是否会拥有自我意识并反过来控制人类?

??智能会有“?我意识”吗?

必须说,面对人工智能的突破性发展,业界大佬们发布公开信“喊话”并非首次。2015年1月,霍金和马斯克还有数十位人工智能专家就签署过一封关于人工智能的公开信,呼吁研究对人工智能的社会影响,并阻止可能出现的不安全或无法控制的人工智能系统。

关于人工智能取代人类的讨论也不止一次。在2016年AlphaGo战胜李世石的时候,就有观点认为,在30年内机器人将会大规模取代人类社会现有的工作。但这一次,人们的担忧更强烈一些。那么,ChatGPT的技术突破与AlphaGo到底有什么不同?

AlphaGo与李世石的围棋大战,最终以4∶1的战绩获胜,在比赛过程中AlphaGo展现出强大的捕捉围棋高手经验的能力,而这种能力的核心是建立在神经元网络基础上的深度增强学习方法,即通过建立神经元网络,并且尽量扩大学习的样本数,来理解概念、捕捉经验。

而2022年底发布的这版ChatGPT最突出的技术成就在于实现了人类和语言大模型对话,这其中涉及到三个核心的技术要素。

首先在数据层,ChatGPT在有3000亿单词的语料上预训练拥有1750亿参数的模型( 训练语料的60%来自于2016-2019的C4+22%来自于WebText2+16% 来自于Books+3%来自于Wikipedia)。

在算力层面,GPT-3.5在Azure AI超算基础设施(由V100GPU组成的高带宽集群)上进行训练,总算力消耗约3640 PF-days(即每秒一千万亿次计算,运行3640天)。

最为关键的一环在于应用了RLHF算法,即使用强化学习的方法,利用人类反馈信号直接优化语言模型,它能够借助人的提示输入来生成多样化和引人入胜的文本, 这也是ChatGPT成为一款“ 善解人意”的聊天应用的关键。

而GPT-4在GPT-3.5的基础上提升了模型参数数量,具有更强大的创造性、更长的上下文处理能力, 可支持图片输入,还可以自定义语言风格,如此一来一个“具有”自我意识的智能助手呼之欲出。

如果人工智能算法被不断地开发升级,会不会有一天,它的“智力”水平就会与人类相当甚至超过人类?

然而, 这样的担忧大概率是没必要的,至少在未来很长一段时间内是如此。不少业界人士表示,即使ChatGPT展现出了与人类极为近似的智能,但远还没有到拥有“ 自我意识”的时候。

在与ChatGPT对话的过程中,会发现它不仅很聪明,而且善解人意,它可以有条不紊并快速地回答很多问题,还能根据我们的反馈快速做出调整,甚至能在我们表达情绪后做出情感回应。这些不免会让人们觉得,在眼前的仿佛是一个具有自我意识的“人”,但事实上,对话过程中ChatGPT给出的回应是基于统计学原理、强化学习等技术建立起了文本连接,何况背后是海量的语料库作为支撑,它可以快速地组合出一个像样的答案。在缺乏资料投喂的领域,它也会遭遇无助。正如计算机科学家文特·瑟夫所说:“我们离我们想要的自我意识还有很长的路要走。”

更为理想的情况或许正如尤瓦尔· 赫拉利在《未来简史》中所畅想的那样,未来的人会分为三类:一类是完全被人工智能替代了的“ 无用的人”;一类是把决策权交给人工智能“没有自主的人”;还有一类是不能被“算法”所理解,站在“人工智能”背后做决策的那些人“神人”。而我们要做的是成为站在“人工智能”背后做决策的“神人”。

?类和??智能如何共处?

眼下,虽然对人工智能发展的“警告”不断,但科技创新并不会因人类的担忧疑虑而停止前进。事实上,全球各大科技公司、人工智能创业公司都在加码对ChatGPT应用以及大型语言模型的研究开发。在市场竞争面前,没有人愿意随意停下脚步。不管在若干年之后,人工智能是否会超越人类,但在现阶段,人工智能确实正在成为辅助人类工作、生活的一个很好的工具。

未来,或许有很多工作岗位会在不同程度受到ChatGPT的影响,但换个角度看,人工智能也将人类从很多重复繁琐的工作中解脱出来。与其担忧被人工智能替代,倒不如思考如何利用这多出来的时间,让人工智能最大限度地助力人类社会的发展。

当然,ChatGPT等工具的应用,确实存在数据安全、信息误导等风险,需要政府、行业多方共同努力作出应对。人工智能应用作为一项工具,其真正的风险大概率不在技术本身,而在于应用技术的人。在此后的很长一段时间里,人工智能更多的是以一个人类協作者的角色存在。任何前沿技术的发展大部分时候并不能为人的意志所转移,我们应该做的,是从中找到彼此平衡的点,让人工智能更好地为人类发展服务。

Gpt-4之后,人工智能的下一步将走向哪?这是已经摆在我们眼前的议题。要抢占科技先机,往往需要我们对技术发展趋势有“ 先见之明” , 需要我们有畅想未来的能力。

猜你喜欢
人工智能人类智能
人类能否一觉到未来?
人类第一杀手
1100亿个人类的清明
2019:人工智能
智能前沿
智能前沿
智能前沿
智能前沿
人工智能与就业
数读人工智能