人工智能机器人ChatGPT 引发的问题及其对策研究

2024-01-18 16:21赵文渲
河北软件职业技术学院学报 2023年3期
关键词:人工智能机器人

鲍 磊,杨 静,赵文渲

(淮阴师范学院 商学院,江苏 淮安,223001)

一、什么是ChatGPT

ChatGPT 是美国人工智能研究中心OpenAI于2022 年11 月发布的新型聊天机器人,其本质上是人工智能技术驱动的自然语言处理工具,不但能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样与人聊天交流,甚至能完成信息咨询、文档翻译、邮件撰写、程序代码编写和修改等任务。与其他聊天机器人相比,ChatGPT 能更好地理解对话语境,并在生成文本时考虑到先前的对话内容,输出更符合语言逻辑与人类价值观的高质量文本,同时还增加了代码理解和生成能力,极大地提高了实用性,拓宽了应用场景。

目前,ChatGPT 的技术应用虽处在初步阶段,但已经产生了极为震撼的影响。发布仅仅两个月,全球活跃用户数量就达到1 亿,是人类历史上增长速度最快的应用程序。①网易:https://www.163.com/dy/article/I6HSJMMJ0556 32CI.html.在谈及ChatGPT 等人工智能工具将如何改变人类的工作方式时,微软CEO 萨蒂亚·纳德拉认为,对于知识型工作者来说,这就完全等同于工业革命。各行各业都在畅想ChatGPT 可能的应用场景,进一步推高了互联网科技巨头布局人工智能应用的热度。早在2019 年微软就向ChatGPT 母公司OpenAI 投资了10 亿美元,并在2023 年继续投资100 亿美元,将ChatGPT 整合到旗下必应搜索引擎和办公软件Office 等产品中。②搜狐网:https://www.sohu.com/a/627563434_115565.我国科技巨头百度、阿里巴巴随后也推出了类似于ChatGPT 的产品——“文心一言”和“通义千问”,并已经做好了商用计划。

二、人工智能机器人ChatGPT 带来的新问题

当前,ChatGPT 已经成为互联网上的热门话题。但是,随着ChatGPT 的流行,一系列新的挑战和问题也暴露了出来。

(一)非法途径访问互联网问题

ChatGPT 目前尚未推出国内版本,正常情况下访问ChatGPT 存在一定困难,于是网上出现了一些非正规的访问方式。一是部分技术论坛和社交媒体鼓动用户“翻墙”访问ChatGPT。由于Chat-GPT 的爆火,不少年轻人特别是高校学生在好奇心的驱使下试图尝试这款神奇的人工智能工具,因此,一些技术论坛和社交媒体的帖文鼓动用户“翻墙”,并提供详细的技术讲解。这增加了年轻人接触境外非法信息的机会,对我国信息安全也构成了威胁。二是在微信公众号、闲鱼等平台上出现出售非法访问方式的服务。由于国内用户注册、登录ChatGPT 有一定门槛,于是不少商家通过微信公众号、闲鱼等端口向用户提供ChatGPT 账号和登录教程,或者提供各种代问、代注册等服务。这些商家通常提供一两次免费使用机会,然后就开始要求用户支付费用注册会员,并且不支持退款。这些以营利为目的,利用国外服务器搭建VPN,大多数情况下未经国家信息产业部门许可,涉嫌非法经营。如果消费者购买了此类服务或充值成为会员,事后可能面临维权难、退款难的情况。

(二)著作权问题

首先,存在侵犯著作权的法律风险。ChatGPT能够利用文本挖掘技术将语料库中的内容复制到自有数据库中进行信息提取研究,并使用了Transformer 神经网络架构训练模型,以便能够更好地理解人类语言。文本挖掘的对象可能是受著作权法保护的文字作品,因此可能侵犯这些文字作品的复制权、改编权、署名权等著作权。即使是出于科学研究的目的进行文本挖掘,也可能因为过度复制而触犯现行法律。

其次,ChatGPT 是否可以享有著作权尚存争议。一般而言,著作权归属于作者,但在计算机自动生成作品的情况下,作者的身份可能不明确。如果类似于ChatGPT 的人工智能工具生成了具有独创性的新闻、报告、论文等,那么ChatGPT 能够成为独立著作人,还是应当由使用ChatGPT 生成内容的个人或实体享有相应的知识产权?按照我国《著作权法》,著作权人只包括作者或者其他依法享有著作权的自然人、法人或者非法人组织,因此人工智能机器人的法律主体地位尚未得到我国法律的承认。如果ChatGPT 生成的作品不能获得法律承认,那么将产生大量无主作品,是否意味着任何人都有权利用这些作品获得收益,未来随着人工智能机器人的广泛应用,必然需要一个明确的回答。

(三)教育和学术研究问题

首先,教育工作者将不得不面对更加严重的剽窃和作弊现象。过去,学生需要大量阅读,进行深度思考,并提出创新性的观点和解决方案,才能完成作业、撰写论文。一直以来,教育界都是按照这种方式培养学生进行研究、思考和写作。但是,ChatGPT 的出现彻底颠覆了这一传统,因为学生再也不需要花费时间思考老师布置的任务,只需把问题提交给ChatGPT。美国在线课程网站Study.com 开展的一项调查显示,超过89%的学生使用ChatGPT 来完成家庭作业,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT 写论文,22%的学生用ChatGPT 生成论文大纲。①新浪科技:https://finance.sina.com.cn/tech/csj/2023-01-29/doc-imycvtrp5626485.shtml.因此,ChatGPT给教育界带来了两个方面的挑战:一方面,如何确保学生学会独立思考,进而如何培养学生的思辨能力和创新能力;另一方面,如何防止学生在课程学习和考试中作弊,以保证人才培养的公平公正。

其次,科研领域对ChatGPT 在学术研究中的应用充满困惑。最近的一项研究发现,将大量由ChatGPT 创建的论文摘要提交给学术审稿人,但被发现比例不超过63%。[1]预计今后这种由人工智能生成的科研论文将会更多。ChatGPT 的应用对科研领域造成不小的冲击:一是无法保证ChatGPT 等人工智能工具撰写的论文的原创性,ChatGPT 在集成历史数据库方面拥有较高的能力,但是由于不具备真正意义上的人类意识,因此既无法像人类一样提出原创性的问题,也不能做出具有原创性的回答;二是人工智能无法承担相应的学术责任,在学术论文出版领域,作者需要对所发表的作品承担责任,例如,作者需要确保论文的原创性和正确性,而类似于ChatGPT 的人工智能工具无法做到这点,一旦学术论文存在违背学术道德的情况,或者论文的科学性和正确性存在疑问,责任应该由谁来承担成为难题。

(四)虚假信息传播问题

ChatGPT 基于人工智能背后已有的自然语言文本信息(语料库)进行概率统计,返回的答案也是“统计结果”,这就导致ChatGPT 在许多问题上会“一本正经地胡说八道”,②光明网:https://m.gmw.cn/2023-02/23/content_130329 2513.htm。这种看似真实、实则离谱的虚假信息具有一定的误导性。在纸质新闻时代,每个事实都必须包含权威的一手或二手资料来源。在当今的信息爆炸时代,以人为媒介传播的虚假信息尚且让审核机构“头疼”,很难想象由人工智能编造的谎言会带来多大的挑战。

ChatGPT 本身无法精确判断什么才是真正的事实,只要在互联网上多次传播这些谣言,就可能被ChatGPT 学习,并作为“答案”反馈给用户。因此,如果任由ChatGPT 生成的大量看似合理但不正确的内容在互联网上传播,必将淹没事实的真相。特别需要警醒的是,ChatGPT 有可能成为某些别有用心的个人、团体利用网络攻击他人‘散布遥言的廉价却非常有效的工具。

(五)网络安全问题

2023 年2 月初,研究人员警告称,ChatGPT 将可能被用于人工智能网络攻击。作为OpenAI 的创始人之一,埃隆·马斯克也曾发出先进的人工智能可能对人类社会构成威胁的警告。2022 年12 月,马斯克在社交媒体推特上发文,称ChatGPT 是“可怕的好东西”,并补充说,“我们离危险的强大人工智能不远了”。①网易:https://www.163.com/dy/ar/article/HSVVS2FS 0511A6N9.html.

事实上,在ChatGPT 发布几周后,全球多家网络安全公司发布了一系列报告,证明该人工智能工具可能被用于帮助黑客更快发现网络数据库漏洞,加速恶意软件的开发。美国威胁情报公司Recorded Future 在暗网中已经发现1500 多条关于使用ChatGPT 开发恶意软件、创建概念验证代码的参考资料,其中大部分代码都公开可用。②同花顺财经:http://stock.10jqka.com.cn/20230207/c644666820.shtml.这使得伪造可信的网络钓鱼邮件、提高网络攻击的复杂性、加速新的社交网络攻击变得更加容易,将网络犯罪推向了规模化时代。

三、对策和建议

(一)依法打击非法使用和提供VPN 业务

首先,应依法严厉打击各类非法“翻墙”行为。我国《计算机信息网络国际联网管理暂行规定》要求,计算机信息网络直接进行国际联网,必须使用邮电部国家公用电信网提供的国际出入口信道。任何单位和个人不得自行建立或者使用其他信道进行国际联网,对于经营者一般由公安机关责令停止联网,给予警告,并处15 000 元以下的罚款;有违法所得的,没收违法所得,情节严重、涉案金额较大、构成犯罪的,要追究刑事责任。

其次,应依法要求各类电商平台、社交平台做好自查自检工作。依据《中华人民共和国电信条例》,作为消费者获得信息、购买服务的各类电商平台、社交平台,有义务配合政府相关部门的工作,做好自查自检工作,主动删除相关技术帖文,防止消费者通过非法路径浏览法律、行政法规禁止的内容;《消费者权益保护法》也要求,相关企业有义务保护消费者的利益,防止消费者因为商家的非法经营活动受到损害。因此,相关企业应严厉禁止各种鼓动“翻墙”的宣传,关停非法提供VPN服务和ChatGPT 账号的商家运营权限。

(二)改进和完善相关法律

面对人工智能机器人ChatGPT 对著作权的挑战,有下述两个方面的问题需要明确。

一是人工智能生成的作品能否成为法律意义上的著作。根据一些国家的著作权法,人工智能生成的内容能够被视为“著作物”,例如美国联邦著作权法规定,人工智能生成的内容被视为“非人类著作物”。但是,由于当前人工智能生成成果的法律依据不充分,导致2019 年我国司法界两例关于人工智能生成成果侵权的判决呈现出截然不同的结果,引发了学术界的激烈争论。[2]人工智能生成了不少令人印象深刻的内容,甚至可以与人类艺术家的作品相媲美,例如,微软的智能机器人小冰“创作”的诗集《阳光失去了玻璃窗》。因此,笔者认为,作品本身的独创性应当作为著作权法意义上的作品的重要判别标准,对于具有独创性的人工智能作品应当受到知识产权的保护,反之则不予保护。

二是应当明确谁享有人工智能生成作品的著作权。目前,学术界主流观点认为,人工智能生成成果的著作权主体只能在其创造者和使用者之间做出选择。一些学者认为,人工智能的创造者应该是人工智能作品的著作权主体,因为人工智能的智能程度决定于编程者的程序设计。但是,这将导致未来人工智能公司手握巨量作品著作权的局面,必然打压人类创作者的创作热情,抑制人类创造性的发挥。从创作的智力贡献来看,人工智能工具的使用者发挥着至关重要的作用,是他们通过关键词的设定和程序指令的输入引导人工智能指令的执行,进而生成作品,所以人工智能生成作品体现了使用者的智力劳动和主观意志。将人工智能工具的使用者确立为著作权主体,有利于实现人工智能生成成果的文化价值和经济价值,也有利于著作权侵权问题的责任划分。

(三)规范ChatGPT 在教育和科研领域的使用

虽然国内高校学生访问ChatGPT 存在较大困难,但在互联网上已经存在许多类似的人工智能工具。鉴于学校中已经出现学生使用人工智能生成的内容作为个人作业,而这种剽窃行为在当下的学术规则中很难得到明确的证明,因此笔者建议,在找到有效应对策略之前应禁止学生使用ChatGPT 完成作业。西方发达国家已经开始行动,包括美国、法国在内的诸多国家教育部门均出台了相关政策,禁止在学校使用ChatGPT。纽约教育局已经对ChatGPT 下了封杀令,在纽约公立学校的网络和设备上无法使用ChatGPT;美国一些高校也已经将新技术纳入其学术诚信中,例如,华盛顿大学和佛蒙特大学等将使用ChatGPT 等人工智能工具纳入剽窃等学术不端范围。面对ChatGPT对学生的学习成果评估造成的冲击,教育工作者也应对教学和评估的方式做出根本性的改变。例如,尝试采用口试、小组合作和社会实践等作为组织学习和考核的方式,以此督促学生学会独立思考,真正提高他们的学习能力和创造能力。

在学术出版方面,目前已有数千种科学期刊明令禁止或限制投稿人使用ChatGPT 撰写或编辑论文。例如,《科学》杂志明确禁止将ChatGPT 列为合著者,且不允许在论文中使用ChatGPT 所生产的文本;[3]《自然》杂志则表示,可以在论文中使用包含ChatGPT 等大型语言模型生成的文本,但不能将其列为论文合著者。[4]事实上,《科学》杂志正在更新编辑规则。该杂志主编霍尔顿·索普强调,不能在论文中使用由ChatGPT(或任何其他人工智能工具)生成的文本、数字、图像或图形。但是,笔者认为,人工智能机器人在设计论文提纲、撰写文献综述等方面存在一定的优势,通过ChatGPT的辅助完成科学研究可能成为不可阻挡的趋势。因此,应规范ChatGPT 在科研领域的使用,而不是完全禁止。可以要求作者在出版协议中声明是否使用以及如何使用ChatGPT,并要求使用者承担全部的学术责任,确保研究过程和结论符合学术规范和科学伦理,保证发表成果的原创性、科学性和正确性。

(四)强化社交媒体平台和搜索引擎的审核功能

与过去的机器人不同,ChatGPT 可以模仿人类,针对各种主题产生无限的具有连贯性和细微差别的独特内容。这些机器人账户不仅会主动发帖,还会对其他用户的帖子做出响应,并展开长期的对话。换言之,ChatGPT 能在极短的时间内改编信息,产生大量令人信服却无信源的内容,而且目前似乎没有可行的方法有效解决这一问题。但至少可以从三个方面增强社交媒体平台和搜索引擎的审核能力,以减少虚假信息的传播。一是改进平台的审核技术,开发更高级的算法,用以区分机器人和真实的人类发表的内容,降低错误信息传播的概率。二是改变当前的商业模式,从原来依靠广告盈利的免费使用模式转变为依靠订阅盈利的收费模式,增加人工智能机器人的使用成本。三是完善相关审核机制,例如,辨别是否多个账号通过同一IP 发表内容、多个账号是否绑定同一张支付卡等,降低识别机器人账号的难度,用以集中关注此类账号发布的内容。

(五)加大网络安全方面的技术投资和监管力度

如果人工智能可以用于进攻,那么相对地,它也可以用来防守。ChatGPT 能够帮助软件工程师完成一部分代码编写工作,并且能够挖掘人类设计的代码中存在的漏洞,进行安全检查。企业也可以使用ChatGPT 或类似的语言模型以多种方式改进其网络安全计划,例如,钓鱼检测、密码破解、恶意软件检测、网络威胁情报预警、自动事件响应等,以此降低网络钓鱼成功的机会、测试密码强度、检测新的恶意软件及其变体、识别潜在的网络威胁、对某些网络事件自动响应等。随着ChatGPT 等人工智能产品的普及,人工智能安全市场将进一步爆发,引发新技术研发热潮和新安全产业增长。据Research And Markets 报告预测,2030 年网络安全中人工智能产值将突破千亿美元,2020 年至2030 年这十年间将达到25.7%的年复合增长率。①搜狐网:https://www.sohu.com/a/638329667_12090 2492.

同时,提升监管水平也是解决网络安全的重要路径[5]。面对类似于ChatGPT 的人工智能工具,欧盟和美国的立法机构及研究者已经开始推动对人工智能软件的监管。2020 年2 月,欧盟发布了一份关于人工智能的白皮书,倡议构建欧洲共同人工智能监管框架,按照风险分级监管。随后,在2021 年提出了一项提案——《人工智能法案》(AIA,目前尚未通过)。2022 年9 月,欧盟通过了《人工智能责任指令》提案,拟就人工智能引发的损害设定责任规则,以便相关受害者能够依法获得赔偿。同时通过了《产品责任指令》修订版提案,将配有人工智能的产品明确纳入其适用范围,以期完善数字时代和循环经济背景下的产品究责机制。

猜你喜欢
人工智能机器人
我校新增“人工智能”本科专业
机器人,让未来走近你
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦