年终盘点:这一年,人工智能在争议中前行

2019-01-15 23:14
世纪人物 2019年1期
关键词:类脑机器标准化

近日,由斯坦福大学主导、来自MIT、OpenAI、哈佛、麦肯锡等机构的多位专家教授联合发布的人工智能指数年度报告出炉,报告显示,在人工智能这一领域,美国依然是当仁不让的王者,但中国的AI技术,无论在学术界还是产业界,都正以极快的速度向前追赶。报告中有几个惊人的数字:与2000年相比,2016年中国人工智能学者发表的论文被引用的次数提高了44%。清华大学去年学习人工智能和机器学习方向的学生数量是2010年的16倍。

更前沿的技术突破、更广泛的应用场景、更充足的人才准备,当热潮渐渐褪去,这个被押注了未来的行业,依然承载着人们对明日世界最广阔的想象。

发力底层技术 让机器更聪明

让机器能够像人一样思考、感受和认识世界,是人工智能科学家们孜孜以求的终极目标。为了实现这个目标,他们提出各种技术方案对机器进行训练,这种底层技术的进步也是人工智能技术进步的基础。

今年4月,阿里巴巴人机自然交互实验室联合达摩院机器智能技术实验室和浙江大学推出的人工智能Aliwood,在研发过程中引入了“情感计算”能力,给视频所配的音乐建立起了情感模型。

情感计算是为了让机器“具备人的感情”,它指的是关于情感、情感产生以及影响情感方面的计算。MIT媒体实验室数据显示,在识别表情方面,计算机已经可以超越人类,对于真笑和苦笑的实验中,机器学习的成功率是92%,大幅优于人类。不过虽然情感计算已经深入生活,而要让机器人更加懂你却并非易事,还需要人机交互、心理学、认知学等多学科领域共同努力。

类脑智能以计算建模为手段,受脑结构与机制、认知行为机制启发,企图通过软硬件协同实现机器智能。简单说,科学家希望机器能像人类感知和探索世界。类脑智能系统在信息处理机制上“类脑”,认知行为和智能水平上“类人”,目标是使机器实现人类具有的多种认知能力及其协同机制,最终达到或超越人类智能水平。目前,类脑计算研究还处在前期探索阶段,清华大学类脑计算研究中心已研发出具有自主知识产权的类脑计算芯片、软件工具链;中科院自动化研究所开发出了类脑认知引擎平台,具备哺乳动物脑模拟的能力,并在智能机器人上取得了多感觉融合、类脑学习与决策等多种应用,以及全球首个以类脑方式通过镜像测试的机器人等。大家都在期待,未来的类脑智能研究会在哪个领域产生突破。

繼续完善标准 掌舵产业发展

随着商汤科技正式被依托建设智能视觉国家新一代人工智能开放创新平台,这一人工智能国家队正式集合五名成员:依托百度公司建设自动驾驶国家人工智能开放创新平台,依托阿里云公司建设城市大脑国家人工智能开放创新平台,依托腾讯公司建设医疗影像国家人工智能开放创新平台,依托科大讯飞公司建设智能语音国家人工智能开放创新平台,以及最新加入的商汤科技。这一系列人工智能开放平台可以降低相关小企业入局的技术门槛、集结优秀的技术力量共同开发、优化人工智能行业生态。

标准化工作是人工智能发展的基础和前提。一旦缺失标准,人工智能的研发和应用将变得混乱。我国虽然在某些领域已具备一定的标准化基础,但标准化程度不足,分散的标准化工作不足以支撑起整个人工智能领域的发展。

今年初,在国家人工智能标准化总体组、专家咨询组成立大会上,《人工智能标准化白皮书(2018版)》(以下简称《白皮书》)出炉。在中粤金桥投资合作人、品优网创始人罗浩元看来,包括基础标准、平台/支撑标准、关键技术标准、产品及服务标准、应用标准、安全/伦理标准六个部分是《白皮书》的关键内容,基本串起了人工智能产业的整个链条。

随着人工智能的深入发展,标准化工作将越发庞杂,不仅标准化的对象将越来越复杂,而且以往标准化工作从未出现过的交叉、融合等也给人工智能标准化带来巨大挑战。目前,人工智能标准化体系建设相对滞后的影响已经显现。比如目前最热的智能家电产品,每个产品都有自己的APP,协议不兼容,跨品牌间互联互通困难。明确规范、可执行的国家标准、行业标准,可以为我国人工智能的持续健康发展掌舵。

深入普通生活 解决广泛需求

“母猪杜洛克C7259号,没有怀孕,请在12小时内再次安排配种!”很快,这样的提醒就会出现在国内一些猪场的工作人员电脑上。最近,阿里云披露的一份资料显示,其工程师正在同养猪科学家合作研发能判断母猪是否怀孕的算法,以提升猪场产仔量。除了监测母猪是否怀孕,AI还可以服务于农业智能生产系统、检测农作物病虫害、作用于农产品无损检测等,在农业领域大展拳脚。

听来有些不可思议,但人工智能技术带来的改变,确实发生在各个意想不到的领域。比如英国拉夫堡大学的研究人员和切尔西足球俱乐部联合开发了一套AI教练和球探系统,系统可以通过收集、分析球员近几个赛季的数据建模并科学训练球员,比如根据球员的特点制定赛前战术、赛后对技战术进行复盘等。人工智能HR也已经出现,并在求职中发挥作用。

游戏AI涉及推理和决策等认知智能,这也是研究者热衷于这项研究的原因。不过相关研究者也表示,真正的认知智能还有很多问题没有解决,比如推理过程的表示、决策优化算法,以及如何让AI使用更少的计算量做到更好的推理、让AI消化吸收学习的速度更快等。因此,这阶段人类着实无需担心机器的威胁。在认知智能上,AI还有相当长的路要走。

重视伦理争议 行业规范待定

伴随人工智能的高歌猛进,相关的“噪音”也越来越多,比如数据隐私、AI偏见、AI造反……相关话题引发了数次讨论甚至恐慌,人们开始疑问:AI是不是太强了?它会失控吗?

麻省理工学院媒体实验室曾出品一个名叫诺曼的“暗黑版AI”,它会以负面想法来理解它看到的图片。团队希望通过诺曼的表现提醒世人:用来教导或训练机器学习算法的数据,会对AI的行为造成显著影响。

但其实,当人们谈论人工智能算法存在偏差和不公平时,罪魁祸首往往不是算法本身,而是带有偏差、偏见的数据。

偏见、刻板印象、歧视这些人类社会的痼疾,已经深入社会肌理。在这样的语境中产生的数据,携带着大量复杂、难以界定、泥沙俱下的观点。如果研究者没有意识到或着手处理这一问题,机器学习的偏见几乎无解。真正的“公正算法”或许是不存在的。但通过正确地校准标签、数据的均衡和可靠等,机器出现偏见、谬误甚至失控的可能会相应减少。此外,研究者也应该着手建立一种预防的机制,从道德的约束、技术标准的角度对人工智能进行价值观的干预。

还有一个重要的忧虑来自隐私,相对于AI的偏见或失控,人类对隐私的担忧要真实可感地多,毕竟,我们每天的吃住行都已经充分数字化,与之相伴的隐私暴露风险也指数级上升。

目前,国内从消费电子领域到安保、数字金融等领域都在逐步引入人臉识别,特别是随着“刷脸支付”的普及,用户的姓名、性别、年龄、职业等身份信息,甚至用户在不同情境状态下的情绪等信息都被机器收集。这些信息如果得不到妥善保管而被泄露,用户个人信息就处在“裸奔”状态。保护公民个人信息的安全,需要管理者、相关行业企业、公民个人的协同努力。目前在人脸识别技术领域,我国尚无相应的安全监管机制,应及早筹谋,完善法律法规、提升应用程度及存储设备的安全程度、强化网络安全和信息保护意识、规范行业信息收集标准等。

猜你喜欢
类脑机器标准化
机器狗
机器狗
标准化简述
神经元规模最大类脑计算机问世
基于多尺度网格细胞模型的无人机类脑矢量导航方法
未来机器城
标准化是综合交通运输的保障——解读《交通运输标准化体系》
论汽车维修诊断标准化(上)
交通运输标准化