AI商业应用暗藏六大风险

2019-09-24 18:31韩微文
销售与管理 2019年1期
关键词:机器人工智能智能

韩微文

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程进行模拟。

人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。

AI能够在许多领域保护人们免受已知或未知威胁的伤害,帮助人们保持彼此之间的联系,能以比人工更快的速度、更低的成本完成工作,并可能提供更好的解决方案。但是随着AI逐渐渗入到我们的日常工作和生活中,人们开始意识到AI所带来的一些预期之外的结果,例如人工专业技能的缺失。我们应该如何着手并处理这些问题呢?

AI的六大风险

根据贝恩多年来积累的经验,我们认为,对商业领袖和技术投资者们来说,了解并处理以下六大风险已成为不容忽视的责任:

1.隐形错误

与传统、以规则为导向的程序不同,AI模型通过自我学习提供答案,但却并非完美无缺。很多AI模型的不透明性以及快速扩张的能力有可能将真正的错误隐藏起来。例如,随着自动驾驶和飞行系统的训练数据飞速增长,以这些数据为基础的模型也在飞速进步,但是人们还是能够不断地在算法中发现错误,某些情况下,只有在车毁人亡的悲剧发生后才被发现。

2.个别能力的缺失

过于依赖AI的一个结果是,人们在技能、判断性思维和理解能力方面有可能存在缺失,这种情况不仅出现在新手出租车司机身上。一位硅谷工程师曾表示他的网站上的推荐算法让他的团队不再投入太多的思考精力,不了解自己业务的基本要素和真正的需求推动因素,对团队来说是一件十分危险的事情。

3.新的灾难

和传统员工一样,AI算法是可以被操纵的。不同的是,员工在被管理层监督的时候自己所能做的决策相对较少,而AI算法可以在暗中自作主张。黑客们对AI的攻击才刚刚开始,随着AI算法发挥作用的领域越来越广(帮助电商平台定价、决定车险费率、招聘等),经理们必须预见算法被人操纵的可能性并及时进行相应的调整。

4.“惯例化”偏见

大多数AI机器是通过研究编辑好的数据样本进行学习的。一位AI专家也许能够理解一套算法是如何得出结论的,或者这对专家来说也如黑箱一般神秘莫测。这就引发了人们对于偏见的担忧,因为任何通过历史数据进行训练的算法,会很自然地在自己的结论中体现出数据中存在的偏见。这可能会导致一些严重的问题,例如歧视性的借贷算法,或是一些误导性的结论,例如从现有客户数据样本进行学习的算法会自然而然地偏向现有客户群的偏好,从而忽略了潜在客户群的口味。

5.缺乏同理心

随着越来越多的企业利用机器人等与消费者进行互动,他们不得不承受与客户日渐疏远的风险。对企业高管来说,用算法代替自己来管理员工,就像让算法控制网约车司机一样,给人一种疏远感。疏远感可能会减少管理者感同身受的能力,弱化他们倾听各个团队的能力。

6.失控

AI驱动的决策体系既方便又快捷,因此非常具有吸引力,但是有時也需要人为参与。现在,无人机执行某些远程任务时必须要进行人为判断,而随着人们对这项技术越来越熟悉,这一状况有可能会发生改变。这是一件好事吗?同样还有很多关于AI削弱人类控制权的难题。对于商业领袖来说,克服这些问题是十分必要的。

猜你喜欢
机器人工智能智能
机器狗
机器狗
2019:人工智能
智能前沿
智能前沿
智能前沿
智能前沿
未来机器城
数读人工智能
下一幕,人工智能!