为什么大型科技公司在人工智能助理上的赌注如此冒险?

2023-11-26 10:07综合整理
海外星云 2023年11期
关键词:电子邮件聊天人工智能

自生成式人工智能热潮掀起以来,科技公司一直在努力地为这项技术开发杀手级应用程序。最开始是在线搜索,目前的情况是喜忧参半。现在轮到了人工智能助手。

OpenAI、Meta和谷歌为他们的人工智能聊天机器人推出了新功能,允许它们联网并扮演某种私人助理。

据威尔·道格拉斯·海文报道,OpenAI为ChatGPT加入了新功能,其中包括与聊天机器人进行对话的能力,就像在打电话一样,它可以用逼真的合成声音即时回答你口头提题。OpenAI还透露,ChatGPT将能够搜索网络内容。

作为竞争对手,谷歌Bard聊天机器人已接入该公司的大部分生态系统,包括Gmail、Docs、YouTube和地图。其目标是,人们将能够使用聊天机器人询查询自己的信息,例如,让它搜索电子邮件或整理日常安排。

Bard还将能够立即从谷歌搜索中检索信息。类似地,Meta也宣布,它也将部署人工智能聊天机器人。用户将能够在WhatsApp、Messenger和Instagram上向人工智能聊天机器人和名人的人工智能虚拟化身提问,人工智能模型可以从必应搜索中在线检索信息。

考虑到技术的局限性,这是一个冒险的行为。科技公司还没有解决人工智能语言模型的一些存在已久的问题,比如他们有编造东西或“产生幻觉”的倾向。

科技公司正在将这项存在严重缺陷的技术交到数百万人的手里,并允许人工智能模型访问他们的电子邮件、日历和私人信息等敏感信息。在这个过程中,他们使我们都更容易遭遇大规模的诈骗、网络钓鱼和黑客攻击。

现在,人工智能助手可以访问个人信息并同时搜索网络,他们特别容易受到一种称为间接提示注入的攻击。它非常容易实现,而且没有已知的修复方法。

人工智能系统可能会被恶意操纵,允许攻击者尝试提取人们的信用卡信息。随着新一代人工智能模型接入社交媒体和电子邮件,黑客有了更多漏洞可钻。

向OpenAI、谷歌和Meta询问,问他们做了什么来抵御提示注入攻击和“幻觉”倾向等问题,但Meta和OpenAI没有回复。

关于人工智能的幻觉倾向,谷歌的一位发言人表示,该公司发布Bard是一项“实验”,它允许用户使用谷歌搜索来核实给出的答案。

“如果用户发现了编造或不准确的东西,我们鼓励他们点击‘不喜欢’图标并提供反馈。这是Bard学习和改进的一种方式。”显然,这种方法让用户承担了发现错误的责任,然而人们往往过于信任计算机产生的回应。关于我提出的抵御提示注入的问题,谷歌表示目前还没有答案。

对于提示注入,谷歌表示这个问题还没有一个好的解决方案,仍然是一个活跃的研究领域。该发言人表示,该公司正在使用垃圾邮件过滤器等其他系统来识别和过滤可能的攻击,并正在进行对抗性测试和红队演练,以确定恶意行为者可能如何攻击基于语言模型的产品。“我们正在使用经过专门训练的模型,来帮助识别违反我们政策的已知恶意输入和不安全输出。”

每次新产品发布都会有经过一段时间的磨合。但即使是人工智能语言模型产品的早期支持者,对这些产品也没有什么好印象,这很说明问题。《纽约时报》专栏作家凯文·罗斯发现,谷歌的助理善于总结电子邮件,但也会告诉他收件箱里不存在的电子邮件。

简而言之,科技公司不应该对所谓的人工智能工具的“必然性”如此自满。普通人不会喜欢那些经常犯错和失败的产品,尤其是其背后的技术总是以令人讨厌和不可预测的方式失效。距离看到黑客恶意使用这些新的人工智能助手只是时间问题。现在只能坐以待毙。

猜你喜欢
电子邮件聊天人工智能
有关旅行计划的电子邮件
2019:人工智能
人工智能与就业
数读人工智能
我就是不想跟你聊天了
敞开门聊天
下一幕,人工智能!
民事诉讼电子邮件送达制度的司法适用
小测试:你对电子邮件上瘾了吗?
聊天不倒王