AI诈骗

2020-04-20 11:00Holly
老年博览·上半月 2020年4期
关键词:女星交友诈骗

Holly

随着各种骗术不断被曝光,受骗的人逐渐减少。但骗子们也没闲着—既然AI(人工智能)技术已经在不同领域蓬勃发展,何不也搭上这趟顺风车,对行骗方式进行一场“升级改造”呢?

声音可以伪造

早在2016年,谷歌的人工智能实验室就开发出了一种声音合成技术,2017年又成立了Lyrebird公司。在该公司的网站上,你能听到官方合成版的奥巴马和特朗普的声音,几乎和本人的没有区别。这项技术如果被诈骗团伙掌握,他们就完全可以通过给你拨打骚扰电话提取你本人的声音信息,然后通过声音合成技术制作出模拟你本人的音频信息,再利用这一信息冒充你,对你的亲朋好友实施诈骗。

半年前,广东警方打掉了一个利用交友软件进行诈骗的“公司”。该团伙制作了多款交友软件,并设计出了AI机器人,假装与目标用户“谈恋爱”,骗取信任,再引诱其坠入事先安排好的消费陷阱。

类似的骗局不只出现在交友软件中。据人民网报道,微信语音是又一个被AI诈骗入侵的领地。一位姓赵的女士收到“父亲”的留言,称自己买菜没带钱,让她转200元过去。长了个心眼的赵女士还问了一句:“爸,是你吗?”收到对方肯定的语音答复后,便将钱转了过去。谁料,语音消息里的声音的确是父亲的,那段语音却并非来自父亲。

眼见未必为实

声音靠不住,那可以靠脸吗?答案是:脸可能也靠不住。

如今,AI技术已经发展到可以给人“换脸”的程度了。这不是说要给你整容,而是说AI已经具备了“移花接木”的能力,比如在影像中把A的脸“换”到B的身体上。

开发这一技术的初衷是为了完善某些影视作品,比如让已去世的保罗?沃克回归《速度与激情7》,斯坦?李老爷子继续出现在漫威系列电影中,但这一技术显然在朝着失控的方向发展。

电影《神奇女侠》的扮演者盖尔?加朵的脸曾被一名网友换到了某色情小电影女主角的身体上,第一眼看上去竟毫无违和感,仿佛这个片子本来就是她演的一样。同样遭此恶搞的还有比她更大牌的女星,如安妮?海瑟薇、艾玛?沃特森等。

制作女星换脸小电影的程序员不仅免费发布了他所谓的成果,还将制作视频的教程“无私”地分享了出来。算法公开后没多久,就被改造成了一个人人都能上手的App(应用程序)。开发者表示,这是一款“普通人可以突破技术壁垒去使用人工智能技術”的程序。

被恶搞的不止知名女星,连奥巴马和特朗普这些国家元首级的人物都未能幸免:马丁?路德?金和奥巴马实现了某种跨时空互换,尼古拉斯?凯奇的脸被换成了特朗普的……

令人担忧的是,这种恶搞还在逐渐向普通人蔓延。虽然后来很多平台都对这项技术颁布了禁令,但并未能阻止此类视频的制作和传播,就像打开了潘多拉的魔盒一样。

印度有一位记者因为揭露了政府官员的黑幕,被不法分子利用这项技术将她的脸和某色情片的女演员互换,做成了粗糙的短视频在网上传播。不少人信以为真,甚至连她的家人也陷入困惑。在巨大的压力下,她一度抑郁,甚至住进医院。无独有偶,美国的一位家庭主妇在得知自己的脸被换到某色情女演员身上后,也每天活在恐惧之中。

文字、语音、图像甚至视频的真实性都不可信任了,试想一下,如果技术继续不受控制地发展下去,未来会怎样?

被代码撕开的人性遮羞布

AI技术的不当运用可能引发的不只是诈骗、诬陷、报复、勒索,它掀起的信任危机,将会把每个个体卷入其中。

过去不堪电信诈骗之扰的人,未来在AI诈骗面前可能逃无可逃。更可怕的是,如果有不法分子控制了新闻机构的网站或账户,发布一些不实消息,还可能造成假新闻泛滥。

技术带来的问题,可能最终还得通过技术来解决。为了规避AI技术带来的潜在风险,欧美的一些国家安全机构已着手研发“反AI”工具,力图“以AI克AI”。美国国防部高级研究计划局的研究人员发现,通过观察眼睛的状态,比如是否眨眼,可以检测出哪张是AI合成的脸,哪张是真实的脸。

这种角力大概会一直持续下去。各位研究人员应当谨记:技术本身无罪,但运用技术的人应该善良。

(摘自微信公众号“ELLEMEN睿士”,林冬冬荐)

猜你喜欢
女星交友诈骗
00后交友到底有多“野”
见财贪心起,交友要小心
春节前夕小心“实名诈骗”
诈骗
警惕电信诈骗
注意防范电信诈骗
交友天地
女星发“饰”界 打造潮女气质
交友小木屋
新闻浮世绘