首页 > 科技要闻 > 科技> 正文

从换脸骗钱到套壳卖课,AI诈骗如何避坑?

赵甜怡 编辑:赵甜怡 发布于:2024-03-14 17:09 PConline原创

作者:赵甜怡

编辑:曾宪天

 

当人们把2023年看作是AI元年时,2024年的目光自然地聚集在了AI应用的落地上。然而,在商业化之前,AI已经变成了某些灰色产业的敛财工具。

 

莫名其妙的电话、热情的异国美女、谣言、诈骗……在你无意识的时候,AI骗局就已经来到你身边。PConline收集整理了四大AI新骗局,来看看你最“眼熟”哪一个?

 

骗局一:语音求救

  • 常见范围:微信、电话
  • 目标人群:覆盖所有,其中家长居多

 

面对陌生的号码你可能会直接挂掉,但是如果是家人打来的“求救电话”呢?

 

根据中国新闻网的报道,去年11月,王欣的母亲突然接到一通“王欣”打来的电话,声称自己被绑架,让母亲转账30万元,否则“后果自负!”着急的王欣母亲立马就打算给对方转钱,被同事拦了下来。同事建议先给王欣打电话,确认情况。结果,真实的王欣正在睡午觉,啥事也没。而那通“求救电话”就是骗子利用王欣的AI克隆声音制作的。

 

近几年,AI语音合成技术有了显著的发展,一些C端的应用也逐渐成熟。像Voice AI、剪映等应用中都提供生成AI克隆音色的功能。只要念两个例句,人人都能轻松生成自己的AI音色。不仅如此,现在的技术已经可以在保证声音的高保真度的同时,模拟你的音色,甚至细致到你说话时的口音、重音、换气的节奏等等,完全可以满足实时的互动需求。

 

先前在网络上爆火的“AI孙燕姿”就曾引得一众讨论。Up主用孙燕姿的AI克隆音色翻唱《发如雪》《Melody》等众多知名歌曲。该视频合集获得了2000多万的播放量。网友们都在惊叹,AI甚至会改变原曲中的部分旋律,依照孙燕姿的曲风特点进行调整,几乎能做到以假乱真的水平。同时,网友们也都开始担心,技术一旦被滥用,防诈骗的成本就更高了。

这样的担心不无道理。据网友分享,自己曾接到过一通莫名其妙的电话。一接通,对方就问“你家在哪”。一头雾水的网友回答“不知道”,径直挂断了电话。然而就在几天后,网友的家人就接到了“网友”的求救电话——骗子仅凭一句话就能生成网友的AI克隆声音,实施诈骗。

 

如果你认为,耳听为虚,眼见为实。视频信息才能确认身份,那么接下来这个骗局,将会颠覆你的想法,让你惊呼“防不胜防!”

 

骗局二:换脸诈骗

  • 常见范围:微信、线上会议、FaceTime
  • 目标人群:覆盖所有,熟人关系居多、针对女性居多

 

如今,眼见为实的“铁律”也会面临意外的情况。福州市的郭先生就曾因为这条“铁律”狠狠吃了亏。

 

“平安包头”曾公布一起案例:在去年4月份,郭先生的朋友突然打来微信视频电话,说自己在外地投标,需要430万的保证金,想借郭先生公司的账户走一下帐。这位“朋友”随即将钱打到了郭先生的账户上,并且截图让郭先生确认。虽然还未等来银行的通知信息,但郭先生还是先把钱转了过去。结果,跟他视频的,是用AI换了脸的骗子,佯装成郭先生的朋友来骗钱。

 

郭先生报警后,还专门表示:“我在视频中确认了面孔和声音,才放松了戒备。”

 

其实,“眼见为虚”的换脸技术我们早就见过。这种技术名叫Deepfake深度伪造,是一种将图片/视频合并叠加到源图片/视频上,生成虚假的个人表情、动作的AI技术。在2023年上映的《流浪地球2》中,就是利用这个技术,将62岁的刘德华还原到我们印象中年轻的华仔模样。

 

据《流浪地球2》的视觉特效徐建的分享,在电影中,Deepfake的技术方案是用要替换的目标演员的海量素材训练AI替换拍摄素材的一种方式,相对省时省力省钱。在好莱坞电影制作中,这样的操作很常见。漫威的年轻版钢铁侠和年轻版黑豹都是基于Deepfake和演员年轻时的2D素材训练AI得出的。

 

但先进的技术往往是一把双刃剑。落到居心叵测的人手里,就变成了伤人的利刃。

 

前不久,数百万网友在推特上看到了由AI生成的美国著名女歌手Taylor Swift的不雅照。这一组在推特上被查看了4700万次的照片,就是由Deepfake生成的。影响之恶劣,以至于推特直接禁止搜索#Taylor swift#的词条。然而,Taylor并不是第一个受害的女明星。打开某些网站,甚至会有专门的“名人明星”分类,里面充斥着各种AI换脸的女明星。

 

根据专注于检测Deepfake的情报公司Sensity AI的一份报告,目前网上超过 96%的Deepfake图像都具有色情性质,而且几乎所有图像都针对女性。

 

发布在社交媒体上的照片,可能被别有用心的人拿来“喂”AI。普通人也随时面临着被“开盒”(指网络上公开曝光他人隐私的行为)的风险。根据奇安信集团发布的《2024人工智能安全报告》,“2023年基于AI的深度伪造(Deepfake)欺诈暴增了3000%”。

 

利用换脸技术来招摇诈骗固然可怕,然而更深的套路是“攻心计”。

 

骗局三:美女带货

  • 常见范围:视频号、抖音、小红书等多家社交媒体平台
  • 目标人群:覆盖所有,其中男性居多

 

一个俄罗斯大美女向你发来视频,说想嫁到中国,你会支持她吗?相信90%的人都会表示支持。

 

外国人的面孔、些许生硬的中文,再配上浓厚的滤镜,就组成了庞大的异国美女队伍。这些“小姐姐”来自全球各地(近两年以俄罗斯居多),#中俄友谊#是她们一定会带的视频标签词。在她们发布的视频中,首当其冲的主题就是“想要嫁到中国”。

在这一主题下,“小姐姐们”的视频叙事采取了丰富多样的角度:

“虽然我是xx国人,但中国是我的家。”

“朋友家人都不理解,但我知道我迟早是中国媳妇。”

“你愿意娶一个不要彩礼的俄罗斯女生吗?”

……

 

如果你对美女这个赛道不感兴趣,也没关系。还有认知思维赛道、军事赛道、时事评论赛道等等,各式各样的“外国人”都任你选择。

 

这就是AI的新套路。视频全部都是由AI合成的假人,再配上机器语音,打着“促进国际友谊”的旗号,出售商品。这些“外国人”谈论着中国社会的方方面面,评论区收获了许多真心实意的支持。不少粉丝评论留言:“你比中国人还了解中国!”“为你的中文点赞!”

 

即使视频中,“外国友人”把“了(liǎo)解”念成了“le”解,仍能收获10万+的点赞,橱窗中19.9元的杂粮粥仍能卖出30万的惊人销量。

 

在这背后操刀的是自媒体团队。他们的商业思路十分清晰:先通过视频来积累粉丝——到达一定粉丝量后,开橱窗带货——实现变现。由于制作成本低,在起号阶段,一人往往能运营数十个账号,视频的脚本也是通用的。无所谓单个账号是否有爆款,“广撒网,多敛鱼”,商品销量才是最终目的。

 

即使常有文案“撞车”的情况发生,这类视频还是吸引了大量来自三四线城市的中老年粉丝群体,纷纷为了“国际友谊”下单。

 

如果你认为,这是对下沉市场的招数,你绝不会上当。那么下一个骗局,就是专门针对年轻群体的AI套路。

 

骗局四:AI知识付费

  • 常见范围:微博、抖音、小红书等多家社交媒体平台
  • 目标人群:积极学习的年轻群体

 

“现在不学AI,第一波失业的就是你!”“AI工作年薪200万,入门方法免费教你!”“AI是普通人逆袭的最后机会!”你一定没少看到这样的标语。

 

从2022年底,OpenAI发布ChatGPT开始,学习AI就成了新风潮。随着科技巨头们不断推陈出新,各行各业的内容创作者们也铆足了劲,在自己的账号、社群中发布越来越多的AI课程——“零基础学AI”“AI绘画教程”,甚至还有“教你如何做AI课程”的课程。

但大水漫灌的结果,必然是泥沙俱下。

 

不少年轻粉丝奔着学习新知识去,却领了“吃一堑,不长智”的教训。许多内容创作者利用信息差,将国外免费开放的官方AI教学翻译过来,就成了自己的课件,美美卖课。像许多“零基础AI”课程中常见的“prompt使用技巧”,其实是来自OpenAI官网发布的教学内容。这些标价199、299元的课程还赠送了“免费AI体验”。但实际上,是本就免费开放的大模型,再加上一个套壳包装罢了。

 

一些粗制滥造的AI课程丝毫不影响这个市场的火热程度。不少焦虑的年轻人仍在直播间疯狂下单。在抖音,一个4万粉丝的博主,近800元的AI录播课竟有2000+人学习,这意味着,单课程销售额至少160万元。

 

这些授课人就是通过传播焦虑的方式来促进课件的下单量。一不小心你就会成为“韭菜园里最靓的一棵”。

 

写在最后

上面四种AI骗局,你被哪个绊住了脚?

 

其实,现在互联网上的AI骗局远不止这些。网络安全公司Fortinet发布的《2024全球安全威胁预测》中提到,AI已经成为“头号关注”。假视频被频繁用于传播谣言,一张朋友圈照片也有可能被拿去换脸。有些人借着AI技术的发展,炮制了一个又一个新骗局。不明真相的我们,一不小心就会走入这“量身定制”的套路。

 

虽然关于AI的法制监管都在积极的推进中,但政策只是保护的一方面。另一方面还在于我们自身。擦亮眼睛、审慎思考,才是我们面对骗局的有效出路。

 

(本篇文章中的案例均为真实事件,化名。)

AI   AI诈骗   AI安全   AI防诈
赵甜怡

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部