查看: 7049|回复: 0

[众观天下] 骗子开始用AI技术诈骗了!眼见不为实,耳听也是虚!

[复制链接]
     
发表于 2023-4-24 09:05:58 | 显示全部楼层 |阅读模式 来自: 江苏常州
免责声明:本文仅代表作者个人观点,与山水网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
最近ChatGPT引爆AI风潮


刷新了人们对AI的认知


AI技术是把“双刃剑”


在给人们生活提供便利的同时


也给不法分子留下了可乘之机


眼见不一定为真


耳听也不一定为实


微信图片_20230213103421.png
从声音、图像到视频


只要你一不小心就会“入套”


今天就带大家


分辨AI“花式”骗局


练就“火眼金睛”


让AI诈骗“无所遁形”!






举案说新诈



小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱,小刘向来谨慎,担心“小韩”不是本人,没想到“小韩”发来一条语音,声音很像本人,后来“小韩”又给小刘打了一通视频电话,看到对方的脸后,小刘便相信了对方,于是小刘便给“小韩”提供的银行卡转了6000元,小刘转完钱后越想越不对劲,觉得“小韩”表情僵硬,于是拨打小韩的电话,没想到小韩的QQ账号被盗了,这才意识到被骗,随后立即报警。


警方初步判断,通话的视频极有可能是诈骗分子通过AI技术“变声”、“换脸”诈骗手段合成而来。






AI诈骗常见手法


01


AI合成声音诈骗


骗子会通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,利用AI技术进行语音合成,使诈骗对象放松警惕,进而用伪造的声音实施诈骗。


02


AI换脸诈骗


人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。


03


AI筛选受骗人群


骗子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。






警方提醒





1.多重验证,确认身份


在涉及钱款时,大家要提高安全意识,通过电话、视频等方式确认对方是否为本人,在不能确定真实身份时,要格外留意、不要着急汇款,避免上当受骗,建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。


2.保护信息,拒绝诱惑


为避免骗子窃取个人信息实施诈骗,大家应当加强个人信息保护意识,·切勿接听任何陌生人邀请的视频验证或语音聊天,谨防骗子利用AI技术搜集人脸、声音等素材,掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。


3.相互提醒,共同预防


当前信息技术发展快,老人常常难以适应,中青年人要及时做好家中老人的宣传教育工作。提醒老年人对不认识、不熟悉的人和事,均不要理睬,向老年人及时解析新型诈骗手段,以防被骗。遇到亲友借钱,应多方核实,不要贸然转账。


来源:金坛公安分局

您需要登录后才可以回帖 登录 | 立即注册