
五一假期刚过,一条重磅安全提醒刷屏全网:网警紧急预警,警惕AI伪造骗局!如今骗子用上了AI“黑科技”,换脸、拟声、伪造视频… 足以以假乱真,不少人已中招,损失惨重 。
一、骗局升级:AI伪造,眼见不再为实
过去我们说“耳听为虚,眼见为实”,现在这句话彻底失效。AI深度伪造技术让声音、面容、视频都能被完美复刻,普通人肉眼几乎无法分辨 。
1. AI换脸视频诈骗
骗子盗取亲友社交账号,截取视频素材,用AI合成实时视频通话。画面里神态、表情、语气和真人一模一样,冒充家人、朋友、领导,以“车祸住院”“急事借钱”“项目垫资”为由催转账 。
真实案例:深圳王女士接到“儿子”视频求助,对方称急需50万元认购股权。画面声音完全一致,王女士未核实直接转账,事后才知是AI换脸 声纹克隆骗局,50万瞬间蒸发 。
2. AI拟声电话诈骗
无需视频,仅用声音就能骗钱。骗子通过网络搜集你的语音片段,用AI复刻语气、方言、口头禅,伪装成亲人、领导、客服制造紧急情境 。
真实案例:浙江84岁奶奶接到“孙子”电话,哭着说弄坏东西要赔600元,别告诉爸妈。奶奶心疼孙子,两分钟就转了钱,事后才发现是AI合成声音。

3. AI虚假内容造谣诈骗
除了骗钱,骗子还用AI生成虚假图片、视频、聊天记录,假冒官方账号发布假新闻、假政策,恶意造谣博取流量,甚至实施勒索 。
二、高发人群:这几类人最容易中招
- 老年人:对AI技术不了解,情感上容易信任“亲人”声音,是AI拟声诈骗重灾区。
- 职场人士:骗子伪装领导、客户,以“紧急转账”“项目垫资”为由诈骗,不少财务人员中招。
- 独居人群:平时和亲友联系少,接到“紧急求助”时容易慌乱,来不及核实就转账 。
三、网警支招:牢记“四不一核实”,守住钱袋子
面对AI伪造骗局,公安部网安局明确提醒:不轻信、不转账、不泄露、不传播,遇事多方核实。
✅ 不轻信:陌生来电、视频通话,哪怕声音面容再像熟人,只要提钱,一律先打问号。
✅ 不转账:涉及资金往来,无论多紧急,坚决不直接转账,走正规渠道核实。
✅ 不泄露:身份证、银行卡号、短信验证码、人脸信息,绝不随意透露给他人 。
✅ 不传播:未经核实的信息、视频、图片,不转发,避免成为谣言传播者。
✅ 多核实:通过原有手机号、微信私聊、当面确认等多种方式交叉验证,确认是本人后再操作 。

四、写在最后:提高警惕,全民防骗
AI技术本无善恶,却被不法分子利用成为诈骗工具。AI伪造骗局就在身边,没有距离感,稍有不慎就可能财产受损 。
网警提醒:保护个人信息,及时更新智能设备密码,关闭不必要权限,不给骗子可乘之机 。
你身边有人遇到过类似AI诈骗吗?你觉得AI骗局最难防范的是什么?欢迎在评论区留言分享,让更多人提高警惕,远离骗局!
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体107551