手机版
首页 > 实时讯息 >

【天眼问法】还能相信你的眼睛吗?以假乱真的AI诈骗如何防范

只需一张静态照片即可生成动态视频,凭借几秒语音便能克隆声纹——这些曾被视为科幻场景的技术手段,如今正成为新型犯罪的作案工具。针对“AI换脸”等技术滥用引发的侵权违法乱象,国家互联网信息办公室与公安部近日联合发布《人脸识别技术应用安全管理办法》,明确规范人脸信息处理规则与技术安全要求,该法规将于2025年6月正式实施。

AI诈骗形式“花样百出”

贵阳市公安局反诈中心披露的典型案例显示,福州某科技公司负责人郭某曾接到"好友"视频电话,对方以项目竞标为由要求代转430万元保证金。由于视频中人物形象与好友完全一致,郭某未经核实即完成转账,最终虽追回330万元,但仍造成重大损失。

在杭州,犯罪分子利用AI技术突破平台人脸认证,强制登录他人账号,窃取大量私人数据和敏感信息并出售获利,AI技术也被用于网络犯罪,对公民个人信息安全构成严重威胁。

民警介绍,AI诈骗目前主要有以下几种类型:1、声纹合成诈骗:通过克隆特定对象声线实施电话欺诈;2、影像伪造诈骗:生成虚假紧急场景骗取信任;3、智能客服诈骗:构建对话系统诱导转账操作;4、情感交互诈骗:训练语言模型建立虚拟情感关系。

AI生成的图片

AI诈骗的危害性和影响范围都超过了传统诈骗,除了带来一定的财产损失和心理创伤,AI诈骗正逐渐瓦解社会信任。

危险的AI骗局,该如何防范?

面对技术赋能的犯罪升级,贵阳市公安局反诈中心提出"动态验证+信息防护"双重策略:

1.实时交互验证:视频通话时可要求对方完成指定动作(如连续眨眼、面部遮挡),观察画面延迟或变形等异常特征

2.生物特征防护:避免在非必要场景留存人脸、声纹、指纹等数据,谨慎授权信息采集类应用

3.终端安全管理:定期更新设备防护系统,拒绝来源不明的网站链接

4.信息泄露预防:不随意公开身份证件、住址等敏感信息,手机避免存储证件照片

贵州日报天眼新闻记者 赵哲铭

编辑 郭睆秋

二审 刘娟

三审 刘丹