【以案说险】眼见不一定为实,谨防“AI视频”诈骗

 

一、案例概述

某日,刘阿姨到银行要求把前几天存的10万元定期转出。银行工作人员通过与刘阿姨沟通了解到,客户今日与女儿视频,女儿表示自己做生意差10万货款,让刘阿姨先帮忙垫付至某指定账户。为保障客户资金安全,银行工作人员建议客户通过电话与女儿确认后再转账。一开始,刘阿姨表示难不成连自己的女儿都不认识了吗?在工作人员的多番劝阻下,刘阿姨拨通了其女儿电话,女儿表示今天并未联系母亲。银行工作人员当即提醒刘阿姨报警,避免客户资金损失。

 

二、案例分析

现在社会网络技术发达,AI技术已经不再是纸上谈兵,从各种智能机器的人脸识别解锁功能到商场里的聊天机器人,再到现在AI换脸换装软件,“一键换脸,大叔秒变萝莉御姐”、“一键换声,大叔也能变成女儿声”需要注意,骗子也盯上了AI技术开始实施诈骗,微信视频中的“他”不一定就是你认识的“他”。

 

三、案例启示

1.多种渠道,验证身份目前AI换脸肉眼难以分辨,可以通过电话+视频等多渠道确认对方是否为本人。

2.银行汇款,安全升级将到账时间设置为“24小时到账”,预留处理时间,建议用银行汇款,避免用社交软件直接转账。

3.保护信息,避免诱惑。在任何场景中都应谨慎使用人脸、指纹、身份证号码等个人生物信息,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免不法分子利用AI技术实施诈骗。

4.相互提示,共同防范。做好家中老人的宣传防范工作,提醒老年人在接到电话、短信、视频时,要放下电话,再次拨打家人电话、视频确认,不要贸然转账、泄露个人信息。