揭秘!“AI换脸”诈骗背后,黑灰产使用的手段
近日,警方通报了一起使用智能AI技术进行电信诈骗的案件。被骗者是福州市某科技公司法人代表郭先生,他通过微信视频接到自己好友的电话,对方佯装需要借用他公司账户走账,并通过智能AI换脸技术伪装成好友成功骗取了郭先生430万元。
虽然警方在银行协助下成功拦截了336.84万元,但仍有93.16万元资金被转移。此类高科技、智能化的电信诈骗越来越多,提醒大家要保持警惕,谨防上当受骗。
诈骗是如何发生的?
根据公开披露的资料显示,在这起电信诈骗案件中,骗子对受害人进行了长时间的观察和资料收集,对受害人的家庭、工作、社会关系、行踪、轨迹、习惯、作息等有了比较清晰的了解,然后利用仿冒账号、合成声音、AI换脸等手段实施了诈骗。是一次定向的、利用多种社工方式的APT攻击。
制作仿冒账号。添加受害人的社交账号,下载社交账号头像,并实时复制受害人发布的朋友圈和信息动态,然后同步制作受害人的仿冒账号,并通过各种方式添加受害人的朋友、同学、同事为好友。
AI声音合成。通过电话录音、通讯视频语音等来提取受害人的声音,然后进行通过AI进行声音合成,从而可以用伪造受害人的声音。
AI技术换脸。通过深度伪造技术,还可以实现视频/图像内容中人脸的替换,甚至能够通过算法来操纵替换受害人的面部表情,再通过视频方式进行信息确认,以取得对方信任。
AI换脸诈骗的操作防范
为了保障个人的财产安全和个人信息安全,操作上千万要注意。如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游,需要帮忙买机票”“给领导办私事,需紧急转账”“遭遇车祸,需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕。
1、不要轻易提供个照片、视频、语音人生物信息给他人或公开分享动图、视频等。因为你提供的信息可能会被盗用,导致身份被冒充或者隐私泄露。
2、在社交软件、短信等通讯工具接到熟人或领导的汇款请求时,切勿未经核实随意转账汇款,更不能轻易透露自己的身份证、银行卡、验证码等信息,以免被骗子利用。
3、在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款,务必通过电话等多种渠道核验对方身份,无论对方是谁,尤其是在陌生人或者不熟悉的人之间进行交易时,要谨慎核实对方身份,确保交易双方均真实可信。一旦发现风险,要及时报警求助。
4、陌生链接不要点,陌生软件不要下载,陌生好友不要随意添加,不明二维码不要随意扫描。管理好自己的朋友圈,也不要轻易向陌生人开启手机屏幕共享。
AI换脸的风险分析与技术防范
针对AI技术换脸的风险,2022年顶象发布的《人脸识别安全白皮书》特别提到,当前阶段人脸风险主要集中在人脸信息泄露、人脸识别算法不精准和人脸识别系统不安全等三个方面。
第一,人脸识别被绕过风险。戴上眼镜、帽子、面具等伪装手段,或者可以制作人皮高仿模型、将2D人脸照片3D建模、利用AI技术将静态照片变成动态照片等多种技术均,混淆算法判断,骗过有效性不高的人脸识别算法和活体监测算法。
第二类,人脸信息被盗取冒用风险。通过各类公开或非法手段,收集、保存、盗取正常的人脸数据,然后通过各种方式进行非法冒用。
第三类,人脸识别系统遭劫持篡改风险。远程入侵篡改人脸识别系统验证流程、信息、数据等,将后台或前端的真数据替换为假数据,以实现虚假人脸信息的通过。
因此,提升人脸系统安全性的尤为重要。
通过对人脸识别应用、App、客户端进行代码混淆、加密加壳、权限控制,做好终端环境安全检测;对数据通讯传输混淆加密,防止信息传输过程中遭到窃听、篡改、冒用;风控决策引擎能够全面检测设备环境,实时发现注入、二次打包、劫持等各类风险及异常操作;建专属的风控模型,为发现潜在风险、未知威胁、保障人脸识别安全提供策略支撑。
顶象业务安全感知防御平台基于威胁探针、流计算、机器学习等先进技术,集设备风险分析、运行攻击识别、异常行为检测、预警、防护处置为一体的主动安全防御平台,能够实时发现摄像头遭劫持、设备伪造等恶意行为,有效防控各类人脸识别系统风险。它具有威胁可视化、威胁可追溯、设备关联分析、多账户管理、跨平台支持、主动防御、开放数据接入、防御自定义和全流程防控等特点。