长者专版 / 南通市公安局
“视频通话”莫轻信,反复验证才是真 来源:南通市公安局 发布时间:2024-05-31 字体:[ ]

    技术进步改变着每个人的日常生活,同时潜在的AI视频诈骗风险也不容忽视。“眼见不一定为真”、“有图有视频也不一定有真相”的时代已经来临。

    20241月中旬,香港公司一财务人员收到一条来自总部首席财务官的消息,邀请他参加一个网上保密视频会议。在多人视频通话中,“高管”要求该财务人员将2亿港元分15次转至5个指定银行账户。事后,该财务人员向总部查询才知上当受骗。

    警方查明,本案中所谓的视频会议只有受害者一个“真人”,其他“参会人员”都是经过AI深度伪造后的涉案诈骗人员。犯罪分子事先利用网上公开的图像视频资料,提取总公司高层管理人员的声音和面部特征。借助AI深度伪造技术,制作出了高度还原的发言、讨论、下达命令的视频,并在视频通话时进行播放,让受害人信以为真,实施诈骗犯罪活动。

    警方提示,基于人工智能的深度造假具有很强的欺骗性,在资金转账和交易等典型场景中,通过多种渠道进行反复验证是必不可少的。建议公众提高防范诈骗意识,并做到以下几点:

    1.谨慎使用面部授权功能。

    2.警惕任何“打钱”要求。

    3.通过提问等方式,进一步核实身份。

    4.视频中要求对方用手在面前做出相应动作,并仔细观察面部是否受到干扰,以排除视频造假的可能。

    5.如遇诈骗,请及时拨打110

    (作者:尹栋梁,审核:刘欢,审签:蔡刘霖)