据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。韩联社资料图
9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。
中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。”张博向记者详细展示了AI换脸过程和原理,“只需要输入一张正面静态图片,借助人工智能技术,便可以实时‘移花接木’。”
他进一步介绍,AI换脸的3大步骤原理:面部识别追踪、面部特征提取、面部变化融合。“整体的原理是通过计算机深度学习,精准识别人脸图像,然后提取眼睛、鼻子、嘴巴等重要的面部特征,然后把这些特征与目标人脸图像进行匹配,替换和融合。”
“如果接收到视频信息,视频通话,要仔细观察对方的面部轮廓是否存在异常的模糊,光线是否正常,”张博说道,“如果有必要的话,可以要求对方快速大幅度地抬头、点头、转头,然后来仔细观察这个过程当中,面部轮廓是否有异常模糊。”中国移动信息安全与管理运行中心副经理王晓晴表示,一方面,检查面部特征,观察表情和动作,以及声音和口型匹配度;另一方面,要观察情绪和语境,核实信息来源,让对方用手遮住面部或进行其他面部动作判断画面是否连贯。“需要采集面部信息的场景,市民群众还是需要额外留心网络环境和周围环境。”在遇到疑似AI换脸的场景中,可以选择通过更加直接的方式,比如说给当事人打个电话,确认对方身份是否真实。网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,我们在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。