侵权投诉
订阅
纠错
加入自媒体

陈根:虚拟会议伪造人脸,深度合成的技术危害还在蔓延

2022-02-24 11:39
陈述根本
关注

文/陈根

疫情催生了各种新常态,从网络教学到远程办公,也让人们习惯了各种各样的视频会议。这也给黑客利用网络进行诈骗提供了途径。

近日,美国联邦调查局(FBI)警告企业小心不法人士利用虚拟会议工具,发动俗称变脸诈骗的商业电邮诈骗(Business Email Compromise,BEC)。要知道,随着人工智能技术的发展,想要伪造出受害者的人脸已经不再是难事,其具体使用的,就是人工智能的“深度合成”技术,深度合成技术源于人工智能系统生成对抗网络(GAN)的进步。

GAN由生成器和识别器两个相互竞争的系统组成。建立GAN的第一步是识别所需的输出,并为生成器创建一个培训数据集。一旦生成器开始创建可接受的输出内容,就可以将视频剪辑提供给识别器进行鉴别;如果鉴别出视频是假的,就会告诉生成器在创建下一个视频时需要修正的地方。

陈根:虚拟会议伪造人脸,深度合成的技术危害还在蔓延

根据每次的“对抗”结果,生成器会调整其制作时使用到的参数,直到鉴别器无法辨别生成作品和真迹,以此将现有图像和视频组合并叠加到源图像上,最终生成合成视频。

深度合成通过软件收集的用户照片,以及眨眼、摇头等动态行为信息,会对用户的隐私安全等造成伤害。2019 年 3 月份,《华尔街日报》报道,有犯罪分子使用深度伪造技术成功模仿了英国某公司在德国母公司 CEO 的声音,诈骗了220 000 欧元(约1 730 806人民币)。其破坏性可见一斑。

正如此次FBI所指出的,从2019年到2021年,FBI接到越来越多和虚拟会议有关的BEC,攻击者通常是冒充公司高层或部门主管,命令受害者汇款到诈骗账号,一如以冒名电子邮件进行的诈骗。

根据FBI,利用新科技进行BEC攻击的手法包括黑客冒充公司CEO或金融主管如首席财务官(CFO),发送电子邮件加入虚拟会议,会议中冒用CEO/CFO的静态照片,宣称镜头或麦克风故障无法操作,有的用deep fake音效,有时不发声音,要求员工通过虚拟会议平台或后续的电子邮件汇款。有的则是利用CEO邮件账号插进员工的虚拟会议中“旁听”,以搜集公司业务或研发活动信息。

面对发生在虚拟会议平台的变脸诈骗威胁,除了企业应留心不熟悉的虚拟会议等,从社会角度来看,更应该对深度合成这样的技术进行规制,用技术对抗技术的风险,用制度将技术的风险限制。

       原文标题 : 陈根:虚拟会议伪造人脸,深度合成的技术危害还在蔓延

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表im体育立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

行业报告

最新活动更多

安防 猎头职位 更多
  • 北京市/海淀区
  • 北京市/海淀区
  • 上海市/虹口区
  • 福建省/福州市
  • 北京市/海淀区
  • 北京市/海淀区
  • 北京市/海淀区
  • 广东省/深圳市
  • 广东省/深圳市
  • 广东省/深圳市
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号