语音社交软件安全吗?腾讯小米字节Aauto rapper接受采访

语音社交软件安全吗?腾讯小米字节Aauto rapper接受采访

随着语音、社交、短视频、直播的普及,如果一个陌生人突然以你的声音和面孔出现在网络上,你会不会比担心自己的安全更惊讶?

3月18日,国家互联网信息办、公安部指示京、津、沪、浙、粤各地网络信息部门和公安机关依法约谈盈科、小米、亚图快、字节跳动、鲸数字服务、云账号、喜马拉雅、阿里巴巴、网易云音乐、腾讯等,督促其认真开展安全评估,按照法律要求完善风险防控机制和措施, 《网络安全法》 《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》等法规和政策,对安全评估中发现的安全隐患及时采取有效的整改措施,切实履行企业信息内容安全的主体责任。

所谓“深度伪造”,又称“深度伪造”,是计算机“深度学习”和“伪造”的结合,出现在人工智能和机器学习技术的时代。它是通过自动化手段,特别是人工智能算法技术,对数据进行智能生产、操作和修改,实现媒体传播行为的结果。说白了就是把机器学习算法输入到图片和声音中,进行“面部操作”,把自己的面部轮廓和表情转移到别人的脸上,利用声音的处理来制作正版视频。大多数深度伪造依赖于称为生成对抗网络的深度学习技术。

按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》的要求,具有舆论属性或社会动员能力的信息服务出现在线路上,或者信息服务添加相关功能;新技术和新应用的使用,极大地改变了信息服务的功能属性、技术实现方式和基本资源配置;用户规模显著增加的,互联网信息服务提供者应当自行进行安全评估,对评估结果负责,并向网络信息主管部门和公安机关提交报告。网络信息主管部门和公安机关根据安全评估报告的书面审查意见,按照各自职责对互联网信息服务提供者进行现场检查。

据社会人士透露,今后,国家互联网信息办和公安部将继续引导地方互联网信息主管部门和公安机关加大巡查力度,督促地方互联网企业严格遵守相关法律法规,积极履行安全管理义务,切实履行主体责任,共同维护网络传播秩序,营造良好的网络生态。

截至发稿时,相关企业尚未回复记者的采访请求。业内多位相关业务人士告诉第一财经记者,此举主要是为了技术规范,进一步明确和统一了企业的技术安全使用标准。

此前,语音社交软件Clubhouse在国际上的流行,不仅引发了类似产品的模仿追求,也引发了业界对语音的社会保障的思考。2019年夏天,一段貌似是“马克扎克伯格”本人的假视频在Instagram上广为流传。视频中,“扎克伯格”声称“完全控制了数十亿用户的数据,掌握了他们所有的秘密”。经调查发现,这是一个艺术恶搞项目,对AI换头技术和Deepfake有害,而非虚假信息故意传播。

后来,Facebook和Reddit联合发布了针对Deepfake的审计政策。这个政策的方向不是彻底消灭这种伪格局,而是进一步缩小“消灭”的目标重点。Facebook表示,将从平台上移除“高度误导性的媒体信息”,这些信息是由机器学习技术以普通人看不见的方式“编辑或合成”的,误导了视频中“假冒”角色的言论。

另外,最近几个短视频平台上的“蚁牙黑”变脸恶搞视频已经火起来,传到了颤音、Aauto faster、微博、朋友圈。这种特效技术可以神奇地用画框跳舞。变脸效果最初来源于一个叫做Avatarify的AI变脸软件。今年3月2日,Avatarify从中国的App Store移除。该官员没有解释移除的原因。除了Avatarify,Deep怀旧、ZAO等平台也因为AI变脸应用而备受争议,背后的原因都涉及到DeepFake技术和面部识别的真实性导致的个人隐私泄露和滥用。

一位要求不透露姓名的首席互联网安全工程师告诉记者,Avatarify的免职主要是因为侵犯了变脸恶搞视频。从技术上讲,这些变脸应用可能突破人脸识别和身份认证的场景,攻击者可能利用AI变脸来诈骗风控系统。此外,语音伪造技术也将被犯罪组织用于今天的声音社会化消防。较大的厂商一直在改进相关技术,未来R&D升级的技术水平将面临各种风险。随着相关技术监管的加强和企业的自我完善,未来AI变脸和语音社会化的应用将更加严格和谨慎。

栏目推荐