发布时间:2024-12-01 04:59:53 来源: sp20241201
眼见不一定为实,有图未必有真相。随着AI技术不断发展,AI合成,已经不仅限于换脸,或生成音频这么简单,而是可以将人脸、声音、手势动作等多种元素深度合成,甚至可以实现使用合成的人物进行实时视频通话。
而与此同时,AI合成的技术门槛也越来越低,使得普通人也可以轻松学会。如何去防范利用AI深度伪造技术的新型诈骗?又该如何通过治理让AI技术能更好向善?《新闻1+1》关注:人工智能造假行骗:能治吗?
人工智能造假行骗,责任如何划分?
对外经贸大学数字经济与法律创新研究中心主任 许可:在深度伪造技术发展、使用过程中,有非常多的主体发挥作用。有技术的研发者、分发者、使用者。利用技术实施诈骗的人,当然是第一责任人,但在整个生态中,技术的研发者、软件的分发平台以及传播相关信息的人也可能发挥着一定的作用,如何形成一种治理的合力?这里面可能要区分两种不同的责任:
一种责任是行为人的责任,比如说利用人工智能去诈骗的人。
另一种责任是平台责任,平台一端连着用户,一端连着提供人工智能技术的人,这要求平台发挥管理两边的责任。一旦发现违法违规行为,平台就应该采取积极措施,去制止无论是信息内容的发布者还是软件的提供者,从而实现整个平台治理的安全稳定。
法律如何应对人工智能造假行骗?
对外经贸大学数字经济与法律创新研究中心主任 许可:人工智能的发展其实刚刚开始,用在违法违规、刑事犯罪方面也不久,我国的法律也及时进行了应对。法律出台之后,需要做的是进一步实施和落地。这些新制度的出台,目前还仍在建规立制的阶段,通过各方的合力,既要依托于监管部门,不断将法规的细则落实到每一个主体身上,也要通过社会的综合治理,实现个人要知道、主张自己的权益,企业要知道、践行自己的责任和义务。还需要一个循序渐进、逐渐完善的过程。
AI生成合成内容将有“专属水印”
9月,国家网信办起草了《人工智能生成合成内容标识办法(征求意见稿)》,这能遏制“换脸”诈骗吗?
对外经贸大学数字经济与法律创新研究中心主任 许可:在大量AI深度伪造技术的诈骗中,最大的问题是被骗的人以为视频是真的。《人工智能生成合成内容标识办法(征求意见稿)》要求,通过人工智能生成的视频、音频、图片都必须加以明确的标识。这样,看到的人能够知道这是AI生成的内容。这种通过信息披露实现的治理,在我们现在来看是非常有效的措施。
老年人如何防范“AI换脸”诈骗?
对外经贸大学数字经济与法律创新研究中心主任 许可:这是一个素质素养提升的工作,因为信息鸿沟、技术鸿沟,很多老年人根本就不知道世界上还有这么一种技术,能把假的变成真的。
让老年人提升认识,需要包括媒体、教育机构、科研院所共同普及这方面的知识,告诉他们信息的真假是需要认真甄别的。另一方面,老年人获取信息的来源除了社会,很多是来自于家人。孩子们应该多和自己的父母、长辈沟通,告诉他们这些诈骗案例,让他们产生警惕。通过社会和家庭的共同作用,让老年人提升认识。(来源:央视新闻客户端) 【编辑:胡寒笑】