“脸”岂能想换就换

《中国市场监管报》(2023年06月02日 A3 版)

  随着人工智能技术的不断发展,AI实时换脸在直播间悄然出现。近日,有网友发现,“佟丽娅”“杨幂”“刘亦菲”等知名女星频繁出现在一些品牌直播间直播卖货。仔细一看,“奋力”卖货的主播并非明星本人,而是使用了AI实时换脸技术的普通主播。
  AI实时换脸技术可以将一个人的面孔替换为另一个人的面孔。最初AI实时换脸技术的运用,多是用来搞笑或者制作恶搞照片,使得原本平淡无奇的视频或照片变得更加生动有趣。然而,随着这种技术的走红,部分人却动起了“歪”心思,除了将明星的面孔用于商业活动外,更有甚者利用AI实时换脸及拟声技术,伪装成受害者好友或亲属进行诈骗。日前,内蒙古自治区包头市公安局公布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法定代表人郭先生10分钟内被骗了430万元。
  虚拟世界不是法外之地。民法典、网络安全法、个人信息保护法,以及《网络音视频信息服务管理规定》等法律法规,对生物识别、生成合成类内容等提出了不同程度的规制要求。2023年1月10日起施行的《互联网信息服务深度合成管理规定》进一步明确,提供人脸生成、人脸替换、人脸操控、姿态操控人物图像、视频生成服务的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识。任何组织和个人不得采用技术手段删除、篡改、隐匿深度合成标识。
  AI实时换脸技术属于深度合成技术。商家利用AI实时换脸技术将普通主播随意换成明星进行直播卖货,既“未经他人同意”,又“以营利为目的”,显然属于故意告知消费者虚假情况,或故意隐瞒真实情况,诱使消费者作出错误意思表示的行为,已经涉嫌违法。
  因此,商家和个人在使用AI实时换脸技术时,必须遵守法律法规和道德规范。监管部门、行业组织及平台应该加大对AI实时换脸技术的监管和管理力度,制定相应的规范和标准,确保其合法合规使用。同时,针对类似的诈骗案例,应加强防骗教育和提醒,提高公众对AI实时换脸技术的认知度,增强防范意识,避免上当受骗。

□火红羽白

 

网友最新留言
我要评报
  署名: