港澳版>新聞>中港台
  • AI名人短片假可乱真 专家授“防骗三招”避损失

    新闻观看次数:28.7k
    香港時間
    03月26日(三)
    20:38更新18:40建立
    东网电视
    更多新闻短片
    视频观看次数: 30k
    “深伪”技术(Deepfake)生成影片和图像泛滥,艺人古天乐、林峯早前被人用AI技术合成影片,伪造成内地网上赌博游戏的代言人,两人先后否认相关代言。有律师向《东呼即应》表示,若以人工智能搜集资料和制作影片,或违反私隐条例;如果非法制作及复印别人的版权作品,则触犯版权条例,最高可判罚款50万元及监禁8年。有专家提醒,如亲友要求视像对话,记得要核实身份,同时可要求对方做动作,留意穿崩位,从中找出破绽慎防骗局。
    现在骗案愈来愈多,而且骗徒充满诡计,懂得利用名人的相片和声音运用人工智能技术,伪造影片骗人。艺人古天乐及林峯最近无故“被代言”线上游戏,需要发声明澄清,可见“深伪”技术近年愈来愈横行。律师梁永铿表示,一般来说AI不是完全是自动,是有人控制、安排它怎样在网上搜集资料和制作,所以安排及控制的人也能看到当中的内容后才发放,所以安排人工智能搜集资料和制作的人,就会有一定的法律责任。他举例指,如深入地搜索了个人资料后,用在当事人没有批准的地方,这可能违反《个人资料(私隐)条例》。如果是涉及商业用途,甚至与《刑事罪行条例》有关,在一般复制别人的版权作品来发放,最高刑罚可处监禁4年,如果是控告非法制作及复印别人的版权作品,在《版权条例》的最高刑罚,可处监禁8年和罚款50万元。
    AI骗案层出不穷,有专家提醒大家在日常生活都要多加提防,即使接到亲朋好友的来电,都要打醒十二分精神。香港资讯科技商会荣誉会长方保侨表示,现时一部手机就已经可以做得到AI影片,亦有App专门制作,甚至一张照片就已经可以生成动画,用30秒的声音,就可以模仿一个人基本的说话和动作,所以现在透过深伪去模仿人其实是非常逼真。
    方又分享“防骗三招”,包括亲友视像对话记得核实身份、要求对方做动作留意小心穿崩位,以及遇到来历不明短片,要慎防堕投资骗局。他进一步称,如果有人发送短片给你,或者使用视像对话,首先要查一下,例如称家人向你求助或者向你索取金钱,就要核实一下亲人或朋友是否真的身陷险境,其实除非是一些在外地的朋友或者亲戚,否则一般朋友,都未必会开视像对话,所以如果有人开视像对话打给你,就算那个人是你认识的,也要特别留神。
    他续说,可以要对方在镜头面前做一些动作,看看会否有穿崩位。不过,现在的技术愈来愈精湛,可能这些都未必看得清楚。因为骗案一般都是贪心,亦有时因为心急希望救人而给赎金,所以如果有视像通话,就更加要留神。至于网上的短片,亦很容易伪冒任何一个名人,因为名人本身有大量的短片和声音在网上,所以某程度上要冒认这些名人是更加简单。如果市民发现在社交媒体,见到这些短片导入至群组里面,之后有很多人在那里对话时就要小心,因为大部分投资骗案,都是会将影片导入至群组,再在群组里面以不同的人跟你对话,来博取你的信任来投资。
    學到嘢
    16
    唔係啩
    8
    要留意
    78
    感謝您瀏覽東網。請按入詳細閱讀本網站所載之使用條款及細則私隱政策聲明,並須確定您同意接受有關條款及聲明的約束才可繼續瀏覽。