東網電視
更多新聞短片
視頻觀看次數: 29.9k

「深偽」技術(Deepfake)生成影片和圖像氾濫,藝人古天樂、林峯早前被人用AI技術合成影片,偽造成內地網上賭博遊戲的代言人,兩人先後否認相關代言。有律師向《東呼即應》表示,若以人工智能搜集資料和製作影片,或違反私隱條例;如果非法製作及複印別人的版權作品,則觸犯版權條例,最高可判罰款50萬元及監禁8年。有專家提醒,如親友要求視像對話,記得要核實身份,同時可要求對方做動作,留意穿崩位,從中找出破綻慎防騙局。
現在騙案愈來愈多,而且騙徒充滿詭計,懂得利用名人的相片和聲音運用人工智能技術,偽造影片騙人。藝人古天樂及林峯最近無故「被代言」線上遊戲,需要發聲明澄清,可見「深偽」技術近年愈來愈橫行。律師梁永鏗表示,一般來說AI不是完全是自動,是有人控制、安排它怎樣在網上搜集資料和製作,所以安排及控制的人也能看到當中的內容後才發放,所以安排人工智能搜集資料和製作的人,就會有一定的法律責任。他舉例指,如深入地搜索了個人資料後,用在當事人沒有批准的地方,這可能違反《個人資料(私隱)條例》。如果是涉及商業用途,甚至與《刑事罪行條例》有關,在一般複製別人的版權作品來發放,最高刑罰可處監禁4年,如果是控告非法製作及複印別人的版權作品,在《版權條例》的最高刑罰,可處監禁8年和罰款50萬元。
AI騙案層出不窮,有專家提醒大家在日常生活都要多加提防,即使接到親朋好友的來電,都要打醒十二分精神。香港資訊科技商會榮譽會長方保僑表示,現時一部手機就已經可以做得到AI影片,亦有App專門製作,甚至一張照片就已經可以生成動畫,用30秒的聲音,就可以模仿一個人基本的說話和動作,所以現在透過深偽去模仿人其實是非常逼真。
方又分享「防騙三招」,包括親友視像對話記得核實身份、要求對方做動作留意小心穿崩位,以及遇到來歷不明短片,要慎防墮投資騙局。他進一步稱,如果有人發送短片給你,或者使用視像對話,首先要查一下,例如稱家人向你求助或者向你索取金錢,就要核實一下親人或朋友是否真的身陷險境,其實除非是一些在外地的朋友或者親戚,否則一般朋友,都未必會開視像對話,所以如果有人開視像對話打給你,就算那個人是你認識的,也要特別留神。
他續說,可以要對方在鏡頭面前做一些動作,看看會否有穿崩位。不過,現在的技術愈來愈精湛,可能這些都未必看得清楚。因為騙案一般都是貪心,亦有時因為心急希望救人而給贖金,所以如果有視像通話,就更加要留神。至於網上的短片,亦很容易偽冒任何一個名人,因為名人本身有大量的短片和聲音在網上,所以某程度上要冒認這些名人是更加簡單。如果市民發現在社交媒體,見到這些短片導入至群組裏面,之後有很多人在那裏對話時就要小心,因為大部分投資騙案,都是會將影片導入至群組,再在群組裏面以不同的人跟你對話,來博取你的信任來投資。