港澳版>新聞>中港台
  • AI名人短片假可亂真 專家授「防騙三招」避損失

    新聞觀看次數:28.7k
    香港時間
    03月26日(三)
    20:38更新18:40建立
    東網電視
    更多新聞短片
    視頻觀看次數: 29.9k
    「深偽」技術(Deepfake)生成影片和圖像氾濫,藝人古天樂、林峯早前被人用AI技術合成影片,偽造成內地網上賭博遊戲的代言人,兩人先後否認相關代言。有律師向《東呼即應》表示,若以人工智能搜集資料和製作影片,或違反私隱條例;如果非法製作及複印別人的版權作品,則觸犯版權條例,最高可判罰款50萬元及監禁8年。有專家提醒,如親友要求視像對話,記得要核實身份,同時可要求對方做動作,留意穿崩位,從中找出破綻慎防騙局。
    現在騙案愈來愈多,而且騙徒充滿詭計,懂得利用名人的相片和聲音運用人工智能技術,偽造影片騙人。藝人古天樂及林峯最近無故「被代言」線上遊戲,需要發聲明澄清,可見「深偽」技術近年愈來愈橫行。律師梁永鏗表示,一般來說AI不是完全是自動,是有人控制、安排它怎樣在網上搜集資料和製作,所以安排及控制的人也能看到當中的內容後才發放,所以安排人工智能搜集資料和製作的人,就會有一定的法律責任。他舉例指,如深入地搜索了個人資料後,用在當事人沒有批准的地方,這可能違反《個人資料(私隱)條例》。如果是涉及商業用途,甚至與《刑事罪行條例》有關,在一般複製別人的版權作品來發放,最高刑罰可處監禁4年,如果是控告非法製作及複印別人的版權作品,在《版權條例》的最高刑罰,可處監禁8年和罰款50萬元。
    AI騙案層出不窮,有專家提醒大家在日常生活都要多加提防,即使接到親朋好友的來電,都要打醒十二分精神。香港資訊科技商會榮譽會長方保僑表示,現時一部手機就已經可以做得到AI影片,亦有App專門製作,甚至一張照片就已經可以生成動畫,用30秒的聲音,就可以模仿一個人基本的說話和動作,所以現在透過深偽去模仿人其實是非常逼真。
    方又分享「防騙三招」,包括親友視像對話記得核實身份、要求對方做動作留意小心穿崩位,以及遇到來歷不明短片,要慎防墮投資騙局。他進一步稱,如果有人發送短片給你,或者使用視像對話,首先要查一下,例如稱家人向你求助或者向你索取金錢,就要核實一下親人或朋友是否真的身陷險境,其實除非是一些在外地的朋友或者親戚,否則一般朋友,都未必會開視像對話,所以如果有人開視像對話打給你,就算那個人是你認識的,也要特別留神。
    他續說,可以要對方在鏡頭面前做一些動作,看看會否有穿崩位。不過,現在的技術愈來愈精湛,可能這些都未必看得清楚。因為騙案一般都是貪心,亦有時因為心急希望救人而給贖金,所以如果有視像通話,就更加要留神。至於網上的短片,亦很容易偽冒任何一個名人,因為名人本身有大量的短片和聲音在網上,所以某程度上要冒認這些名人是更加簡單。如果市民發現在社交媒體,見到這些短片導入至群組裏面,之後有很多人在那裏對話時就要小心,因為大部分投資騙案,都是會將影片導入至群組,再在群組裏面以不同的人跟你對話,來博取你的信任來投資。
    學到嘢
    16
    唔係啩
    8
    要留意
    78
    感謝您瀏覽東網。請按入詳細閱讀本網站所載之使用條款及細則私隱政策聲明,並須確定您同意接受有關條款及聲明的約束才可繼續瀏覽。