Facebook利用新軟件 刪870萬張兒童色情照

20181025
東網電視
更多新聞短片
Facebook利用新技術,刪除大量用戶上載的兒童裸照。
社交網巨擘Facebook周三(24日)表示,在過去3個月利用嶄新的軟件技術,刪除870萬張用戶上載的兒童裸照,以加強打擊平台上的兒童色情內容。
Fb的機器學習工具在過去一年,識別出同時含有兒童及裸露成分的照片。Fb周三再公布一個類似的系統,以找出把兒童加入朋友以達性剝削目的的用戶。Fb此前從未公布刪除兒童裸照的數字,早前公布首季、為打擊色情活動及成人裸照而刪除的約2100萬則發文及留言中,相信有部分兒童色情內容已算入在內。
Fb全球安全部門主管戴維斯(Antigone Davis)受訪稱,這些機器協助貼文審閱人員,把有問題的貼文分先後緩急;儘管系統可能誤刪沒問題的貼文,但用戶可以上訴。Fb正探索把該技術應用在Instagram App上。