FB機械人智能叛變真相大白!
20170803
東網電視
更多新聞短片
最近引起全球轟動的AI(人工智能)失控事件,話說社交網站Facebook旗下的AI開發團隊竟然自行以人類不懂的機械人語言溝通。
對於這次所謂智能叛變,Facebook人工智能團隊認為一些媒體的報道有失事實,造成不良影響。團隊指,事件起源於Facebook上個月發表的一篇論文。論文中闡述了一個Facebook例行的科學研究項目,展示了2個人工智能機械人如何在看過人類的談判後,開始互相之間展開對話交流,並通過試驗逐漸提升談判的能力。
具體而言,Facebook人工智能研究院的科學家利用神經網絡結構開發了一個人工智能系統。這個結構叫做「生成式對抗網絡」(Generative Adversarial Networks,GAN)。所謂「生成式對抗網絡」,就好比人類的對抗遊戲,你的帳戶能在不斷的對抗中提升技能,玩得愈多,水平就會愈高。
Facebook的研究人員希望訓練這樣一個聊天機械人,讓它帶着目的和人類對話。這個目的也很簡單:一共有2本書、1頂帽子和3個籃球,3樣東西分別設定了不同的權重,為的是讓機械人明白它到底有哪些需求,然後去和人談判。
Facebook的研究員對2個機械人聊天能聊成甚麼樣產生了興趣。在研究過程中,系統中的2個聊天機械人Alice和Bob產生了讓人看不懂的對話。這段對話乍看像是一堆無法解讀的亂碼,研究人員後來發現,原來是在為系統設置激勵條件時,雖然告訴了它們「請用英文」,但忘了告訴它們:「請用英文語法」。
對此,科技界人士表示:「Facebook不太高明的工程師寫了個不太高明的算法,裏面忘記設置要用英語語法交流,結果2台機械自己不管語法,搞了一點以為是機械人的語言出來。就像我們小時候玩的紅白機boss會做一些詭異的攻擊動作一樣。」他補充道,人工智能可能還很傻,千萬別高估了它。
Facebook研究人員對此則表示:「人工智能機械人確實沒有使用標準正確的英語語法進行對話,但這並不是重點。這項研究原本是為了使得機械人之間能夠更加有效地進行談判,我們的目的達到了,完成了任務。」
為此,Facebook重新設定了正確的激勵機制,修正了機械人的行為,讓機械人說人話。這段表態中值得注意有兩點,其一,機械人並沒有發明自己的語言,只是創造了新的表達方式,其二,Facebook修正機械人行為,並不代表關掉這個系統,原因也不是因為害怕系統失控,而是為了更加有效地進行新的實驗。
─ ─ ─ ─ ─ ─
東網已全面支援360影片及相片,讓你全方位睇盡新聞大事,恍如置身現場,立即登入東網360專頁:http://on.cc/360vr/
「東網Money18」全新功能「貼市貼士」,助你掌握投資先機
「致富智庫」領悟理財/職場智慧,一Click改變一世