北美首頁 | 新聞 | 時尚 | 大陸 | 台灣 | 美國 | 娛樂 | 體育 | 財經 | 圖片 | 移民 | 微博 | 健康
Value Engine Stock Forecast
ENTER SYMBOL(S)

Facebook秘密檔案泄露:賺錢(和背鍋)是AI的使命

http://finance.sina.com   2018年04月14日 03:25   北京新浪網

  作者 :夏乙 李杉 

  來源:量子位

  相關專題:扎克伯格出席聽證會 應答FB數據泄露事件

  國會聽證大戲剛剛落幕,一份機密檔案的曝光,又把Facebook推到了聚光燈下:

  這家公司利用AI賺錢,有很特別的方式。當然,美國民衆聽聞之后,又是一陣緊臟。

  賺錢利器

  美國媒體The Intercept最新獲取了一份Facebook機密檔案,其中透露了Facebook提供給廣告主的一項貼心服務:忠誠度預測。

  這是一項基於人工智能的服務。

  所謂忠誠度預測,簡單來说就是一句話:預測用戶的未來行為,作為廣告投放的依據。

  在別的平台,廣告主能根據用戶現狀來精準投放廣告,而在Facebook,廣告主依據的,可能是用戶還沒做出的決定。

  通過預測自己的20億用戶接下來面臨什麼選擇,Facebook做到了“比你更懂你”,幫廣告主“提升了營銷效率”。

  比如说,有了忠誠度預測服務,Facebook完全可以说:親愛的蘋果,親愛的三星LG華為,我們的AI能預測出幾百萬iOS用戶有心轉投Android,你們要不要精準投放一下?

  你接下來做出什麼決定,就在平台和廣告主一念之間。

  相比之下,購物車裏放個高達就再送上一大波手辦的淘寶,根據搜索詞來分發廣告的Google百度,都太簡陋了。

  因為Facebook所掌握的數據,詳細周全到任何一家同行都望塵莫及。

Facebook如何用AI來精準投放廣告。The Inception整理Facebook如何用AI來精準投放廣告。The Inception整理

  

  從檔案中可以看出,Facebook“忠誠度預測”依靠的數據有:用戶位置、設備信息、所連接Wi-Fi網絡的情況、看了什麼視頻、親朋好友的各種細節……

  甚至你和朋友聊天的內容,也是廣告投放的指路明燈。參議員Bill Nelson就遇到了:“昨天我在Facebook上跟朋友聊天時,提到喜歡某種吃巧克力,接着突然我開始收到各種巧克力的廣告。”

  這位參議員遇到的,只是Facebook廣告服務的冰山一小角。

  這就好像,你的一切,早已經被Facebook的AI看光光。

  這就是上面提到的,AI比你更懂你。

  這個技能,如果被“泛化”……應用在其他方面,或者被其他人所利用的話,想想還真是有點怕怕。這也難怪美國人民又有點炸鍋。

  Facebook说,為保護用戶隱私,所有數據都聚合的、匿名的。當然,Facebook也不賣數據,他們出售,或者说出租的,是通過自己分析數據而實現的“預測”能力。

  劍橋分析獲取的那點三手數據,都能用來實現千人千面推送政治廣告,手握20億用戶全方位信息的Facebook,要決定你下一部手機來自誰家只會更容易。

  面對質疑,Facebook想扯上同行們。這家公司在回應中表示:

和很多其他廣告平台一樣,Facebook用機器學習技術,來向正確的人展示正確的廣告。我們並不宣稱知道人們所思所感,也不會將用戶個人信息分享給廣告主。

  擋箭牌&背鍋俠

  你以為AI只能用來賺錢?拿衣服。

  Facebook最近還為AI開闢了又一大新功能:背鍋。

  國會山10小時,人工智能戲份不少。小扎反復提起,似乎十分依賴,甚至寄予厚望。但深究起來,它一直是個擋箭牌和背鍋俠。

  減少仇恨言論?AI能搞定。

  恐怖主義招募信息?AI能搞定。

  虛假帳號?還是AI。

  俄羅斯干涉大選?AI。

  種族歧視廣告?AI。

  安全問題?AI。

  那這個問題怎麼解決?靠AI吧。

  問題為什麼還沒解決?AI還不夠好。

  在內容審查問題上,Facebook的AI就一直在嘗試,從未被認可。

  小扎在聽證會上反復提到,Facebook的檢測系統在沒有任何人添加標籤的情況下就自動刪除了99%的“恐怖主義內容”。2017年,Facebook宣佈“嘗試”用人工智能來探測“可能支持恐怖主義”的言論。

  99%的“恐怖主義內容”,很可能是以圖片和視頻形式為主。經過訓練的機器學習算法,現在識別圖像的準確率在特定的數據集上甚至早已超越人類,各家公司也都投入了大規模的使用。

  但是,更多的內容是以文字形態出現的。

  但是,AI理解自然語言的能力甚至還達不到幼兒園水平。人類語言的一些細微差別,人工智能識別起來表現堪憂,讓它來分辨真假新聞也是強AI所難。

  小扎自己也承認,Facebook用來識別仇恨言論的AI,現在錯誤率實在是太高了。想要依靠AI審核內容,可能“還需要5-10年”。

  到今年年底,Facebook打算雇2萬人來做安全和內容審查。

  這種反復用“人工智能”做辯護的行為,也遭到了媒體的批評。

  人工智能這個詞太寬泛了,想要確切地定義它,寫進教材就是整整一章。它包含各種自動化、機器學習等等。The Verge發表的一篇文章说,“人工智能”這個詞,讓小扎在一群外行人面前找到了一種托詞,畢竟他們沒有能力展開深入提問。

  欺負我們不懂技術?有一位議員做出了反擊。

  加裏·彼得斯(Gary Peters)追問了一個關於人工智能透明度的問題:“你知道,人工智能並非沒有風險,你必須對這種算法的構建方式保持極高的透明度。”

  是的,你的擋箭牌:人工智能,它本身就很有問題。

  扎克伯格承認這個問題非常重要,他還表示,Facebook有一整個人工智能倫理團隊來解決這個問題。

  只不過,就算不说人工智能,Facebook以及它的同行們,對“透明度”的理解也只是基本等同於“模糊地寫在用戶協議裏”。這似乎並不能解決什麼問題。

  至於Facebook這一輪道歉的核心——數據泄露並被Cambridge Analytica濫用的問題,人工智能也幫不上什麼忙。

  而在真的需要人工智能的時候,它雖然有着巨大潛力,卻也會因為使用了有問題的數據集而帶上偏見。傾向於將黑人認作罪犯、認為女性和科學工作不搭等等問題,在人工智能的應用中層出不窮。

  For Good

  扎克伯格在聽證會上说:

Across the board, we have a responsibility to not just build tools, but to make sure those tools are used for good。”

  打造工具,並確保這些工具用來做好事了。但願小扎和他的同行們真的相信這句話,還能記住它。

  最后發個彩蛋,小扎這次的國會聽證,不少美國人看完之后,说扎克伯格是機器人……然后就有人出來惡搞了不少視頻。

  這是其中一段。

  說著說著短路了……

  修吧修吧,修好了……

Bookmark and Share
|
關閉
列印
轉寄
DJIA23533.1992
-424.6900
NASDAQ6992.6659
-174.0107
S&P 5002588.2600
-55.4300

今日焦點新聞

新浪推薦