北美首頁 | 新聞 | 時尚 | 大陸 | 台灣 | 美國 | 娛樂 | 體育 | 財經 | 圖片 | 移民 | 微博 | 健康
Value Engine Stock Forecast
ENTER SYMBOL(S)

專家稱人工智能對道德倫理問題提出重大挑戰

http://finance.sina.com   2017年03月20日 17:08   北京新浪網

人工智能可高效開展實際任務,如給照片貼標籤、理解口頭和書面自然語言、甚至幫助確診等。人工智能可高效開展實際任務,如給照片貼標籤、理解口頭和書面自然語言、甚至幫助確診等。

  新浪科技訊 北京時間3月21日消息,據國外媒體報導,人工智能如今無處不在。從決定購買哪本書、訂哪一班航班,到申請工作、獲取銀行貸款,我們生活的各個方面都與人工智能有着或多或少的聯繫。

  如今,這類事情主要由複雜的軟件系統做決定。人工智能在過去幾年中取得了巨大進展,有望從許多方面改善我們的生活。

  幾年來,人工智能的崛起已成了必然趨勢。人工智能初創公司收到了大筆投資。許多現有的科技公司,如亞馬遜、Facebook和微軟等巨頭,都已創建了研究實驗室。可以毫不誇張地说,軟件如今就代表着“人工智能”。

  有些人預言,人工智能將掀起一場比因特網更加猛烈的變革。而至於機器帶來的迅速變化將對人類産生怎樣的影響,几乎所有科技人員都將道德倫理視為關注重點。

  對於谷歌研究帶頭人和機器學習的領軍人物皮特·諾維格(Peter Norvig)而言,雖然由數據驅動的人工智能技術近期取得了一系列成功,但關鍵問題在於,我們必須弄清如何使這些新系統造福整個社會,而不僅是該系統的控制者。“人工智能可高效開展實際任務,如給照片貼標籤、理解口頭和書面自然語言、甚至幫助確診等。”他指出,“而我們必須確保所有人都能從中受益。”

  最大的問題在於,這些軟件往往極為複雜,無法參透人工智能系統採取某一行動的原因。如今的人工智能以機器學習技術為基礎,導致我們無法透過表面、看個究竟。因此我們只能姑且信任它們。但我們必須找出新方法,有效監控和審查人工智能參與的系統。

  哈佛法學院網絡法教授喬納森·齊特林(Jonathan Zittrain)認為,隨着計算機系統日趨複雜,人們或許將難以對人工智能系統進行密切監視。“隨着我們的計算機系統越來越複雜、聯繫越來越緊密,人類的自主控制權也不斷減少,這使我很擔心。”他表示,“如果我們‘放手不管,忘到腦后”,不考慮道德倫理問題,計算機系統的演化或許會令我們懊悔不已。”

  其他人也表達了同樣的憂慮。“我們如何判斷這些系統是否安全呢?”美國杜克大學人類與自主實驗室主管米西·康明斯(Missy Cummings)指出。她曾是美國海軍首批戰鬥機飛行員之一,如今是一名無人機專家。

  人工智能需要受到監視,但具體做法尚不清楚。“目前我們還未就監視方法達成統一意見,”康明斯表示,“在缺乏系統測試的行業標準的情況下,這些技術很難得到大規模應用。”

隨着人工智能的發展,機器人可以勝任更加複雜的工作。例如,日本的一家商店採用了機器人“導購”。  隨着人工智能的發展,機器人可以勝任更加複雜的工作。例如,日本的一家商店採用了機器人“導購”。

  但當今世界日新月異,監管機構往往落后一步。在刑事司法系統和醫療保健等重要領域,許多公司已經開始探索人工智能在假釋和診斷等問題上的決策能力。但如果將決策權交予機器,我們就面臨着失控的風險——這些系統真能在每起案例中做出正確的判斷嗎?

  微軟研發部門的主要研究員丹娜·博伊德(Danah Boyd)稱,我們必須嚴肅考慮此類系統附含的價值,還要確定最終擔責方。“監管機構、公民社會和社會理論學家都強力要求這些技術公平公正、符合道義,但這些理念仍然含糊不清。”

  道德問題對就業影響頗深。隨着人工智能的發展,機器人可以勝任更加複雜的工作,能夠取代越來越多的人類工人。例如,中國富士康集團已經宣佈將用機器人取代六萬名工廠工人。福特汽車在德國科隆的工廠也啟用了機器人,與人類工人並肩工作。

  此外,如果不斷提升的自動化水平對就業産生了重大衝擊,便會影響人類心理健康。“人生的意義來自三個方面:有意義的人際關係,充滿激情的興趣愛好、以及有意義的工作。”美國前總統奧巴馬醫療顧問、生物倫理學家伊齊基爾·伊曼努爾(Ezekiel Emanuel)指出,“有意義的工作是自我認同感的重要組成部分。”他還表示,在工廠倒閉率和員工失業率較高的地區,居民自殺、濫用藥物和患抑鬱症的概率也較高。

  因此,社會需要更多的倫理學家。“公司當然會跟隨市場潮流行事,這不是壞事,但我們不能指望他們負倫理責任。”麻省理工學院法律與倫理專家凱特·達爾林(Kate Darling)指出,“我們應當將監管措施落實到位。每當有新技術出現,我們都會開展這一討論,研究應對策略。”

許多工廠中,機器人已經開始與人類並肩工作。有些人認為這會使工人的心理健康受到影響。許多工廠中,機器人已經開始與人類並肩工作。有些人認為這會使工人的心理健康受到影響。

  達爾林指出,谷歌等許多知名公司已經成立了倫理委員會,監控人工智能技術的研發和部署。但這一做法還應進一步普及。“我們無意阻止創新,但眼下也許我們就該成立這樣的機構。”

  有關谷歌倫理委員會的成員和工作細節,我們還知之甚少。但去年九月,Facebook、谷歌和亞馬遜達成合作,旨在為人工智能為安全和隱私造成的挑戰提出解決方案。一家名為OpenAI的組織致力於研發和推廣造福全民的開源人工智能系統。“機器學習必須得到廣泛研究,並通過公開出版物和開原始碼傳播,這樣我們才能實現福利共享。”谷歌研究員諾維格指出。

  為制定行業與倫理標準、充分了解當前面臨的風險,需要倫理學家、科技人員和企業領導人共同參與。這一問題涉及如何駕馭人工智能、使人類更加擅長自己最拿手的領域。“我們更應關注如何利用相應技術幫助人類思考和決策、而非將人類取而代之。”齊特林指出。

Bookmark and Share
|
關閉
列印
轉寄
去論壇發表評論
DJIA17773.64
-57.12
NASDAQ4775.36
-29.93
S&P 5002065.30
-10.51

今日焦點新聞

新浪推薦