中國自動化學會專家咨詢工作委員會指定宣傳媒體
新聞詳情
gkongbbs

霍金等數(shù)百名科學家呼吁人們重視人工智能安全

http://casecurityhq.com 2015-01-14 16:45 來源:今日早報

  不少科幻電影中,一些人工智能機器拒絕服從人類指揮,甚至殺死或控制人類,最終統(tǒng)治世界。為避免這類情況出現(xiàn),包括英國理論物理學家斯蒂芬·霍金在內,數(shù)百名科學家和企業(yè)家聯(lián)合發(fā)表一封公開信,敦促人們重視人工智能安全,確保這類研究對人類有益。

  近年來,人工智能技術高速發(fā)展,在給人們生活帶來便利的同時,可能存在危險性。一些科學家認為,人工智能可能比核武器更具威脅。

  公開信說:

  人工智能技術存在潛在危險

  英、法等國媒體12日報道,這封信由非營利機構“未來生活研究所”發(fā)布。除霍金外,在信上簽名的還有美國機器人和智能機械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學獎獲得者弗蘭克·維爾切克、美國網(wǎng)絡通訊軟件Skype創(chuàng)始人之一揚·塔利英、美國太空探索技術公司和美國特斯拉汽車公司首席執(zhí)行官埃隆·馬斯克,以及一些來自美國哈佛大學、斯坦福大學等知名高校的頂尖學者和一些來自谷歌公司、微軟公司等高科技企業(yè)的工作人員。

  這封公開信說,人工智能技術穩(wěn)定發(fā)展已獲“廣泛共識”,而且未來能夠給人類帶來巨大益處。信中說,人工智能已經(jīng)為人類生活提供便利,包括語音識別技術、圖像分析技術、無人駕駛汽車和翻譯工具。

  公開信說:“由于人工智能的巨大潛力,有必要研究如何在從其獲益的同時避免潛在的危險。”

  霍金提醒:

  防止人工智能科技失控

  信中寫道,人工智能技術發(fā)展良好,但給社會帶來的沖擊逐漸增加。如果沒有針對人工智能的安全防護措施,可能導致人類的未來變得黯淡,甚至讓人類滅亡。

  短期而言,人工智能可能導致數(shù)以百萬計人失業(yè);長期而言,可能出現(xiàn)一些科幻電影中的情況,人工智能的智力水平超過人類,開始“政變”。按人工智能的發(fā)展進度,在不久的將來,機器可能以不斷加快的速度重新設計自己,超越受制于生物進化速度的人類,最終擺脫人類的控制。

  這封公開信說:“我們的人工智能系統(tǒng)必須按照我們的要求工作。”

  今年早些時候,霍金提醒,需警惕人工智能科技過度發(fā)展,防止人工智能科技失控并超越人類智慧,最終破壞整個星球。他說,成功創(chuàng)造人工智能科技“將是人類歷史上最偉大的成就,但不幸的是,有可能也是最后一項(成就)”。

  去年10月,太空探索技術公司和特斯拉汽車公司首席執(zhí)行官馬斯克在美國麻省理工學院參加一場活動時說:“我認為對待人工智能我們必須非常謹慎。按照我的猜想,人工智能可能是我們面臨的最大滅絕風險。”

  馬斯克說,創(chuàng)造人工智能猶如“召喚一只惡魔”,“在一些故事中,有人擁有五星陣法和圣水……他確信自己可以控制這只惡魔,不過事實并非如此”。

  為確保人工智能不被誤用,美國谷歌公司不久前成立一個倫理委員會,監(jiān)督這家企業(yè)的人工智能技術研發(fā)。

版權所有 中華工控網(wǎng) Copyright?2024 Gkong.com, All Rights Reserved