自由講場

跳至

首頁
1

尾頁
   0


公爵府

積分: 25736


1#
發表於 25-10-23 11:33 |只看該作者


超級智能近日已成為AI領域的熱門,xAI、OpenAI等巨頭競相發布更先進的大語言模型,Meta更直接設立「Meta 超級智能實驗室」。

然而,不少業内人士警告AI滅絕人類的風險,蘋果聯合創辦人Steve Wozniak 、AI教父Geoffrey Hinton等科技領袖及學者周三(22日)聯名呼籲停止開發全面超越人類智慧的AI「超級智能」。


聯合聲明籲禁開發「超級智能」

這份聲明指出,創新的AI工具或許能帶來前所未有的健康與繁榮,但許多領先的AI公司也宣稱,其目標是在未來十年內打造超級智能,使其在幾乎所有認知任務上的表現都遠超人類。這引發了許多擔憂,包括人類經濟的衰退和無能,自由、公民權利、尊嚴和控制權的喪失,以及國家安全風險,甚至可能導致人類滅絕。

因此呼籲禁止開發超級智能,要具備以下條件才能解除禁令:

1. 有廣泛的科學共識認為此舉將安全且可控地完成,且

2. 獲得公眾的強烈支持。

與這封信同時發布的民意調查顯示,64%的美國人認為超級智能「在可證明其安全可控之前不應發展」,只有5%的人認為應該盡快發展。絕大多數受訪者(73%)支持對人工智能進行強有力的監管,反對強力監管的比例僅12%。


AI教父︰須科學設計AI
使之無法傷害人類

聯署名單包括多位AI先驅,例如被稱為現代AI教父的計算機科學家Yoshua Bengio和Geoffrey Hinton,以及著名AI教科書《人工智能︰一種現代方法》合著者Stuart Russell。


滿地可大學計算機科學教授、圖靈獎得主Yoshua Bengio在聯名信中表示:「前沿AI系統可能在短短幾年內在大多數認知任務上超越大多數人類。這些進展或許能為重大全球挑戰提供解決方案,但也蘊含著巨大風險。為了安全地邁向超級智能,我們必須科學地確定如何設計AI系統,使其從根本上無法傷害人類,無論是透過失調還是惡意使用。我們還需要確保公眾在影響共同未來的決策中擁有更大發言權。」

加州大學柏克萊分校計算機科學教授Stuart Russell寫道:「這並非通常意義上的禁令,甚至不是暫停令。它僅僅是要求對一項技術採取充分安全措施的提案,據其開發者所言,該技術極可能導致人類滅絕。這要求過分嗎?」

學、商、政界領袖支持 已徵得逾860個簽名

其他頂尖學者亦參與聯署,例如諾貝爾物理學獎得主John Mather、Frank Wilczek,諾貝爾經濟學獎得主Daron Acemoğlu,清華大學人工智能學院院長姚期智,清華大學「智能科學」講席教授、百度前總裁張亞勤,中國科學院自動化研究所人工智能倫理與治理中心主任、聯合國人工智能高層顧問機構專家曾毅等。


簽署聲明的商界人士則有蘋果聯合創辦人Steve Wozniak、維珍集團創辦人Richard Branson、羅氏集團副主席Andre Hoffman、Skype聯合創辦人Jaan Tallinn等。

媒體、宗教和政界亦不乏簽名者, 例如美國總統特朗普前顧問Steve Bannon、前國家安全顧問Susan Rice以及哈里王子夫婦。

截至周四(23日)上午10時35分,聲明已累積3,189個簽名,聯署名單仍在不斷增加。



首頁
1

尾頁

跳至
你需要登錄後才可以回帖 登入 | 註冊

Presslogic Logo
Baby Kingdom Logo