超三千名頂級大佬齊呼籲:暫停超級智能研發 沒有堅實證據確保安全

神马作文网 教育资讯 6

快科技10月26日消息,中美兩國人工智慧領域的頂尖專家和技術領袖聯名發起一項呼籲,在科學界達成「安全可控開發超級智能的廣泛共識」前,應暫停「超級智能」的研發。

這項倡議由非營利組織「未來生命研究所」發起,目前已獲多位重量級人士簽名支持,包括人工智慧先驅傑弗里·辛頓、蘋果聯合創始人史蒂夫·沃茲尼亞克、維珍集團董事長理查·布蘭森、經濟學家達龍·阿西莫格魯,以及前美國國家安全顧問蘇珊·賴斯。此外,哈里王子與夫人梅根、前政治顧問史蒂夫·班農等公眾人物也參與聯署。

截至10月23日中午,聯署人數已達3193人。中國學界亦有重要代表加入,包括中國科學院院士、圖靈獎得主姚期智,清華大學講席教授張亞勤,以及清華大學蘇世民書院院長薛瀾等。

所謂「超級智能」,指的是在所有認知任務上超越人類水平的人工智慧形態。儘管目前大多數公司所研發的仍屬於通用人工智慧(AGI),但「超級智能」所預示的能力已引發業界普遍憂慮。

聲明中指出,多家領先的AI企業正競相投入超級智能的研發,這一趨勢「引發了廣泛擔憂,包括人類在經濟上被取代與邊緣化、自由與公民權利受損、尊嚴與控制權喪失,乃至國家安全風險,甚至可能帶來人類滅絕的極端威脅」。

當前,「超級智能」已成為AI領域的熱詞。從埃隆·馬斯克的xAI到薩姆·奧特曼領導的OpenAI,多家機構正積極推進更先進的大語言模型研發。Meta甚至將其大語言模型部門直接命名為「Meta超級智能實驗室」。

在這一背景下,科技界對人工智慧發展的態度日益分化:一方視AI為推動社會進步的關鍵力量,主張自由發展;另一方則強調其潛在風險,呼籲加強監管。

值得注意的是,即便是馬斯克、奧特曼等身處AI研發前沿的領軍人物,過去也曾對超級智能的風險發出警告。例如,奧特曼在2015年的一篇博客中寫道:「發展超人類機器智能可能是對人類持續存在的最大威脅。」

中國科學院計算技術研究所研究員曾毅指出,目前絕大多數企業所研發的仍屬通用人工智慧工具,並非真正意義上的超級智能。然而,超級智能所帶來的風險目前在科學上仍無法有效控制。他特別提到,美國企業如Meta設立超級智能實驗室,以及阿里巴巴等中國公司公開宣稱研發超級智能,這些動向已超出通用人工智慧工具的範疇,值得高度關注。


抱歉,评论功能暂时关闭!