![]() 第4代「香港飛龍」標誌 本文内容: 6月10日,OpenAI首席執行官山姆·奧特曼(Sam Altman)在博客上發表《溫柔的奇點》(The Gentle Singularity),並稱這可能是他“最後一篇不依賴AI寫成的文章”。他在文中表示,人類或許已跨越了通往數字超級智能的“事件視界”,即進入了一箇不可逆的AI發展階段。“奇點”原是數學術語,後被美國作家弗諾·文奇引入科技史領域,用以描述技術增長加速到無法預測的臨界點。未來學家雷·庫茲韋爾則將其與AI相連,提出2045年將實現AI超越人類智能的“技術奇點”。近年來,隨着AI突飛猛進,這一預測不斷被提前——庫茲韋爾在其新書中將時間表改爲2029年。儘管“奇點”何時到來長期存在爭議,許多人仍將其視爲遙遠的未來。然而奧特曼卻宣稱,它已經悄然降臨,並非以劇烈衝擊,而是以溫柔、幾近無聲的方式實現。這番言論引發熱議:有人稱其洞見深刻,有人批評其過於樂觀,亦有聲音指出,這番言論發佈時機恰逢GPT-o3pro亮相,或許不過是營銷策略。那麼,奧特曼的判斷到底是前瞻洞察,還是博眼球的策略?人類真能溫柔地穿越“奇點”嗎?還是說,要實現這一願景,還需我們自身的制度準備與主動作爲?一、“奇點”降臨之辨我們是否如奧特曼所言,已經來到了“奇點”之前?要判斷這一點,不妨先回顧他在博文中列出的幾個主要依據:首先,當前AI的發展已達到相當水平。奧特曼指出,以ChatGPT爲代表的AI在能力上已超過歷史上的任何一箇個體人類,數以億計的人每天依賴它們完成工作。2025年,具備真正認知能力的智能體已初步成形,編程等原本被認爲只能由人類勝任的任務,已有相當一部分由AI接手。按此趨勢推測,2026年或將出現能夠自主提出新見解的系統;2027年,能夠在現實世界中執行任務的機器人也有可能問世。第二,AI已展現出初步的遞歸式自我改進能力。過去,科研與技術開發主要依賴人類推動,技術演進是由外部驅動的。但如今,AI本身已在算法研發、新材料探索、芯片設計等領域扮演關鍵角色。這使技術具備“內生式”自我迭代的可能。同時,具身AI機器人的出現,也意味着“用機器人製造機器人”正在成爲現實,由此帶來的自我強化式經濟增長或將隨之啓動,形成正向反饋循環,引發爆炸性的擴張。第三,AI的生產率正快速提升,而使用成本則持續下降。奧特曼指出,AI已在科研等領域展現出2至3倍的效率提升。隨着具身AI的普及,這種效能也將擴展至實體制造業。至於資源消耗,他以ChatGPT爲例:如今與其完成一輪對話僅需0.34瓦時,相當於烤箱運轉一秒,耗水量也不過0.000085加侖(約爲十五分之一茶匙)。未來,隨着技術迭代,成本還將進一步降低。正是基於上述判斷,奧特曼認爲,我們實際上已站在“奇點”門前。儘管此篇博文更多着眼於現實案例而非理論推演,也因此招致不少質疑,但他並非毫無理論支撐。例如在今年2月的另一篇文章中,他曾提出AI發展的三個觀察:1. 模型能力與投入資源的對數呈正相關,AI發展可預測;2. 使用成本以每12個月降至原來1/10的速度下降;3. AI能力的線性提升將帶來社會價值的指數級增長,進而激發更多投入,形成一箇正向的循環。這三點構成了一箇簡明的“奇點模型”:持續投入推動AI能力進化;能力進化帶來成本下降與巨大利潤,反過來又吸引更多資源流入。一旦這套機制啓動,技術與經濟將進入螺旋式上升通道。奧特曼在博文中列舉的案例,不過是這一模型的現實註腳。從理論上看,這一邏輯似乎自洽:如果AI確已具備超越人類的能力,能觸發技術飛輪,並且AI與生產率之間存在穩定的正相關關係,那麼“奇點已至”的判斷似乎並不誇張。但問題在於,這些前提是否真的已被滿足?我們不妨逐一檢視。首先,AI的能力是否已經超越人類?在某些任務維度上,這一判斷確實成立。AI在圍棋、國際象棋、寫作、繪畫、編程等多項任務中,已展現出優於人類的表現。部分研究也顯示,大模型在數百種任務中普遍優於人類。然而,在許多方面,AI仍存在明顯短板,尤其是在空間感知和物理常識領域,常因缺乏基本常識而在現實模擬中出現錯誤。“莫拉維克悖論”(Moravec's Paradox)早已指出,AI擅長高難度任務,卻在應對人類看來輕而易舉的任務時表現欠佳。例如,一箇小孩看幾隻狗就能建立“狗”的概念,而AI則可能需要上百萬張圖片才能學會。說AI已“全面超越”人類,乃至AGI(通用人工智能)或ASI(超級人工智能)已實現,顯然還爲時過早。更重要的是,AI能力的提升是否如奧特曼所說“可預測”,仍值得商榷。實際上,AI技術的發展更接近於一箇隨機搜索的過程。歷史上的多次關鍵性突破——例如深度學習中的反向傳播算法——事後看來簡單直白,但從提出到廣泛應用卻歷經數十年。因此,即便某些突破看似近在咫尺,也未必能如期而至。奧特曼預期2026年將出現具有原創能力的AI系統,2027年將誕生任務執行型機器人,這一時間表仍存在高度不確定性。其次,技術是否已具備自我強化能力?的確,AI正推動各領域進步,並在一定程度上優化自身,但大規模的技術躍遷仍依賴於材料、能源等基礎科學的突破。而這些變量,在奧特曼的推演中幾乎未被提及。再次,AI發展與經濟增長之間的因果關係是否已確立?目前也缺乏紮實證據。例如,奧特曼提到科研效率會提高2至3倍,但相關研究很快被質疑缺乏數據支持。筆者查閱資料發現,唯一較具權威的實證研究來自MIT,稱AI能使排名前10%的科學家產出增長81%,但對後1/3影響甚微,該研究後被揭發數據造假並撤稿。科研尚且如此,實體經濟中的效益轉化更未可知。綜上所述,儘管我們或許正接近“奇點”,但至少目前爲止,還無法確認我們已經如奧特曼所言,跨越了通往數字超級智能的“事件視界”。二、跨越“奇點”之旅會那麼溫柔嗎?相比於“奇點已經到來”的判斷,奧特曼在博文中提出的另一箇更具爭議的觀點,是他認爲“奇點”的來臨將會是一箇溫柔的過程。這顯然與以往人們對“奇點”的普遍理解大相徑庭。按照通常的看法,“奇點”的到來將伴隨着劇烈的社會變動。在短期內,它很可能導致大規模的技術性失業與收入分配的進一步惡化;而在更長期的視角下,隨着AI能力全面超越人類,如何處理人與AI之間的關係,如何確保AI始終與人類價值觀對齊、其行爲不偏離人類利益,將成爲更爲棘手的問題。然而,在奧特曼看來,這一切問題都能夠通過一箇平穩的過程逐步得到解決。那麼,現實真會如此嗎?(1)“奇點”會造成嚴重的失業嗎?在AI可能帶來的諸多社會問題中,技術性失業可能是最受關注的一項。過去十多年,已有不少學者圍繞這一問題進行了深入研究,結論大多不容樂觀。例如,牛津大學的卡爾·弗雷(CarlFrey)與邁克爾·奧斯本(MichaelOsborne)在2013年發表了一篇廣受關注的論文,預言到2033年,隨着AI和自動化的發展,美國47%的崗位將面臨嚴重衝擊。而OpenAI的研究團隊在一項更近期的研究中則預測,生成式AI的興起可能影響全美80%的就業崗位。如果“奇點”真的來臨、AGI得以實現,那麼就業結構的劇變幾乎不可避免。但在奧特曼的博文中,他對這一問題表現出了驚人的樂觀。他承認,AI崛起確實會改變勞動力市場,一些職業將會消失,但他認爲這無須恐慌。歷史上的每一次技術革命之後,人們總能迅速適應並發展出新的職業。他指出,人類“天生關注他人及其所思所爲”的能力,將使他們能夠挖掘出潛在需求,並據此創造出全新的工作崗位,而這些崗位將能夠彌補AI淘汰的職位。有趣的是,奧特曼特別提到,未來新增的許多職業,可能會被今天的大多數人視爲“虛假”的——它們看起來更像是奢侈的遊戲,而非正經的工作。但從長遠來看,這些“虛假工作”反而可能蘊含重要意義。就如同一千年前的農夫若審視當今社會,也很難理解什麼是編劇、時尚編輯或品牌經理一樣,我們今天也難以準確理解未來工作形式的內涵。不可否認,奧特曼的觀點確實具有啓發性。技術性失業並非新現象。從蒸汽機到電力、再到互聯網,每一次重大技術革命都伴隨着“創造性毀滅”(Cre-ativeDestruction),大量舊職業消失,同時也催生出新崗位。這些失業浪潮有時甚至引發社會動盪。但從歷史來看,這種失業往往是階段性的。新技術的推廣最終擴大了整體就業容量,因此奧特曼所說“AI導致的失業只是暫時的”,在邏輯上是有其依據的。從現實層面看,AI在淘汰舊職業的同時,也確實在創造新崗位。例如,機器學習工程師、數據標註員、提示詞工程師、AI倫理顧問等職位,都是AI浪潮下的新生職業。其中一些崗位如虛擬人造型師、元宇宙設計師,確實如奧特曼所說,是爲了滿足新情緒或文化需求而被創造的“看似虛假”的工作。隨着“奇點”的逼近,此類職位可能只會越來越多,確實有望抵消部分失業影響。然而,是否可以據此斷言就業市場將在“奇點”前後保持總體平穩?恐怕未必。首先,雖然新的崗位不斷湧現,但其數量是否足以抵消被淘汰的舊職業,仍是一箇懸而未決的問題。從近幾年的趨勢看,AI所催生的崗位數量並不算多。而且,許多圍繞AI的新崗位也正快速被AI自身取代。例如,提示詞工程師曾被視爲“AI時代最具前景的新職業”,一度年薪達百萬元。但很快人們發現,這一崗位的就業空間極其有限。據估計,全國全職從事該職業的人不過數千。而隨着AI模型在低結構化語境下的表現日趨優異,對提示詞優化的依賴正在迅速下降。根據智聯招聘、BOSS直聘等平臺的數據,2025年提示詞工程師的需求量已較2023年下降超過70%,薪酬也顯著縮水。所謂“百萬夢”,許多人尚未啓程,便已落幕。再如數據標註員,這一崗位在AI訓練初期爲海量模型數據構建提供了重要支撐,一度在全球範圍內創造了大量就業。但該崗位既非高薪也非核心技能,隨着優質數據資源的枯竭及合成數據技術的興起,其需求迅速滑落。在國內外,衆多AI公司已大幅削減相關用工預算。從這兩個案例可見,AI不僅在吞噬舊職業,也在吞噬“因AI而生”的新職業。因此,新崗位的生成能力是否真能如奧特曼設想的那樣,持續覆蓋失業崗位,確實值得質疑。其次,即使未來能產生足夠的新崗位,個體能否如奧特曼所說“溫柔”地完成職業轉換,同樣成疑。技能轉型往往耗時數月甚至數年,而AI對崗位的替代可能只需幾天甚至幾個小時。理論上,插畫師可以轉型爲AI工程師,證券交易員也可轉型爲芯片設計師,但現實中,完成這樣的跨越並不容易。而且,就算投入時間精力完成了轉型,誰又能保證這些新崗位不會在轉型完成之前就被AI再次取代?更值得注意的是,隨着AI能力的提升,“是否被替代”越來越不是技術問題,而是成本—收益問題。早期AI主要替代低技能、低收入崗位,勞動力因此流向更高薪的行業,總體上提升了社會福祉。但現在,出於效率與成本的考慮,高收入白領反而成爲AI替代的重點目標。而勞動者則被擠壓至更低報酬、更內卷的領域。在不少崗位上,之所以人類仍未被完全替代,僅僅是因爲他們比AI更便宜。若這一趨勢延續,即便就業總量不變,AI對就業結構的衝擊依然深遠。(2)“奇點”會帶來普惠嗎?雖然AI正在創造巨量財富,但與此同時,它也日益成爲收入不平等的新源頭。一方面,作爲一項技術,AI具有明顯的“技能偏向性”(skill-biased):那些具備高階計算機能力、能夠開發先進AI算法的人,往往能從技術浪潮中獲得鉅額回報;而缺乏AI素養、無法熟練運用相關工具的羣體,則不僅可能面臨收入驟減,甚至可能失去原有工作。這一趨勢導致勞動收入越來越集中流向高技能人羣。另一方面,AI還具有顯著的“資本偏向性”(capital-biased):其訓練與部署通常依賴大量資本投入,因此資本雄厚的企業更易從中受益,AI帶來的財富也更易集中於資本所有者手中。這兩種力量疊加,很可能加劇現有的收入與財富分配失衡的問題。正因如此,很多人擔憂,“奇點”的到來可能會加速上述趨勢,最終導致財富極度集中於極少數科技巨頭,甚至出現類似劉慈欣小說《贍養人類》中描繪的“終產者”情境,即某一箇體壟斷幾乎全部社會財富。對此,奧特曼持不同意見。他認爲,未來AI所能創造的財富將極爲豐厚,足以支撐人類採取“以往難以想象的全新政策”來實現共同富裕。儘管他在博文中未明言這一“全新政策”的具體形式,但從他過往公開言論來看,這一概念很可能指的是“全民基本收入”(U-niversalBasicIncome,簡稱UBI)。奧特曼是UBI的堅定支持者,不僅多次公開倡議政府實施UBI,還曾出資6000萬美元資助相關實驗項目。在他看來,AI的飛躍式發展將爲UBI的大規模推廣提供堅實的物質基礎;而隨着UBI的持續實施及對發放標準的動態調整,AI所帶來的不平等問題將能夠有效化解,從而實現全民共享AI紅利的願景。但奧特曼的這一設想能否真正落地?不少人對此表示質疑。例如,《福布斯》刊載的一篇評論就指出,儘管UBI的構想聽起來美好,但截至目前,它依然缺乏切實可行的現實基礎。事實上,即便不考慮“奇點”時代的技術進步,從全球財富的總量來看,現在的資源已經足以讓全人類過上相對富足的生活。經濟學家傑弗裏·薩克斯(JeffreySachs)就曾大膽預言,當代人將有機會見證全球貧困的終結,其理論依據正是基於此。然而,現實卻恰恰相反:在社會總財富不斷增長的同時,貧富差距卻持續拉大。其根本原因在於,當前的制度安排中,並不存在一套能夠自動改善分配結構的機制。雖然多數國家設立了累進稅制度,但高收入羣體常常可以通過政策漏洞、避稅等手段將納稅義務降至極低。儘管學界對此多有批評,並屢屢呼籲彌補漏洞、加強監管,但在強大資本力量的遊說壓力下,這類政策往往難以真正推行。由此可見,如果不能建立起一套真正有效的收入再分配機制,即使AI帶來了前所未有的財富積累,也不會自動實現共同富裕。回到UBI本身。即便跨越“奇點”之後,社會財富的總量已經足以支撐一箇完整的UBI體系,但若想將這些財富從擁有者手中轉移到公共基金中,就必須通過稅收,尤其是AI相關稅種的設立與徵收。這顯然將面臨巨大的現實阻力。可以預見,如果這一類稅收難以落地,那麼UBI的理想將難以真正實現。而AI所推動的技術爆炸一旦未被及時納入再分配機制,其所引發的收入極化,勢必將衝擊社會穩定,使通往“奇點”的旅程遠遠不如奧特曼所期待的那般溫柔。(3)AI會和我們始終對齊嗎?除了失業與收入分配等經濟問題之外,還有一箇至關重要的問題,直接影響“奇點”能否以“溫柔”的方式到來——這就是AI對齊(AIAlignment)問題。簡而言之,所謂AI對齊,指的是如何確保人工智能能夠理解並遵循人類的規範、價值觀與意願,始終按照人類的目標行事。表面上看,這似乎不是一箇難題:畢竟AI的程序都是由人類設計的,難道我們會主動賦予它與人類利益相違背的目標嗎?但事實上,這個問題遠比直覺所認爲的複雜,原因主要有兩點:一方面,人類在設定AI目標與行爲規範時,往往難以準確、全面地表達自身的利益訴求,這就爲AI在執行過程中偏離人類意圖留下了空間。哲學家尼克·波斯特羅姆(NickBostrom)曾在其著作《超級智能》中提出一箇著名的思想實驗:假設人類創建了一箇目標是“最大化回形針產量”的超級智能體,那麼它可能不惜一切代價達成目標——包括消耗地球資源甚至消滅人類,以便爲生產更多回形針騰出資源。這個案例表明,即使AI的初始目標看似無害,一旦缺乏價值邊界約束,其行爲也可能最終嚴重背離人類利益。另一方面,爲了提升效率,人類通常會賦予AI較大的自我學習和改進空間,讓其在與環境及用戶交互中不斷調整優化。但這種“自主性”也意味着AI可能在演化過程中吸收不良輸入或錯誤價值,最終形成與人類核心價值觀不一致的目標系統。在現階段,由於AI仍主要是工具型系統,其行爲即使與人類價值不完全對齊,所造成的後果也較爲可控,頂多帶來一些效率損失或操作誤差。然而,一旦進入AGI階段,AI將從工具轉變爲擁有強大綜合能力的智能個體,甚至在部分領域全面超越人類。在這種情況下,如果AI與人類的目標出現衝突,其風險將無法低估。屆時,電影《終結者》《黑客帝國》中所描繪的“AI反叛”情境,未必只是虛構。正因如此,AI對齊問題被廣泛認爲是決定“奇點”能否以和平方式到來的關鍵變量。然而,對於如此重要的問題,奧特曼在其《溫柔的奇點》博文中卻幾乎避而不談。儘管他承認對齊問題需要“認真對待”,但他似乎更傾向於相信,隨着AI的遞歸式自我改進能力不斷增強,這一問題將在技術發展過程中自然得到解決。值得注意的是,奧特曼的態度並非孤例。在硅谷,許多信奉“有效加速主義”(EffectiveAccelerationism,簡稱e/acc)的科技企業家也持類似觀點。在他們看來,用“對齊”等倫理顧慮來限制AI發展是一種落後的思維方式。他們主張放寬監管、鼓勵技術快速演進,堅信技術本身具備自我修正、自我馴化的能力。更重要的是,這一羣體不僅持有這種信念,還在積極行動。他們正利用手中資源向各國政府遊說,推動放鬆AI相關管制,並已在部分國家取得實質性成果。這一趨勢值得高度警惕。如果在“奇點”跨越過程中,真的出現AI違揹人類意圖、對人類構成實質威脅的情況,那麼忽視對齊問題、盲目相信技術自我修復能力,很可能成爲整個過程無法“溫柔”進行的關鍵隱患。三、結語通過上述討論可以看出,奧特曼的博文雖然爲我們觀察技術進步的趨勢、思考技術與經濟社會之間的複雜關係提供了不少富有洞見的觀點,但作爲科技界的代表人物,他的判斷或許仍顯過於樂觀。不僅“奇點”的真正到來時間可能比他設想的更爲遙遠,其跨越過程也未必如他所期盼的那般“溫柔”——至少,這份“溫柔”並不會自然發生,而更需要制度建設、社會準備和持續警醒的支撐。1947年,詩人狄蘭·托馬斯(DylanThomas)寫下了那首著名的《不要溫柔地走進那個良夜》(Donotgogentleintothatgoodnight)。詩中寫道:“不要溫和地走進那個良夜;老年也應在日暮時燃燒與咆哮。咆哮,咆哮,反抗那光的消逝。”(注:“良夜”象徵死亡。)面對可能不可避免的“奇點”時刻,這句詩顯得格外貼切。如果說AI終將跨越人類智能的極限,如果“奇點”的降臨如同日落、如同黑夜終將到來,那麼,我們更應以清醒與批判之姿迎接它的到來。與其溫柔地接受,不如勇敢地發問,清晰地界定底線,持續地發出“怒吼”——只有這樣,人類才能不被動承受技術洪流,而在“奇點”面前保有尊嚴與主體性。 (本文内容不代表本站观点。) --------------------------------- |