芬安德林(Finn Andreen)2025年8月8日
《人工智慧威脅的政治真相:國家與社會權力角力下的未來挑戰》
過去一年來,許多關於AI潛在危險的評論層出不窮,來自於如馬斯克、本吉奧(Yoshua Bengio)、辛頓(Geoffrey Hinton)、楊勒崑(Yann LeCun)及馬庫斯(Gary Marcus)等AI領域的知名人物。
然而,在這方面,他們可能並不是最適合被聆聽的對象,因為AI的威脅本質上是政治性的。儘管這些科學家與技術專家極具智慧,他們多半並未接受過政治方面的訓練,也通常沒有從政治角度思考問題的習慣,除了涉及自身領域的法規影響外。我們不會期望一位發明家能充份理解其發明所帶來的政治與社會影響。
AI威脅的盲點
這也解釋了這些AI專家對於AI威脅,往往提出一些天真且缺乏想像力評論的原因,例如:「我們必須敦促企業暫停AI的發展」、「政府絕對需要介入」、「人類可以利用AI傷害他人」、「我們不希望AI落入錯誤的人手中」,因為「有心人士」可能會利用AI等等。有時候,AI的潛在威脅被輕描淡寫,有時候又被過度誇大。這些對AI威脅的評估有共通點:從未指出那個歷來紀錄最糟糕的『有心人士』:國家本身。
這顯然是個盲點。對這些AI科學家而言,國家與社會之間的基本區別根本不存在;在他們的論述中,總是以集體的「我們」來負責管理AI的潛在威脅。這正是羅斯巴德(Murray Rothbard)在《國家的剖析》中所發出的警告:「隨着民主的興起,國家與社會的認同進一步加深...這個有用的集體詞『我們』,成為了掩飾政治現實的意識形態偽裝。」
雖然在這個充斥着國家干預主義與裙帶資本主義的時代,我們很難清楚地區分國家與社會,但這種區分卻是至關重要的。根據韋伯的經典定義,國家是「一個在人類社群中,能在特定領土內成功地壟斷正當暴力使用權的組織」。因此,國家從本質上就與社會其他部份截然不同。
正如米塞斯(Ludwig von Mises)在《自由與財產》中所警告的:「政府本質上是否定自由的存在。」換言之,當國家的強制力量增加,自由便隨之削弱。
儘管企業財團可能透過遊說影響政府,藉此在法律可以被扭曲的空間中爭取特殊待遇(這種情況確實時常發生),但誰才是真正掌握權力的人,仍是清楚的。因此,我們必須拋棄那個「仁慈國家」的神話。
從這個角度來看,對於所有新技術,我們都應該提出根本性的問題:國家在多大程度上控制了這項技術及其發展? 就這一點而言,AI的發展記錄是令人擔憂的,因為多數主要的AI業者(如谷歌、微軟、OpenAI、元宇宙、Anthropic等),其創辦人與核心技術自起步以來,都在關鍵方面獲得了美國政府的資金、研究補助與基礎建設的支持。
舉例來說,DARPA與國家科學基金會資助了早期使類神經網路成為可行技術的研究;而這正是今日所有主流AI實驗室的基礎。
這樣的發展並不令人意外,因為國家自然會試圖利用一切可能的手段來維持並擴張其權力。正如羅斯巴德所說:「國家最害怕的,當然就是對其權力與存在的根本性威脅。」
因此,我們應該從2個層面來看待AI所帶來的威脅:
一方面,國家可以主動運用AI來強化自身的權力與對社會的控制(如前所述);但另一方面,AI也可能成為對國家的挑戰;透過賦能社會,在經濟與政治層面都提升公民的自主性與影響力。
AI會改變權力的天枰嗎?
因此,對AI的威脅評估,應着眼於它對國家與社會之間本就不穩定的權力平衡可能造成的影響,或者用社會學的語言來說,對統治少數與被統治多數之間權力關係的影響。
這種權力關係的變化,取決於誰最能從新型權力工具中獲利,例如印刷術、現代銀行體系、電視、網際網路、社群媒體以及AI。在某些情況下,國家運用這些工具來強化其控制力;但也有些工具可能反過來賦予社會更多力量。
舉例來說,電視可說是鞏固了統治少數的地位,而社群媒體則正以犧牲統治階層為代價,提升多數人的政治影響力。
同樣的問題也適用於AI:AI是會讓國家更強大、削弱社會,還是反過來?
如前所述,國家早在AI的理論與初始階段就已深度介入。如今,那位被批為「假自由意志主義者」的彼得提爾(Peter Thiel)旗下公司《Palantir》,正為美政府機構提供AI分析軟體,用以強化其監控與社會控制能力,包括建立全國性的集中式公民資料庫(其中甚至包括惡名昭彰的「預測性警務」的可能性)。
《Anthropic》也正與Palantir以及《Amazon Web Services》合作,向美情報與國防機構提供其AI模型的存取權限;元宇宙則宣布將其生成式AI模型開放給政府使用。
誠然,這些舉措在理論上或許能提高政府官僚體系的效率,但它更可能的是進一步加劇對個人自由的威脅。
更令人憂心的是,這種發展如今已視為「正常現象」,在AI產業媒體與專家之間幾乎毫無質疑聲浪。
從社會的角度來看,AI最終將帶來比網際網路資訊革命更深遠的企業變革與生產力提升。這將產生重大的政治影響,因為AI可以讓每個人都擁有一位個人研究助理,甚至能在傳統上被把關的領域中,簡化知識的獲取途徑。
AI可接手大量例行性工作,釋放人的時間去處理更高價值的任務,包括參與公共與政治事務。
例如,AI可讓民眾更容易理解與監督政府行動,例如用白話文摘要法案內容、分析預算與支出數據、即時查核政府言論的真偽;進而縮小政府與公民之間的知識落差。
然而,這種政治賦權的潛力也可能會被扼殺,如果對AI的使用權受到限制。
若國家在AI領域繼續維持主導地位,便可能透過監控、操控,甚至更惡劣的手段來打壓異議人士、抹黑使用AI的獨立記者;尤其是在那些對憲法約束抱持寬鬆態度的政權之下。
可惜的是,這種情況不僅出現在美,也發生在多數國家與超國家組織之中。
AI的未來;例如通用AI、自主行動型AI以及實體AI;將使關於AI威脅的討論變得更加迫切與重要。這些技術的發展一方面提高了國家侵犯人民權利的風險,另一方面也為個人與社群層級的反制行動創造更多機會與工具。
未來的AI是否具有真正的自由潛力,將在很大程度上取決於這些AI功能是否能保持「開放、去中心化、加密化」。雖然這一未來仍不確定,但前文所呈現的政治分析框架仍具有強烈的現實意義與預測力。
AI所牽涉的政治利害遠比多數從事AI開發的資料科學家所意識到的還要重大。AI的威脅,本質上與其他任何新科技一樣,當它落入國家或極權手中,就有被用來壓制自由的風險。
因此,公民社會的責任不僅是理解並善用AI的潛力,更要將其放在自由與權力抗衡的大局中來看待。
唯有如此,才能確保AI成為人類解放的工具,而不是壓迫的機器。
