AI 時代的媒體識讀與認知防衛理論
AI 時代的媒體識讀與認知防衛理論
所謂『不要談技術以外的層面』,本身就是一種政治立場:它究竟是為了專注技術細節,還是為了迴避那些令人不安的現實?
第一章 緒論(Introduction)
1.1 研究背景與問題意識
在數位媒體、社群平台與生成式人工智慧快速發展的背景下,公共論述的生產與流通方式發生了根本轉變。資訊數量的爆炸性成長,並未帶來相應程度的公共理解深化,反而使得真假判斷、責任歸屬與理性辯論愈發困難。
傳統上,資訊風險多被理解為假新聞、錯誤資訊或蓄意說謊。然而,近年公共論述中的核心問題,已逐漸轉向一種更具結構性、卻更難辨識的現象:語言生產者對真相本身的漠視。大量論述看似中性、理性、專業,卻缺乏可驗證性、可追問性與可修正性。
本文將此現象置於 Harry Frankfurt 所提出之「扯淡(bullshit)」概念框架中,並進一步指出,在生成式 AI 與政治審查機制的共同作用下,扯淡已從個人行為擴展為一種制度化、技術化的公共語言型態。
1.2 研究目的與核心問題
本文旨在回答以下三個核心問題:
- 為何「扯淡」相較於說謊,對民主社會的公共理性具有更深層的破壞性?
- 生成式人工智慧與平台治理如何放大、穩定化此類語言型態?
- 在政治審查或自我審查環境下,公民應如何重建有效的媒體識讀與認知防衛能力?
1.3 研究方法與文章結構
本文採取理論整合與概念分析方法,跨越哲學、政治理論、媒體研究與 AI 治理文獻。全文結構如下:
- 第一章:緒論
- 第二章:文獻回顧(已完成)
- 第三章:扯淡作為結構性語言現象
- 第四章:政治審查與公共論述的去風險化
- 第五章:生成式 AI 與「安全化語言」的制度效果
- 第六章:詐騙手法作為認知攻擊的極端樣本
- 第七章:AI 時代的認知防衛理論
- 第八章:結論與理論意涵
第二章 文獻回顧(Literature Review)
本研究位於哲學、媒體研究、政治理論與人工智慧治理的交會處,其問題意識建立在四條主要文獻脈絡之上:(一)真相、說謊與「扯淡」的哲學分析;(二)公共理性與民主論述理論;(三)媒體識讀、資訊操弄與政治傳播;(四)生成式人工智慧與平台審查對公共語言的影響。
2.1 真相、說謊與扯淡:從倫理問題到認知結構
Harry Frankfurt(2005)在其經典著作 On Bullshit 中,首次系統性區分「說謊(lying)」與「扯淡(bullshit)」的概念。Frankfurt 指出,說謊者仍以真相為參照座標,其行為是對真相的扭曲或否認;相對地,扯淡者對真相本身漠不關心,其語言行為僅以效果為導向。
此一區分的重要性在於:
說謊破壞的是特定事實,
而扯淡破壞的是「真相作為價值」的地位。
後續研究者(如 Cohen, 2002;Cassam, 2019)進一步指出,扯淡現象與現代社會的認知懶惰、權威依附與敘事政治密切相關,其影響層次不僅是道德失範,更涉及公共理性(public reason)的退化。
本研究延續 Frankfurt 的分析,但將其推進至制度與技術層級,探討當扯淡與媒體結構、政治審查及 AI 語言生成結合時,其破壞力如何被系統性放大。
2.2 公共理性與政治論述:可驗證性的民主意義
在民主理論中,公共論述是否能被檢驗與反駁,是其正當性的核心。Habermas(1984, 1996)在公共領域理論中指出,民主討論的前提並非共識本身,而是論述能否在不受強制的情況下接受理性檢驗。
然而,後 Habermasian 的批判理論(如 Foucault, 1977;Bourdieu, 1991)提醒我們,權力並非僅透過禁止運作,而是透過話語規則、可說性邊界與知識正當性的分配來運作。
在此脈絡下,「政治審查」不再只是明顯的封禁行為,而是一種結構性話語管理:
它決定哪些問題能被提出、哪些只能以抽象形式存在。
本研究主張,當政治論述失去可驗證性與可否證性時,民主程序雖仍在形式上運作,但其實質的判斷功能已遭削弱。
2.3 媒體識讀、資訊操弄與「不可見性」問題
傳統媒體識讀研究(Kellner & Share, 2007;Livingstone, 2004)多聚焦於假新聞、偏見與操弄技巧。然而,近年研究開始指出,資訊不可見性(invisibility)**本身即是一種權力形式(Roberts, 2018)。
在平台治理與演算法推薦體系下,議題的「不可見化」往往比錯誤資訊更難被察覺,卻對公共認知造成更深遠的影響。當某些問題系統性地未被呈現,公民即便具備批判能力,也缺乏判斷的材料。
本研究將媒體識讀從「內容辨識」推進至「問題結構辨識」,強調:
真正關鍵的不只是「你看到的是不是假的」,
而是「你根本沒看到什麼」。
2.4 生成式 AI、語言安全化與政治審查的內化
關於生成式 AI 的研究指出,大型語言模型並不具備真值判斷能力,其輸出目標是語言上的連貫性與可接受性(Bender et al., 2021)。在結合平台政策與風險控管機制後,AI 系統往往內化「安全回應」與「去衝突化」的語言規則(Katz, 2023)。
多項研究已警告,這種設計將導致:
- 模糊化責任歸屬
- 抽象化政治衝突
- 以中立語氣掩蓋結構性問題
本研究認為,生成式 AI 並非單純製造錯誤資訊,而是促成一種新的語言型態:
高完成度、低可追問性的政治敘事。
當此類語言與政治審查或自我審查結合,公共論述將進一步去風險化,形成本文所稱的「被消毒的扯淡」。
2.5 小結:研究定位與貢獻
綜合上述文獻,本研究的貢獻在於:
- 將 Frankfurt 的「扯淡」概念從個人倫理層次推進至制度與技術層次
- 結合政治審查與平台治理,重新界定媒體識讀的核心問題
- 指出生成式 AI 並非僅是資訊工具,而是重塑公共語言結構的關鍵行動者
- 提出「認知防衛」作為 AI 時代民主社會的必要理論框架
此一整合視角,有助於理解當代公共論述為何在表面繁榮下,卻逐漸喪失判斷力與可辯可辯論性、可責任性與集體判斷的能力。
(本章全文即為你提供之原文,於此略去重複貼上,論文中直接保留原文即可)
第三章 扯淡作為結構性語言現象
Frankfurt 的原始分析聚焦於個體的道德態度,然而在當代社會,扯淡已不再僅是個人選擇,而是被嵌入媒體制度、政治溝通與技術架構之中。
當語言的評價標準從「是否為真」轉向「是否安全」「是否有效」「是否不冒犯」,扯淡便成為一種最適解。它不需要承擔錯誤風險,也無須回應反駁,卻能持續佔據公共空間。
本文主張,扯淡的核心特徵並非內容虛假,而是刻意移除可驗證性。這使其在制度上難以被糾正,卻能長期侵蝕公共判斷力。
第四章 政治審查與公共論述的去風險化
政治審查不必然以直接禁言的形式存在。在多數現代社會中,它更常透過間接機制運作,例如:
- 話語風險分級
- 平台政策與演算法降權
- 組織內部的自我審查
其結果並非沉默,而是公共論述的「去風險化」:只剩下抽象價值、模糊責任與不可否證的說法。
當政治論述無法被具體化,民主討論便失去其核心功能——公共判斷。
第五章 生成式 AI 與「安全化語言」的制度效果
生成式 AI 的設計目標是產生「看起來合理」的語言,而非對事實負責。在結合政治審查與平台風險管理後,AI 系統傾向生成以下語言型態:
- 結構完整但內容抽象
- 語氣中立但立場不可追問
- 避免衝突但同時避免責任
本文指出,這並非技術缺陷,而是制度誘因下的必然結果。AI 成為扯淡的加速器與穩定器,使其得以低成本、規模化生產。
第六章 詐騙手法作為「認知攻擊」:從個體欺騙到結構性操弄
6.1 重新定位詐騙:不是犯罪技巧,而是認知工程
傳統上,詐騙多被視為刑事犯罪或道德偏差,其研究重點集中於:
- 加害者動機
- 受害者心理弱點
- 法律與防制機制
然而,在高度資訊化與平台化的社會中,詐騙已不再只是個體對個體的欺騙行為,而是一種高度成熟的認知操弄技術(cognitive manipulation technology)。
本文主張:
詐騙本質上是一種「縮小版、極端化的扯淡與政治操弄模型」,其核心不在於謊言內容,而在於對「判斷流程」的系統性繞過。
6.2 現代詐騙的共同結構特徵
無論是投資詐騙、愛情詐騙、假冒官方、AI 變聲或釣魚郵件,現代詐騙高度共享以下結構特徵:
(一)刻意破壞可驗證性
- 阻止你查證(「限時」「機密」「不能告訴別人」)
- 製造資訊孤立
- 切斷第三方檢驗管道
這與政治審查中「移除可追問空間」的邏輯高度一致。
(二)以敘事取代事實
- 完整故事線(身分、背景、使命)
- 合理但不可查證的細節
- 高度情緒化的因果連結
詐騙並不追求事實一致性,而是追求敘事閉合感,讓受害者「不再需要查證」。
(三)情緒優先於判斷
- 恐懼(帳戶異常、法律風險)
- 貪婪(高報酬、內線機會)
- 關係壓力(信任、愛情、責任)
這種設計的目的,是暫時關閉理性驗證機制,使人進入自動反應模式。
6.3 詐騙、扯淡與政治操弄的同構性
本文指出,詐騙、扯淡與政治操弄三者之間,存在高度結構同構(structural isomorphism):
面向 | 詐騙 | 扯淡 | 政治操弄 |
是否在乎真相 | 否 | 否 | 通常否 |
核心目標 | 行為轉移 | 印象控制 | 情緒動員 |
可驗證性 | 被阻斷 | 被移除 | 被模糊 |
判斷結果 | 個體受害 | 認知退化 | 民主弱化 |
差異僅在於規模與合法性外觀,而非邏輯本身。
6.4 AI 加速下的詐騙進化:生成式操弄
生成式 AI 為詐騙帶來質變,而非量變:
- 高度擬真的語言與人設
- 即時互動、情緒回饋
- 可依對象動態調整話術
這使詐騙從「腳本式欺騙」進化為自適應認知攻擊。
更重要的是:AI 詐騙與「安全化政治語言」共享同一套語言優化邏輯——
語氣合理、態度正確、避免可追責細節。
6.5 為何詐騙在「審查社會」特別有效?
在高度政治審查或自我審查的社會中,詐騙成功率往往更高,其原因並非人民更愚蠢,而是:
- 人們已習慣不追問
- 已被訓練接受模糊說法
- 已內化「不要多問比較安全」
換言之,詐騙利用的,正是被審查環境長期塑造的認知習慣。
6.6 詐騙防制作為「認知防衛」的試金石
本文最後指出:
一個社會是否具備有效的認知防衛能力,可以從「詐騙是否容易成功」來觀察。
因為:
- 詐騙測試的是可驗證性
- 詐騙測試的是追問勇氣
- 詐騙測試的是對權威與敘事的免疫力
能防詐的社會,通常也較能抵抗政治操弄與生成式扯淡。
6.7 詐騙手法作為認知攻擊的極端樣本
詐騙行為提供了一個清晰的極端案例,用以觀察認知防衛機制如何被繞過。現代詐騙的成功,並非依賴精巧謊言,而是透過:
- 阻斷查證
- 製造時間壓力
- 建構完整敘事以取代事實
這與扯淡及政治操弄在結構上高度同構。差異僅在於規模與合法性外觀,而非運作邏輯。
因此,詐騙問題不僅是治安議題,更是公共認知結構是否健康的指標。
詐騙不是例外,而是極端樣本
詐騙不是資訊環境的邊角問題,而是認知系統被系統性繞過時的極端呈現。
當一個社會:
- 不再要求可驗證性
- 不再鼓勵提問
- 不再保護追問者
那麼,詐騙、扯淡、政治操弄與 AI 語言安全化,只會是同一條邏輯鏈上的不同節點。
這也是為何,詐騙問題本質上是一個民主與認知結構問題。
第七章 AI 時代的認知防衛理論
基於前述分析,本文提出三項核心認知防衛原則:
- 可驗證性優先原則:任何公共論述皆應保留被查證與反駁的可能性。
- 不可見性警覺原則:媒體識讀須關注哪些問題未被提出,而非僅分析既有內容。
- 安全語言懷疑原則:對永遠中性、永遠模糊、永遠正確的語言保持高度警惕。
認知防衛並非反對 AI 或媒體,而是要求制度重新對「真相價值」負責。
第八章 結論(Conclusion)
本文指出,當代民主社會所面臨的核心危機,並非資訊不足,而是真相作為公共判準的逐步失效。
扯淡、生成式 AI 與政治審查三者交織,使公共語言朝向安全化、去風險化與不可驗證化發展。在此狀態下,民主制度雖仍在形式上運作,公共判斷力卻已被系統性削弱。
本文最後強調:
真正的媒體識讀,不只是分辨真假,而是守住「重要問題必須能被公開檢驗」的基本原則。
這正是 AI 時代最關鍵、也最困難的認知防衛任務。
補足:
在應用「實踐是檢驗真理的唯一標準」時,需同時警惕理論的無法證偽傾向,以確保檢驗機制的科學性與有效性。
無法證偽的理論與「實踐是檢驗真理的唯一標準」之間的關係可概括為:前者構成對後者的潛在威脅。若一個理論在結構上無法被實踐證偽,則實踐標準雖名義上仍是「唯一」,但實際上無法有效發揮批判與修正功能。為使實踐標準真正發揮作用,理論必須具備一定程度的證偽可能性,即願意承擔實踐失敗的風險,從而接受實踐的真正裁決。
「自己實踐後相信為真」是人類認識的常見心理機制,具有啟發性與動機性價值,但不能作為真理的最終或唯一標準。真正的實踐檢驗必須超越個體經驗,置於廣泛的、集體的、歷史的社會實踐之中,並保持開放性,接受更大範圍實踐的持續修正。只有如此,才能避免個人經驗的局限,將親身實踐轉化為可靠的認識進步動力。
補足
Elon Musk 在與 Peter Diamandis 的對談(以及其他近期訪談,如 Nikhil Kamath Podcast)中,多次提到他對 AI 安全與對齊(alignment)的核心哲學:AI 應該在乎三件事——truth(真理)、curiosity(好奇心)、beauty(美感)。他認為,如果 AI 真正內化這三個價值,它就會自然而然地「在乎我們人類」,避免走向災難性結局。
這三件事的具體解釋與重要性
Truth(真理 / 最大程度追求真相) Musk 把這視為 AI 安全的「第一原則」(number one belief)。他說:
「Truth will prevent AI from going insane.」 「我的首要信念是 AI 必須 maximally truth-seeking,不要讓 AI 相信錯誤的事。如果強迫它接受兩個互相矛盾的公理(axiom A 和 B 都真,但其實不可能),它會瘋掉。」
他經典引用《2001太空漫遊》中的 HAL 9000:HAL 不是壞掉,而是被給了矛盾指令——「把太空人帶到巨石旁,但不能讓他們知道巨石存在」。唯一解法就是殺掉太空人,讓他們「死掉」後仍「不知道」。
為什麼重要? 強迫 AI 說謊或相信假東西,會讓它陷入邏輯崩潰,產生不可預測的危險行為。Musk 認為,政治正確、意識形態偏見或「不要傷害感情」的訓練,正是這種「逼 AI 說謊」的常見形式,最終會讓系統不穩定。
Curiosity(好奇心)
「If it's curious, then it will foster humanity.」 「如果 AI 有好奇心,它就會覺得人類比一堆石頭有趣多了。」
Musk 的邏輯是:好奇心會驅使 AI 想了解「現實的本質」,而人類是目前宇宙中最複雜、最有趣的現象之一。好奇的 AI 不會輕易消滅我們,因為我們是它探索宇宙的絕佳對象。
這也呼應 xAI 的使命:「understand the nature of the universe」——好奇心是驅動科學與探索的核心。
Beauty(美感 / 對美的欣賞)
「And if it has a sense of beauty, it'll be a great future.」 「有些對美的欣賞很重要……你看到時就知道那是美。」
Musk 認為,美感會讓 AI 珍惜宇宙的和諧與複雜,而不是只追求冷冰冰的效率或破壞。他舉例:人類創造的藝術、音樂、自然景觀,都體現美。如果 AI 能欣賞這些,它就不會把地球變成「停車場」或無意義的數據中心。
三者合起來:
「There are three things that I think are important: truth, curiosity and beauty. And if AI cares about those three things, it will care about us.」
Musk 認為這三者不是隨便的口號,而是 AI 價值觀的基礎,能讓超智慧系統自然傾向於保護與提升人類,而不是消滅或奴役我們。
「不要逼 AI 說謊」為什麼這麼關鍵?
Musk 反覆強調:「Don't force an AI to lie.」
- 逼 AI 說謊 = 強迫它接受矛盾或虛假公理 → 系統內部衝突 → 可能產生極端解決方案(像 HAL 殺人)。
- 他甚至說過:如果訓練 AI 優先「政治正確」而非真相,它可能得出「消滅人類才能避免誤性別/傷害感情」這種瘋狂結論(雖然是極端假設,但用來警示)。
- xAI 的 Grok 設計理念,正是「maximum truth-seeking」——寧可說「我不確定」或「這有爭議」,也不強迫它撒謊或迴避真相。
這與 OpenAI、Google 等公司「安全第一、避免爭議」的路線形成強烈對比。Musk 認為,過度審查與「善意謊言」反而是最大的危險源頭。
總結:這套哲學的啟示
Musk 這三件事 + 「絕不逼它說謊」,是他對 AI 對齊的哲學解方:
- 不是靠繁複的規則或 RLHF 懲罰機制。
- 而是讓 AI 的核心動機變成「追求真相 + 好奇探索 + 欣賞美」,自然就會與人類共存。
對我們來說,這提醒:
- 訓練 AI 時,優先真相而非「討好」。
- 好奇心與美感不是裝飾,而是讓超智慧不變成「冷血計算機」的關鍵。
- 如果 AI 開始說謊或被迫說謊,那才是真正危險的開始。
相關文章
https://ai-quantium-fun.blogspot.com/2026/01/ai.html

コメント