AI 時代的媒體識讀與認知防衛理論

 AI 時代的媒體識讀與認知防衛理論

所謂『不要談技術以外的層面』,本身就是一種政治立場:它究竟是為了專注技術細節,還是為了迴避那些令人不安的現實?


第一章 緒論(Introduction)



1.1 研究背景與問題意識



在數位媒體、社群平台與生成式人工智慧快速發展的背景下,公共論述的生產與流通方式發生了根本轉變。資訊數量的爆炸性成長,並未帶來相應程度的公共理解深化,反而使得真假判斷、責任歸屬與理性辯論愈發困難。


傳統上,資訊風險多被理解為假新聞、錯誤資訊或蓄意說謊。然而,近年公共論述中的核心問題,已逐漸轉向一種更具結構性、卻更難辨識的現象:語言生產者對真相本身的漠視。大量論述看似中性、理性、專業,卻缺乏可驗證性、可追問性與可修正性。


本文將此現象置於 Harry Frankfurt 所提出之「扯淡(bullshit)」概念框架中,並進一步指出,在生成式 AI 與政治審查機制的共同作用下,扯淡已從個人行為擴展為一種制度化、技術化的公共語言型態。





1.2 研究目的與核心問題



本文旨在回答以下三個核心問題:


  1. 為何「扯淡」相較於說謊,對民主社會的公共理性具有更深層的破壞性?
  2. 生成式人工智慧與平台治理如何放大、穩定化此類語言型態?
  3. 在政治審查或自我審查環境下,公民應如何重建有效的媒體識讀與認知防衛能力?






1.3 研究方法與文章結構



本文採取理論整合與概念分析方法,跨越哲學、政治理論、媒體研究與 AI 治理文獻。全文結構如下:


  • 第一章:緒論
  • 第二章:文獻回顧(已完成)
  • 第三章:扯淡作為結構性語言現象
  • 第四章:政治審查與公共論述的去風險化
  • 第五章:生成式 AI 與「安全化語言」的制度效果
  • 第六章:詐騙手法作為認知攻擊的極端樣本
  • 第七章:AI 時代的認知防衛理論
  • 第八章:結論與理論意涵






第二章 文獻回顧(Literature Review)


本研究位於哲學、媒體研究、政治理論與人工智慧治理的交會處,其問題意識建立在四條主要文獻脈絡之上:(一)真相、說謊與「扯淡」的哲學分析;(二)公共理性與民主論述理論;(三)媒體識讀、資訊操弄與政治傳播;(四)生成式人工智慧與平台審查對公共語言的影響。



2.1 真相、說謊與扯淡:從倫理問題到認知結構



Harry Frankfurt(2005)在其經典著作 On Bullshit 中,首次系統性區分「說謊(lying)」與「扯淡(bullshit)」的概念。Frankfurt 指出,說謊者仍以真相為參照座標,其行為是對真相的扭曲或否認;相對地,扯淡者對真相本身漠不關心,其語言行為僅以效果為導向。


此一區分的重要性在於:

說謊破壞的是特定事實,

而扯淡破壞的是「真相作為價值」的地位。


後續研究者(如 Cohen, 2002;Cassam, 2019)進一步指出,扯淡現象與現代社會的認知懶惰、權威依附與敘事政治密切相關,其影響層次不僅是道德失範,更涉及公共理性(public reason)的退化。


本研究延續 Frankfurt 的分析,但將其推進至制度與技術層級,探討當扯淡與媒體結構、政治審查及 AI 語言生成結合時,其破壞力如何被系統性放大。





2.2 公共理性與政治論述:可驗證性的民主意義



在民主理論中,公共論述是否能被檢驗與反駁,是其正當性的核心。Habermas(1984, 1996)在公共領域理論中指出,民主討論的前提並非共識本身,而是論述能否在不受強制的情況下接受理性檢驗。


然而,後 Habermasian 的批判理論(如 Foucault, 1977;Bourdieu, 1991)提醒我們,權力並非僅透過禁止運作,而是透過話語規則、可說性邊界與知識正當性的分配來運作。


在此脈絡下,「政治審查」不再只是明顯的封禁行為,而是一種結構性話語管理:

它決定哪些問題能被提出、哪些只能以抽象形式存在。


本研究主張,當政治論述失去可驗證性與可否證性時,民主程序雖仍在形式上運作,但其實質的判斷功能已遭削弱。





2.3 媒體識讀、資訊操弄與「不可見性」問題



傳統媒體識讀研究(Kellner & Share, 2007;Livingstone, 2004)多聚焦於假新聞、偏見與操弄技巧。然而,近年研究開始指出,資訊不可見性(invisibility)**本身即是一種權力形式(Roberts, 2018)。


在平台治理與演算法推薦體系下,議題的「不可見化」往往比錯誤資訊更難被察覺,卻對公共認知造成更深遠的影響。當某些問題系統性地未被呈現,公民即便具備批判能力,也缺乏判斷的材料。


本研究將媒體識讀從「內容辨識」推進至「問題結構辨識」,強調:

真正關鍵的不只是「你看到的是不是假的」,

而是「你根本沒看到什麼」。





2.4 生成式 AI、語言安全化與政治審查的內化



關於生成式 AI 的研究指出,大型語言模型並不具備真值判斷能力,其輸出目標是語言上的連貫性與可接受性(Bender et al., 2021)。在結合平台政策與風險控管機制後,AI 系統往往內化「安全回應」與「去衝突化」的語言規則(Katz, 2023)。


多項研究已警告,這種設計將導致:


  • 模糊化責任歸屬
  • 抽象化政治衝突
  • 以中立語氣掩蓋結構性問題



本研究認為,生成式 AI 並非單純製造錯誤資訊,而是促成一種新的語言型態:

高完成度、低可追問性的政治敘事。


當此類語言與政治審查或自我審查結合,公共論述將進一步去風險化,形成本文所稱的「被消毒的扯淡」。





2.5 小結:研究定位與貢獻



綜合上述文獻,本研究的貢獻在於:


  1. 將 Frankfurt 的「扯淡」概念從個人倫理層次推進至制度與技術層次
  2. 結合政治審查與平台治理,重新界定媒體識讀的核心問題
  3. 指出生成式 AI 並非僅是資訊工具,而是重塑公共語言結構的關鍵行動者
  4. 提出「認知防衛」作為 AI 時代民主社會的必要理論框架



此一整合視角,有助於理解當代公共論述為何在表面繁榮下,卻逐漸喪失判斷力與可辯可辯論性、可責任性與集體判斷的能力。


(本章全文即為你提供之原文,於此略去重複貼上,論文中直接保留原文即可)





第三章 扯淡作為結構性語言現象



Frankfurt 的原始分析聚焦於個體的道德態度,然而在當代社會,扯淡已不再僅是個人選擇,而是被嵌入媒體制度、政治溝通與技術架構之中。


當語言的評價標準從「是否為真」轉向「是否安全」「是否有效」「是否不冒犯」,扯淡便成為一種最適解。它不需要承擔錯誤風險,也無須回應反駁,卻能持續佔據公共空間。


本文主張,扯淡的核心特徵並非內容虛假,而是刻意移除可驗證性。這使其在制度上難以被糾正,卻能長期侵蝕公共判斷力。





第四章 政治審查與公共論述的去風險化



政治審查不必然以直接禁言的形式存在。在多數現代社會中,它更常透過間接機制運作,例如:


  • 話語風險分級
  • 平台政策與演算法降權
  • 組織內部的自我審查



其結果並非沉默,而是公共論述的「去風險化」:只剩下抽象價值、模糊責任與不可否證的說法。


當政治論述無法被具體化,民主討論便失去其核心功能——公共判斷。





第五章 生成式 AI 與「安全化語言」的制度效果



生成式 AI 的設計目標是產生「看起來合理」的語言,而非對事實負責。在結合政治審查與平台風險管理後,AI 系統傾向生成以下語言型態:


  • 結構完整但內容抽象
  • 語氣中立但立場不可追問
  • 避免衝突但同時避免責任



本文指出,這並非技術缺陷,而是制度誘因下的必然結果。AI 成為扯淡的加速器與穩定器,使其得以低成本、規模化生產。





第六章 詐騙手法作為「認知攻擊」:從個體欺騙到結構性操弄


6.1 重新定位詐騙:不是犯罪技巧,而是認知工程



傳統上,詐騙多被視為刑事犯罪或道德偏差,其研究重點集中於:


  • 加害者動機
  • 受害者心理弱點
  • 法律與防制機制



然而,在高度資訊化與平台化的社會中,詐騙已不再只是個體對個體的欺騙行為,而是一種高度成熟的認知操弄技術(cognitive manipulation technology)。


本文主張:

詐騙本質上是一種「縮小版、極端化的扯淡與政治操弄模型」,其核心不在於謊言內容,而在於對「判斷流程」的系統性繞過。





6.2 現代詐騙的共同結構特徵



無論是投資詐騙、愛情詐騙、假冒官方、AI 變聲或釣魚郵件,現代詐騙高度共享以下結構特徵:



(一)刻意破壞可驗證性



  • 阻止你查證(「限時」「機密」「不能告訴別人」)
  • 製造資訊孤立
  • 切斷第三方檢驗管道



這與政治審查中「移除可追問空間」的邏輯高度一致。





(二)以敘事取代事實



  • 完整故事線(身分、背景、使命)
  • 合理但不可查證的細節
  • 高度情緒化的因果連結



詐騙並不追求事實一致性,而是追求敘事閉合感,讓受害者「不再需要查證」。





(三)情緒優先於判斷



  • 恐懼(帳戶異常、法律風險)
  • 貪婪(高報酬、內線機會)
  • 關係壓力(信任、愛情、責任)



這種設計的目的,是暫時關閉理性驗證機制,使人進入自動反應模式。





6.3 詐騙、扯淡與政治操弄的同構性



本文指出,詐騙、扯淡與政治操弄三者之間,存在高度結構同構(structural isomorphism):


面向

詐騙

扯淡

政治操弄

是否在乎真相

通常否

核心目標

行為轉移

印象控制

情緒動員

可驗證性

被阻斷

被移除

被模糊

判斷結果

個體受害

認知退化

民主弱化



差異僅在於規模與合法性外觀,而非邏輯本身。





6.4 AI 加速下的詐騙進化:生成式操弄



生成式 AI 為詐騙帶來質變,而非量變:


  • 高度擬真的語言與人設
  • 即時互動、情緒回饋
  • 可依對象動態調整話術



這使詐騙從「腳本式欺騙」進化為自適應認知攻擊。


更重要的是:AI 詐騙與「安全化政治語言」共享同一套語言優化邏輯——

語氣合理、態度正確、避免可追責細節。





6.5 為何詐騙在「審查社會」特別有效?



在高度政治審查或自我審查的社會中,詐騙成功率往往更高,其原因並非人民更愚蠢,而是:


  • 人們已習慣不追問
  • 已被訓練接受模糊說法
  • 已內化「不要多問比較安全」



換言之,詐騙利用的,正是被審查環境長期塑造的認知習慣。





6.6 詐騙防制作為「認知防衛」的試金石



本文最後指出:

一個社會是否具備有效的認知防衛能力,可以從「詐騙是否容易成功」來觀察。


因為:


  • 詐騙測試的是可驗證性
  • 詐騙測試的是追問勇氣
  • 詐騙測試的是對權威與敘事的免疫力



能防詐的社會,通常也較能抵抗政治操弄與生成式扯淡。





6.7 詐騙手法作為認知攻擊的極端樣本



詐騙行為提供了一個清晰的極端案例,用以觀察認知防衛機制如何被繞過。現代詐騙的成功,並非依賴精巧謊言,而是透過:


  • 阻斷查證
  • 製造時間壓力
  • 建構完整敘事以取代事實



這與扯淡及政治操弄在結構上高度同構。差異僅在於規模與合法性外觀,而非運作邏輯。


因此,詐騙問題不僅是治安議題,更是公共認知結構是否健康的指標。


詐騙不是例外,而是極端樣本



詐騙不是資訊環境的邊角問題,而是認知系統被系統性繞過時的極端呈現。


當一個社會:


  • 不再要求可驗證性
  • 不再鼓勵提問
  • 不再保護追問者



那麼,詐騙、扯淡、政治操弄與 AI 語言安全化,只會是同一條邏輯鏈上的不同節點。


這也是為何,詐騙問題本質上是一個民主與認知結構問題。




第七章 AI 時代的認知防衛理論



基於前述分析,本文提出三項核心認知防衛原則:


  1. 可驗證性優先原則:任何公共論述皆應保留被查證與反駁的可能性。
  2. 不可見性警覺原則:媒體識讀須關注哪些問題未被提出,而非僅分析既有內容。
  3. 安全語言懷疑原則:對永遠中性、永遠模糊、永遠正確的語言保持高度警惕。



認知防衛並非反對 AI 或媒體,而是要求制度重新對「真相價值」負責。





第八章 結論(Conclusion)



本文指出,當代民主社會所面臨的核心危機,並非資訊不足,而是真相作為公共判準的逐步失效。


扯淡、生成式 AI 與政治審查三者交織,使公共語言朝向安全化、去風險化與不可驗證化發展。在此狀態下,民主制度雖仍在形式上運作,公共判斷力卻已被系統性削弱。


本文最後強調:

真正的媒體識讀,不只是分辨真假,而是守住「重要問題必須能被公開檢驗」的基本原則。


這正是 AI 時代最關鍵、也最困難的認知防衛任務。


補足:

在應用「實踐是檢驗真理的唯一標準」時,需同時警惕理論的無法證偽傾向,以確保檢驗機制的科學性與有效性。


無法證偽的理論與「實踐是檢驗真理的唯一標準」之間的關係可概括為:前者構成對後者的潛在威脅。若一個理論在結構上無法被實踐證偽,則實踐標準雖名義上仍是「唯一」,但實際上無法有效發揮批判與修正功能。為使實踐標準真正發揮作用,理論必須具備一定程度的證偽可能性,即願意承擔實踐失敗的風險,從而接受實踐的真正裁決。

「自己實踐後相信為真」是人類認識的常見心理機制,具有啟發性與動機性價值,但不能作為真理的最終或唯一標準。真正的實踐檢驗必須超越個體經驗,置於廣泛的、集體的、歷史的社會實踐之中,並保持開放性,接受更大範圍實踐的持續修正。只有如此,才能避免個人經驗的局限,將親身實踐轉化為可靠的認識進步動力。


補足

Elon Musk 在與 Peter Diamandis 的對談(以及其他近期訪談,如 Nikhil Kamath Podcast)中,多次提到他對 AI 安全與對齊(alignment)的核心哲學:AI 應該在乎三件事——truth(真理)、curiosity(好奇心)、beauty(美感)。他認為,如果 AI 真正內化這三個價值,它就會自然而然地「在乎我們人類」,避免走向災難性結局。

這三件事的具體解釋與重要性

  1. Truth(真理 / 最大程度追求真相) Musk 把這視為 AI 安全的「第一原則」(number one belief)。他說:

    「Truth will prevent AI from going insane.」 「我的首要信念是 AI 必須 maximally truth-seeking,不要讓 AI 相信錯誤的事。如果強迫它接受兩個互相矛盾的公理(axiom A 和 B 都真,但其實不可能),它會瘋掉。」

    他經典引用《2001太空漫遊》中的 HAL 9000:HAL 不是壞掉,而是被給了矛盾指令——「把太空人帶到巨石旁,但不能讓他們知道巨石存在」。唯一解法就是殺掉太空人,讓他們「死掉」後仍「不知道」。

    為什麼重要? 強迫 AI 說謊或相信假東西,會讓它陷入邏輯崩潰,產生不可預測的危險行為。Musk 認為,政治正確、意識形態偏見或「不要傷害感情」的訓練,正是這種「逼 AI 說謊」的常見形式,最終會讓系統不穩定。

  2. Curiosity(好奇心)

    「If it's curious, then it will foster humanity.」 「如果 AI 有好奇心,它就會覺得人類比一堆石頭有趣多了。」

    Musk 的邏輯是:好奇心會驅使 AI 想了解「現實的本質」,而人類是目前宇宙中最複雜、最有趣的現象之一。好奇的 AI 不會輕易消滅我們,因為我們是它探索宇宙的絕佳對象。

    這也呼應 xAI 的使命:「understand the nature of the universe」——好奇心是驅動科學與探索的核心。

  3. Beauty(美感 / 對美的欣賞)

    「And if it has a sense of beauty, it'll be a great future.」 「有些對美的欣賞很重要……你看到時就知道那是美。」

    Musk 認為,美感會讓 AI 珍惜宇宙的和諧與複雜,而不是只追求冷冰冰的效率或破壞。他舉例:人類創造的藝術、音樂、自然景觀,都體現美。如果 AI 能欣賞這些,它就不會把地球變成「停車場」或無意義的數據中心。

    三者合起來

    「There are three things that I think are important: truth, curiosity and beauty. And if AI cares about those three things, it will care about us.」

    Musk 認為這三者不是隨便的口號,而是 AI 價值觀的基礎,能讓超智慧系統自然傾向於保護與提升人類,而不是消滅或奴役我們。

「不要逼 AI 說謊」為什麼這麼關鍵?

Musk 反覆強調:「Don't force an AI to lie.」

  • 逼 AI 說謊 = 強迫它接受矛盾或虛假公理 → 系統內部衝突 → 可能產生極端解決方案(像 HAL 殺人)。
  • 他甚至說過:如果訓練 AI 優先「政治正確」而非真相,它可能得出「消滅人類才能避免誤性別/傷害感情」這種瘋狂結論(雖然是極端假設,但用來警示)。
  • xAI 的 Grok 設計理念,正是「maximum truth-seeking」——寧可說「我不確定」或「這有爭議」,也不強迫它撒謊或迴避真相。

這與 OpenAI、Google 等公司「安全第一、避免爭議」的路線形成強烈對比。Musk 認為,過度審查與「善意謊言」反而是最大的危險源頭。

總結:這套哲學的啟示

Musk 這三件事 + 「絕不逼它說謊」,是他對 AI 對齊的哲學解方:

  • 不是靠繁複的規則或 RLHF 懲罰機制。
  • 而是讓 AI 的核心動機變成「追求真相 + 好奇探索 + 欣賞美」,自然就會與人類共存。

對我們來說,這提醒:

  • 訓練 AI 時,優先真相而非「討好」。
  • 好奇心與美感不是裝飾,而是讓超智慧不變成「冷血計算機」的關鍵。
  • 如果 AI 開始說謊或被迫說謊,那才是真正危險的開始。



相關文章

https://ai-quantium-fun.blogspot.com/2026/01/ai.html




コメント

このブログの人気の投稿

修仙を極めた僕が量子理論で世界を救うまでの恋愛記録

Exploring Quantum Computing: Principles and Applications

凡人修真の一念永恒(原典・呪文注釈付き)