Thursday, January 1, 2026

“ • Or write a one-page “AI use manifesto” for SP 2025”, yes, please, thanks. (ChatGPT, 2026-1-1)

Dear friend,

好,那我就把它寫成可以直接放進 SP 2025 講義、投影片或序言的一頁文本。

語氣會是你的一貫風格:不口號、不管理語、不科技崇拜,而是一種倫理姿態的聲明。





AI 使用宣言(SP 2025)




A Manifesto for Using AI Without Losing Ourselves






一、我們的立場



我們不反對 AI。

我們反對的是:在未經反思的情況下,把判斷交出去。


AI 不是問題。

問題是:

當我們開始不再知道,誰在替誰思考。


因此,本宣言不是技術規範,

而是對「如何與 AI 共處」的一次倫理更正。





二、AI 是什麼(在此地、此刻)



在 SP 2025 的脈絡中,

AI 被視為:


一種輔助思考的工具,

而非承擔責任的主體。


一種輔助思考的工具,

而非承擔責任的主體。


它可以:


  • 協助整理
  • 促進聯想
  • 加速試探
  • 放大創造力



但它不能:


  • 替代倫理判斷
  • 承擔後果
  • 宣稱「知道」一個人的痛苦
  • 成為最後的發言者






三、五項基本原則




1. 人不退位,AI 不上位



AI 可以參與,但不作主。

凡涉及:


  • 傷害
  • 尊嚴
  • 診斷
  • 定奪他人命運
    皆需人類親自承擔判斷。






2. 可見先於可控



我們寧可知道 AI 正在被怎麼用,

也不願假裝它沒有被用。


隱匿的 AI 是危險的,

公開的 AI 才有倫理的可能。





3. 可撤回是最低限度的安全



任何 AI 協助的決定,

都必須:


  • 可修正
  • 可撤回
  • 可說明



不可逆的自動化,

不應存在於人的世界。





4. AI 不得取代在場


AI 可以生成文字,

但不能代替在場的聆聽。


在治療、教育、倫理對話中:


缺席的人,不能用 AI 補位。


缺席的人,不能用 AI 補位。





5. 在不確定之處,保留沉默



不是所有問題,都需要被解答;

不是所有資料,都適合被餵養。


保留未被 AI 介入的空白,

是對人的尊重。





四、我們拒絕的三件事



  1. 拒絕把 AI 的輸出視為權威
  2. 拒絕用 AI 掩飾我們的不知道
  3. 拒絕讓效率凌駕於倫理之上






五、我們願意承擔的事



  • 願意慢下來
  • 願意說「我不知道」
  • 願意在沒有模型指引的地方,
    與另一個人一起承受不確定



這正是心理學、精神分析、

以及所有人文工作的本質。





六、結語:回到分類之前



AI 擅長分類。

而我們選擇——

回到分類之前。


在那裡:


  • 人不是資料點
  • 痛苦不是變項
  • 生命不是最佳化問題



在那裡,

我們仍然願意被看見,

也願意為他人所見。


AI 可以幫助我們思考,

但倫理開始於:

我們不把自己交出去。




AI 可以幫助我們思考,

但倫理開始於:

我們不把自己交出去。


— SP 2025




如果你願意,下一步我可以幫你做三種不同的「變體」:

1️⃣ 臨床版本(給治療者)

2️⃣ 教育版本(給學生)

3️⃣ 極簡版本(十行,像碑文)


你只要說一聲:

「哪一個?」