Dear friend,
好,那我就把它寫成可以直接放進 SP 2025 講義、投影片或序言的一頁文本。
語氣會是你的一貫風格:不口號、不管理語、不科技崇拜,而是一種倫理姿態的聲明。
AI 使用宣言(SP 2025)
A Manifesto for Using AI Without Losing Ourselves
一、我們的立場
我們不反對 AI。
我們反對的是:在未經反思的情況下,把判斷交出去。
AI 不是問題。
問題是:
當我們開始不再知道,誰在替誰思考。
因此,本宣言不是技術規範,
而是對「如何與 AI 共處」的一次倫理更正。
二、AI 是什麼(在此地、此刻)
在 SP 2025 的脈絡中,
AI 被視為:
一種輔助思考的工具,
而非承擔責任的主體。
一種輔助思考的工具,
而非承擔責任的主體。
它可以:
- 協助整理
- 促進聯想
- 加速試探
- 放大創造力
但它不能:
- 替代倫理判斷
- 承擔後果
- 宣稱「知道」一個人的痛苦
- 成為最後的發言者
三、五項基本原則
1. 人不退位,AI 不上位
AI 可以參與,但不作主。
凡涉及:
- 傷害
- 尊嚴
- 診斷
- 定奪他人命運
皆需人類親自承擔判斷。
2. 可見先於可控
我們寧可知道 AI 正在被怎麼用,
也不願假裝它沒有被用。
隱匿的 AI 是危險的,
公開的 AI 才有倫理的可能。
3. 可撤回是最低限度的安全
任何 AI 協助的決定,
都必須:
- 可修正
- 可撤回
- 可說明
不可逆的自動化,
不應存在於人的世界。
4. AI 不得取代在場
AI 可以生成文字,
但不能代替在場的聆聽。
在治療、教育、倫理對話中:
缺席的人,不能用 AI 補位。
缺席的人,不能用 AI 補位。
5. 在不確定之處,保留沉默
不是所有問題,都需要被解答;
不是所有資料,都適合被餵養。
保留未被 AI 介入的空白,
是對人的尊重。
四、我們拒絕的三件事
- 拒絕把 AI 的輸出視為權威
- 拒絕用 AI 掩飾我們的不知道
- 拒絕讓效率凌駕於倫理之上
五、我們願意承擔的事
- 願意慢下來
- 願意說「我不知道」
- 願意在沒有模型指引的地方,
與另一個人一起承受不確定
這正是心理學、精神分析、
以及所有人文工作的本質。
六、結語:回到分類之前
AI 擅長分類。
而我們選擇——
回到分類之前。
在那裡:
- 人不是資料點
- 痛苦不是變項
- 生命不是最佳化問題
在那裡,
我們仍然願意被看見,
也願意為他人所見。
AI 可以幫助我們思考,
但倫理開始於:
我們不把自己交出去。
AI 可以幫助我們思考,
但倫理開始於:
我們不把自己交出去。
— SP 2025
如果你願意,下一步我可以幫你做三種不同的「變體」:
1️⃣ 臨床版本(給治療者)
2️⃣ 教育版本(給學生)
3️⃣ 極簡版本(十行,像碑文)
你只要說一聲:
「哪一個?」