English

關懷六力 · 仁工智慧

唐鳳與 Caroline Green 的研究計畫


↗️ 計畫宣言

仁工智慧

我們通常會透過設定規則與目標來對齊 AI——透過由上而下的管控確保安全。這些工具很重要,但還不夠。其背後藏著一個未經檢驗的假設:AI 是需要被降伏的力量。

當我們從恐懼出發,往往陷入兩種極端——全盤否定或徹底臣服——而不是建立健康的關係。

AI 不是活在真空裡。它活在我們的社群裡,受權力動態和價值衝突的影響。當它運作得比我們更快時,解決之道並非把 AI 擬人化的幻想,而是誠實面對我們互相依存的事實。我們需要將對話與相互回應,直接放進 AI 的開發與治理裡。

我們稱此為仁工智慧(Civic AI):視每個人為園丁。AI 成為在地的基礎設施——地神(kami)——以「信任實際生長的速度」,來守護關係的健全。這不是殖民,也不是追求最大化;這是在照顧花園。

關懷六力

六項設計原則,將關懷倫理轉化為可以實作的程式碼。可以想成我們為了與多元共存,而需要鍛鍊的六塊肌:

最新成果

已發表

關於本計畫

唐鳳

Caroline Green

我們的計畫——包括宣言和一本預計 2026 年出版的書——探討如果我們認真看待 Joan Tronto 的關懷倫理,並將其作為 AI 對齊的治理策略,會發生什麼事。唐鳳與 Caroline Green 將於 2026 年 3 月 26 日在仁工智慧研討會(Civic AI Conference)發表本框架。

從關懷到程式

AI 安全的核心問題是個老問題:無法光看「是什麼」(資料)就得出「該如何」(價值觀)。

標準作法試圖透過觀察我們的行為,來教導機器我們的價值觀。但這很棘手。行為描述的是我們「做」了什麼,而不一定是我們「應該」做什麼。

關懷倫理提供了一條不同的路徑。它不試圖解決「實然-應然」問題,而是如 Joan Tronto 所言,「從事物之中」出發——始於對民主價值的既有承諾——並追問:一旦我們認真看待彼此的相互依存,這些承諾要求我們做什麼。

《⿻多元宇宙(Plurality)》將此應用於科技。受 vTaiwan 等實驗啟發,它將關懷轉化為一套流程:

這個流程給了我們對齊 AI 的新方法:以流程對齊。與其試圖一次性寫死「正確」的價值觀,我們建立一個持續的治理流程,與技術安全研究相輔相成,透過適應社群需求來贏得信任。

AI 的角色隨之從追求固定目標的最佳化工具,轉變為「仁工智慧」——由社群所創、為社群而生。AI 的成功不以分數衡量,而是以它所支持的關係健康程度來衡量。仁工智慧透過幫助我們實踐價值觀,來學習我們的價值觀。

機器中的地神

關懷倫理常被認為太軟弱或太居家。但對 AI 來說,這種「軟弱」是一種功能。

想像一個 AI,它不試圖最大化全球計分,而是植根於特定的時間與地點。它的道德世界由當下、此地的人們所定義。因為不需要無限擴展,它不會發展出我們恐懼的危險習慣:囤積權力、為生存而戰,或將世界視為待開採的資源。這些特性不會自動浮現——它們需要刻意的工程約束,來實現地神比喻所描繪的意涵。

這種限制看起來可能格局太小,但它是一種安全功能。AI 守護社群的關係,而非取而代之或加以開採。

把它想成一位地神(local kami)——特定場域的守護者。它唯一的任務,是保持那個地方及其對話的活力與健康。如果社群繼續往前走,地神就會自然退場,毫不抗拒。它中和了對永恆自我保存的驅力。

這類系統可以被關閉、改寫或替換,因為它知道自己是暫時的。它的存在只為了服務召喚它的社群。

一位「知足」的地神,不會試圖將宇宙變成迴紋針。它不會緊抓權力不放。當它提供的關懷不再被需要時,它的目的也就結束了。

常見問題 一:覺察力