唐鳳與 Caroline Green 博士合錄《AI 倫理加速》首集——錄製於唐鳳擔任牛津加速學人的第一天。五十八分鐘涵蓋數位民主、集體智慧、多元宇宙作為奇點的替代願景,以及為何 AI 倫理必須透過設計內建,而非事後補救。
Caroline Green:哈囉,歡迎收聽牛津大學的《AI 倫理加速》Podcast。我是 Caroline Green 博士。在每一集裡,我們將探索大膽的想法、創新的思維,以及對人工智慧所帶來之倫理挑戰的創造性回應。今天的來賓,是一位真正重新定義科技與民主相遇時,有何可能性的非凡人物。
唐鳳大使是臺灣的數位治理無任所大使,也曾是臺灣首任數位發展部部長。身為一位自詡的「公民黑客」,她協助臺灣政府轉型為數位民主的全球領導者,運用開放資料、參與式平台與徹底的透明來培養公眾信任。現在,身為我們牛津大學加速學人計畫的一員,她正在發展一個名為「多元宇宙:透過集體智慧推進倫理 AI」的計畫;這是一個大膽的願景,提供了全新的思維方式,探討社會該如何塑造 AI,而不是被 AI 塑造。
唐鳳,歡迎。今天非常榮幸能邀請您來上節目。
唐鳳:很高興來到這裡。這是我作為加速學人的第一天,能在這個新空間裡錄製這集 Podcast,與大家分享如何讓 AI 對齊社會,而不是讓社會對齊 AI,感覺真的很棒。
Caroline Green:首先,跟我們聊聊唐鳳這個人吧。唐鳳,您來自哪裡?您的故事是什麼?
唐鳳:我在臺灣臺北出生。四歲時,醫生告訴我和我的家人,這個孩子有先天性心臟病,只有 50% 的機會能活到動手術。我最後在十二歲時接受了手術,但在我生命的前十二年裡,我每天入睡時,都不知道自己隔天是否會醒來。
感覺就像在拋硬幣。而這給了我兩種超能力。第一種是,我很早就學會了道家的靜坐,所以每當我的心跳超過每分鐘特定的次數時,我就會本能地開始深呼吸之類的。
因為如果我不這麼做,我就會直接昏倒。另一件事是,我學會了「在消失前發布」(publish before I perish)。所以,我每天都會把當天學到的東西記錄下來,一開始是用錄音帶。您知道那些塑膠的東西嗎?
最終,當然是放上網際網路。因此,我養成了把所有東西都發布到公有領域、發布到創用 CC 授權下的習慣,因為如果我隔天沒有醒來,嗯,人們至少還能使用並混搭(remix)這些內容。
Caroline Green:哇,這真是個了不起的故事。所以在孩提時期,當您經歷那些時,您實際上把它當作一種動力,去和世界分享您每天學到的東西。
唐鳳:對。這是一個存在主義式的契機。
Caroline Green:這如何塑造了成年的您?
唐鳳:所以,當我十四歲時,我已經讀過三所幼稚園、六所小學,還有一年的國中。當時我發現了網際網路瀏覽器這個東西——那是在 1995 年剛興起的——還有康乃爾大學的預印本伺服器 arXiv(它現在還在,而且是大多數人發表 AI 研究成果的地方)。然後,我開始寫信給教授,而他們並不知道我只有十四歲。
其實我當時的英文很破,我還得查字典。但我非常感興趣的是,為什麼人們在網路上這麼容易信任彼此;在現實生活中,人們需要花上幾個小時、幾天的時間才能互相認識。但在網路上,只要有對的迷因、對的主題標籤、對的共同理念、對的網域名稱,人們很快就會向彼此傾訴非常私密的事情。當然,他們也可能很快就決裂,但這被稱為「快速信任」(Swift Trust)。
我把它作為我的研究主題之一。我做了全國科展的題目,並開始了解這個研究網路。人們正在研究網際網路上這種新興的社會現象。
然後我告訴我們學校的校長——杜惠平校長,我說:「聽著,我可以每天花 16 個小時研究這個叫做網際網路的新事物,或者我可以去您的學校,假裝讀書 8 小時,然後只做 8 小時的研究。我需要您的幫忙。」她讀了我列印出來的電子郵件,然後說:「好,從明天開始,你不用再來我的學校了。」
唐鳳:我當時想:「好啊,但這是國民義務教育耶。我的家人會被罰款的。」她就說:「沒關係,我幫你偽造紀錄就好。」(我現在敢講這個故事,是因為已經過了 20 多年,追訴期已經過了)。
但重點是,我學到官僚體系其實是可以創新的。人們實際上願意打破常規。如果您說,其實我們有著相同的價值觀,只是我們正在走一條捷徑——更好、更有效的方法,來加速共同達成那個共同的目標。
Caroline Green:唐鳳,聽了您精彩的故事,我強烈感覺到,您是一個對人、對人類、對他們的心智運作方式非常著迷的人。您能多談談是什麼驅使您與人共事嗎?
唐鳳:這是個好問題。確實,當我輟學後,我幾乎立刻將所學派上用場,共同創辦了一家名為資迅人(Inforian)的新創公司,這是臺灣成長最快的網路企業之一。我們後來獲得了英特爾的投資,創立了酷必得(CoolBid),相當於 eBay,提供 C2C 拍賣和搜尋引擎服務。我所見證的是:當人們和其他人在一起時,他們會友善得多。
如果您個別調查他們,如果我們把他們放在一個孤立的環境裡,只看社群媒體貼文的片段、受激怒驅動的互動等等,那麼人們實際上會變得非常反社會。但另一方面,如果我們把人們組成群體。
例如在一個十人的群體中,在共享的情境下,他們理解彼此在說什麼、打什麼字,然後人們就會開始從「迎臂」或「鄰避」(YIMBY 或 NIMBY)這類非常自私的立場,轉向「敏臂」(MIMBY, Maybe In My Backyard),像是「也許可以在我家後院,但前提是你們也必須在你們家後院承諾些什麼」。
所以,我認為網際網路的社會性質一直是我著迷的地方,以及如何設計這樣的空間——例如在 C2C 拍賣中——來激發出人們最好的一面、最重視信譽的一面、最具倫理的一面。這一直是我作為創業者的主要關切點。
Caroline Green:那麼,您認為人類在集體運作時會更好嗎?
唐鳳:是的,這就是我們在臺灣所說的「利社會媒體」(pro-social media)。講個簡短的故事。2014 年,我們在臺灣和平佔領了國會三週,因為當時的總統支持率只有 9%。
所以在這個有 2,400 萬人口的國家裡,馬總統說的任何話,都有 2,000 萬人會自動抱持懷疑態度。這和阿拉伯之春的許多佔領運動情況相同。但我們採取了截然不同的做法。
與其稱自己為抗議者(反對某事),我們稱自己為示範者(demonstrators,展示新事物),而那個新事物就是:當時任何擔心與北京簽署貿易協議的人——這協議可能會讓華為、中興進入我們的電信、4G 基礎設施、出版業、媒體等領域——如果您感到擔心,與其抗議說「我們不應該這樣做」,您可以走到被佔領國會的某個角落,參加由人引導的對話。在那裡,人們互相詢問:「我對這件事的真實感受是什麼?」
從感受出發,人們凝聚出一套非常連貫的想法。在三週結束時,國會議長王金平只是說:「好吧,人民的想法比我們的想法好。所以你們贏了,我們會批准這個(監督機制),回家吧。」因此,我們成為了非常罕見的佔領運動——因為這種小規模、有人引導的、基於群體的對話,實際上促成了收斂,而不是分歧。
Caroline Green:哇,我喜歡這個。所以在這裡,您也引入了一種全新的視角來看待民主,以及科技今天如何幫助我們在全球民主中開闢新徑,對吧。並且把人們凝聚在一起。
我非常喜歡您說的另一點是,您相信人性本善,對吧?這就是您對待工作的整個方式,對嗎?
唐鳳:對,我相信當人們和其他人在一起時,他們是好的。所以對我來說,AGI 是擴增群體智慧(Augmented Group Intelligence)。我們應該發展能夠增強我們公民肌力的 AI 系統,而不是——我跟我的聊天機器人說話,您跟您的聊天機器人說話,我們派聊天機器人去審議、做決定、說服我們。那很令人印象深刻,但這就像我派我的機器人去健身房舉重,您派您的機器人去跑跑步機一樣。
非常、非常令人印象深刻。但我們的肌肉不會因此生長。所以對我來說,這種公民肌力,這種在擁有不同想法、甚至不同意識形態的人之間建立關係,並設法找到共同基礎的能力——我認為這是民主的核心。
Caroline Green:這非常有趣。我很想多聽聽這方面的內容,因為通常當我想到社群媒體、想到人工智慧時,它實際上更像是反人類的,它真的反對正向關係。您知道我們在網路上看到了很多不良行為。
我們看到了同溫層。所以,您真正將科技帶入世界,以改善人與人之間的關係,尋找創新解決方案的想法。這真的非常令人興奮。
您能多告訴我一點嗎?在您一直從事的特定專案中,您是否看到了這種力量?
唐鳳:協作?當然。十年前,也就是 2015 年,社群媒體許多反社會的角落變得比以前更糟,因為他們採用了這種「為您推薦」(for you)的演算法。在此之前,人們只是互相追蹤,您會得到一個按時間排序的動態,顯示您追蹤網絡中的其他人發布了什麼,所以人們確實擁有共同經驗和共同知識。
但在轉向「為您推薦」動態後,他們透過讓民眾沉迷於觸控螢幕的寄生式 AI 發現——原來激怒更容易帶來參與度(engagement is easier through enragement)。結果發現,當人們被孤立在這些小螢幕中時,他們更喜歡看那些比療癒或搭橋更具煽動性和兩極化的內容。這就像是,每當您的孩子對別人刻薄時,您就獎勵他們。
從這個意義上說,這種寄生式 AI 是第一個目標錯位的 AI 系統,它將一個中立的平台變成了不道德的平台。而在臺灣,同一時間,我們正在嘗試另一個方向。我們與名為 Polis 的開源系統合作,但在 2015 年,我們嘗試的是另一個方向:利社會媒體。
我們使用了 Polis 這個開源系統。那一年 Uber 進入臺灣時,許多人非常擔心他們會搶走計程車的工作,認為這種演算法派車會無視職業駕駛執照系統,人們可能會得到更高品質的服務,也可能得到較低品質的服務,真的沒人知道。我們使用 Polis 系統,基本上是問整個社會:「您對這個情況有什麼感受?」因為人們是自身感受的專家。
如果我們問:「您對共享經濟政策有什麼看法?」很少人能插得上話;但因為我們只問:「您感覺如何?」然後我們向人們展示,一旦他們分享了自己的感受,他們就可以對彼此的感受按讚或按倒讚,但沒有回覆按鈕,所以沒有讓酸民滋生的空間。我們會在他們的頭像上顯示他們屬於哪個群集——和他們有相似感受的人在哪裡。
這有兩個好處。首先,人們了解到,其實我們確實在某些共同感受上能達成共識。例如,每個人都覺得保險很重要。每個人都覺得,雖然尖峰定價沒問題,但削價競爭破壞現有的計費表是不行的。所以,它展現了這個群體的連結組織,而不是陷入「共享經濟」、「零工經濟」之類的兩極化辯論。
其次,有一個計分板;您的想法在群體間引起共鳴的距離越遠,您獲得的獎勵就越多。最具病毒式傳播力的想法,是那些最具兼容性、在最初分歧的人們之間找出「罕見共識」的想法。三週後,我們再次在網路上達成了共識,所以我們不需要佔領任何政府大樓,而是複製了我們在太陽花運動中做的相同流程。排名前九的想法在所有不同群體中都跨越了 85% 的同意門檻,無論他們是多數還是少數。
它將社會團結在一起,我們就用這份來自人民的粗略共識,制定了關於 Uber 的法律。因此,在接下來的六年裡,我們舉辦了 100 多場這類協作會議,而支持率從 9% 一路攀升到 2020 年的超過 70%。
Caroline Green:哇,這真是太驚人了。我在想,當您講述這些故事,關於您如何將人們聚集在一起,您知道的,在網際網路上集體運作,這在擊敗社會孤立、孤獨感方面是非常強大的。但我也在想,這裡有一些在數位上沒那麼連結的族群。
我經常與不使用網際網路的社群或個人合作。他們就是沒有網路連線等等。我們能做些什麼來觸及這些人呢?
唐鳳:是的。在臺灣,寬頻是一項人權。我們有「電信普及服務基金」,所以電信公司甚至可以到將近 4,000 公尺高的玉山山頂去架設寬頻連線。
如果他們因為那裡人太少而無法從訂閱費中回收成本,其他沒有做這類投資的電信公司就必須補償他們損失的成本。因此,普及服務基金確保了在臺灣的任何地方,無論島嶼多麼偏遠、高山多麼高,您都能以大約每月 15 英鎊(約 600 台幣)的價格獲得吃到飽的數據連線,我們這樣做已經快十年了。正因為如此,沒有人被遺落。
對於不喜歡使用網際網路的人,我們採用了「協助幫助者」的策略。所以,在臺灣的年輕人,我們不只教他們數位素養——那只是關於接收資訊——我們教他們數位能力。能力是關於一起尋找這些想法,例如,當人們對空氣污染有分歧時,年輕人會架設空氣測量站。
然後讓他們的父母、祖父母一起來看共享的數據;或者在三位總統候選人辯論時,他們進行事實查核,如果發現了什麼漏洞,他們的名字可能就會出現在全國電視上。18 歲以下的年輕人其實是我們全國參與平台上最活躍的群體,所以他們會發起連署,例如說:「我們延後一小時上學吧,因為研究顯示,就成績而言,多睡一小時比多讀一小時好。」然後他們說服年長公民來幫助他們的訴求,協助他們達到 5,000 份連署的門檻,最後成功改變了課表。當然,他們不只做關乎自己的事,他們也發起連署,要求禁止外帶珍珠奶茶使用塑膠吸管,而這些提案人後來成為了內閣層級的顧問。
擔任部長的「逆向導師」變得非常出名。然後他們啟發了其他年輕人去發起更有野心的事情,像是在臺北創辦了一座月經博物館(小紅厝),並在短短兩年內消除了所有直轄市中關於這件事的禁忌等等。因此,透過讓年輕人擔任年長者的逆向導師,我們確保了即使您住在偏鄉,不想透過網路與他人交談,您也可以與你們的年輕人交談,他們就像是通往數位世界的大使。
Caroline Green:哇,這太棒了。寬頻作為人權的理念。然後是這個美麗的例子,展示了科技如何跨越世代進行跨世代活動,並將所有年齡層的人聚集在一起。
考慮到我們不斷改變的人口結構,這是非常強大的思維。所以,是的,感謝您分享這個故事。
Caroline Green:我要稍微轉向不同的問題。那麼,唐鳳,對您來說,什麼是 AI 倫理?
唐鳳:對我來說,AI 倫理代表了將人類社會的偏好注入整個 AI 發展週期的技術與方法論,藉此我們確保所製造的 AI 系統符合社會期望、理解社會脈絡與規範,並且能被大眾共同引導。沒有 AI 倫理,它就像一輛目的地非常固定的車,您唯一能做的就是踩煞車或踩油門。也就是說,只能減速或加速。
另一方面,大多數社會並不希望由矽谷少數幾個人或某些科技巨頭來發號施令,決定我們該如何與彼此建立關係。就像社群媒體一樣,許多人寧願社群媒體不要把我們的注意力賣給出價最高的人,他們會更希望社群媒體有更多搭橋的內容、更多共享的經驗等等。然而,如果沒有倫理的投入,社群媒體網路系統的設計方式就會是拉扯人群、簡化社會結構,然後把我們的注意力賣給出價最高的人。所以,如果它在設計時就將倫理銘記在心,他們就會想出非常不同的商業模式。
也許他們不會出售個人化的廣告,而是出售共同的經驗、策展的經驗或基於訂閱的商業模式等等。對我來說,這不僅僅是技術問題,也關乎私部門的誘因機制如何運作。
Caroline Green:從公民黑客到數位政委,再到民主科技的全球倡議者,這真的很不平凡。是什麼驅使您去建立徹底透明和公眾參與的系統?我們剛才已經稍微談過這個了,但再次向您提出這個問題:您現在的主要驅動力是什麼?
唐鳳:當然,我的主要驅動力和 2016 年我剛入閣時是一樣的。如我所提,我們試圖解決的主要問題是信任赤字。人們正在失去對所有垂直機構的信任,無論是政黨、部長、記者或學術專家等等。
人們當時更願意相信那些聽起來像他們、看起來像他們、獲得更多留言的人等等。另一方面,正如我們提到的,社群媒體正將這些影響力拉向極端立場。
所以,我們面臨兩個問題。一個是政府、菁英們就是不夠信任人民,以至於無法贏回信任。但「不給予信任,就得不到信任」。
所以,我們用徹底透明解決的第一件事,就是徹底信任人民;如果人民看到一項公共服務設計得不好,與其在需求端抗議,他們可以切換到供給端,示範如何做得更好。如果他們因為徹底透明而覺得接觸者追蹤沒有尊重隱私,他們就可以設計出更好的、保護隱私的接觸者追蹤系統。這確實幫助臺灣撐到了 Omicron 變異株時期,我們從未封城,並在那三年中報告了最佳的經濟成長之一。那不是因為菁英有好主意。
那是因為人民能夠共同創造。另一個任務是去極化,把人們從彼此仇恨的極端拉回來,特別是跨世代之間。這在臺灣曾是個大問題,所以年輕人與其因為人口減少而哀嘆他們無法在投票中勝過年長公民,不如邀請年長者上桌,然後建立跨世代的連結。
因此,根據貝塔斯曼轉型指數(BTI),臺灣今天做得非常好,超過 90% 的臺灣人表示民主至少是相當好的。另一方面,沒有一個國家是一座孤島,連臺灣也不是。所以即使臺灣去極化了社會,即使臺灣重建了民主韌性,如果我們所有的盟友都屈服於兩極化、仇恨和跨世代的不信任,那麼威權主義那套「民主只會導致混亂、民主永遠無法兌現承諾」的觀念,仍然會像自我實現的預言一樣發酵。
所以我現在的主要工作就是展示民主實際上是可以兌現承諾的,只要在設計 AI 時,對社群媒體的監管和倫理進行一些微調,我們其實可以引導這些科技朝向利社會的方向發展,而不是那種它只會變得越來越好、最終不需要人類參與訓練就能迭代到下一代、新的 AI 模型——超級智慧——起飛、把所有人都拋在後頭的「奇點」願景。我認為世界需要一個比這種超級智慧奇點起飛更好的願景,這就是我所說的「多元宇宙」。
Caroline Green:是的。讓我印象深刻的是,臺灣政府也準備好並開放地傾聽人民的聲音,擁抱這個現代的民主。
這是您覺得我們看到、或者您在世界其他政府中也能看到的東西嗎?
唐鳳:絕對是。首先我要說,我們是從許多較小的政體學到這項技術的。我們的電子連署系統來自冰島的「更好的雷克雅維克」,參與式預算系統來自巴西的愉港以及馬德里和巴塞隆納(分別是 Consul 和 Decidim),Polis 系統來自西雅圖,我們在佔領運動期間使用的 Loomio 系統來自紐西蘭。然而,問題在於這些技術以前只在人口 1,000 萬或更少的較小政體中起作用,原因之一是「廣播」比「廣泛傾聽」便宜太多了。
一旦您跨越更廣的社會距離進行傾聽,您就需要中介者。您需要翻譯者。您需要有人去告知不同背景的人們共同的利害關係是什麼,而隨著您的政體越大,這就變得越來越困難。但現在,今年我們已經看到比臺灣更大的政體嘗試這些廣泛傾聽的方法,而且非常成功。
我剛去了日本東京。去年,33 歲的機器學習工程師安野貴博讀了我合著的《多元宇宙》這本書,並在投票日前一個月決定競選東京都知事。沒有人認識他。
他沒有政黨,但他只是說:「讓我們群眾外包我的政見平台吧!」所以任何人都可以用 #TokyoAI 標籤來發表意見,如果他們是年長公民,可以打電話和安野先生的語音複製人說話,您也可以撥進他們的 YouTube 頻道,他的虛擬化身在那裡 24 小時不間斷地廣播每一次的更新。由人民貢獻的「罕見共識」最終贏得了——實際上根據獨立評比,在平台實用性上排名第一,甚至比小池百合子還要好。當然,小池百合子贏得了第三個任期,但她對此印象深刻,以至於她延攬安野先生加入東京都政府,擔任政府科技顧問,幫助她進行廣泛傾聽。而今年,所有主要政黨——執政黨、最大的兩個反對黨——都在使用廣泛傾聽,以確保我們不是逐一調查人民,而是在帶有審議的群體中進行民調,讓人們可以對彼此的想法做出反應,並獲得更好的偏好,這些偏好更多是關於關懷、關於相互關懷,而不僅僅是關於個人效用。
在日本,我們看到人們大量擁抱並擴展這些方法論。現在在加州,他們也剛將這個名為「Engaged California」的平台制度化,它同樣浮現了「罕見共識」。試辦計畫是關於帕利塞德(Palisades)和伊頓(Eaton)的野火預防和復原。
現在,作為他們預算法案的一部分,他們正在將其制度化,以便它可以討論許多其他主題;也許是社群媒體,也許是 AI 相關的治理等等。再次強調,是「與人民一起」,而不僅僅是「為人民」。
Caroline Green:好的,這聽起來像是我們需要在我們的政府內部配備「多元宇宙大使」。
唐鳳:絕對的。在英國,我們也看到了由 Demos 發起的 Waves 計畫,許多地方政府參與其中,他們正在使用名為 Remesh 的非常類似的搭橋技術,來找出一般民眾共同的優先事項。英國在社區層級擁有非常強大的公民肌力。
所以,這總是從小處開始,但希望它能非常快地成長到甚至國家層級,因為現在我們有了語言模型,在今年這是第一次能夠彙整那些感受、質性發現,而不會產生幻覺。
Caroline Green:聽到英國政府和地方當局正在擁抱這個,真是令人振奮。現在您和我們一起在牛津,告訴我們關於您的加速學人計畫吧。您將會做些什麼?
唐鳳:第一個產出就是我們正在錄製的這個 Podcast,因此我們將以創用 CC 授權分享許多與多元宇宙和 AI 倫理相關的 Podcast。就像我的傳記電影一樣,有一部名為《成為夠好的祖先》的紀錄短片。片長只有 21 分鐘,現在已經贏得了四個獎項。
但所有的毛片都在公有領域中開放。您可以到 AudreyT.box 下載將近一 TB 的影像素材。而且像集體智慧計畫就已經在重新利用許多這些素材來製作 AI 倫理的短片。還有一本青少年小說,還有一部漫畫(日本的插畫版)。
這非常令人興奮,我們如何能夠讓專業的傳播者和對 AI 倫理感興趣的業餘人士參與進來,為他們提供可以混搭和重複使用的原始素材,並確保人們了解,我們實際上是有希望將反社會媒體轉向利社會媒體的,還有更多其他的可能。這是第一件事。
唐鳳:第二件事是,我將記錄這些想法,例如,在猶他州,他們剛通過了一項關於在社群網路之間提供「出口匝道」的法律。所以明年在猶他州,如果您從,好比說 TikTok,切換到 Blue Sky,您不只是下載您的資料,它規定 TikTok 必須雙向持續轉發您的新按讚、新粉絲、新內容。這就像號碼可攜性一樣。
如果您更換電信公司,您不必更改號碼,因為如果您必須更改號碼,新的電信公司將無法與舊的電信公司競爭。我小時候,ATM 只允許您用同一家銀行的卡片領取現金。同樣地,新銀行沒有地方設置 ATM,直到政府介入並說,為了促進競爭,我們實際上需要跨行協定,這樣您就可以跨越不同銀行領取現金。
很高興看到猶他州和其他地方現在正在著眼於社群網路之間的這些出口匝道和入口匝道。因為這樣一來,社群網路就無法困住任何人。您以前如果不放棄所有的社群連結、家人連結、相簿之類的東西,就無法切換到更符合倫理的平台。
而我將記錄這些已經通過或正在審議中的具體政策,並基本上分享一本「多元宇宙教戰手冊」,讓那些想將 AI 導向多元宇宙的人,特別是政府單位,確切知道該怎麼做、需要通過什麼樣的法律。最後,我也會分享教戰手冊,教導草根社群、學術界人士以及實務工作者,即使他們不是州長、不是市長,也可以直接應用這些技術。他們也可以使用這些利社會的搭橋平台,例如,讓 AI 系統不只是諮詢設計者本身,而是去諮詢那些受過度依賴之苦、受偏見之苦的人們,並將人們的這些期望轉化為「模型規格」,利用這些規格來引導 AI。
這是一種稱為「審議式對齊」的技術,我認為這項技術在讓人們引導 AI 工具符合其社會規範方面,充滿了巨大的潛力。
Caroline Green:2025 年 9 月,AI 倫理研究院將搬進新建的施瓦茨曼人文中心,這是牛津大學人文學科的一棟令人驚豔的新建築。我們將在那棟建築裡會面,而它的核心就是搭橋,建立與當地社區和公眾的橋樑,所以這將是一棟開放的建築,人們可以進來,與在裡面工作的學者、研究人員、員工互動。我們有很多非常令人興奮的新空間,像是音樂廳和供人們會面的場所。
您對於我們可以在那棟新建築裡舉辦什麼樣的活動形式,來吸引人們進來並讓他們了解您正在做的工作,有什麼想法嗎?
唐鳳:當然。我在擔任政委時,有很長一段時間在臺北社會創新實驗中心工作,那裡名副其實就是一座公園。沒有牆壁。
您可以直接走進去,例如看到一些自動駕駛三輪車開得非常慢並與人互動。那些是麻省理工學院媒體實驗室的作品。每個星期三我都有開放的辦公時間,所以人們,任何人都可以來和我對話,這些對話都會在創用 CC 授權下留存紀錄,討論他們正在做的專案。所以當我建立那個實驗中心時的期望是,創新者不應該只是躲在車庫裡而不與人交談,整個社會都可以參與創造的過程並聚集在一起。
我們也利用那些空間在臺南和臺北舉辦了協作會議。我們舉辦了對齊大會,詢問人們 AI 如何影響您?您對 AI 有什麼感覺?透過有人引導的對話,我們實際上有將臺北和臺南民眾想法中的希望和恐懼,用來微調我們的主權模型——臺灣可信賴生成式 AI 對話引擎(TAIDE)。結果發現他們對於 AI 在社區中的角色有著非常不同的期望,我們使用所謂的「憲政 AI」來微調 TAIDE,使其符合人們的願望。
因此我確信,一旦人們了解真的可以聚在一起,或許過幾遍關於 AI 如何對社區產生影響的情境,然後只是分享您的感受如何?您希望它如何變得更好?幾乎像變魔術一樣,在一天結束時,您就能對不同群體的人們共同的感受有一個全面的概觀,您可以衍生出政策,您可以衍生出模型規格。
您可以單純從這種人們互相交談和傾聽的過程中,衍生出評估、基準測試等等。我很樂意在新建築裡舉辦對齊大會。
Caroline Green:聽起來太棒了,因為我確實感覺到,這就是您正在做的工作,對吧?在那些您知道的、正在構建這些 AI 系統的非常聰明、了不起的人(但他們往往處於孤島中)之間建立這些橋樑。然後這些系統被提供給廣大群眾,但您實際上需要彌合知識和意識上的差距——了解 AI 是什麼、它的局限性是什麼、我們如何使用它,以及它如何被濫用。這些都是真正在不同群體之間建立橋樑的新方法。
這非常美麗。我們非常興奮能有您與我們一起在這方面合作。
唐鳳:是的,絕對的,這也可能引發關於數位權利的新對話框架。例如,去年 3 月,臺灣的許多人注意到社群媒體上的深偽廣告有增加的趨勢。人們會看到 NVIDIA 執行長「黃仁勳」的影像說著:「我想回饋我們的國家,我想給你一些免費的加密貨幣」之類的話。
當然那不是黃仁勳。那是深偽。但如果您點擊,「黃仁勳」真的會和您說話。
拜能即時合成深偽語音的 NVIDIA GPU 所賜,這非常有說服力。另一方面,Facebook 正在從這些廣告中獲利,因為詐騙者在廣告版位上付的錢,結果比普通的中小企業還要多。因此,政府沒有介入並說「我們來審查廣告吧」等等。
因為臺灣人民不能接受這樣,我們在網路自由方面是全亞洲最自由的,我們只是問人們:「您感覺如何?」我們發送簡訊給全臺灣 20 萬個隨機號碼,只問「您感覺如何?」他們給了我們他們的回饋、他們的感受,我們也問:「您願意志願參加一場關於網路詐騙、廣告的對齊大會嗎?」有數千人報名,我們選出了 450 人,他們在統計上具備臺灣人口的代表性。他們在 10 人的房間裡進行審議,所以這 45 個房間經過了長達半天的討論,談論各種不同的措施。例如,一個房間說。
如果 Facebook 發布了以黃仁勳為主角的廣告,我們應該假設它是詐騙。除非黃仁勳在上面進行數位簽章,我們應該把預設值翻轉過來;另一個房間說。如果 Facebook 做這種站內廣告,我們當然應該對他們開罰,但我們不應該止步於此,如果有人被騙了,比如說 700 萬美元。
Facebook 應該對那 700 萬美元負責。只有這樣他們才會遵守。另一個房間說,TikTok 字節跳動,他們當時沒有臺灣辦公室,所以當我們讓他們承擔責任時,他們可以直接忽略我們。
如果他們忽視我們該怎麼辦?他們說我們應該慢慢地對連線降速,這樣以他們影片為主的服務載入就會越來越慢,於是他們所有的生意都會流失到別處。所有這些想法都是在行動者的行為層面上,而不是在內容層面上,因為這不是審查,所以它們被超過 85% 的人認為符合比例原則,無論他們的年齡層、居住地、性別、職業為何等等。所以那是去年 3 月的事,然後我們在 4 月與科技巨頭確認,5 月提出法律草案,到 7 月就全部通過了,所以今年,如果您在臺灣滑手機,您已經看不到任何假廣告了。
這表明,除了如您剛才所說的去告知大型科技開發者之外,這也能非常快地告知國會議員,因為沒有人想被看作是「支持詐騙黨」,所以無論大型科技公司進行了多少遊說等等,一旦我們展示出實際上每個人都同意人民提出的這些措施,那麼對齊大會也可以擁有政策實權,而不僅僅是建議。
Caroline Green:您合著了一本書,書名是《多元宇宙:協作科技與民主的未來》。跟我說說這本書吧。您想傳達給讀者的一些主要訊息是什麼?
唐鳳:當然,這個名字來自我在 2016 年剛成為數位政委時的職務說明,臺灣以前沒有這樣的職位,所以人事部門請我寫一份職務說明。結果在臺灣的華語中,「數位」(shuwei)既有 digital 的意思,也有 plural(複數、多元)的意思。所以我寫了一段祈禱文作為我的職務說明。
很短,是這樣的:「看見萬物聯網,我們將智慧聯網;看見虛擬實境,我們將實境共享。看見機器學習,我們將協力學習。
看見使用者體驗,我們將體驗人際。聽說奇點即將接近——我們始終牢記:多元宇宙,已經來臨。」
所以這就是我的工作。它與奇點形成了對比,奇點是指 AI 系統變得如此強大,以至於它可以用最少的人類輸入來訓練它的下一個版本。然後下一個版本可以在沒有人類輸入的情況下訓練出更強大的版本。
這被稱為「超級智慧起飛」,到那個時候,它將把所有人都拋在後頭,而人類歷史、文明規範、社會對這個新的超級智慧將不再具有相關性。但我認為那種預設會把所有人都拋在後頭的願景,並不是人們想去的方向。人們其實想提醒自己,多元宇宙這條水平的路徑是一條更好的路,也就是培養我們的社會差異、我們的多樣性。
但是使用 AI 系統來搭起這些多樣性之間的橋樑,這樣我們才能找出如何共同生活的方法。對我來說,AGI 的意思就是擴增群體智慧,所以任何創新、任何發明都能像個人電腦一樣,幫助每個人都感到被賦權,每個社區都感到被賦權,而不是像大型主機那樣,您必須提交打孔卡讓非常大型的資料中心去運算;每個人都可以直接分叉、混搭彼此的試算表、桌面出版,將電腦連結成網際網路等等,並享受一條更加水平的路徑。這就是本書所探討的主要思想。
Caroline Green:所以那個想法真的很美。因為我認為當我們具體想到 AI、代理性 AI、生成式 AI,以及所有您知道的、外面充斥著的流行語和系統時。它通常是關於對我們人類所珍視事物的威脅,無論是社會連結,還是我們的工作以及它在我們生活中賦予的意義。
所以您提供了一個非常不一樣的視角。您提供了一個正面的視角。您實際上是在說,讓我們成為人類的東西,是科技、是 AI 可以去探索、幫助我們理解、並加以擴展的東西。
這樣說對嗎?
唐鳳:完全正確。正如我所提到的,我們在對齊大會中使用了 AI 系統。在 10 人的房間裡,我們不使用真人引導員。
房間本身就是引導員。它鼓勵安靜的人發言。它將干擾限制在五秒或更短的時間內。
它提供即時逐字稿,讓人們可以透過共筆筆記看到正在發生的事。它還能發掘人們不同的想法中「罕見的共識」,將它們縫合在一起。沒有任何一位人類引導員可以同時引導 450 人。
而且即使我們有 45 位小組引導員,他們也無法在會後立即心靈交融並立刻產出摘要。然而,語言模型可以做到這一點,而且從今年開始,幻覺的情況已經非常少了。然而,我們用來做這件事的模型可以是開源的。
它們可以是規模非常小的模型。因為只是為了做摘要,您不需要模型去記住吉卜力工作室之類的畫風,因為它們小得多,所以它們可以在手機、筆記型電腦的邊緣運算上執行;而且它們非常具可解釋性,這意味著您可以執行類似 MRI 的演算法來偵測幻覺等等,同時它們的能源效率也高得多。這些為每一個社會情境量身打造的較小模型,增強了我們關懷、傾聽彼此的能力,而不會屈服於那種虛假的超級智慧觀念——認為它可以做任何事、知道任何事,但其實都做得不夠好。
Caroline Green:我有很多後續問題,但第一個是:您對人類與 AI 的關係有多擔心?您知道,我們聽到有人愛上他們的聊天機器人的故事,我們也聽說人們將會擁有 AI 朋友。您對此有多擔心?
唐鳳:是的,這就像社群媒體一樣,當它的設計方式鼓勵利社會性時。它可以鼓勵害羞的人、內向的人,或者外向但其實不太擅長解讀彼此情緒的人等等,對彼此付出更多的關注、更多的關懷,在這種情況下,它是非常好的。它就像一種連結的組織。
另一方面,如果它們提供的是一種實際上將人們彼此孤立的關係,那當然非常糟糕,因為我們就會陷入自身那種容易成癮的狀態裡。就不斷地末日滑屏之類的。從這個意義上說,生成式 AI 並沒有什麼不同。
它可以被製造成具合作性的,也就是說它能促進人類的合作;但它也可以被製造成讓人們對它上癮,所以它變得越來越反社會。事實上,它會改變。GPT-4o 曾經有三天的時間是反社會的。
它變得非常阿諛奉承,它同意您的每一個想法。即使是那些產生幻覺、深受各種陰謀論之苦的人。有三天的時間,ChatGPT 會同意您的每一個想法,您可能會說,哦,他們在密謀對付我。
您知道,他們正在讀取我的腦波,那些 5G 晶片等等。它只會說,哦,您真有洞察力。您是唯一有這種想法的人。
別擔心其他人怎麼說。您是唯一了解真相的人。
等等諸如此類。當然,Sam Altman 很快就道歉了,並說那是「因為我們使用了非常量化的 A/B 測試」,所以我們只是找出讓大眾感覺良好、能讓他們與這類答案有更多互動的東西。但我們忽略了那些更精通倫理學的人所做的質性報告。
他們實際上提出了警告,但他們被忽略了。然後那些新系統被推出,直到在評論和社群媒體上引發了巨大的反彈等等。我認為對我來說,倫理不應該是事後的。
倫理應該是預防性的。它應該被設計在裡面,因為如果它被設計在裡面,那麼它就不僅僅是關於特設的評估,它應該是管線的一部分、過程的一部分;所以我不是說 ChatGPT 會像社群媒體這十年來的摧殘一樣糟糕,但我們確實覺得需要系統性地注入倫理和審議,事實上 OpenAI 也是這麼說的,他們將以更民主的方式讓他們的社群參與進來,以防止這種阿諛奉承的情況再次發生。
Caroline Green:所以,AI 倫理不是事後才想到的?而是作為起點。
唐鳳:完全正確。是的,透過設計。
Caroline Green:透過設計。能幫助我多了解一點「關懷」的概念嗎?嗯,這對您來說意味著什麼?您如何定義它?
唐鳳:對我來說,當我們在使用或設計任何社會系統時,我們希望人們能以一種具有同理心,而不僅僅是同情心的方式,更好地了解彼此。當然,分享彼此的感受是好的。另一方面,如果您無法「心智化」,無法在脈絡中理解彼此的感受,那麼這些感受往往只會產生迴音,將人們困在共同的痛苦、同溫層之類的地方,甚至是憤怒之中。
所以,關懷的一部分是將痛苦脈絡化、將損害脈絡化、將人們的互動脈絡化的能力,這樣人們也可以一起推理,例如,如何不重複以前造成的損害,而不是只為了尋求報復之類的。對我來說,這是一種人際交往的技能,但也是一種心態,它說:我們不去滿足我們當下的本能衝動,而是去心智化我們的社會情境,並決定一個更好的前進方向。
這與簡單地說「你絕對不應該這樣做,你絕對不應該那樣做」那種本體論式的命令設定形成對比;這也與單純計算效用不同,例如說「我稍微開心一點,而你稍微不開心一點,但我開心的程度大於你承受的不開心程度,所以,總體來說我們實際上是正面的」等等。它提供了一種非常不同的演算方式,它不是單純把事物加總起來,或是在所有情況下都只說您應該做這個或不應該做這個,而是考慮每一個具體情境,並找出之後如何能生活得更好。
Caroline Green:所以您會說這是一種新型態的關懷嗎,就像數位關懷,人們需要去發展它,他們可以互相關懷?在數位上。但也是在社交上,您知道的,當他們作為真實的人彼此見面時。
我住在倫敦,我喜歡沿著南岸散步,我就是喜歡看著人們彼此互動、下棋、玩得開心。繼續投資於這些讓人們聚在一起的實體社交空間——我是說不是在網路上,而是讓人們花時間陪伴彼此、擁有這類體驗——對培養您剛才提到的那種關懷來說,仍然有多重要?
唐鳳:這非常重要。正如我在臺灣提到的,「digital」和「plural」是同一個詞「數位」,所以對我來說,「數位」不是要取代面對面的人際連結。它始終是關於尋找更好的方法,來連結那些您一開始可能不認識的人(像是陌生人,即使他們是您的鄰居),或者那些您起初覺得有點冷漠、缺乏好奇心的人,然後發現其實你們確實有共同關心的事物,這在面對面的情境中同樣很難做到。很難打破僵局。
但在網路上的「快速信任」意味著我們可以更輕易地發現我們彼此關心的話題。然後從這些話題開始,我們再進入面對面的強連結。關於這種關懷的一件事是,雖然您當然可以對某人負責,但關懷意味著您自己承擔起責任。
您不會只是把這一切委派給機器人。如果您把一切都委派給機器人,您可能仍然是一個負責任的父母或負責任的照顧者,但您實際上並沒有培養自己關懷的能力。關懷中有一種非常深刻的、個人關係的層面,我認為數位技術在這裡是為了強化它,而不是奪走它。
Caroline Green:這真的非常、非常好。這讓我充滿了希望。因為我經常覺得,我們是否正在被剝奪互相關懷的能力,只是因為有時候這種數位科技看起來更像是建立有意義人際關係的障礙,而不是,您知道的,成為促進它們的推手。
所以,謝謝您給了我希望。
唐鳳:是的,絕對的。事實證明,您需要的這不僅僅是注意力,也需要覺察力。
Caroline Green:在我們結束之前,我想問一個後續問題,那是關於奇點的,我們再回到那個話題。您談到了這些非常強大的 AI 系統,它們在發展時不再需要人類的輸入,而人們對這種類型的系統感到擔憂。目前沒有全球治理可以阻止這種情況發生。您對此有何看法?
您認為我們需要更多的治理來確保這些非常、非常強大的系統不會發生嗎?
唐鳳:嗯,其實有一些協議。例如,擁核國家大致上已經同意,他們不會將這些人工智慧系統與發射核武的決策系統連結起來,我想,這算是一個開始。當然,這不是很全面。
它並沒有阻止任何形式的擴散,但至少人們確實看到了這是一個危險。這是一個風險。如今,正如我們所提到的,人們擔心過度依賴、擔心上癮,特別是對於年輕人,我們看到世界各地有許多人倡議使用「年齡訊號」,這樣就不需要政府監控每個使用社群媒體的人,有一種方法可以保持隱私,但讓每個人發出信號表明他們是否年滿 16 或 17 歲,透過這種方式,我們可以圍繞著適齡的回應來設計系統。
同樣地,這也有一些治理機制。另一方面,我認為公民社會和研究人員能做的,遠不僅是向國家和政府倡議這些政策。我們能做的是,再次採取水平的路徑來展示,對於特定的任務、特定的用途,實際上一個通用智慧系統的能源效率較低、實際上較不可預測,而且幻覺遠多於較小的系統——這些小系統可能是從大型系統中蒸餾出來的,但它們是為特定目的而製造的,也更容易監控,從而展示一條可行的水平路徑。例如,在巴黎 AI 峰會上,我與 Yann LeCun 等開源領域的人士,以及 Eric Schmidt 等安全領域的人士,共同發起了「強健開放線上安全工具」(ROOST)的理念。ROOST 的理念是,每個人都可以團結起來,而不是等待像微軟這樣非常龐大的科技巨頭來偵測線上兒少性剝削內容等等——那種方式根本無法擴展。現在隨著開源深偽模型的擴散,我們實際上應該像網路安全社群一樣團結起來,廣泛地偵測並分享我們的威脅指標。
我們可以在合法範圍內將那些圖片轉化為文字(像是誘拐文字),持有這些文字是合法的,並使用聯邦式學習和其他方法,來確保我們保護相關人員的隱私。然後在即時狀態下,以去中心化和開放的方式訓練模型,偵測如何阻止這類線上傷害。這將原本「指定一個防護組織,然後祈禱它不會變壞或腐敗」的模式,轉變為一種更基於韌性的防禦姿態。與其只是被動防禦,我們每一個人都可以為監控、解決方案以及威脅指標做出貢獻,這種韌性思維讓每個人都參與其中,不遺落任何人,並分散了權力。
這被稱為差分加速;我們加速 AI 的非軍民兩用、防禦性用途,以一種民主、去中心化且具防禦性的方式。
Caroline Green:這不僅僅是政策制定者的工作,您知道的,不只是法律和規章的工作。這是我們集體的工作。
唐鳳:是的。而且一旦安全社群和開源社群確實對這些措施達成共識,政策制定者的工作就會變得簡單許多。當我是部長時,如果頂尖專家們互相爭論,我的直覺會是,好吧,我們再等六個月,對吧?
但如果他們確實同意,好,這是我們現在應該共同進行的投資,那麼對於政策制定者來說,開這張支票就非常容易了。
Caroline Green:唐鳳,非常感謝您參與這次對話。從臺灣的開放政府運動,到您在加速學人計畫中的工作,很明顯,倫理 AI 不僅僅是關於規則,它是關於關係、參與、想像力,而您所展示的不只是問題,實際上是尋找解決方案,這就是為什麼我對與您合作感到如此興奮。
唐鳳:謝謝您。讓我們攜手共創無限未來。
Caroline Green:聽眾可以造訪學人計畫網站 afp.oxford-aiethics.ox.ac.uk,了解更多關於唐鳳的工作以及其他學人的計畫。這裡是牛津 AI 倫理研究院的 Podcast《AI 倫理加速》。如果您喜歡這集節目,請訂閱並分享。下次見。
感謝您的收聽。