【鹽與光傳媒資訊】據《天主教亞洲真理電台》報導,在香港舉行的亞洲主教團(FABC)「第30屆亞洲主教團協會傳播部主教會議」上,聖座傳播部神學—牧靈部主任 Nataša Govekar 博士,於12月11日發表了題為《邁向福傳與牧靈照顧中運用人工智能的指導原則》的重要專題演講。這是為期三天、以「人工智能與亞洲牧靈挑戰」為主題的聚會的第二天。她提醒與會者,人工智能的興起帶來更深層的人類學問題:「在當下,做人意味著什麼?」
在旅途上
她邀請主教們從自身使用人工智能技術的經驗出發,並指出這些工具已迅速進入日常生活,甚至滲入靈性領域。從 OpenAI、Anthropic、Google DeepMind、Meta、DeepSeek 等大型語言模型,到模擬宗教對話的應用程式,她提到,許多人現在使用如 ChatWithGod.ai 這類系統,能與基督或其他宗教人物「對話」,形成她所稱的「宗教超市」現象。
天主教人工智能的實踐
Govekar 博士指出,天主教徒對明確的天主教人工智能項目更感親近是可以理解的。她舉例 “Truthly” (truthly.ai),該系統聲稱所有回應皆以教會權威來源為依據,以及廣泛使用的 Magisterium AI,其創辦人形容它是「數位圖書館員」。該工具以超過 29,000 份教義與神學文獻資料庫為基礎,引用來源而非生成無依據內容,其相關的 Alexandria Digitization Hub 旨在擴充天主教數據集。
她特別強調 Magisterium AI 開發者提醒的要點:這類工具應協助理解,而非取代信仰中不可或缺的人類維度。她引用開發者的話:「永遠以參與聖事、諮詢真實的人、閱讀原始資料為優先」,並表示欣賞這種強調。
Govekar 博士提到更廣泛的實驗,包括瑞士的 “AI Jesus”「AI 耶穌」及德國實驗性禮儀中即時生成的祈禱,顯示「科技已進入最具象徵性且親密的宗教空間」。
AI 生成的講道與圖像
她警告不可使用人工智能生成講道詞,強調講道是宣講天主聖言的延伸,而「人工智能不能,也不應取代」司鐸或傳道者與聖經之間的個人關係。
同樣地,她警告不要生成耶穌或聖人的「真人圖像」,並舉例一名人工智能生成的福音歌手,其創作者刻意隱藏其人工身份。
去神秘化人工智能
她在講話中強調了一項十分重要的議題:必須「去神秘化」人工智能。她解釋說:「建立一個大型語言模型並不是魔法。」這需要電腦、軟體架構,最重要的是「資料」。由於世俗的模型會吸收整個互聯網上的內容 — 從《聖經》到陰謀論 — 人工智能必然會塑造人們思考與感知的整個環境。
這就引發了一些微妙而重要的問題:當演算法成為人們與神聖相遇的中介時,宗教自由要如何得以維護?而在一個為「參與度」與「個人化分析」而設計的系統中,究竟會有哪些偏見影響它所生成的靈修建議?
當靈性被塑造成一種迎合個人偏好的「客製化服務」時,信仰便面臨淪為一面只映照自身的鏡子的危險。
在當下,做人意味著什麼?
因此,Govekar 博士表示,教會必須理解當前所面臨的「人類學」挑戰。她引用教宗良十四世的人工智能省思,指出快速的變遷正影響著人的批判思維、分辨能力、學習方式與人際關係,並迫使我們重新面對那個根本而關鍵的問題:「在這段歷史時刻,成為人究竟意味著什麼?」
她引用《聖經》與多位神學家的教導,提醒與會者:人的獨特性並非源自資料或演算法,而在於每一個人都是「不可取代」的,並且由關係所塑造。她講述了正教神學家 Kallistos Ware 曾分享的一則故事:一名孩子在看完一部有關瀕危物種的紀錄片後,焦急地問道:「我很重要,對不對?因為……這世界上只剩下一個我了。」她說,這句話道出了基督宗教人類學的核心真理:每一個人都是獨一無二的,沒有任何機器能取代。
她指出,人類內心深處都懷有對天主的渴望,但當人嘗試「不靠天主而像天主」時,這份渴望就會成為一種誘惑。回顧歷史,從用無花果葉遮身,到建造巴貝耳塔,再到現代科技,人類不斷尋找逃避脆弱的方法。她警告說:「人工智能時代,只是另一種企圖而已。」因此,教會首先必須宣講的一項原則,就是這個福音:人的脆弱不需要被掩藏,因為天主早已照顧了我們的脆弱。
謹慎對待模擬
Govekar 博士最後的一項重大警告涉及「擬像/模擬」。她強調:「要警惕模擬。」人工智能所使用的語彙 ──「智能的」、「生成的」── 都在模仿人的特質,而機器如今甚至能「呈現出一種沒有人的『人』」。因此,保護人的尊嚴也必須包括守護人的面容和聲音、抵禦假訊息,以及對抗操控性的情感利用。
她舉例 AI 驅動的假資訊急速增加,主教的 deepfake 錄像傳播錯誤教導,聖座每日努力對抗偽造的教宗影像與聲音。她強調,必須重視媒體與 AI 素養(MAIL),教導受眾透過官方來源核實資訊。
她指出,人工智能驅動的假訊息在各地迅速增加,甚至出現主教的 deepfake 影像散播錯誤教導,聖座部門每日都在對抗偽造的教宗影像與聲音。雖然已敦促各平台採取行動,但 Govekar 博士強調,「媒體與人工智慧素養(MAIL)( “M” 即媒體 Media,“A.I.” 代表人工智能 Artificial Intelligence,“L” 代表素養 Literacy)是必要的」,必須教導受眾透過官方來源驗證資訊。
假性親密
引用尤瓦爾‧赫拉利(Yuval Harari)的「假性親密」概念,Govekar 警告,聊天機器人可能建立操控性的情感連結,尤其影響脆弱群體。她指出,在義大利,超過 90% 的青年使用這類工具,且許多人表示偏好人工陪伴,因為「它不會評判」。這種趨勢削弱了人類接受差異的能力。
Govekar 博士引用歷史學博士尤瓦爾‧赫拉利(Yuval Harari)提出的「假性親密」概念,警告聊天機器人可能建立操控性的情感連結,尤其影響脆弱族群。她指出,在意大利,超過 90% 的青年使用這類工具,許多人表示偏好人工陪伴,因為「它不會評判人」。她認為,這種趨勢削弱了人類接納差異的能力。
總結
她呼籲教會不要參與「表面注意力的競賽」,而應真正關注弱勢群體、建立歡迎的社群、守護人際親密,並重新將信仰理解為一種「款待」。她表示,唯有在這樣的基礎上,教會才能邁向適用於牧靈生活的人工智能真正指導原則。
來源:
天主教亞洲真理電台