根据google DeepMind研究团队发表于《科学》(Science)期刊的海耶克的反思:知识无法被集中编码
然而,海耶克若仍在世,他对这种「AI调解民主」的愿景恐怕不会太过乐观。他在《当民主遭遇演算法:工具还是代理?
事实上,不少对此系统的批评正是来自其可能对政治伦理造成的影响。一旦我们将公共讨论交由机器统整,是否也同时降低了我们彼此直接理解、沟通交往与承担责任的意愿?正如哈伯玛斯于《技术的界线:不应神化AI的中立性
AI固然可以归纳文字、综合意见,但并不意味它理解那些文字背后的痛苦、历史与权力结构。在某些议题上,「不偏不倚」反而可能是对暴力或压迫的默许。例如在殖民历史、原住民族权、性别正义等议题上,所谓「共识文本」若排除政治层面的思考,很容易将冲突伪装为语言调解问题,进而抹除其伦理意涵与历史深度。
台湾经验:民主撕裂中的AI想像
在思考「哈伯玛斯机器」的应用潜力时,台湾或许是特别具有代表性的场域。近年来,随著统独认同、能源政策、疫后治理、婚姻平权、转型正义等议题持续引起激烈对立,公共讨论场域常沦为标签化、仇恨式的「情绪快闪战」,甚至导致民主审议与讨论品质下降。2024年总统大选后的网路舆论场,各种敌我分明的仇恨动员都显示,台湾民主制度虽日益成熟,但民意对话的品质与意愿却严重退化。
在这样的政治撕裂现实中,「哈伯玛斯机器」这类AI协商技术看似提供一种「非人化的中介」解方,让分歧各方得以透过语句统整,避免人身攻击与对立升级。台湾过去有不少实验性的网路公民参与机制,已证明「技术性中介」确实能在特定议题上缓解张力。例如,在「Uber合法化」、口罩分配与开放政府资料等议题上,透过电子民主平台与数位工具,让公众讨论有章法可以依循,且其讨论内容可以追溯。
但这些实践经验也提醒我们:当政治对立与身份认同、历史记忆、国家主权纠结在一起时,单靠语言共识无法消解根本矛盾。举例来说,「中华民国与台湾的关系」无法只以共识语言表述消除其间的内在矛盾,转型正义也难以透过中庸化与平均化的语言表述完成。若AI在这类议题上强行生成「中立文本」,很可能反被批评为去政治化、去脉络化,甚至助长「技术中立神话」,掩盖了权力并不对等的压迫结构,并且排除了追究历史责任的可能性。
正因如此,台湾需要的是「具有批判意识的AI协商工具」,不仅协助整理分歧的语言表述,更要理解语境与不对等权力结构。若想让哈伯玛斯机器」或类似的AI工具在台湾发挥实质民主作用,必须与在地制度设计、族群历史、语言差异与公民教育相结合。否则,再先进的审议与协商系统,也终将沦为另一次「致命自负」式的演算法复制。
AI可以补位,但不能代位
从「哈伯玛斯机器」的技术实验中,我们可以看到生成式AI确实能在某些情境下提升讨论效率、促进语言整合。但我们也必须承认,民主的核心从来不是语言的效率问题,而是公民之间彼此理解、包容与共同承担不确定性的意愿与能力。
换句话说,AI可以补位,成为促进与完备民主程序的调解工具;但它无法代位,亦即不能取代人类社群在冲突中学习如何共存的政治实践。海耶克所提醒的「致命自负」,正是对当代技术治理最深刻的提醒:若我们将复杂问题交给机器解决,最终我们所失去的,不仅是民主的程序与实作,还有对民主自由的价值信念与担当。
作者为中正大学传播系教授