善思录:陆天然/文
北宋祥符年间,汴梁皇宫失火,废墟之上,丁谓给出的重建方案至今仍被奉为智慧典范:取土时挖沟引水,既解决建材运输难题,又能在工程结束后填沟恢复街道——"一举三得"的背后,是对资源、流程、时间的极致调度。但这位"解决问题的高手",最终却因构陷寇准、把持朝政被贬崖州。千年后的今天,当AlphaGo走出人类棋手无法理解的棋路,当GPT-4在瞬间生成媲美专家的方案,丁谓的故事突然有了新的注脚:面对远超常人理解的智慧——无论是人类中的"超级大脑",还是人工智能的"算法黑箱",我们该如何共处?
一、丁谓式智慧的双面镜:高效与失控的临界点
丁谓的"聪明"始终游走在两个维度:创造性解决问题的能力与突破规则的风险冲动。修复皇宫时,他打破"取土-运输-清废"的线性思维,将三个独立环节编织成闭环系统,使工期缩短一半,耗费减少七成。这种"系统级智慧"在宋代官僚体系中极为罕见——大多数官员困于程式化行政,而丁谓能从混沌中提炼关键变量,用最小成本达成目标。
但正是这种"无往不利"的解题能力,催生了对规则的轻慢。他为固权位构陷政敌,将智慧用于权谋;为迎合真宗封禅,伪造祥瑞、虚报功绩,把系统思维异化为"系统性造假"。《宋史》批评他"才高而奸",点出了一个核心矛盾:当智慧失去约束,高效解决问题的能力会异化为高效制造问题的工具。
人类历史上,类似的"智慧悖论"反复上演。达芬奇设计战争机器,特斯拉的交流电技术既点亮城市也可用于武器,爱因斯坦的质能方程与核武器的诞生形成刺眼对照。这些案例共同揭示:超级智慧的危险性,从不源于能力本身,而源于能力与约束的失衡。丁谓的悲剧不在于他太聪明,而在于宋代台谏制度的制衡力量,最终没能抵挡住他对权力的滥用——当一个人的智慧足以破解制度的漏洞,而制度又无法及时修补时,失控便成了必然。
二、AI的"超智"困境:能力飞跃与理解鸿沟的碰撞
如果说丁谓的智慧仍在人类认知框架内,人工智能的突破则彻底撕开了"理解边界"。2016年,AlphaGo与李世石对战时,那步让解说员惊呼"匪夷所思"的第37手棋,暴露了AI决策的本质:它不遵循人类总结的"棋理",而是在千万次自我对弈中形成独立于人类经验的"算法直觉"。这种"非人类智慧"的可怕之处在于:它能解决人类解决不了的问题,却不解释为什么。
医疗领域,AI诊断皮肤癌的准确率已超越资深医生,但它无法像医生那样说明"根据哪几个特征判断为恶性";金融领域,AI风控模型能精准识别欺诈交易,却可能将某个少数民族群体的正常交易误判为高风险,而设计者查遍代码也找不到偏见的源头。这种"可做不可说"的特性,让AI的"聪明"比丁谓更令人不安——丁谓的权谋至少有迹可循,而AI的决策藏在数亿参数构成的"黑箱"里,人类既无法预判,也难以纠错。
更深刻的矛盾在于能力与责任的错配。丁谓作为人类,需为自己的行为承担全部责任,贬谪崖州便是后果;但AI的"决策"最终要由人类负责,却没人能说清该由谁负责:开发者?使用者?还是算法本身?2022年,美国一辆自动驾驶汽车撞向行人,车企、软件供应商、监管部门互相推诿,正是这种困境的缩影。当AI的能力远超人类理解,我们甚至找不到追责的对象,更遑论建立有效的约束机制。
三、相处的底层逻辑:在敬畏中筑建"可控的智慧生态"
无论是与丁谓这样的人类高手相处,还是与AI共生,核心命题始终是如何让超级智慧服务于群体利益,而非成为少数人或系统的工具。这需要构建三层"防护网",既不压制智慧的创造力,又能守住失控的红线。
第一层是制度性制衡,针对人类智慧的滥用。丁谓的时代若有更完善的权力制衡机制——比如将台谏官的任免权从皇帝手中剥离,使其真正独立于行政系统;比如建立"智慧成果公示制度",要求重大决策的论证过程公开透明——或许能避免他的智慧异化为权谋。现代社会对"超级专家"的约束同样如此:学术领域的同行评审、企业界的独立董事制度、科技界的伦理审查委员会,本质都是用群体智慧制衡个体智慧,防止"聪明反被聪明误"。
第二层是技术化透明,破解AI的黑箱难题。科学家正在研发的"可解释性AI(XAI)",试图让算法像人类一样"讲道理":通过可视化技术展示决策依据,用自然语言翻译参数逻辑,使AI的每一步判断都能被人类追溯。就像医生必须写出诊断依据,未来的AI也该"被迫"解释自己——不是为了限制它的能力,而是为了让人类在理解的基础上建立信任。欧盟《人工智能法案》已明确要求,高风险AI系统必须具备可解释性,这正是在技术层面筑起防线。
第三层是价值性锚定,确保智慧服务于根本目标。丁谓修皇宫的"一举三得"之所以被称道,是因为它服务于"重建家园"的公共目标;而当他用智慧伪造祥瑞时,便偏离了"治理为民"的核心价值。对AI而言,这种价值锚定更为重要:医疗AI的终极目标应是"救死扶伤"而非"降低成本",司法AI的核心原则应是"公平正义"而非"提高效率"。将人类的核心价值编码为AI的底层逻辑,就像给超级智慧装上"指南针",确保它不会在复杂问题中迷失方向。
四、共生而非对抗:在智慧的星河中找到人类的位置
丁谓被贬崖州后,曾作诗"今日到海南,桄榔耳际喧",字里行间满是对权力的追悔。这个细节或许能给我们启示:超级智慧的真正危险,从不是能力本身,而是人类对它的失控——无论是对丁谓的过度信任,还是对AI的盲目依赖。
与"超智"相处,既不能像寇准那样,因忌惮丁谓的才智而试图压制(最终反被算计);也不能像宋真宗那样,因迷恋其效率而放任其越界(最终酿成祸端)。正确的姿态应是"平视":承认自己的局限,也守住自己的底线。对人类高手,我们需要制度的"笼子",但不能用嫉妒的锁链;对AI,我们需要技术的"缰绳",但不必用恐惧的围栏。
从丁谓的"一举三得"到AI的"算法革命",人类始终在与超越自身的智慧对话。这种对话的终极意义,或许不是驯服智慧,而是通过智慧看清自己:我们需要超级智慧解决难题,更需要守住"人之所以为人"的价值——比如对公平的坚持,对伦理的敬畏,对后果的担当。就像汴梁皇宫最终在丁谓的方案中重建,却也在他的权谋中蒙尘,AI时代的文明大厦,既需要算法的钢筋水泥,更需要人类价值观的地基。
与"超智"共生,本质是与自己的智慧共生:既不高估,也不低估;既不盲从,也不抗拒。在这条路上,丁谓的双面镜与AI的黑箱,不过是历史递给我们的两面镜子——照见智慧的光芒,也照见约束的必要。
作者简介:
陆天然,法学硕士,江苏省南通市海门区人;现任东华大学数字资产研究院院长、中国自贸区数字经济研究院执行院长;兼任全国“促进民营经济高质量发展法治智库”首席专家库成员、中国国际经济技术合作促进会保护投资者权益工作委员会(简称:权工委)高级顾问。曾任新华社记者、中国改革报福建记者站站长和国务院研究室(言实)互联网时代方法论课题组组长,著有《互联网时代方法论丛书》十二卷。