2023年6月30日,第二届科学的责任与负责任的科学学术研讨会“数字时代的科技治理:伦理与规则”在首都师范大学政法学院召开。本次会议由首都师范大学科技法研究中心和中国科学院自然科学史研究所科技与社会研究中心主办。本次会议聚焦数字时代科技治理的伦理与规则研究,就人工智能治理、伦理规则法治化等议题进行深入研讨。会议由首都师范大学科技法研究中心主任李昕教授主持。
会议共分为五个单元,第一单元“主旨发言”由段伟文与刘益东分别做主题学术发言。
中国社会科学院哲学所研究员、科技哲学研究室主任段伟文以“生成式人工智能与对齐工程”为题进行了汇报。他认为人工智能的强大功能在达到一定门槛后,可能会剥夺我们个人和集体的选择自由,从而创造出一种反人类的技术系统。而现阶段以ChatGPT为代表的人工智能无法产生原创想法,它只能根据在训练数据中看到的模式创建文本。这一发展模式会产生一系列问题,例如产生看似合理的错误或荒谬的内容、可能偶尔会生成有偏见或冒犯性的文本等。随着ChatGPT的进一步发展,对它的过度依赖可能会将它视为知识权威和道德权威,放大其生成错误和不准确内容造成的危害。因此要建立对生成式人工智能驱动的学习、教育和研究的应用方法、学术规范和研究伦理的标准和指南,并通过技术和工程监督与优化方案加以充分的应对可能出现的价值和伦理问题。
中国科学院自然科学史研究所研究员刘益东以“激励均衡与新分配革命:科技风险治理的先决条件”为题进行了汇报。当下迅猛发展的人工智能在促进社会发展的同时也带来重大的科技风险,例如会导致人类的大规模失业、促进国家间的军备竞赛等;而人工智能本身也在朝着不可控的方向发展,目前它已经通过图灵测试,已经开始出现自主意识,下一步就是自我进化、自我繁殖。当下人们对它带来的治理难题既缺乏足够认识同时采取的手段也并不完善,治理的态度并不是“先暂停、再纠错”,而是以“边运行、边分析、边争论、边纠错”的方式进行。科技的正负效应、特别是尖端科技的正负效应之间是无法抵消的,科技做一万件好事可能抵消不了做一件坏事的效果,因此暂缓发展AI的主张是极为稳妥的诉求,只有停止GPT的升级换代,充分考虑清楚人工智能给人类带来的好处与坏处,人们才能享受它带来的便利。
PART.2
会议第二单元“智能时代与科研新范式”由朱玉祥与舒心雨、高璐进行发言。
中国气象局气象干部培训学院教授级高级工程师朱玉祥以“人工智能在气象领域的应用进展和问题思考”为题进行了汇报。他认为传统的天气和气候预测基于牛顿力学等为基础的数值模式。随着气象观测、分析和再分析数据的不断增加,上述过程能够为人工智能(AI)(深度学习)提供更多的数据基础,因此气象领域的AI应用越来越广泛。DeepMind、谷歌、微软、华为等都推出了基于深度神经网络的气象大模型,也均表现出了良好的应用潜力。但目前而言,这些基于深度学习算法的气象大模型,在训练时都离不开数值模式数据,尚无法颠覆传统的数值模式,更多的是在传统数值模式的基础上做加法。就气象业务而言,目前的发展更侧重客观预报,而离“智能”尚有较大距离。在发展模式方面,以前更多是背靠高校或科研所的小团队开展研究,现在气象大模型研究往往需要背靠顶尖平台的“产业-科研协同”。
中国科学院自然科学史研究所副研究员、科技与社会研究中心主任高璐与硕士生舒心雨以“AI for biotechnology:人工智能如何推动科学知识生产方式的变革”为题进行了汇报。人工智能已经广泛应用于生物技术领域来解决各种问题。这些问题包括:药物发现、药物安全性、蛋白质结构学、药物基因组学等。不仅生物领域,未来许多学科的发展与进步的关键取决于研究人员有效使用人工智能来解决方案的能力,从技术层面看AI嵌入科学知识生产的具体环节,从而理解AI for science影响与具体内涵。以Alpha fold为代表的生物人工智能技术的大放异彩是生物技术与AI的双向奔赴,AI技术推动着科学知识生产方式的变革。在技术更好地辅助科研之时也要注意其潜在的风险,寄希望于科技与社会的整体转型。
PART.3
会议第三单元“技术治理与法制”由王彦雨与张婉婷进行发言。
中国科学院自然科学史研究所副研究员王彦雨以“欧美人工智能治理模式的比较”为题进行了汇报。他提出当前的AI治理模式呈现出明显的“国别差异性”特征,已有AI技术储备、商业生态状况、社会管理制度等,往往形塑着一国或地区的人工智能治理模式。当前,较为典型的主要有美国的“基于创新优先导向的分散治理”模式,以及欧盟的“基于伦理优先导向的集中治理”模式。从欧盟和美国AI治理体系的构建经验、所面临的问题等可以看出,在构建本国的AI治理制度时,应正确看待国情差异性,关注发展与伦理之间的均衡性,正确定位独立自主与国际融入间的关系,积极扩展治理的多元参与空间,同时推进治理创新能力的发展。
首都师范大学政法学院博士后研究人员张婉婷以“科技与法律的距离——从智能合约谈起”为题进行了汇报。她认为科技和法律之间的距离到底有多远、如何拉近这个距离是科技法研究者经常在思考的问题。造成科技与法律之间距离的主要原因有三,首先是交叉学科研究的共同痛点,即学科壁垒,其次是法律本身具有一定的滞后性,再次是政策和环境原因,世界范围内对科技发展的重视和投入使得科技发展速度加快,更加拉大科技与法律之间的距离。此外还有一个前置条件是,科技发展的每一步并非会完全按照人类的预期和所愿,所以法律很难通过预测科技发展轨迹和应用方式来进行事先的预防性研究的方式来拉近与科技之间的距离。关于如何拉近两者的距离,首先应该坚持跨学科专业的学习,了解科技的基础研究和前沿动态,关注科技孵化以及落地的应用;然后以法律的角度去分析进行研究,在研究的过程中不要脱离实际,要研究真问题,解决真矛盾,避免空想、假想和自我猜想,研究的方向要基于真实的调研或现实的问题。
PART.4
会议第四单元“科技伦理的治理与德治”由周泽夏与崔俊杰进行发言。
首都师范大学政法学院助理教授周泽夏以“科技伦理规则的法治化”为题从法律化科技伦理规则的性质、法律化科技伦理规则范围、法律化科技伦理规则的取得三个方面进行了报告。科技伦理规则意图引导我们产生一个更好的科学研究秩序,但是在很多具体问题中何谓好则难以确定。由于科技与法律两个系统各有其运作机制,为了保证科学研究的创新性,现阶段在将维持基本科研秩序的科技伦理规则法律化后,可以考虑将其余科技伦理规则的具体化任务交给科技系统内部完成,待其基本取得一致意见后再将其法律化。由于在具体化的过程中涉及价值判断,因此在这一过程中应当特别关注论证的主体与程序等。
首都师范大学政法学院崔俊杰副教授以“科技伦理审查的正当法律程序”为题进行了汇报。他提出程序规制不是封闭的构成性规制,而是开放的功能性规制,可以实现将表层的行为-责任分配与深层的集体道德决策过程深度互嵌。他指出,真实的科技伦理审查具有两阶审查的特点,与经典正当法律程序存在明显区别,为此不能简单套用法律程序中的一般制度,而需要考虑具体科学场景中伦理反思所需必要程序要求。他提出科技伦理审查的正当法律程序设计中要有维系伦理审查组织的结构均衡程序、反思均衡程序、保障对话环境与塑造情景正义的程序。
PART.5
会议第五单元“研讨发言”由高璐、袁泉、李润虎与蒋言分别发言。
中国科学院自然科学史研究所副研究员、科技与社会研究中心主任高璐对新兴科技伦理治理的特征进行了总结。新兴科技伦理治理有三个特征,第一,科技伦理的核心问题从传统的“不伤害”“不剽窃”等消极的伦理底线,转化为“自主”、“保护隐私”、“负责任”、“公开透明”等积极的、开放性的科技伦理原则;第二,更加关注“大伦理”,即反思科技发展的整体方向问题,不止步于科技问题细节的探讨;第三,新兴技术,尤其是AI参与到科学知识的生产中之后,改变了我们认知与知识创造的方式,会对人类发展带来更大的挑战。
首都师范大学政法学院助理教授袁泉认为,在科技治理领域我们首先要保持适当的限度。数字思维和人脑思维存在巨大差异,人工智能决策失误无法避免,其只能应用于容错率较高的领域。基于通用人工智能的应用前景和决策效能尚不明确,对其进行治理的强度不宜过大。其次在防控科技风险中应积极引入伦理治理。传统基于个体赋权的保护模式在科技风险治理方面作用空间有限,个体层面更多的是给予其消极性保护,而非积极赋权。同时,用户间的横向关系数据也难以诉诸既有的法律工具寻求保护。针对以上困境,可以引入伦理规范,通过参与式设计对应对科技风险。
中国科学院自然科学史研究所副研究员李润虎认为,从人类发展的历史阶段来看,人类分别走过来巫术、哲学、宗教和当下的科学阶段,因此不同时期的时代主题决定了今天如何理解科技时代的风险问题。在当下纳米技术等高科技技术已经被在未经很好的风险评估下进入了人们生活的方方面面,科技风险的管控远超过人们目前的可控范围,需要我们警惕。因此我们需要思考负责任创新是否可以通过建立好的“报备机制”来方便社会各界监督和及时发现问题。
首都师范大学政法学院助理教授蒋言认为,相较于管理,治理更加强调多元主体共治与多元治理方式共用。科技治理不仅需要政府监管,私法领域的权利、义务与责任同样不可或缺。除传统的侵权责任外,妥当配置因违反基本伦理导致合同无效的法律后果以合理限制违反科学伦理行为背后的市场因素,也应在私法治理中得到重视。
会议最后,刘益东研究员与李昕教授对本次研讨会进行了总结。刘益东研究员认为本次研讨会对数字时代的科技治理难点与问题进行了回应,在已有的基础上进一步推进了伦理与规则的相关研究。李昕教授对参与本次研讨会的专家学家表示感谢,并认为随着科学技术的发展,科技治理问题将会备受关注,期待大家在此领域的继续深耕也期待下一届研讨会的举办。