郑庆华:实现人机价值对齐的技术路径 | WAIC社科分论坛

   日期:2025-08-05     作者:kongyu       评论:0    移动:http://ww.yusign.com/mobile/news/1645.html
核心提示:确保人工智能正向赋能科技向善的前提是实现人机价值对齐。对此,我有以下几点认识:AI是一种新质生产力。我们已经进入人机混合增

确保人工智能正向赋能科技向善的前提是实现人机价值对齐。对此,我有以下几点认识:

AI是一种新质生产力。我们已经进入人机混合增强智能的智能社会。AI的本质是赋能。

AI正在影响文化和文明。生成式人工智能技术可能引发文化价值、伦理、知识产权等问题的再思考,特别是由于算法偏见,可能导致语言和文化的多样性受损。

大模型正在重塑知识生产传播的格局。如果大模型背后的语料、算法、模型存在意识形态偏见,将对大模型的平权性造成极大影响。

AI正在影响人类的认知逻辑。AI已经具备知识生产和逻辑演绎的能力,正朝着如何具有意识这样的方向发展。

AI的物化力量在于拓展认知边界。AI解决了从定性到定量,从模糊到精准的难题,已成为人类认知的超级显微镜、超级望远镜和超级计算器,AI实现了知识的外化和工具化。

人机价值对齐有两方面内涵:一是AI对齐人类,其目的是创建安全、符合人类伦理的人工智能系统;二是人类对齐AI,其核心目标是确保人类负责任地使用AI。人机价值对齐面临三大技术挑战:价值的定义理解难;价值的学习推断难;价值的安全性和鲁棒性。对此,可采取以下技术路径:

路径1:基于有监督调优的价值观对齐。利用明确高质量标注数据训练大模型,让大模型学习输入文本和人类标定价值观标签之间的映射关系,强化学习让模型学习人类的价值和偏好。

路径2:基于反馈强化学习的价值观对齐。主要思路是定义一套价值观相关的奖励信号,在模型内容生成过程中,能够根据环境中获得的奖励或惩罚等反馈信号,不断调整自身策略,最终输出符合人类期望的内容。

路径3:推理阶段的价值观对齐。在模型推理阶段嵌入价值观规则和原则,以指令引导或后处理形式对模型输出进行动态调整,使得输出结果符合人类价值观标准。

(作者为同济大学党委书记、教授,中国人工智能学会副理事长)

 
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

举报收藏 0打赏 0评论 0
 
更多>同类最新资讯
0相关评论

相关文章
最新文章
推荐文章
推荐图文
最新资讯
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号