首页 > 伦理

伦理

  • 将伦理思入现实|应用伦理学探究:人工智能伦理前沿问题

    由华东师范大学哲学系应用伦理中心发起的应用伦理工作坊第1期聚焦伦理视野下的老年关怀问题,围绕老年人的尊严、权利、脆弱性、能动性等问题展开研讨。这些讨论在促进学科之间、学科与行业的对话与融合的同时,也推动了伦理学研究范式的转变。继第1期热烈的讨论之后,2023年11月9日,应用伦理学工作坊第2期以“人

  • 北京市《关于加强科技伦理治理的实施办法》征求意见增人工智能伦理风险评估

    北京市科委、中关村管委会会同相关部门近日制订《关于加强科技伦理治理的实施办法》(以下简称《实施办法》),以进一步完善北京市科技伦理治理体系,有效防范科技伦理风险,即日起现面向社会公开征求意见。此次《实施办法》的体例和内容进一步调整完善,增加了人工智能伦理风险评估、人工智能的公平性、可解释性等伦理治理

  • 中青报:ChatGPT爆火,伦理安全拷问现行治理体系

    必须注意人工智能的伦理问题,尤其是因数据偏见而产生算法偏见。“如果ChatGPT产生并发表一些虚拟的文本信息,这可能会对未成年人或者是不具有判断能力的人产生影响,如老人或小孩。”就像教小孩,如果教的都是错的,小孩就会认为错的知识是对的。“我能不能说,很开心遇到你?人类真是超级酷。”2016年3月23

  • 直面人工智能伦理挑战

    人工智能的伦理挑战不仅体现在“技术鸿沟”中,也体现在更为广泛的领域。这些挑战集中体现在四个维度在人工智能技术与规则方面领先的国家,正处于技术优势快速积累周期,这种优势很可能成为诸如半导体领域存在的“卡脖子”工具,为人工智能后发国家的进步带来阻碍2023年成为全球人工智能伦理治理开局之年。

  • 人工智能发展,我们应该注意的伦理问题

    强化学习人工智能(AI)的发展是当今科技领域的一大热点。AI能够执行各种任务,从日常生活中的推荐系统到医疗领域的诊断,再到自动驾驶汽车。然而,随着AI变得越来越强大,我们也需要考虑伦理问题。

  • 科技伦理审查确保人工智能向善发展

      近日,科技部会同教育部、工业和信息化部、国家卫健委等十部门联合印发《科技伦理审查办法(试行)》(以下简称《审查办法》)。《审查办法》体现了科技向善的总体愿景,特别强调“遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”,反映出了科技促进人类繁荣的理念。 

  • 人工智能伦理风险评估纳入治理体系

    近年来,我国科技创新快速发展,生物医学等领域面临新的伦理挑战,人工智能、大数据、合成生物学等新兴技术的兴起带来了潜在的伦理风险,对科技伦理治理提出了新要求。近年来,我国科技伦理领域立法步伐不断加快,相关法律法规及政策要求接连出台。目前本市尚缺乏全市层面的管理制度、责任分工体系,有必要制定全市层面关于

  • 安全性、合规性、伦理性挑战下金融大模型也要戴上“紧箍”

    大模型“狂飙”时代,算力、算法、数据构成了新商业模式的“三驾马车”,相比其他领域,金融对数据专业性以及在风控、合规、安全层面的要求都更高,这也给金融机构和企业在探索金融大模型上带来诸多挑战。  未来,当金融大模型无孔不入,要不要给它戴上“紧箍”?香港金融科技周2023期间,在第一财经举办的“人工智能