人工智能技术取得飞速发展,但相关的治理能力和框架却没有及时跟进。近几年,各方对治理人工智能提出了很多伦理道德原则,但如何在不扼杀创新的前提下管控风险并推动人工智能治理由原则向实践转化才是最关键的。
一、背景
在过去五年,人工智能治理取得了迅猛发展,构建人工智能监管生态系统的速度大大提高,但如何以负责任的方式推动人工智能的应用和实践依旧是当前面临的迫切挑战。人工智能有独特的风险,简单照抄现有政策工具并不能处理好这些问题,社会必须考虑在应用人工智能时完善相关手段和措施,以此来化解先进决策系统带来的潜在风险。
二、人工智能发展历程回顾
历次工业革命既创造机遇,也带来挑战,迫使社会重新审视当时的治理结构能否有效维持监管与创新之间的平衡。人工智能是推动第四次工业革命的引擎,围绕人工智能及其安全防护措施将会出现诸多挑战。对其历史发展进程进行总结回顾十分重要,只有通过回顾过去,才能把握未来的发展方向。
早在人工智能发展初期,大家都认为人工智能发展到可以承担权责的程度时,就有必要认真考虑治理方面的问题。即使是处于历史学家认为的“人工智能冬天”(即人工智能及公众兴趣走低的时期),人们对人工智能带来的后果和治理效果也抱有担忧和恐慌。另外,人工智能的潜在应用范围极广、社会影响深远,这势必引发人们对隐私、安全、偏差、公正等议题的担忧。因此,在制定政策时必须从多领域的现有框架中汲取经验,包括国际法、公共政策、数据治理与伦理道德规范等领域。
本站系本网编辑转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容![声明]本站文章版权归原作者所有内容为作者个人观点本站只提供参考并不构成任何投资及应用建议。本站拥有对此声明的最终解释权
标签: