当前位置: 主页 > 天剑狂刀私服发布 >

司晓:打造伦理“方舟”,让人工智能可知、可控、可用、可靠(2)

时间:2020-10-14 02:29来源:8N.org.Cn 作者:天剑狂刀私服 点击:

此外,可用的人工智能还应当是公平的。完全遵循理性的机器应该是公正的,没有人类的情绪化、偏见等弱点。但机器的公正并不是想当然存在的。最近发生的事件,如微软开发的聊天机器人使用粗俗语言等,表明当给人工智能“喂养”了不准确、过时、不完整或有偏见的数据时,机器也会犯和人类一样错误。对此,必须强调“经由设计的伦理”(ethics by design)理念,也就是在人工智能的开发过程中就要仔细识别、解决和消除偏见。可喜的是,政府部门和互联网行业组织等已经在制定解决算法偏见和歧视的指导方针和原则。像谷歌和微软这样的大型科技公司也已经建立了自己的内部伦理委员会来指导其人工智能研究。

司晓:打造伦理“方舟”,让人工智能可知、可控、可用、可靠

其次是可靠(reliable)。人工智能的应用如机器人等已进入普通家庭,我们需要这些人工智能是安全的、可靠的,能够抵御网络攻击和其他事故。以自动驾驶汽车为例,腾讯目前正在开发3级自动驾驶系统,并已获得在深圳市进行道路测试的许可。而在获得道路测试许可前,我们的自动驾驶汽车已在封闭场地进行了累计超过一千公里的测试。但由于相关的认证标准和法律规定仍有待确定,目前道路上还没有投入商用的真正的自动驾驶汽车。

此外,人工智能的可靠性还应当确保数字安全、物理安全和政治安全,尤其是对用户隐私的保护。由于人工智能研发需要收集个人数据以训练其人工智能系统,研发者在这一过程中应当遵守隐私要求,通过一定的设计保护用户的隐私,并防止数据滥用。

司晓:打造伦理“方舟”,让人工智能可知、可控、可用、可靠

再次是可知(comprehensible)。深度学习等人工智能方法的流行,使得底层的技术细节越发隐秘,可谓隐藏在一个“黑盒”当中。深度神经网络的输入和输出之间还有很多隐藏层,这使得研发人员都可能难以理解其系统。因此,当人工智能算法导致车祸时,调查其技术原因可能需要花费数年时间。

幸运的是,AI行业已经开始对可理解的AI模型进行研究。算法透明是实现可理解人工智能的一种方式。虽然用户可能不大关心产品背后的算法,但监管机构需要深入了解技术细节以便进行监督。无论如何,就AI系统直接作出或辅助做出的决策,向用户提供易于理解的信息和解释,都是值得鼓励的。

为了建立可知的人工智能,应该保证和鼓励公众参与和个人权利的行使。人工智能开发不应只是企业的秘密行为。作为最终用户的公众可以提供有价值的反馈,有权质疑可能造成伤害或难堪的机器决策,这将有助于开发更高质量的人工智能。

此外,可知的人工智能要求企业提供必要的信息,也即科技公司应当向其用户提供有关AI系统的目的、功能、限制和影响的足够信息。

司晓:打造伦理“方舟”,让人工智能可知、可控、可用、可靠

最后但同样重要的原则——可控(controllable)——以确保人类始终处于主导地位。从数千年前的文明曙光乍现,到今时今日的技术腾飞,人类始终控制着自己的造物。AI或是任何其他技术都不应当成为例外。只有确保机器的可控性,人类才能在机器出差错、损害人类利益时,及时阻止事态恶化。只有严格遵循可控原则,我们才能避免霍金和马斯克等名人所描绘的科幻式的噩梦。

每一次创新都会带来风险。但是,我们不应该让这些担忧和恐惧阻止我们通过新技术迈向更好的未来。我们应该做的是确保AI的好处远远超过潜在的风险,制定并采取适当的预防措施,以防范潜在的风险。

就目前而言,人们还不信任人工智能。我们经常能看到批评自动驾驶汽车不安全、过滤系统不公平、推荐算法限制选择、定价机器人导致更高价格的声音。这种根深蒂固的怀疑来源于信息的匮乏,我们大多数人要么不关心,要么没有足够的知识来理解人工智能。对此我们应该如何行动?

我的提议是,以伦理原则为起点,建立一套规则体系,以帮助人工智能开发人员及其产品赢得公众的信任。

规则体系的最左端,是软法性质的规则,包括非强制性的社会习惯、伦理标准和自我行为规范等,以及我所说的伦理原则。国际上,谷歌、微软和其他一些大公司都已经提出了它们的AI原则,且阿西洛马人工智能原则和IEEE的AI伦理项目都得到了很高评价。

随着规则体系的坐标右移,我们有强制性的规则,例如标准和法律规范。我们今年发布了一份关于自动驾驶汽车的政策研究报告,发现目前许多国家正在研究制定鼓励和规范自动驾驶汽车的法律规则。可以预见未来各国也将制定关于人工智能的新法律。

随着规则体系的坐标继续右移,我们可以通过刑法惩罚恶意使用人工智能的行为。而在规则体系的最右端,则是具有最大约束范围的国际法。一些国际学者正在积极推动联合国提出关于禁止使用致命自动化武器的公约,就像禁止或限制使用某些常规武器的公约一样。

其实无论是核技术还是人工智能,技术本身是中性的,既非善也非恶。赋予技术价值并使它们变得美好是我们人类的责任。

我的发言到此为止,感谢聆听!

—— 以下为英文版 ——

Towards an Ethical Framework for Artificial Intelligence

Jason Si

Thank you, Professor Vogl, for the warm introduction. Thank you, Angel, for this interesting piece about lethal autonomous weapons.

It is good to know someone had carefully considered the possibility of man-made machines to go against their creators. For sure, Isaac Asimov's "Three Laws of Robotics" could no longer apply here. We need something serious and more specific to guard our limitless ambitions, and to guard humanity.

------分隔线----------------------------