扫一扫,即刻安装钝角网app
包括面簿、微软、谷歌等全球首屈一指的科技公司高层代表以及科学家、学术界人士日前聚集日内瓦,在首届瑞士全球数字峰会上集体研究讨论与人工智能(ai)有关的全球道德标准问题,与会代表约定会就同样的主题,在明年1月的达沃斯世界经济论坛上展开更加广泛与深入的讨论。
谁也不会怀疑ai将成为引发创新与激发变革的最强大科技力量,因此,公众面对ai会展现出极大的宽容,并以欣喜甚至狂热的姿态拥抱ai的技术成果,而对于ai所衍生的道德问题,往往因“晕轮效应”的作用,而未能有清晰的认知与足够的重视。
拿不久前世界人工智能大会上,手机应用zao推出的“ai换脸”功能为例,用户只需要一张正脸照,就可以替换为影视作品的人物,生成以自己为主角的视频片段。这款应用一夜间火爆全网,在赢得用户尖叫之余,支持应用的服务器陷入瘫痪。成功换脸赢得片刻的刺激与兴奋之后,相信所有用户都会因绑在自己身上的zao协议而惴惴不安。
根据zao的用户协议:用户上传发布内容后,意味着“同意或确保肖像权利人授予‘zao’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,而且“侵权了明星肖像,若对方提告,最后责任都在用户”。就此,我们对用户提出以下问题:被换脸的明星如果提出诉讼,你是否还会镇定自如?如果有人就此制作虚假视频并栽赃于你,你是否会义愤填膺?你的脸被用于刷脸支付,你是否会忐忑不安乃至惊慌失措?如果就这些问题得出肯定的答案,相信每一个人都不会对ai道德问题熟视无睹。
技术在狂奔 道德在退步
其实,类似“换脸”功能引起的ai道德问题已经不计其数。不久前,deep nude应用推出一款“一键脱衣”功能,用户只须在该应用上添加一张女性照片,应用便会自动“脱掉”女性身上的衣服。在这款软件中,女性无疑成了最大受害者。
其他例子还有斯坦福大学运用ai运算,通过照片便可识别谁是同性恋;黑灰产能够通过ai技术伪造录制场景;保险公司利用面簿数据预测事故发生率就可拒绝用户投保等等,ai突破道德底线,并且沦为作恶的工具,已经超出人们的想象,甚至用“技术在狂奔,道德在退步”来形容,一点也不为过。
对于ai所触发的道德问题,目前形成的一种主流判断是,技术无罪但操控技术的人一定有过。按照墨菲定律(murphy's law),如果一件事情有可能出错,它就一定会出错。也就是说,如果做某项工作有多种方法,而其中有一种方法必然导致错误,就一定有人会按这种方法去做。
一项针对1010个英国科技工作者的研究发现,90%的人认为科技是一种正能量,但59%在ai领域工作的人表示,他们从事的项目可能对社会有害,18%的人因为伦理道德问题而辞职。对此,我们想强调的是,尽管ai违背或者践踏道德,也只是少数技术操作者的行为,即墨菲定律所指的个别人犯错,但这种错误又极易被更多人所模仿,而且借助网络传播的力量无限放大,最终造成的社会危害无法估量。
如何平衡ai创新与ai道德,的确是一个非常棘手的难题。对于人类社会而言,我们不仅无法抵挡ai的诱惑,而且需要更多的创新成果来提供贴近生产与生活的各种服务,这就需要企业不断地寻求突破,但是如果套上更多的条条框框,又势必抑制与捆绑ai探索的脚步与空间。
拿ai的基础数据为例,用户的身份、职业、年龄等,以及阅读、购物等行为偏好,都是优化推荐运算的关键依据,科技公司获取的隐私数据越多,就越能让ai的服务更精确地贴合公众需求,同时利于商业主体精准发力。但如果注入了道德元素,数据的限制与缺失不仅会使ai的服务功能大打折扣,同时会面临资本的反制与遗弃。因此,几乎没有哪一家科技公司愿意自己在获取用户数据方面受到约束。
虽然如此,我们还是要强调,任何创新的闸门并不是不可以把控的。人类既然能够让机器变得有智慧,也可以让它行走在指定的路径与划定的边界之内,比如一件ai可在哪些场景下使用,以及使用越界时的自动纠正功能等。这么一来,无论机器具有怎样的学习天赋,我们都可以让它在决策时像人一样,在感知是非善恶的前提下正确行事。
多方联手制定ai伦理道德准则
显然,基于创新与发展的需要,不能因为ai的局部不道德,而对它实施简单粗暴的管制,甚至一禁了之。同时,要引导ai变得有道德,首先须让科技公司变成道德主体。对于科技企业来说,科技向善应当成为其恪守与贯彻的道德底线,为人类创造福祉并驱动社会发生积极变革,应当成为其存在与发展的最高圭臬。
对此,所有ai企业有必要像微软成立人工智能伦理道德委员会那样,创建由工程师、科学家、律师和公司领导组成的监管机构,负责对每一款ai产品的道德伦理风险评估,以及运行内外部审查和实施相应的改进机制,保证产品在开发过程中就有成色厚重的道德元素。
相比于企业对ai的自我审查,行业协会是把控ai的第一道外部道德关口。目前,除了世界电气电子工程师学会(ieee)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外,亚马逊、微软、谷歌、苹果等全球百余家科技巨头,还创建了非营利性的人工智能合作组织(partnership on ai),提出了公平、没有伤害、公开透明、问责等伦理道德框架。
各国各行业可以以此为参照,建立自己的ai道德评价矩阵与评估流程。相对于企业自我道德评价,作为第三方的行业道德评价,可以有效地克服前者在商业诉求与道德诉求上的角色冲突与结果倾斜,同时过滤企业道德评价中的不合理因素,确保ai伦理道德评估结论的公正与可信。值得强调的是,为了更广泛地反映社会不同群体对ai道德的基本诉求,行业道德监督机构应当最大程度地吸收更多利益相关者加入。
当然,制定ai伦理道德准则也是各国政府义不容辞的职责,而且衡量一个国家ai水平的高低,已经不只是有技术指标,道德维度也成为各国ai竞争的新高地。最新数据显示,美国ai企业以2039家位列全球第一,中国(不含港澳台地区)有1040家,两国占全球ai企业总数的一半以上,同时全球3万6524名顶尖ai人才,有一半以上在中美。中国与美国在ai领域难分伯仲。
相比之下,欧盟感觉掉队不少,于是便从伦理角度切入,率先推出涵盖人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制等七项内容的ai伦理道德准则。相比于欧盟,中美两国在ai道德界限及道德标准细化方面,仍有待提炼与加工,并完全有必要通过“头脑风暴法”的形式,邀请社会各界人士参与ai道德准则的补充和完善。
最后要指出的是,目前的ai道德准则更多地是针对科技公司与开发者提出要求,但ai使用者同样不应该成为道德盲区。从zao的“ai换脸”服务器被挤爆,到deep nude“一键脱衣”遭到疯抢,足以说明使用者在购买产品时,不仅不计成本,而且不讲道德。如此种种不仅对开发者的失德动机与行为构成有力声援,而且势必扭曲互联网社交的健康躯体。
为此,有必要制定ai使用的道德与法律规则,并建立可以监控的ai平台,对所有使用不道德ai产品的用户进行账号管制,以此倒逼科技公司调整与校准自己的研发行为,进而让ai道德演变成民众信任的基础。
作者是中国市场学会理事、广东外语外贸大学经济学教授 研究生导师;原题《人工智能急须进行道德对标》
包括面簿、微软、谷歌等全球首屈一指的科技公司高层代表以及科学家、学术界人士日前聚集日内瓦,在首届瑞士全球数字峰会上集体研究讨论与人工智能(ai)有关的全球道德标准问题,与会代表约定会就同样的主题,在明年1月的达沃斯世界经济论坛上展开更加广泛与深入的讨论。
谁也不会怀疑ai将成为引发创新与激发变革的最强大科技力量,因此,公众面对ai会展现出极大的宽容,并以欣喜甚至狂热的姿态拥抱ai的技术成果,而对于ai所衍生的道德问题,往往因“晕轮效应”的作用,而未能有清晰的认知与足够的重视。
拿不久前世界人工智能大会上,手机应用zao推出的“ai换脸”功能为例,用户只需要一张正脸照,就可以替换为影视作品的人物,生成以自己为主角的视频片段。这款应用一夜间火爆全网,在赢得用户尖叫之余,支持应用的服务器陷入瘫痪。成功换脸赢得片刻的刺激与兴奋之后,相信所有用户都会因绑在自己身上的zao协议而惴惴不安。
根据zao的用户协议:用户上传发布内容后,意味着“同意或确保肖像权利人授予‘zao’及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,而且“侵权了明星肖像,若对方提告,最后责任都在用户”。就此,我们对用户提出以下问题:被换脸的明星如果提出诉讼,你是否还会镇定自如?如果有人就此制作虚假视频并栽赃于你,你是否会义愤填膺?你的脸被用于刷脸支付,你是否会忐忑不安乃至惊慌失措?如果就这些问题得出肯定的答案,相信每一个人都不会对ai道德问题熟视无睹。
技术在狂奔 道德在退步
其实,类似“换脸”功能引起的ai道德问题已经不计其数。不久前,deep nude应用推出一款“一键脱衣”功能,用户只须在该应用上添加一张女性照片,应用便会自动“脱掉”女性身上的衣服。在这款软件中,女性无疑成了最大受害者。
其他例子还有斯坦福大学运用ai运算,通过照片便可识别谁是同性恋;黑灰产能够通过ai技术伪造录制场景;保险公司利用面簿数据预测事故发生率就可拒绝用户投保等等,ai突破道德底线,并且沦为作恶的工具,已经超出人们的想象,甚至用“技术在狂奔,道德在退步”来形容,一点也不为过。
对于ai所触发的道德问题,目前形成的一种主流判断是,技术无罪但操控技术的人一定有过。按照墨菲定律(murphy's law),如果一件事情有可能出错,它就一定会出错。也就是说,如果做某项工作有多种方法,而其中有一种方法必然导致错误,就一定有人会按这种方法去做。
一项针对1010个英国科技工作者的研究发现,90%的人认为科技是一种正能量,但59%在ai领域工作的人表示,他们从事的项目可能对社会有害,18%的人因为伦理道德问题而辞职。对此,我们想强调的是,尽管ai违背或者践踏道德,也只是少数技术操作者的行为,即墨菲定律所指的个别人犯错,但这种错误又极易被更多人所模仿,而且借助网络传播的力量无限放大,最终造成的社会危害无法估量。
如何平衡ai创新与ai道德,的确是一个非常棘手的难题。对于人类社会而言,我们不仅无法抵挡ai的诱惑,而且需要更多的创新成果来提供贴近生产与生活的各种服务,这就需要企业不断地寻求突破,但是如果套上更多的条条框框,又势必抑制与捆绑ai探索的脚步与空间。
拿ai的基础数据为例,用户的身份、职业、年龄等,以及阅读、购物等行为偏好,都是优化推荐运算的关键依据,科技公司获取的隐私数据越多,就越能让ai的服务更精确地贴合公众需求,同时利于商业主体精准发力。但如果注入了道德元素,数据的限制与缺失不仅会使ai的服务功能大打折扣,同时会面临资本的反制与遗弃。因此,几乎没有哪一家科技公司愿意自己在获取用户数据方面受到约束。
虽然如此,我们还是要强调,任何创新的闸门并不是不可以把控的。人类既然能够让机器变得有智慧,也可以让它行走在指定的路径与划定的边界之内,比如一件ai可在哪些场景下使用,以及使用越界时的自动纠正功能等。这么一来,无论机器具有怎样的学习天赋,我们都可以让它在决策时像人一样,在感知是非善恶的前提下正确行事。
多方联手制定ai伦理道德准则
显然,基于创新与发展的需要,不能因为ai的局部不道德,而对它实施简单粗暴的管制,甚至一禁了之。同时,要引导ai变得有道德,首先须让科技公司变成道德主体。对于科技企业来说,科技向善应当成为其恪守与贯彻的道德底线,为人类创造福祉并驱动社会发生积极变革,应当成为其存在与发展的最高圭臬。
对此,所有ai企业有必要像微软成立人工智能伦理道德委员会那样,创建由工程师、科学家、律师和公司领导组成的监管机构,负责对每一款ai产品的道德伦理风险评估,以及运行内外部审查和实施相应的改进机制,保证产品在开发过程中就有成色厚重的道德元素。
相比于企业对ai的自我审查,行业协会是把控ai的第一道外部道德关口。目前,除了世界电气电子工程师学会(ieee)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外,亚马逊、微软、谷歌、苹果等全球百余家科技巨头,还创建了非营利性的人工智能合作组织(partnership on ai),提出了公平、没有伤害、公开透明、问责等伦理道德框架。
各国各行业可以以此为参照,建立自己的ai道德评价矩阵与评估流程。相对于企业自我道德评价,作为第三方的行业道德评价,可以有效地克服前者在商业诉求与道德诉求上的角色冲突与结果倾斜,同时过滤企业道德评价中的不合理因素,确保ai伦理道德评估结论的公正与可信。值得强调的是,为了更广泛地反映社会不同群体对ai道德的基本诉求,行业道德监督机构应当最大程度地吸收更多利益相关者加入。
当然,制定ai伦理道德准则也是各国政府义不容辞的职责,而且衡量一个国家ai水平的高低,已经不只是有技术指标,道德维度也成为各国ai竞争的新高地。最新数据显示,美国ai企业以2039家位列全球第一,中国(不含港澳台地区)有1040家,两国占全球ai企业总数的一半以上,同时全球3万6524名顶尖ai人才,有一半以上在中美。中国与美国在ai领域难分伯仲。
相比之下,欧盟感觉掉队不少,于是便从伦理角度切入,率先推出涵盖人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制等七项内容的ai伦理道德准则。相比于欧盟,中美两国在ai道德界限及道德标准细化方面,仍有待提炼与加工,并完全有必要通过“头脑风暴法”的形式,邀请社会各界人士参与ai道德准则的补充和完善。
最后要指出的是,目前的ai道德准则更多地是针对科技公司与开发者提出要求,但ai使用者同样不应该成为道德盲区。从zao的“ai换脸”服务器被挤爆,到deep nude“一键脱衣”遭到疯抢,足以说明使用者在购买产品时,不仅不计成本,而且不讲道德。如此种种不仅对开发者的失德动机与行为构成有力声援,而且势必扭曲互联网社交的健康躯体。
为此,有必要制定ai使用的道德与法律规则,并建立可以监控的ai平台,对所有使用不道德ai产品的用户进行账号管制,以此倒逼科技公司调整与校准自己的研发行为,进而让ai道德演变成民众信任的基础。
作者是中国市场学会理事、广东外语外贸大学经济学教授 研究生导师;原题《人工智能急须进行道德对标》
感谢您的支持,我们会继续努力!
打开支付宝扫一扫,即可进行扫码打赏哦