商汤智能产业研究院创始院长田丰作为嘉宾发表了主题演讲《AI伦理的“全球大变局”》。演讲后,他接受了搜狐科技的专访,人工智能及大数据高速发展之时,有关数据安全及AI伦理的讨论也应运而生,对此,田丰在专访中进行了详尽解答。
田丰认为,人工智能是工具,工具一定取决于用途,以及用工具的人,使用者才带有价值观。“我们希望它是由好的人去使用,所以我们所谓的AI伦理,更多的是让善的人去使用人工智能,而不是让恶的人使用人工智能。”
而为了训练人工智能,用户数据被越来越多地收集,过程中发生不少隐私侵犯案例。田丰指出,我们不能因噎废食,“人工智能会有各种各样的风险,大家不去用它,不去研究它的技术,它永远不会发展,这样会给人类带来产业的倒退,发展永远是一个主题,不管是中国、美国、欧洲。”他表示。
实际上,人工智能技术发展的同时,隐私保护技术也在同步发展。比如2016年由谷歌提出的联邦学习技术,是当下行业中实现隐私保护的热门技术之一。田丰解释该技术称,“数据可用不可见。当我去判断这个数据真假的时候,只回答一个yes还是no,不会告诉我底层的原数据,这是数据服务的原则。”
田丰介绍,除联邦学习之外,隐私计算、生物特征数据的加密以及相应的一些匿名化处理,都是商汤智能产业研究院在各个场景中投入研发的安全保护技术。
以下为专访实录精编:
搜狐科技:您先向网友简单介绍一下您所在的智能产业研究院以及商汤智能是否有一些比较有意思的研究跟大家介绍一下?
田丰:人工智能正在改变我们每一个人的生活和商业模式,商汤智能产业研究院重点研究人工智能的产业价值以及我们的社会价值,包括社会影响。这就是我们不断去写出各种各样的智能产业的报告,数字化转型的报告,以及全球AI政策方面的分析和伦理相关的研究的成果。
搜狐科技:一个老生常谈的话题,技术是中立的还是带有价值观的,您怎么看待这个问题?
田丰:首先我们认为人工智能是工具,也是技术的前沿的代表。工具它一定是取决于你的用途,所以它的用户,就是去用这个工具的人,一定是带有价值观的。
它有三个方向,科技一般来说,第一个是变成产业的工具,第二个变成一个科研的、前瞻性的理论方面的研究成果。所以第二个就是前沿科技的发展方向。第三个是避不开的话题,武器,二战的时候,科技得到很快的发展,基本上这三个方向来演进的,最终谁去使用这样的科技是带有相应的价值观。
搜狐科技:技术本身还是工具性质的?
田丰:对,我们希望它是由好的人去使用,所以我们所谓的AI伦理更多的是让善的人去使用人工智能,而不是让恶的人使用人工智能。
搜狐科技:用户隐私保护一直是比较热门的话题,大数据时代,数据的需求量是非常大的,为了训练AI等等,有没有哪些技术、规则,让用户的隐私得到更好的保护呢?
田丰:不管是中美欧,大家都对全民的隐私有非常好的重视,这会推动整个科技产业向前发展。人工智能的伦理保护,现在有一个宗旨,第一促发展,第二保底线。人工智能会有各种各样的风险,大家不去用它,不去研究它的技术,它永远不会发展,这样会给人类带来产业的倒退,第一发展永远是一个主题,不管是中国、美国、欧洲。
第二个要保底线,大家像坐在一个船上一样,任何一个地方漏水,这条船都会沉下去,从商汤科技来说,我们在人工智能伦理方面,做了大量的投入和工作。包括智能产业研究院,我们最主要的核心的任务就是在AI的伦理方面去做研究和联合研发的团队去做更多的技术投入。比如,现在说的联邦学习,隐私计算,包括生物特征数据的加密和相应的一些匿名化的处理这都是我们不断地去在不同的产业场景里面做各种各样的安全保护和实践。
搜狐科技:联邦学习是现在行业内比较热的一个技术,您能不能向大众用简单的话解释一下,这是一个怎样技术?能够让它做到保护隐私?
田丰:我们经常说有一句话,特别适合形容这个,数据可用不可见,当我去判断这个数据真假的时候,只回答一个yes还是no,不会告诉我底层的原数据,这是数据服务的原则。
第二个,联邦学习其实是多元的数据,甚至是多个商业主体的数据放在一起做融合方面的机器学习训练和数据交叉的分析。但是这个环境是能够保证到各方的数据的底层数据的安全的,从IT时代到云计算时代到人工智能的时代,有各种各样的技术,保护多元数据的底层安全,上面能够获得更好的数据分析的成果,保险公司的数据和互联网公司的数据交叉在一起,产生千人千面的保费数据,并不等于要公布每一个车主的隐私数据,这是从产业的角度去看联邦学习实现的多商业主体数据之间的融合创新,既能获得商业价值,又能够保护每一方的数据资源不被泄露。
宋婉心:商汤在这方面投入很多?
田丰:是,我们和全球很多很多高校实验室联合去做人工智能的技术和伦理方面的研发,我们和上海交大合作成立了计算法学和AI伦理研究中心,借助高校和企业第一线的科研力量,大家共同去研究AI伦理和法律合规各方面的风险控制的技术与软话题。
二维码