• 随着太空探索的商业化,航天产业迎来了新的发展机遇。
  • 在线教育的普及为全球学习者提供了更多样化的学习资源。
  • 隐私保护和数据安全在数字化时代变得更加重要。
  • 随着全球化的深入,跨文化交流和国际合作变得日益重要。
  • 生物多样性的丧失引起了全球对生态环境保护的重视。
  • 随着技术的进步,无人驾驶汽车的测试和部署正在全球范围内展开。
  • 移动支付和数字货币的普及改变了全球支付体系。
  • 5G技术的快速发展为智能城市和物联网提供了强大的网络基础。
  • 社交媒体对年轻人的影响力日益增强,引发社会对其影响的讨论。
  • 人工智能的快速发展正在引领第四次工业革命。
  • 数据隐私成为数字时代最受关注的问题之一。
  • 人工智能在各个行业的应用正推动着生产力的革命。
  • 人工智能的发展正在改变我们的工作方式和生活习惯。
  • 数字化转型成为企业在疫情后恢复和增长的关键策略。
  • 网络安全威胁的增加迫使企业和个人加强数据保护措施。
  • 在线健身课程的兴起反映了人们对健康生活方式的追求。
  • 人工智能在医疗诊断和治疗中的应用正在改善患者的治疗效果。
  • 随着太空探索的商业化,航天产业迎来了新的发展机遇。
  • 心理健康问题在全球范围内受到越来越多的关注和重视。
  • 随着全球经济复苏,各国政府正积极推动经济刺激计划。
  • 随着技术的发展,智能家居和自动化生活正在成为现实。
  • 随着全球疫苗接种率的提高,经济复苏的希望逐渐增强。
  • 随着人们对隐私保护的关注增加,数据安全成为企业必须重视的问题。
  • 在线教育的普及为全球学习者提供了更多样化的学习资源。
  • 网络安全问题日益严重,个人数据保护成为全球关注的焦点。
  • 中国人工智能发展的“四长四短”,行业动态,成都金大立科技有限公司
    新闻动态 首页 > 新闻动态 > 行业动态

    中国人工智能发展的“四长四短”

    12月4日-5日,由清华大学人工智能国际治理研究院主办的2021人工智能合作与治理国际论坛在清华大学举行。在以“人工智能技术前沿与治理”为主题的论坛中,中国工程院院士、北京大学信息科学技术学院院长、鹏城实验室主任高文分享了人工智能2.0的战略、战术和安全问题。

    高文介绍,中国人工智能发展规划是从2015年7月份开始,2017年7月发布的《中国人工智能发展规划》就是人工智能2.0正式的说法,提出2020年达到与世界先进水平同步,2025年部分领先,2030年总体领先。

    他在演讲中分享到,通过和欧洲、美国等国家在人才数量、研究水平、开发能力、应用场景、数据、硬件等方面的比较分析,中国人工智能发展的水平,存在“四长四短”。即在人工智能发展政策支持、海量数据资源、具备丰富的应用场景,以及青年人才数量和成长速度等方面具有优势;在人工智能的基础理论和算法、高端芯片和关键器件、开源开放平台,以及高水平人才数量等方面则存在短板。

    “在短的方面倾注一些资源,尽快补齐短板,使得长板更长,短板不短,发展人工智能是这样的战略。”高文称。

    具体战术应该怎么做?高文表示,人工智能2.0需要重点考虑两个方面。一是做可解释的机器学习+推理,在小数据、可解释模型的研究主线上,解决人工智能的问题。第二个技术路线是靠深度神经网络,利用仿生系统+AI大算力解决问题。

    高文认为,第二条路线会是人工智能现阶段发展的主要推动方式,而靠大数据、大算力来做人工智能,关键需要有基础设施平台,需要有非常大的算力。

    据了解,高文在2018年主导成立的鹏城实验室在去年就推出了算力高达1000P FLOPS(每秒计算速度达10的18次方)的鹏城云脑2,做到节点之间延迟低、带宽非常宽,从而使得机器训练的时候,大数据很容易传输,效率可以发挥到极致。鹏城云脑2在连续三届世界超算打榜中吞吐性能方面绝对领先,在世界人工智能算力500排行中也连续两次获得第一。

    高文介绍称,用这台机器已经训练了若干个大模型,比如基于自然语言处理的大模型鹏程·盘古,基于计算机视觉、跨模态的大模型鹏程·大圣,基于多对多模式的模型鹏程·通言,以及面向生物制药、基因制药的大模型鹏程·神农等。他表示,鹏程系列模型基本都支持开源开放,通过启智开源开放平台提供开源开放的程序,可以下载进行使用。

    但由此也会带来新的问题。“如果基于类脑和大数据、大算力的技术路线,很显然有一个坎儿必须要迈过去,就是数据安全和隐私问题。”高文表示,这需要从两个层面考虑,数据和隐私安全问题、人工智能伦理问题。

    对于数据隐私安全问题,高文认为,人工智能应用离不开数据,在隐私保护和数据挖掘之间,需要找到比较好的平衡点。

    这个平衡点在哪里?高文分享了一种隐私和数据安全保护的手段——把数据模型和应用分成三层,每层用接口隔离开(数据到模型之间通过数据程序接口隔离,模型到应用通过应用程序接口隔离),这样就有可能去规范,对数据进行保护。

    比如在数据和模型之间,鹏城实验室设计的防水堡技术就可以实现对数据只分享价值,而不分享数据的可信计算环境,做到数据可用不可见,使得数据拥有方或数据本身得到很好的保护。

    关于伦理问题,高文介绍了其牵头的研发成果,认为强人工智能安全风险的来源主要有三个:一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。强人工智能进化到一定程度就有自主意识,这些可能是不可控的,也会带来一些安全风险。

    高文就此也提出了预防和解决的办法。一是要完善理论基础验证,实现模型可解释性,可解释了就知道哪里有风险,怎么样预防;其次要对人工智能底层价值取向要严格进行控制,预防人为造成的人工智能安全问题,对人工智能进行动机选择,为人工智能获取人类价值观提供一些支撑。

    他还表示,对于人工智能伦理问题的探索才刚刚起步,只有广泛的国际合作才可能更好的应对风险。同时,教育也是重要环节,培养对这个领域有更多见解的人才,才有可能把这些问题解决好。来源:搜狐科技



    上一篇:高通的江湖野心
    下一篇:国产“新冠救命神器”诞生:体积小巧价格“美丽
    金大立免费服务热线
    028-83734198
    地址:成都彭州市工业开发区天彭镇旌旗西路419号

    二维码


    扫一扫关注我们
    Copyright@2020 成都金大立科技有限公司 版权所有