• 自动化和机器人技术在制造业中的应用提高了生产效率。
  • 智能家居设备正在改变家庭生活方式。
  • 社交媒体的普及改变了人们的交流方式,但过度依赖也需谨慎。
  • 人工智能在提高生产效率和创新服务方面展现出巨大潜力。
  • 随着人们对健康意识的提高,健康食品和生活方式受到更多关注。
  • 随着人们对健康意识的提高,健康食品和生活方式受到更多关注。
  • 海洋塑料污染问题引起了全球范围内的广泛关注和行动。
  • 虚拟现实和增强现实技术在教育和娱乐领域的应用越来越广泛。
  • 教育公平是社会进步的基石。
  • 人工智能在医疗领域的应用,如机器人手术和智能诊断,正在改变治疗方式。
  • 全球健康危机促使各国加强公共卫生体系的建设和改革。
  • 随着区块链技术的成熟,其在金融行业之外的应用逐渐增多。
  • 海洋塑料污染问题引起了全球范围内的广泛关注。
  • 自动化和机器人技术在制造业中的应用提高了生产效率和安全性。
  • 电子竞技成为年轻人中流行的娱乐方式。
  • 随着城市化的加速,城市可持续发展和智能城市规划成为热点议题。
  • 海洋塑料污染问题引起了全球范围内的环保行动。
  • 环保不仅是一个口号,更是我们每个人的责任。
  • 隐私保护和数据安全成为数字时代的重要议题。
  • 全球健康危机凸显了公共卫生体系的重要性和改革的必要性。
  • 生物多样性的丧失引起了全球对生态环境保护的重视。
  • 自动化和机器人技术在制造业中的应用提高了生产效率和安全性。
  • 随着技术的进步,自动驾驶汽车的测试和部署正在全球范围内展开。
  • 随着技术的进步,无人驾驶汽车的测试和部署正在全球范围内展开。
  • 随着太空探索的进展,商业航天领域迎来了新的发展机遇。
  • 中国人工智能发展的“四长四短”,行业动态,成都金大立科技有限公司
    新闻动态 首页 > 新闻动态 > 行业动态

    中国人工智能发展的“四长四短”

    12月4日-5日,由清华大学人工智能国际治理研究院主办的2021人工智能合作与治理国际论坛在清华大学举行。在以“人工智能技术前沿与治理”为主题的论坛中,中国工程院院士、北京大学信息科学技术学院院长、鹏城实验室主任高文分享了人工智能2.0的战略、战术和安全问题。

    高文介绍,中国人工智能发展规划是从2015年7月份开始,2017年7月发布的《中国人工智能发展规划》就是人工智能2.0正式的说法,提出2020年达到与世界先进水平同步,2025年部分领先,2030年总体领先。

    他在演讲中分享到,通过和欧洲、美国等国家在人才数量、研究水平、开发能力、应用场景、数据、硬件等方面的比较分析,中国人工智能发展的水平,存在“四长四短”。即在人工智能发展政策支持、海量数据资源、具备丰富的应用场景,以及青年人才数量和成长速度等方面具有优势;在人工智能的基础理论和算法、高端芯片和关键器件、开源开放平台,以及高水平人才数量等方面则存在短板。

    “在短的方面倾注一些资源,尽快补齐短板,使得长板更长,短板不短,发展人工智能是这样的战略。”高文称。

    具体战术应该怎么做?高文表示,人工智能2.0需要重点考虑两个方面。一是做可解释的机器学习+推理,在小数据、可解释模型的研究主线上,解决人工智能的问题。第二个技术路线是靠深度神经网络,利用仿生系统+AI大算力解决问题。

    高文认为,第二条路线会是人工智能现阶段发展的主要推动方式,而靠大数据、大算力来做人工智能,关键需要有基础设施平台,需要有非常大的算力。

    据了解,高文在2018年主导成立的鹏城实验室在去年就推出了算力高达1000P FLOPS(每秒计算速度达10的18次方)的鹏城云脑2,做到节点之间延迟低、带宽非常宽,从而使得机器训练的时候,大数据很容易传输,效率可以发挥到极致。鹏城云脑2在连续三届世界超算打榜中吞吐性能方面绝对领先,在世界人工智能算力500排行中也连续两次获得第一。

    高文介绍称,用这台机器已经训练了若干个大模型,比如基于自然语言处理的大模型鹏程·盘古,基于计算机视觉、跨模态的大模型鹏程·大圣,基于多对多模式的模型鹏程·通言,以及面向生物制药、基因制药的大模型鹏程·神农等。他表示,鹏程系列模型基本都支持开源开放,通过启智开源开放平台提供开源开放的程序,可以下载进行使用。

    但由此也会带来新的问题。“如果基于类脑和大数据、大算力的技术路线,很显然有一个坎儿必须要迈过去,就是数据安全和隐私问题。”高文表示,这需要从两个层面考虑,数据和隐私安全问题、人工智能伦理问题。

    对于数据隐私安全问题,高文认为,人工智能应用离不开数据,在隐私保护和数据挖掘之间,需要找到比较好的平衡点。

    这个平衡点在哪里?高文分享了一种隐私和数据安全保护的手段——把数据模型和应用分成三层,每层用接口隔离开(数据到模型之间通过数据程序接口隔离,模型到应用通过应用程序接口隔离),这样就有可能去规范,对数据进行保护。

    比如在数据和模型之间,鹏城实验室设计的防水堡技术就可以实现对数据只分享价值,而不分享数据的可信计算环境,做到数据可用不可见,使得数据拥有方或数据本身得到很好的保护。

    关于伦理问题,高文介绍了其牵头的研发成果,认为强人工智能安全风险的来源主要有三个:一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。强人工智能进化到一定程度就有自主意识,这些可能是不可控的,也会带来一些安全风险。

    高文就此也提出了预防和解决的办法。一是要完善理论基础验证,实现模型可解释性,可解释了就知道哪里有风险,怎么样预防;其次要对人工智能底层价值取向要严格进行控制,预防人为造成的人工智能安全问题,对人工智能进行动机选择,为人工智能获取人类价值观提供一些支撑。

    他还表示,对于人工智能伦理问题的探索才刚刚起步,只有广泛的国际合作才可能更好的应对风险。同时,教育也是重要环节,培养对这个领域有更多见解的人才,才有可能把这些问题解决好。来源:搜狐科技



    上一篇:高通的江湖野心
    下一篇:国产“新冠救命神器”诞生:体积小巧价格“美丽
    金大立免费服务热线
    028-83734198
    地址:成都彭州市工业开发区天彭镇旌旗西路419号

    二维码


    扫一扫关注我们
    Copyright@2020 成都金大立科技有限公司 版权所有