刷脸认证、自动驾驶、智能音箱、手术机器人……近年来,我国人工智能的发展进入爆发期,被广泛应用于金融、电商、医疗、安防、教育等领域,但随着技术的发展应用,由此引起的数据伪造、算法瓶颈、隐私安全、伦理困境等问题也日益凸显。

“上述问题,包括很多人工智能企业估值高、销量少,其根源都要从人工智能技术本身去找。这些问题是目前数据驱动的第二代人工智能天然的缺陷所致。”12月9日,在清华大学人工智能研究院等主办的2020第三代人工智能产业论坛上,中国科学院院士、清华大学人工智能研究院院长张钹说。

张钹表示,随着全球多个国家都将发展新一代人工智能提升为国家战略,产业需求呈井喷之势,人工智能亟须发展出安全、可信、可靠与可扩展的第三代人工智能技术。

什么是第三代人工智能?作为这一概念的最早提出者,张钹解释,其是在第一代知识驱动和第二代数据驱动相结合的基础上,从知识、数据、算法、算力4个要素出发所构建的全新发展体系,其目标是完全解决计算机的智能问题,全面反映人类智能。

在瑞莱智慧RealAI CEO田天看来,人工智能想要成为新时代的“水和电”,成为驱动各行业升级的底层通用能力,依赖于完备的AI基础设施。继承自互联网时代的经验,当前AI基础设施建设的重心集中在数据中心、算力平台上,主要解决AI“温饱”问题,为AI提供基础运算环境。但随着数据积累受场景限制,现有算力逼近极限,由大数据、大算力等外部驱动力带来的AI产业第一增长曲线开始放缓。

“由内打破才是增长。”田天说,伴随着各个产业智能化程度不断提高,AI基础设施建设亟须从增强自身底层能力出发,发展出数据和算力维度外的全新能力,以内生驱动力打造AI原生基础设施,保证相同的数据、算力条件下,更好地支撑AI赋能行业的深度应用,打开AI产业化全新市场空间,驱动产业第二增长曲线。

田天认为,想要加强AI内生驱动力需突破三大关卡。第一是算法关,保证算法决策的可靠与安全。他解释说,智能化时代下,AI的决策逻辑和链路天然存在大量不确定性,缺乏可解释性,难以被应用于高价值决策场景。另外,算法普遍存在的“对抗样本”特征导致AI系统存在被恶意攻击的风险。

第二是数据关,保障数据隐私和安全。在训练AI模型时,数据的简单明文传输和利用容易导致隐私泄露。与此同时,为AI应用打破数据孤岛的过程中,数据用途和用量难以保障,可能被滥用和复制,同时难以界定收益,确保所有者的权益。

最后是应用关,即AI应用场景的管控。比如信贷模型中“幸存者偏差”、人脸识别的种族歧视等一系列算法公平性问题的出现,以及技术滥用引发金融欺诈,甚至是政治宣传引导舆论等等。

“要突破三大关卡,AI原生基础设施需要实现三大块能力,分别是算法可靠、数据安全和应用可控,以实现对现有AI平台升级赋能,拓展AI在各类场景上的可用性。这是现阶段人工智能产业需求,也是产业目标。”田天强调。

为解决AI应用过程中的数据孤岛难题,隐私保护机器学习被学术界与产业界公认为是一条可行之路。但由于隐私保护机器学习与传统机器学习并非同属一个技术生态,企业想要搭建隐私保护生态面临着性能差、易用性差、黑盒协议等诸多难题。为此,大会发布了业内首款隐私保护AI编译器。

“不同于碰到应用中的难题时,见一个解决一个,修修补补,这款AI编辑器的目标是补全AI原生基础设施体系,提供服务于不同行业的业务产品和解决方案,使得所有场景不论大小、不论价值高低,都能够从AI赋能中受益,让AI更高质量服务于人类社会。”田天说。(记者 付丽丽)

关键词: 增强内生动力 AI