清华张亚勤:大模型将是AI时代的操作系统产业机会将比PC时代增长100倍

时间:2024-02-04 10:00:18  作者:bob综合体育苹果下载  来源:bob电竞ios

  原标题:清华张亚勤:大模型将是AI时代的操作系统,产业机会将比PC时代增长100倍

  “人工智能慢慢的变成了这个时代最具变革性的技术力量,新的智能是信息智能、具身智能和生物智能的融合,是比特世界、原子世界和分子世界的融合。”在今日开幕的乌镇世界互联网大会上,中国工程院院士、清华大学清华智能产业研究院(AIR)院长张亚勤围绕AI大模型发展的新趋势发表了演讲。

  他提到,过去十年,数据驱动的深度学习成为主流。从2016年 AlphaGo/和后来的 AlphaZero 在围棋领域战胜人类,到 AlphaFold2 高精度的预测蛋白质3维结构,2017年的 Apollo 无人驾驶平台,再到现在我们正在经历的ChatGPT现象,人工智能技术正在深层次的改变我们的数字世界、物理世界和生物世界。

  谈及GPT大模型,张亚勤认为,这开启了大模型和生成式人工智能的新范式,使得这样的领域的新研究项目、工程产品、初创公司和风险投资如火如荼,十分活跃。

  对于大模型技术的发展的新趋势,他认为主要有六个方向。 一是跨模态、多模态和多尺度大模型;其次,当前的大模型计算效率远低于人脑,且商用成本高昂,甚至模型用的越多亏损越多,需要新的算法体系来提升模型使用效率。

  三是会向自主智能发展,模型正在成为一个代理(Agent),可以自主规划任务、开发代码、调动工具、优化路径、实现目标。第四是边缘智能,大模型需要很多算力和资源,需要仔细考虑如何在边缘和设备端高效率、低功耗、低成本、低延时进行部署和实现。

  第五则是具身智能,大模型正在被用到无人车、机器人、无人机和工厂等物理基础设施;最后是生物智能,大模型正在被用到人体、人脑、医疗机器人和生物体和生命体的连接和控制。

  “就像 Windows 是 PC 时代的操作系统, Andriod/IoS 是移动时代的操作系统,前沿大模型将是AI时代的‘操作系统’,正在重构应用生态和重塑产业格局。”张亚勤认为,与移动互联网时代相比,大模型时代的产业机会至少增长10倍;与PC时代相比,大模型时代产业机会至少增长了100倍。

  与此同时,随着前沿大模型能力的快速的提升,它所带来的潜在风险也在持续不断的增加。这迫使我们思考人工智能技术对社会、文化、伦理等方面的影响和责任。张亚勤认为,要重新审视人类与机器的关系,以及人类自身的本质和价值,对AI技术的不确定性和复杂性,一定要做好充分准备和应对。

  他提到,目前面临大模型幻觉、不良信息和深度伪造等风险。这些技术以极高的逼真度误导受众。如果这些技术不正确使用被用于金融、法律和社交网络等领域,有一定的概率会对社会和经济产生一定的影响。特别是当自主智能、具身智能和生物智能进入大规模部署,需要更强的可控性,更好的可解释性,和更有效的治理。

  上个月,张亚勤签署了由一个AI安全机构发起的《AI风险声明》,呼吁人工智能带来的生存风险,应该与流行病和核战争等其他大规模社会性风险一样,成为全世界优先解决的事项。

  他表示,AI是第四次工业革命的重要技术基石,是全人类的共同大机遇和要面对的风险。目前,人工智能治理也成为全世界关注重点。国内早前发布了《全球AI治理倡议》,呼吁抓住机遇、正视风险、公平开放,并在全世界加强治理和合作。上周,中国、美国、英国和欧盟等签署了《布莱切利宣言》。

  “人类拥有两种智慧:发明技术的智慧和把握技术发展趋势的智慧。作为一个乐观主义者,我坚信我们能保持这种平衡,让AI创新和技术为人类善良和福祉服务。”张亚勤说到。

  非常荣幸参加今年的乌镇互联网峰会,也是峰会的第十年。过去的十年,我们正真看到互联网的移动化、工业化、物理化和智能化。

  人工智能慢慢的变成了这个时代最具变革性的技术力量。过去十年,数据驱动的深度学习成为主流。从2016年AlphaGo到后来的AlphaZero在围棋领域战胜人类,到AlphaFold2高精度的预测蛋白质3维结构,2017年的Apollo无人驾驶平台,再到现在我们正在经历的ChatGPT现象,人工智能技术正在深层次的改变我们的数字世界、物理世界和生物世界。新的智能是信息智能、具身智能和生物智能的融合,是比特世界、原子世界和分子世界的融合。

  过去的三年,我们见证了一些重要的技术发展:如ChatGPT、GPT-4、GPT4V和AIGC(Stable Diffusion, DALLE, NeRF)等。GPT系列模型具备预训练能力,能够直接进行自监督学习,并具备强大的生成能力,还可以自我进化和人类对齐。开启了大模型和生成式人工智能的新范式。目前这样的领域的新研究项目、工程产品、初创公司和风险投资如火如荼,十分活跃。我认为大模型技术正在向下面6个大的方向发展:

  · 跨模态,多模态,和多尺度大模型:新的大模型包括自然数据(语言文字、图像、视频),也包括从传感器获取的信息(比如无人车中的激光雷达点云、3D结构信息、4D时空信息,或者是蛋白质、细胞、基因、脑电、人体的信息);

  · 新算法框架:我们应该新的算法来提升当前的大模型效率。当前的大模型稠密激活,计算效率远低于人脑,且商用成本高昂,甚至模型用的越多亏损越多。人脑是效率最高的智能体,它有860亿个神经元,每个神经元有几千个突触,却只有不到3斤重,耗能20瓦。从这个方面来看,人脑的储存量,计算量和能耗效率之高,是目前任何大模型都不能够比拟的。我们应该新的算法体系,稀疏激活网络、效果更优的小网络等来提升模型使用效率;

  · 自主智能:模型正在成为一个代理(Agent),自主规划任务、开发代码、调动工具、优化路径、实现目标,包括N+1版本的自我迭代、升级和优化;

  · 边缘智能:大模型需要很多算力和资源,如何在边缘和设备终端实现高效率、低功耗、低成本、低延时地部署是一大关键问题;

  · 具身智能:大模型正在被用到无人车、机器人、无人机和工厂,交通、通讯、电网、电站和其他物理基础设施;

  · 生物智能:大模型正在被用到人体、人脑、医疗机器人和生物体和生命体的连接和控制。

  就像Windows是PC时代的操作系统,Andriod/IoS是移动时代的操作系统,前沿大模型将是AI时代的“操作系统”,正在重构应用生态和重塑产业格局。与移动互联网时代相比,大模型时代的产业机会至少增长10倍;与PC时代相比,大模型时代产业机会至少增长了100倍。

  随着前沿大模型能力的快速的提升,它所带来的潜在风险也在持续不断的增加。这迫使我们思考人工智能技术对社会、文化、伦理等方面的影响和责任。我们要重新审视人类与机器的关系,以及人类自身的本质和价值。对于人工智能技术的不确定性和复杂性,我们一定要做好充分准备和应对。

  首先,我们面临的是大模型幻觉、不良信息和深度伪造等风险。这些技术以极高的逼真度误导受众。如果这些技术不正确使用被用于金融、法律和社交网络等领域,有一定的概率会对社会和经济产生一定的影响。特别是当自主智能、具身智能和生物智能进入大规模部署,我们应该更强的可控性,更好的可解释性,和更有效的治理。

  上个月,我个人签署了由一个AI安全机构发起的《AI风险声明》,呼吁人工智能带来的生存风险,应该与流行病和核战争等其他大规模社会性风险一样,成为全世界优先解决的事项。我所在的清华大学智能产业研究院AIR致力于做善良的和负责任的AI。我在AIR三年前成立时送出的第一个全员邮件就是我制定的AI发展的3R原则:Resilient(韧性发展)、 Responsive(积极做出响应)、 Responsible(坚守价值)。在研究理论、算法和模型时,一定要考虑技术的意义和可能带来的结果,并将伦理问题和价值观置于技术之上。几个星期前,Stuart Russell,我和两位图灵奖获得者Yoshua Bengio、姚期智先生在英国一起召集了一个小型研讨会,并提出了一些具体建议。

  同时我们很高兴看见我们中国政府上个月发布了《全球AI治理倡议》,呼吁抓住机遇,正视风险,公平开放,并在全世界加强治理和合作。上周,中国、美国、英国和欧盟等在伦敦签署了《布莱切利宣言》。的确,AI是第四次工业革命的重要技术基石,是全人类的共同大机遇和要面对的风险。

  我们人类拥有两种智慧:发明技术的智慧和把握技术发展趋势的智慧。作为一个乐观主义者,我坚信我们能保持这种平衡,让AI创新和技术为人类善良和福祉服务。