- 算力经济:生产力重塑和产业竞争决胜局
- 温晓君 张金颖 徐子凡等
- 18836字
- 2025-03-12 18:23:07
第二节 算力驱动阶段
计算机的诞生源于人类对机器控制能力的渴望以及处理大量计算任务的需求。在古代,人们利用手指、石块、绳索和划痕等方式计数,随着交易的出现,需要进行更复杂的数学运算,于是发明了算盘、纳皮尔骨筹、滑尺等计算工具。例如,德国的契克卡德发明了计算板,法国的帕斯卡发明了加法器(见图1-3),德国的莱布尼茨发明了乘法器,英国的巴贝奇设计了差分机和分析机,这些都是现代计算机的雏形。

图1-3 法国物理学家帕斯卡发明的加法器
(内容来源:赛迪智库整理,2023年11月)
(一)算力1.0:机构算力(20世纪40—70年代)
在远古时代,原始的计算工具如草绳和石头满足了基本的计数需求。随着社会的发展和数学运算需求的增加,人们发明了更为高效的计算工具,如算筹和算盘。这些工具的出现显著提高了当时的算力水平。进入20世纪40年代,人类经历了一场算力革命。1946年2月,世界上第一台数字式电子计算机ENIAC(Electronic Numerical Integrator and Computer,电子数值积分计算机)诞生,这标志着人类的计算能力正式步入了数字电子时代。
1.冯·诺依曼和ENIAC
在第二次世界大战期间,著名的数学家、物理学家约翰·冯·诺依曼(John von Neumann)参与了“曼哈顿计划”,为世界上第一颗原子弹的研制作出了重要贡献。“曼哈顿计划”是美国在第二次世界大战期间进行的一项秘密研究项目,旨在开发原子武器。在战争结束后,冯·诺依曼加入了ENIAC的研制小组。ENIAC是世界上第一台全电子式通用计算机,主要用于计算弹道表,它的设计和建造由美国军方资助,设计者是约翰·莫克利(John Mauchly)和约翰·普雷斯珀·埃克特(J.Presper Eckert)。
1945年,冯·诺依曼发表了一篇具有里程碑意义的论文,题为《电子计算机中的数器》,提出了一个全新的“存储程序通用电子计算机方案”。这篇论文中,他提出了计算机的基本功能规范,包括二进制运算、存储程序控制及CPU(中央处理器)的概念。这些规范构成了现代计算机设计的基础,并且至今仍然得到遵循。
1946年2月14日,ENIAC在美国宾夕法尼亚大学正式公开,它采用了二进制和可重用的存储器,能够重新编程并解决各种计算问题。ENIAC包含了17468个真空管、7200个水晶二极管、1500个中转站、70000个电阻器、10000个电容器、1500个继电器和6000多个开关。它的计算速度达到了每秒5000次加法或400次乘法,比使用继电器的机电式计算机快1000倍,比手工计算快20万倍(见图1-4)。ENIAC的成功运行开启了计算机科技的新纪元,之后,计算机技术以惊人的速度发展,不断推动着各行各业的变革。从第一代电子管计算机到如今的量子计算机,每一次技术的飞跃都极大地扩展了计算机的应用范围,推动了人类社会的进步。

图1-4 世界上第一台计算机ENIAC
(内容来源:赛迪智库整理,2023年11月)
2.大型机时代与蓝色巨人IBM
到了1945年,电子管计算机基本取代了之前的继电器计算机,计算速度提升了约1000倍。尽管电子管计算机的运算速度显著提高,但它们也存在明显的缺陷:成本高昂且受到所谓的“爱迪生效应”的影响,即电子管在工作时容易发热,经常发生烧毁的情况。因此,科研人员开始探索新的电子元件。1946年5月6日,世界上第一台存储程序式电子计算机EDSAC诞生(见图1-5)。
1947年,晶体管的发明标志着电子技术的一个重大突破。晶体管是一种小型、高效、耐用的半导体器件,能够放大和开关电子信号。由于其优越的性能和可靠性,晶体管很快取代了电子管在电子设备中的应用。1956年,威廉·肖克利(William Shockley)、约翰·巴丁(John Bardeen)和沃尔特·布拉顿(Walter Brattain)因在半导体及晶体管效应方面的研究而共同获得了诺贝尔物理学奖。晶体管的出现彻底改变了电子工业,为后续的电子产品发展奠定了基础。

图1-5 世界上第一台存储程序式电子计算机EDSAC
(内容来源:赛迪智库整理,2023年11月)
1950—1980年这一时期被称为大型机时代。大型计算机主要采用晶体管作为核心元件,这些计算机通常安装在配备空调的专业实验室和数据处理中心中。在这个时期,IBM(国际商业机器公司)凭借在机电制造方面的深厚积累、卓越的组织能力和精心构建的销售与营销体系,在大型计算机市场上取得了巨大成功,逐渐成长为计算机行业的领导者,被昵称为“蓝色巨人”。20世纪60年代末,IBM在全球大型计算机市场中已经占据了大约四分之三的份额,确立了其在计算机行业的主导地位。
大型主机(Mainframe)确实是计算机技术中的顶级产品,以其出色的安全性和高可靠性在金融、证券等关键行业中发挥着至关重要的作用。由于其强大的处理能力和高度的稳定性,大型主机在这些行业中的地位至今仍然不可替代。大型主机的历史可以追溯到20世纪60年代,当时的计算机技术迅速发展。经过数十年的不断迭代和升级,大型主机在所有计算机系统中的稳定性和安全性都是首屈一指的。这些系统的设计理念是为了满足最严苛的业务需求,包括对数据完整性、系统可用性和安全控制的极高要求。
然而,大型主机的优势背后,也伴随着高昂的成本和复杂的管理维护工作。因此,通常只有政府、银行、保险公司和大型制造企业等对信息安全性和稳定性有着极高要求的机构,才会投资使用大型主机系统。大型主机在许多关键领域的贡献是不可忽视的。例如,美国“阿波罗登月计划”的成功、天气预报的准确性、军事科学的发展,以及全球金融业和制造业商业模式的转变,都离不开大型主机的支持。在银行业,数以亿计的个人储蓄账户管理和丰富的金融产品提供,都依赖于大型主机的处理能力。在证券行业,无纸化交易的实现也是建立在大型主机技术之上的。
大型主机的诞生和发展历程确实标志着计算技术的重大进步,对人类社会的发展产生了深远的影响。在它们的全盛时期,大型主机几乎成了计算机乃至整个信息技术领域的代名词。这些强大的系统不仅为商业、科学和政府等领域提供了前所未有的计算能力,还推动了软件工程、数据库管理和网络通信等关键技术的发展。在IT业界,大型主机是为数不多的能在一个时代中占据主导地位并保持了数十年的产品。它们的出现不仅开创了一个新的IT时代,而且其不断进化也见证了技术创新的力量,以及这些创新如何帮助客户实现价值。那个“最好的时代”充满了创新和机遇,大型主机的处理能力和可靠性为各种行业提供了强大的支持,从而促进了整个社会的进步。那是一个“伟大的时代”,许多技术和业务模式的里程碑被设立,至今仍在影响着我们的生活;那也是一个“神奇的时代”,因为大型主机代表了计算方式的巨大飞跃,它们的存在不仅仅是技术上的突破,更是人类智慧的结晶。
3.日本电子计算机的强势崛起
日本的电子计算技术于20世纪50年代萌芽,那时,日本的电子产业还处于起步阶段,尚未具备独立开发高性能计算机和微处理器的能力。为此,日本电子计算领域不得不借助外部的科技力量,从美国和欧洲等地引进了众多技术和设备。最初,日本制造的电子计算设施主要被应用于各类科学运算及数据处理任务,如预测自然灾害、地震学分析以及金融信息统计等重要领域。
进入60年代初期,日本电子计算产业迅速成长。政府对这一领域的支持显著增强,资金与人力资源的大量投入促进了计算机技术的研究与发展。此外,日本电子企业纷纷推出具有自主知识产权的计算产品,如NEC推出的NEAC系列,以及富士通推出的MARS系列计算机。在这个时期,日本厂商以生产中小型计算机为主,这些机器搭载了自主研发的操作系统和芯片,成为当时市场上领先的产品之一。
到了70年代初,日本电子计算行业再度实现了飞跃。部分日本企业开始进军微处理器市场,推出了功能更加全面、性能更加卓越的计算产品。特别是NEC的SX-2超级计算机,成为那一时期的标杆性产品,并在全球范围内跻身最快的超级计算机之列。同时,富士通的VPP系列和日立的HIOS系列产品也受到了广泛关注。70年代末,日本电子计算产业已在全球市场展现出强大的竞争力,其研发与制造水平达到了国际先进标准。于80年代末,日本已经牢牢掌控了国内市场。曾经在全球占据领导地位的IBM,于80年代初在日本市场也占据着首要位置,但随后被富士通和NEC超越,降至第三位。在美国和欧洲市场,日本计算机制造商亦取得了显著成就,主要通过办公和电子设备公司向其合作伙伴销售产品。
4.百花齐放的编程语言
随着大型计算机市场的快速扩张,出现了多种型号和用途的计算机,这就要求开发相应的多样化软件。企业不得不投入巨额的资金和人力资源进行软件编写、更新和维护工作。为了解决这一挑战,厂商们开始探索设计一种不依赖于特定硬件平台的软件方案,以实现程序在不同计算机之间的兼容,从而提高软件开发效率并减少重复性劳动。
在编程语言的演进过程中,历经了从机器语言到汇编语言的各个阶段,业界迫切需要一种新型编程语言,它既能跨设备运行,又接近数学符号或人类的自然语言,以便更好地服务于程序员和其编程任务。为响应这一需求,1956年,美国计算机科学家约翰·巴克斯领导其团队开发了世界首个高级编程语言FORTRAN。FORTRAN语言专为数值计算设计,迅速成为该领域的一种主要且持久的编程语言。
20世纪60年代,软件行业经历了一段特别动荡的时期,这十年被广泛称作软件领域的“崩塌十年”。其中,最具代表性的失败案例莫过于IBM推出的OS/360操作系统。OS/360不单是一个操作系统,它涵盖了除编程语言之外的,程序员在开发与执行应用程序时所需的全套软件工具。这一系统由数以百计的程序部件构成,拥有超过百万行的代码量,并且采纳了“多任务处理”这一创新性技术,允许计算机同步执行多个程序。然而,当OS/360推迟上市之后,其系统性能异常缓慢,导致大量代码必须重新编写才能确保功能性,同时,它还暴露出了根本性的设计瑕疵,似乎并没有容易的解决方案。OS/360的问题反映了当时计算机行业中普遍存在的软件难题。
危机的出现也意味着机会的出现。结构化设计方法应运而生。1970年,瑞士计算机科学家尼古拉斯·沃斯(Niklaus Wirth)研制出了第一个结构化编程语言Pascal(帕斯卡)。Pascal基于ALGOL算法语言实现。1966年,WG 2.1工作小组中的尼古拉斯·沃斯与托尼·霍尔(C.A.R.Hoare)在ALGOL X的基础上作出修改与完善,形成ALGOL W。碍于调整与改进幅度略显保守,委员会并未以此作为ALGOL 60的后继者。然而,尼古拉斯·沃斯在斯坦福大学撰写的PL/360在IBM/360上成功运行了ALGOL W。1971年,尼古拉斯·沃斯以电脑先驱Pascal的名字为之命名,其具有丰富的数据类型和简洁灵活的操作语句。Pascal是一个重要的里程碑,它是第一个系统地体现了艾兹格·迪杰斯特拉和托尼·霍尔定义的结构化程序设计概念的语言。
1961年,麻省理工学院的教师和学生在开发程序时遇到了困难。由于大型计算机的租用成本高达每小时100美元且效率极低,他们通常只能负担得起1个小时的使用时间。为了解决这个问题,分时系统的概念被提出。其中最著名的分时系统是达特茅斯分时系统。1964年,达特茅斯学院院长约翰·凯梅尼和数学系教师托马斯·卡茨开发出了一套简单的分时系统以及名为BASIC的简单编程语言。像FORTRAN这样的语言是为专业人员设计的,无法普及。因此,他们在简化FORTRAN的基础上,研制出了一种“初学者通用符号指令代码”(Beginner's All-purpose Symbolic Instruction Code,BASIC)。1975年,比尔·盖茨成功地将其移植到了个人计算机上。
1969年,OS/360和Multics项目遭遇了重大的软件灾难,这为程序员们敲响了警钟:系统越复杂,出现问题的可能性就越大,而且这些问题往往难以解决。这一现象促使一些开发者寻求通过简约的设计来规避复杂性问题。Unix操作系统的诞生正是这种追求简洁性的典范。贝尔实验室的肯·汤普森和丹尼斯·里奇在Multics项目失败后,不愿就此放弃,他们决定开发一种小巧的操作系统,后来这个项目被命名为Unix。为了支持这个系统的开发,里奇还专门设计了一种编程语言——C语言。Unix操作系统实现了“可移植性”,在当时成为一个独特的存在,它迅速在美国走红,并在20世纪80年代成为标准操作系统。C语言因其广泛适用性,直到今天仍然是最受欢迎的高级编程语言之一。
5.机构算力既是时代发展阶段的产物,也是算力经济的萌芽
在算力经济的初期阶段,即算力1.0时代,大型机构和企业几乎垄断了所有主要的大型计算机资源。这种现象是当时技术进步和经济结构的典型反映。由于大型计算机昂贵的成本,加之它们对空间的需求以及特殊的维护设施,使得只有规模较大的企业才有能力投资和管理这些资源。大型计算机的强大计算力和集中化特性,为处理数据、进行财务分析等复杂任务提供了可能,满足了机构和企业的需求。
大型计算机的发展带动了产业链的延伸,其影响范围广泛,带动效应显著,属于知识和技术高度集中的产业。它的发展涉及众多学科领域,如电子学、材料科学、自动化控制、制造技术等,对这些学科的进步起到了关键的推动作用。大型计算机不仅在当时为制造业和运营活动带来了直接的经济效益,而且极大地促进了国民经济各部门在资源配置上的效率优化,奠定了随后互联网发展和广泛应用的软硬件基础。
(二)算力2.0:普适算力(20世纪80年代—21世纪00年代)
进入20世纪70—80年代,芯片技术在摩尔定律的指引下实现了显著飞跃。随着性能的持续增强和体积的不断缩小,计算机技术迎来了小型化的变革,个人计算机(Personal Computer,PC)随之诞生,其影响是划时代的。PC的出现意味着信息技术的算力不再局限于那些大型企业(依赖大型计算机),而是进入了普通家庭和中小企业。这一重大进展开启了全民信息时代,极大地促进了社会的信息化进程。人们开始在日常生活中体验到IT算力带来的便捷和效率提升。此外,PC的普及也为互联网的后续快速发展提供了坚实的基础。
1.不可思议的集成电路和摩尔定律
杰克·基尔比(Jack Kilby)和罗伯特·诺伊斯(Robert Noyce)分别独立发明了基于锗和硅的集成电路,两人之间谁先发明了集成电路的问题存在争议。1958年,杰克·基尔比在德州仪器公司工作时发明了基于锗的集成电路,这一发明被认为是世界上第一块集成电路。同年,罗伯特·诺伊斯也独立地发明了基于硅的集成电路。由于他们的工作对电子行业的巨大贡献,两位科学家都被广泛认为是集成电路的发明者。
集成电路的发展极大地推动了现代电子技术的进步。通过在单晶硅片上集成多个电子元件,集成电路大大提升了电子设备的性能和效率。随后,平面型晶体管和平面型集成电路的出现,使得半导体电路的生产更加高效和精确。这种平面型制造工艺采用了“光刻”技术,可以在研磨得很平的硅片上形成二极管、晶体管、电阻和电容等元器件。随着光刻精度的不断提高,元器件的密度随之增加,这为摩尔定律的出现提供了技术基础,也为信息化时代的到来奠定了坚实的技术基石。
摩尔定律是由英特尔公司创始人之一的戈登·摩尔提出的观察法则,他预测集成电路上可以容纳的晶体管数量大约每两年翻一番。1965年,摩尔提出了对未来半导体元件工业发展趋势的预言,他观察到器件的复杂性(即电路密度)与时间之间存在线性关系,并预测在最低元件价格下,这种复杂度每两年大约增加一倍。这一推断后来被称为“摩尔定律”的最初原型。1975年,摩尔在IEEE(电气与电子工程师协会)的学术年会上提交了一篇论文,对之前预测的密度增长率进行了重新审定,并将集成电路的复合年增长率修正为41%。但是,摩尔定律并不是一个科学定律,而是基于实际生产经验和观察得出的趋势性预测。它并没有像物理定律那样的普适性和必然性,而是基于经验的预测,反映了半导体技术的发展速度和趋势。随着技术的进步、制造工艺的提升,摩尔定律所描述的增长速度得到了行业内的广泛认可和应用,成为推动半导体行业发展的一个重要动力。
计算技术的进步与摩尔定律紧密相关,包括微处理器性能的提升、内存容量的增加、传感器技术的改进,以及数码相机像素数量和尺寸的增长。这些技术进步推动了社会变革、经济增长,并促进了计算机体积的减小、重量的减轻、功耗的降低,同时提高了运算速度、存储容量和可靠性。
集成电路的发展是多学科知识积累的成果,包括数学、物理学、化学、微电子学、电磁学、光学和量子力学等,凝聚了无数科学家和工程师的智慧。自开发以来的半个世纪内,集成电路已变得无处不在,电脑、手机和其他数字设备成为现代社会结构不可或缺的一部分。现代计算、通信、制造和交通系统,尤其是互联网,都依赖于集成电路的存在。许多学者甚至认为,由集成电路带来的算力革命是人类历史上最重要的事件之一。
2.Windows打开计算机软件蓬勃发展之门
在计算机硬件发展趋于平缓的时代,软件的发展迎来了一个新的高潮。20世纪80年代初,布莱德·考克斯发明了Objective-C,这是一种扩充C语言的面向对象编程语言。1983年,C++诞生,它在C语言的基础上增加了面向对象的特性。1987年,拉里·沃尔(Larry Wall)研发出了Perl语言,这是一种高级、通用、解释型、动态的编程语言。1990年,荷兰的吉多·范罗苏姆基于ABC语言研发出了Python语言,它以其简洁明了的语法和强大的功能受到广大程序员的喜爱。
1975年1月,一家位于美国新墨西哥州阿尔伯克基的小型电子元件供应商发布了一款前所未有的产品,《大众电子》杂志的封面上写道:“独家发布!牵牛星8800,有史以来功能最强的小型计算机项目,不到400美元即可拥有。”牵牛星8800以邮件形式销售散件,爱好者必须自己组装。尽管它的内存容量仅有256字节,只能以二进制代码的形式输入程序,没有配备显示器和键盘,但它仍然是之后两年中个人计算机行业发展壮大的主要推动力,充当了“引路人”的角色。
牵牛星8800的问世确实激发了包括比尔·盖茨和史蒂夫·乔布斯在内的众多创新者。盖茨为牵牛星编写了BASIC解释器,退学之后与保罗·艾伦共同创立了微软。微软的发展势不可挡,而盖茨也一度成为世界首富。乔布斯自小对电子产品充满热情,在1975年加入了家酿计算机俱乐部,并与史蒂夫·沃兹尼亚克于1976年共同成立了苹果公司。
个人计算机要想获得广大消费者的青睐,提高用户友好性是关键。当时流行的操作系统是微软开发的MS-DOS,它源自Unix,通过命令行界面与用户交互,这对于普通用户来说颇具挑战性。图形用户界面(GUI)因此被提出。1981年,施乐公司推出了具有革命性图形用户界面的施乐之星计算机,但由于其高昂的价格,并未在市场上取得预期的成功。乔布斯在参观了施乐帕洛阿尔托研究中心后,坚信下一代计算机必须具备图形化界面。1979年,苹果启动了麦金塔项目,并在1984年发布了麦金塔计算机。尽管麦金塔计算机未能成为市场的爆款,但其大胆简洁的设计和友好的图形界面加速了个人计算机的普及。与此同时,微软也在1981年9月启动了图形用户界面项目Windows,并于1985年11月发布了第一版。此时,图形用户界面已经被业界公认为个人计算机发展的重要方向,并持续影响着现代操作系统的设计。
3.互联网把全世界的计算机连接起来
随着图形用户界面(GUI)的出现,操作系统变得更加直观和易用。用户不再需要键入复杂的命令或深入了解计算机的内部工作原理;通过鼠标点击和图形界面的交互,人们可以轻松地使用计算机。这种易用性的提升使得个人计算机变得越来越受欢迎,并促使更多的人开始购买和使用计算机。随着个人计算机的普及,人们希望能够将全球的计算机网络统一到一个单一的系统中,实现计算机之间的连接和通信,以及自由地获取全世界的信息和知识。这一愿景可以追溯到20世纪30年代,当时的英国科普作家赫伯特·乔治·威尔斯提出了他的“世界百科全书”项目,设想一个能够接收、分类、总结、消化、澄清并比较知识和思想的中心。
这个愿景在现实中逐步实现,经过三十多年的思考和实践。1972年,麻省理工学院的博士拉里·罗伯茨在国际计算机通信大会上展示了他的研究成果——阿帕网(ARPANET),这是一个由四个节点组成的网络,它不仅能够执行数据库访问、气象模型运行、交互式图形探索等计算任务,还能用于娱乐,如空中交通模拟和国际象棋游戏。这次演示成为阿帕网和整个互联网发展的转折点。随后,收发电子邮件的需求推动了网络的发展,TCP/IP协议的开发解决了电子邮件在不同网络之间传输的问题,实现了计算机之间的互联互通。经过十多年的发展,接入网络的计算机数量逐渐增多,因特网(Internet)的雏形开始形成。
随着接入因特网的计算机数量的激增,如何从海量信息中找到所需内容成为一个新问题。超文本和因特网技术的结合为这个问题提供了解决方案。经过五年的探索,蒂姆·伯纳斯-李(Tim Berners-Lee)于1989年向欧洲核子研究中心提交了“万维网”(World Wide Web,WWW)的提案。万维网包括服务器端和客户端两部分:服务器将超文本文档(后来称为网页)发送给客户端计算机(通常是个人计算机或工作站),然后由客户端计算机显示在屏幕上。伯纳斯-李的万维网提案极大地促进了因特网上信息的组织和检索,使人们能够更加方便地访问和共享知识,这是现代互联网发展中的一个里程碑。
随着互联网技术的飞速发展,万维网逐渐步入了高速发展的轨道。在这一时期,通用的网络通信标准,特别是TCP/IP和HTTP协议,得到了广泛应用。得益于政府部门的强力支持,互联网开始逐步迈向商业化。浏览器市场也因此迎来了激烈的竞争。在互联网发展的初期,Mosaic浏览器作为第一个广泛使用的网页浏览器,支持图片显示,为互联网的普及奠定了基础。随后,Mosaic浏览器的开发者马克·安德森(Marc Andreessen)与美国硅图公司的创始人共同创立了网景公司(Netscape Communications)。他们推出的网景领航员(Netscape Navigator)浏览器在短时间内迅速崛起,市场份额超过80%,成为当时市场的领导者。面对网景公司的成功,微软采取了相应的策略。首先,他们从Spyglass公司获得了使用Mosaic浏览器的技术授权。其次,微软基于这项技术授权“开发”了自己的IE浏览器。为了进一步提升IE浏览器的市场占有率,微软决定将其免费预装到Windows 95操作系统中。这一举措迅速提升了IE浏览器的市场份额,同时也使得Mosaic的授权费用降到了Spyglass公司的心理底线。
为规避潜在的法律纠纷,微软向Spyglass公司支付了总计800万美元的授权费用。然而,尽管付出了这一代价,微软仍因在Windows系统中捆绑IE浏览器的做法而长时间面临欧盟和美国司法部的反垄断诉讼。法庭认定,微软的这种做法阻碍了其他第三方浏览器在Windows平台上的发展。此外,诉讼文件还指出,微软涉嫌不正当竞争,当康柏公司决定在其计算机上预装网景领航员浏览器时,微软曾威胁要撤销对康柏公司的Windows授权许可。尽管微软的此举引发了一系列法律争端,但从整体上看,利大于弊。数据显示,在短短的三年内,微软IE浏览器逐渐侵占了网景领航员浏览器的市场份额。到2002年,IE浏览器的市场份额达到了顶峰,接近96%。在接下来的十年里,IE浏览器一直稳居行业领先地位。
4.Wintel联盟快速占领桌面端计算市场
20世纪80年代末,IBM面临着众多强劲对手的围攻,这些对手无一不是借助微软的操作系统和软件应用来挑战其市场地位的。在这一时期,从商业平台到个人计算,计算机运算及其相关软件应用市场的迅速扩张为互联网及其相关产业带来了巨大的发展机遇。随着软件应用的多元化,用户逐渐认识到个人计算机不应仅仅是一个固定的工作站,而应是一个便携、随身的“伙伴”。对于非办公用途,一台便携式的个人计算机更适合用于影音娱乐、展示个人风格,以及满足某种心理需求。
从历史视角来看,移动个人计算的起源可以追溯到入门级的计算器。个人计算机的“便携性”与PC组件(如显示器、软盘等)的“小型化”趋势密切相关。初期真正意义上的笔记本计算机,如惠普的HP-110和HP-110 Plus,以及GriD的Compass 1101,均配备了英特尔处理器,采用半哈壳式非背光LCD显示屏,可显示4~8行文本。尽管这些产品的售价高达8000~10000美元,但它们仍被视为“尊贵”的象征。同时,市场上还涌现出了许多低配置的廉价笔记本计算机,如爱普生的HX-20、夏普的PC-5000和Kyocera的Kyotronic 85,后者甚至被Olivetti、Tandy和NEC等品牌以贴牌形式销售。这些低端笔记本计算机的普及在很大程度上归功于用户对低功耗处理器的迫切需求,如英特尔于1986年推出的386SL,它是386处理器的低功耗版本。
为了重新控制PC市场,IBM在1987年9月推出了架构更先进的PS/2个人计算机。然而,当时许多厂商仍然坚持采用Wintel方案,而不是IBM的PS/2。尽管如此,PS/2的许多创新举措还是成为后续PC产业的标准。康柏公司在1987年9月推出了搭载32位处理器的Compaq DeskPro 386和ALR Access,比IBM的PS/2早了7个月。这一举动使IBM在个人计算机领域的领导地位岌岌可危。微软公开表示对业界坚守16位架构的做法感到愤怒,那些试图取代IBM成为市场领袖的OEM厂商们突然发现这只是一个幻想。
1989年10月,英特尔在全球范围内开展了代号为“Red X”的市场营销活动,旨在推动32位处理器在业界的普及。这一活动帮助英特尔卖出更多的386处理器,并迅速传递给用户一个信息——286处理器已经过时了。同时,得益于此,英特尔的品牌价值得到了提升,为其成为市场领袖迈出了坚实的一步。通过“Red X”活动,英特尔发现它并不怎么需要辅助供应商,而且没有必要督促x86芯片制造商们抓紧生产各自的386处理器。或许是因为386处理器太抢手,谁来做都能大卖。尽管AMD在1991年3月至同年年底共卖出了200万颗Am386处理器,累计进账2亿美元,一举拿下了14%的市场份额。然而,英特尔的386处理器用了4年半的时间才拿下了25%的市场份额。奔腾处理器的到来再次拉大了其他处理器厂商与英特尔之间的差距,而且通过采用型号名称受版权保护的方式大大提升了品牌知名度。继“Red X”之后,英特尔又在全球范围内开展了旷日持久的“Intel Inside”市场营销活动。得益于此,英特尔的品牌标志似乎变成了一个常用的标识符号。
当英特尔涉足主机板业务时,其在广告投放上的预算却非常小。英特尔的加入让主机板领域面临洗牌,数以百计的主板厂商被淘汰出局,只留下了为数不多的原始设备制造厂商,主机板的品质得到了整体提升。此举过后,很多客户在选定处理器时,开始优先考虑主机板原始设备制造厂商了。眼看着Wintel联盟风生水起,苹果、IBM以及摩托罗拉终于坐不住了,联合成立了AIM联盟,并于1991年7月推出了一款商用级处理器——PowerPC RISC,旨在与Wintel的x86相抗衡。而老到的IBM没有把自己的未来押宝于此,而是两面投机——于同年11月与英特尔一起成立了一家开发处理器的合资公司。1984—1996年,英特尔主导了PC硬件行业,微软则牢牢控制住了软件领域。当这两个密不可分的行业巨头结合到一起时,形成了强大的Wintel联盟——推动Windows操作系统在基于英特尔CPU的PC上运行。自此,Wintel联盟制定的一些技术规范成为PC产业事实上的标准,该联盟也因此在全球PC产业中形成了所谓的“双寡头垄断”格局。
5.安迪—比尔定律将计算机由耐用消费品变为消耗品
摩尔定律为计算机消费者带来了一个希望:如果目前计算机的价格显得过高以至于难以承担,或许耐心等待18个月,就能以亲民的价格购买到。然而,如果这种价格下降真的如此简单且可预测,那么计算机的销售量将无法实现增长。潜在买家可能会选择推迟购买,而已有计算机的用户也会缺乏升级的动力,这一趋势同样适用于其他IT产品。尽管如此,在过去的20年里,全球PC的销量并未停滞,而是持续增长的。英特尔于2004年预估,接下来五年内,全球PC销量将实现60%的增长,这远远超出了经济增长率。
在这种现象背后,推动人们不断更新硬件的动力是什么呢?业界将此归结为安迪—比尔定律——比尔·盖茨将取得安迪·格鲁夫所提供的一切(“What Andy gives,Bill takes away.”)。“Andy”是英特尔公司的前CEO安迪·格鲁夫,“Bill”则是微软的创始人比尔·盖茨。20年间,英特尔处理器性能每18个月翻一番,而内存和硬盘容量的增长速度更为迅猛。但与此同时,微软的操作系统和应用软件却变得越来越庞大,对资源的需求也日益增加。因此,尽管当今的计算机比10年前快了100倍,但运行现代软件的体验似乎并没有显著改善。例如,Windows操作系统从十几兆的大小膨胀到如今的数千兆,应用软件亦然。新软件版本的功能虽有所增强,但与其体积的增长并不成正比。因而,尽管硬盘容量增加了千倍,但用户发现,即使是10年前的计算机所能装载的应用数量,与现在的计算机相当。更糟糕的是,不更新硬件可能导致许多新款软件无法运行,甚至上网都会成问题,这与汽车等耐用品相比,后者即使经过多年仍可使用。
软件开发商如微软往往充分利用硬件性能的提升,促使用户更新他们的设备,这对惠普、戴尔等整机生产商是有利的。这些制造商向英特尔这样的半导体公司及希捷等外设制造商订购新的芯片和外设,由此产生的利润进一步推动了相关公司股价的上涨。随后,半导体和外设公司将部分利润重新投入研发,按照摩尔定律的步伐提升硬件性能,并为微软的下一轮软件更新做好准备。如果微软的开发进度慢于预期,或者软件业绩不佳,那么投资者可能会避免购入英特尔等公司的股票。对于消费者而言,购买一台功能良好的计算机的成本与10年前大致相同,如果不是因为“中国制造”带来的成本降低效应,考虑到通货膨胀,价格实际上可能略有上涨。虽然如此,微软和其他软件开发商在利用大部分硬件性能提升的同时,也为消费者带来了一些新功能和更佳的体验。安迪—比尔定律将计算机和手机等原本属于耐用消费品的商品转变为消耗品,进而激发了整个IT行业的快速发展。
6.苹果推出智能手机与移动互联网时代的革命性产品
随着个人计算机技术的不断成熟,我们见证了其性能的显著提升和体积的大幅缩减,使得便携性成为设计新方向。20世纪90年代初期,微处理器技术的进步、存储芯片容量的增大,以及液晶显示屏的改进,共同促成了经济实惠的翻盖式膝上计算机的诞生。IBM、康柏等制造商的产品逐年变得更轻薄、功能更全面。2008年1月16日,在国际消费电子展落幕不久后,比尔·盖茨宣布退出微软。在同一天的MacWorld大会上,乔布斯戏剧性地从标准信封中抽出了MacBook Air。这款设备摒弃了CD驱动器和许多传统端口,引入了多点触控板和固态硬盘,同时配备了USB 2.0接口、微型DVI接口和耳机插孔。其极简设计和精湛工艺让人惊叹,预示着笔记本计算机新时代的到来。那一幕,也成了苹果乃至整个计算机行业的历史性时刻。
随后,iOS和Android的出现彻底改变了移动操作系统的格局。2007年,iPhone面市,以其革新性的用户体验和充满活力的应用生态系统迅速占据手机市场的中心舞台。谷歌于2005年收购了Android公司并保留了安卓品牌,其开源和无版权费用的特性吸引了大量企业和用户转向Android平台。进入新世纪,不仅计算硬件经历了革命性的发展,软件领域的变革同样令人瞩目。2004年,“Web 2.0”概念深入人心,用户不仅是网站内容的浏览者,也成为内容的创造者。社交网络成为Web 2.0中改变生活的最大力量,人们每天花费数小时在社交网络上。众多社交网络公司相继崛起,如Friendster、MySpace、脸书、推特、微信、抖音等。截至2023年第四季度,脸书的月活跃用户(MAU)量达到了30.65亿,成为全球最活跃的社交网络平台之一。
7.算力下沉带来社会经济生活的多维变革
随着小型化计算设备和移动智能技术的飞速发展,算力资源已广泛渗透至我们社会与经济生活的方方面面。在移动互联网时代背景下,移动设备的广泛普及配合先进的网络技术,实现了算力的空前扩散与升级。如今,计算能力不再局限于庞大的主机,而是转移到了个体手中的微型化、多功能设备上,消除了地理与时间的约束。这种算力向广大个体转移的现象,不仅为我们的日常生活与工作带来了极大的便利,而且加速了数字化转型的步伐,对社会经济结构产生了重大影响。
普适算力得以通过如卫星计算机、智能手机、平板计算机等高效智能设备,提供给用户更加智能化、高效率和便捷的体验,满足了人们对科技与生活紧密结合的渴望。这些智能设备拥有高级计算和数据处理能力,能迅速完成各种操作,运行多样的应用程序及游戏,并实现智能排序、推荐等功能,轻松应对复杂的计算任务和图像处理,从而显著提升了用户体验。例如,在摄影方面,智能高动态光照渲染技术和美颜功能借助分布式算力,分别实现了在不同曝光条件下的照片合成,以及基于面部识别的皮肤和色彩优化,使照片看起来更加美观自然。
此外,普适算力的发展同国家的市场规模及人口规模紧密相连,它加速了与不同行业应用场景的深度整合。在医疗领域内,算力不仅提高了基层医疗机构医学影像的处理能力,增加了诊断的准确性和效率,还缓解了大型医院的就医压力,并为个人提供了更多样化的健康管理选项,使人们能够更加主动地关注和管理自身健康。在金融领域,算力的应用极大地提升了金融服务的可获取性与效率,推动了包容型金融的进步。移动支付、在线投资等新兴金融服务的兴起,为小微型企业和个人投资者开辟了更为便捷的融资和投资途径。
(三)算力3.0:基础设施算力(21世纪10年代)
随着21世纪的到来,计算能力经历了一次重大转型,这一转型的核心是云计算技术的兴起。云计算代表了亚马逊、谷歌、阿里巴巴等互联网巨擘在分布式计算领域的创新和探索。其核心理念在于将分散的计算资源进行集成和管理,以此提供更加可靠、高效和成本效益的算力服务。随着计算能力的云端化,数据中心演变成了算力的主要平台,标志着计算能力从分布式逐渐过渡到集中式基础设施。这促进了人类计算能力规模的飞速增长,开启了一个新的时代。
1.云计算以集中式算力服务软件产业开拓边界
云计算的历史可追溯到1965年,当时“虚拟化”概念的出现,为云计算的发展奠定了基础。然而,由于技术限制,虚拟化和云计算仅停留在概念和畅想阶段。进入20世纪90年代,随着计算机技术的迅猛发展和以思科为代表的公司崛起,云计算逐渐崭露头角。
在云计算兴起之前,大多数企业依赖于自行采购硬件和租用互联网数据中心机房来构建互联网技术基础设施。这涉及服务器、机柜、带宽、交换机、网络配置、软件安装和虚拟化等底层事项,通常需要专业人士负责,且调整周期较长。许多研发负责人都有过等待服务器到位的经历,这凸显了当时互联网技术基础设施构建方式的局限性。随着互联网的快速发展,用户方便快捷地使用网络服务成为迫切需求。同时,大型公司开始投入研发大型计算能力的技术,为用户提供更强大的计算处理服务。这些技术和服务的发展为云计算的兴起奠定了基础,推动了云计算的快速发展和广泛应用。
2006年在科技历史长河中熠熠生辉,因为在这一年,云计算的概念首次被提及并引起了业界的广泛关注。在那一年的搜索引擎大会(SES San Jose 2006)上,谷歌首席执行官(Chief Executive Officer,CEO)埃里克·施密特(Eric Schmidt)站在台上,他的声音洪亮而清晰,向全世界宣告了“云计算”(Cloud Computing)的到来。同一时期,亚马逊公司凭借前瞻性的市场洞察,推出了基础设施即服务平台AWS。尽管当时甲骨文公司的掌门人拉里·埃里森(Larry Ellison)在社交软件上对此冷嘲热讽,认为这只是一时的潮流,然而仅仅四年后,他也不得不宣布加入云战略的大军,向这片新兴市场进军。云计算行业的开端其实并不容易精确定义。虽然2006年标志着“云计算”概念的诞生,但整个行业真正的繁荣和兴起要等到2008年。这一年,国内云计算的标杆阿里云也开始筹办和起步,预示着中国在这一领域的崛起和贡献。
亚马逊的AWS服务凭借其先发优势和持续创新,在云计算市场中脱颖而出。他们不仅成功地把旗帜插上了新大陆,还初步构建了涵盖基础设施即服务、平台即服务的完整产品体系,从而确立了在全球云服务领域的领导地位。2009年,当金融危机席卷全球时,美国Salesforce公司却传来了好消息。他们公布的2008财年年度报告显示,公司的云服务收入超过了10亿美元。这一数字不仅证明了云计算的商业价值和市场潜力,更让云计算成为计算机领域中最受瞩目的话题之一。各大互联网公司纷纷将云计算纳入发展研究的重要方向,以期在新一轮的技术变革中抢占先机。回顾这段历史,我们可以清晰地看到云计算从概念到实践的演变过程,以及各大公司在这一领域中的竞争与合作。从谷歌提出云计算概念,到亚马逊推出AWS服务,再到Salesforce公司云服务收入突破10亿美元,每一步都见证了云计算行业的快速发展和巨大变革。而未来,随着技术的不断进步和市场的不断扩大,云计算将继续引领着科技行业的发展方向。
在随后的几年里,全球领先的科技供应商纷纷涌入云市场,形成了IBM、VMWare、微软和AT&T等强大的第二梯队。微软在2010年左右加入这场竞争,但其掌门人史蒂夫·鲍尔默(Steve Ballmer)的反应相对迟缓。然而,谷歌在2011年果断转型并推出了GCP(Google Cloud Platform),正式加入了公有云市场的激烈角逐。随着竞争的加剧,2016—2017年成了云市场的关键时刻。微软云服务与企业部的执行副总裁及GCP的客户总裁纷纷表示,“价格战”已不再是竞争的核心,取而代之的是“价值战”。这意味着,各大供应商开始将焦点从单纯的价格优势转向为客户提供更高的价值和更优质的服务。
与此同时,为了巩固自身地位并扩大市场份额,大型科技公司开始鲸吞小型势力。在经济动荡的2018年,云领域见证了众多的合并与收购。IBM以高达340亿美元的价格收购了红帽(Red Hat),其CEO罗睿兰(Ginni Rometty)宣称这一收购将打破现有格局,彻底改变云市场的面貌。微软则以75亿美元的价格收购了GitHub,将其开源优势与自身的基础设施即服务领域相结合。Salesforce则斥资65亿美元收购了云服务公司MuleSoft,后者拥有1200多家客户,其中45%是全球500强企业。尽管亚马逊在市场份额上仍保持着领先地位,但随着竞争对手的不断壮大和招兵买马,其优势逐渐缩小。各大供应商之间的竞争愈发激烈,云市场迎来一个充满变革和机遇的新时代。
2.集约化基础设施算力将逐步成为算力资源统筹调度枢纽
信息时代的未来充满了无限的可能性和机遇,其中,云计算、大数据、人工智能、物联网、量子计算、量子通信等技术将发挥至关重要的作用。作为现阶段信息技术的基石,云计算、大数据和物联网已经深入应用到各个行业和领域,成为推动数字化转型和促进经济发展的重要力量。随着云计算的日益成熟,它正在变得像水、电一样自然而然,深入到各个领域的日常运营中。2023年,云服务已经成为商业主流,以软件、服务和应用为核心的厂商正在掠夺更多的市场份额,成为互联网市场的主导力量。这一变革不仅推动了新一轮的互联网技术革新,更是让我们站在了时代变革的转折点上,迎接5G时代下万物互联的星辰大海。
随着云计算算力需求的持续攀升,集约化基础设施算力成为算力资源统筹调度的重要枢纽。这种集约化的算力基础设施通过提供高效、可靠和灵活的算力服务,满足了各种行业和领域的需求。其优势在于可以提供大规模、高效率的算力资源,并根据不同需求进行灵活调度和分配;同时,通过技术手段实现算力的监测、管理和优化,确保算力资源的充分利用和高效运行。这种集约化基础设施算力的应用将大大提高算力资源的利用效率,减少资源浪费,降低使用成本。
随着技术的不断进步和应用的不断深化,集约化基础设施算力将在更多领域得到应用和推广。在人工智能领域,集约化基础设施算力为人工智能模型训练提供强大支持,推动人工智能技术的快速发展和应用。在金融领域,集约化基础设施算力为金融交易提供高速、高效的算力服务,提高金融交易的效率和安全性。在医疗领域,集约化基础设施算力为医疗影像处理提供强大支持,提高医疗诊断的准确性和效率。在此背景下,云计算、大数据、物联网等领域也将加速蓬勃发展,为数字化转型和促进经济发展做出更大贡献。我们期待着这些技术不断创新和突破,共同推动信息时代的未来发展。
(四)算力4.0:人工智能和量子计算开启新型算力时代
人工智能(Artificial Intelligence,AI)确实已成为当今时代的一项革命性技术,它不仅仅是对人类智能的简单模拟,更是对人类智能的延伸和扩展。作为计算机科学的一个分支,AI专注于开发和应用能够模拟、学习、推理、感知、理解和交流的系统,从而实现机器的智能行为。被誉为“人工智能之父”的约翰·麦卡锡在1956年首次提出“人工智能”这一术语时,他将其定义为“制造智能机器的科学与工程,特别是智能计算机程序”。这一定义捕捉到了AI的核心目标,即构建能够像人类一样思考、学习和解决问题的机器。自AI概念提出以来,这项技术已经经历了70多年的发展。在这段时间里,AI技术经历了多次起伏,但随着计算能力的增强、算法的优化以及数据的爆炸式增长,AI技术得以快速发展和迭代。特别是近年来,得益于深度学习、强化学习等先进算法的发展,AI在语音识别、图像识别、自然语言处理等领域取得了突破性的进展。AI的应用已经渗透到我们生活的方方面面,从智能手机、智能家居到自动驾驶汽车、医疗诊断等,都离不开AI技术的支持。随着技术的不断进步,AI将在未来发挥更加重要的作用,在算力、算法、算据三大要素螺旋式推动下快速迭代发展。
1.人工智能的“三起两落”
自阿兰·图灵在1950年提出“机器能思考吗”这一深刻命题以来,人工智能的概念与可能性便激发了全球范围内科学家与研究者的广泛兴趣与深入探索。随后,1956年在美国达特茅斯学院举办的会议上,人工智能这一术语首次被明确提出,这次会议亦被公认为人工智能学科的诞生之地。在人工智能的发展历程中,它经历了数次兴衰的周期。每一次技术的兴起,都伴随着底层算法的重大突破,如神经网络、深度学习等技术的发展,为人工智能提供了新的动力与可能性。然而,历次技术的衰落,又常常受限于当时数据处理的能力和计算资源的局限。在这些阶段,尽管人工智能在理论上取得了显著的进展,但由于技术成熟度和商业可行性的不足,其实际应用和落地常常受到阻碍,发展因此一度停滞。尽管如此,随着技术的不断进步,特别是近年来计算能力的提升、数据资源的丰富及算法的优化,人工智能已经开始在多个领域展现出强大的应用潜力。无论是智能语音识别、自然语言处理,还是图像识别、自动驾驶等领域,人工智能都取得了令人瞩目的成就。人工智能发展历程见图1-6和图1-7。

图1-6 人工智能发展历程
(内容来源:赛迪智库整理,2023年11月)
早期萌芽与首次寒冬(20世纪50—80年代):这一时期,人工智能经历了从概念提出到初步应用的过程,同时也暴露出了一些限制和挑战。1956年,奥利弗·萨尔夫瑞德研制出第一个字符识别程序,这标志着模式识别这一新领域的开辟。随后,约翰·麦卡锡提出了“纳谏者”程序构想,将逻辑学引入了AI研究界。这一时期,搜索式推理成为许多人工智能程序使用的基本算法。1962年,世界上首款工业机器人“尤尼梅特”在通用汽车公司的装配线上服役,这显示了人工智能在工业领域的初步应用。1966年,麻省理工学院发布了世界上第一个聊天机器人Eliza,“她”能够通过脚本理解简单的自然语言,并产生类似人类的互动。同期,美国斯坦福国际研究所研制了移动式机器人Shakey,并为控制机器人开发了STRIPS系统。Shakey是首台采用了人工智能技术的移动机器人,它的出现引发了人工智能早期工作的大爆炸。
然而,受限于计算能力的严重不足,人工智能迎来了首个寒冬。早期的人工智能大多是通过固定指令来执行特定问题的,并不具备真正的学习和思考能力。当问题变得复杂时,人工智能程序往往无法应对。在第一波人工智能浪潮中,占据主导地位的思想是逻辑主义,即引入符号方法进行语义处理、将待研究和解决的问题转化为可以用计算机处理的符号,运用逻辑公式进行解答,从而实现人机互动。然而,由于算力性能及可获取的数据量的限制,当时的人工智能只能完成玩具式的简单任务,仅在定理证明等特定领域取得了成功。这一时期的成就虽然有限,但为人工智能后续的发展奠定了重要的基础。随着技术的不断进步和算力的提升,人工智能有望在更多领域取得突破性的进展。

图1-7 人工智能发展历程
(内容来源:赛迪智库整理,2023年11月)
沉淀积累与二次寒冬(20世纪80—90年代):这一时期,虽然有一些重要的进展和突破,但人工智能的发展也面临着一些挑战和限制。20世纪70年代初,斯坦福大学研制出了MYCIN系统,这是人工智能的早期模拟决策系统之一。该系统用于严重感染时的感染诊断以及抗生素推荐,显示了人工智能在医学领域的初步应用。随后,20世纪80年代,一类名为“专家系统”的人工智能程序开始被全世界的公司广泛采纳。这些系统基于知识库和知识工程,通过模拟专家的决策过程来解决复杂的问题。
然而,研究人员很快发现专家系统的通用性较差,没有与概率论、神经网络等其他技术进行有效整合,因此不具备自学能力。此外,随着规则数量的增加,维护专家系统变得越来越复杂。尽管知识导入使得计算机在某些方面变得更聪明,但知识的描述和输入却变得越来越复杂和困难。人们发现,知识的输入是无穷无尽的,而如何有效地表示和利用这些知识成为一项巨大的挑战。因此,1995年左右,人工智能研究再次迎来了寒冬。这一时期的研究虽然积累了一些宝贵的经验和知识,但也暴露出了一些关键的问题和挑战。随着技术的不断进步和研究的深入,人工智能领域逐渐走出寒冬,并迎来新的发展机遇。
起飞破圈(21世纪以来):自21世纪以来,人工智能领域迎来了飞速发展,这主要得益于计算机算力性能的不断提升和先进算法的涌现。20世纪90年代,随着摩尔定律的推进,计算机算力性能不断突破,为人工智能的发展奠定了坚实的基础。1997年,IBM的“深蓝”计算机战胜国际象棋世界冠军卡斯帕罗夫,这一里程碑式的事件展示了人工智能在复杂决策领域的潜力。然而,人工智能产业真正的爆发源自2012年,当时AlexNet模型的问世开启了卷积神经网络在图像识别领域的广泛应用。仅仅过了三年,机器识别图像的准确率就首次超过了人类(错误率低于4%),这一突破开启了计算机视觉技术在各行各业的应用,极大地推动了人工智能的创新周期。
2016年,AlphaGo打败人类顶尖棋手李世石,再次证明了人工智能在复杂决策领域的强大能力,同时也开启了人工智能发展的新纪元。此后,人工智能技术在各个领域都取得了显著的进展,包括自然语言处理、语音识别、推荐系统等。值得一提的是,2017年Google Brain团队提出的Transformer架构,为自然语言学习和计算机视觉领域奠定了主流算法基础。这一架构的提出极大地推动了人工智能技术的发展,成为人工智能领域的重要里程碑。
自2018年开始,大模型迅速流行,并成为人工智能发展的重要趋势。随着模型参数的指数级增长和计算能力的高速提升,模型的精准度和泛化能力不断提高,使得人工智能技术在更多领域得到了广泛应用。当前,人工智能已经进入快速发展新阶段,在医疗、教育、金融、交通等各个领域的应用都在不断拓展和深化。未来,随着技术的不断进步和应用场景的不断拓展,人工智能有望为人类社会带来更加深远的变革和影响。
2.在算力、算法、算据螺旋式推动下,人工智能开启未来“普慧”算力时代
自2022年年底以来,美国人工智能公司OpenAI发布的聊天机器人ChatGPT引发了全球范围内的关注。高度的自然语言理解能力、高效的信息获取能力以及智能化应答能力,使ChatGPT迅速成为公众关注的焦点。这一成就的背后,是大模型技术以海量高质量数据和超强算力为基础所实现的“大力出奇迹”。大模型技术所展示出的“无师自通”的智能“涌现”能力和一定的通用性,不仅颠覆了现有的内容生产模式,还创造了具有独特价值的内容,为各行业应用创新提供了强大的推动力。在超强算力、巨量算法、海量数据的共同支撑下,人工智能技术创新和产业发展正在进入快车道,标志着算力4.0时代的开启。
然而,随着摩尔定律逐渐趋近其物理极限,算力危机显现。在这一背景下,量子计算作为一种颠覆性的计算体系,为我们提供了突破当前经典计算机物理局限的可能性。量子计算有望使算力获得指数级别的增长,因此被看作是下一个算力时代的“星辰大海”。与此同时,人工智能大模型技术正在以惊人的速度演进,英伟达等科技巨头通过算法开源构建生态和技术护城河,使得“马太效应”在人工智能领域愈发凸显。大模型的迭代反馈机制决定了在这一领域中,先发优势至关重要。因此,在大模型时代,强者愈强,对于技术的投入和攻关显得尤为重要。
为了应对这一挑战,我们需要聚焦技术层面,以技术攻关为目的,打造具有代表性的通用基础大模型。同时,我们还需要关注垂直领域的问题,以产品开发为目的,在通用大模型的基础上训练行业专用模型,以推动行业应用的深入发展。在这一过程中,确保数据安全和隐私保护同样不可忽视。人工智能大模型技术的发展为我们带来了前所未有的机遇和挑战。我们需要继续加大投入和研发力度,推动技术不断创新和突破,以应对算力危机和市场竞争的双重压力。同时,我们还需要关注技术应用的伦理和社会责任问题,确保人工智能技术的发展能够真正造福人类社会。