当前位置:首页 > 数码 > AI-大模型成长进入关键期-解码-背后的算力战争 (ai大模型排行榜)

AI-大模型成长进入关键期-解码-背后的算力战争 (ai大模型排行榜)

admin4周前 (04-26)数码17

距离大模型横空出世已经过去一年有余,在大模型的浪潮下,各大科技企业争先恐后地推出了自家的大模型产品。与此同时,各行业企业也对大模型保持着高度关注,一些其他行业的企业也纷纷跨界布局大模型相关产品。面对着全球都在追逐的大模型浪潮,这也使其对算力需求无处不在,但算力供给相对有限,缺口或许将影响人工智能的发展。未来,算力问题也成为各行业实现人工智能普惠的最大难点。那么,这一困局如何破解呢?


大模型:行业革命的新机遇

大模型在流行《北京市人工智能行业大模型创新应用白皮书(2023年)》中显示,截至2023年10月,我国10亿参数规模以上的大模型厂商及高校院所共计254家,分布于20余个省市/地区。商业咨询机构爱分析的报告称,2023年中国大模型市场规模约为50亿元,预计到2024年这一数字将达到120亿元。

显然,2024年,大模型将继续其火热的现象,在2023年形成的百模大战竞争将会进一步白热化,进一步渗透到各行各业的数字化进程中。

我们看到,大模型真正的价值在于行业侧的应用落地,就目前业内对大模型的认知来看,绝大多数人对大模型相关产品的发展观点类似于互联网,消费级只是开始,产业级价值更大。但如同互联网一样,消费互联网发展迅速,甚至已经接近天花板;产业互联网也仅是近年来在政策引导,数字技术驱动下,逐步发展提速。

为什么大模型技术是产业界的一次革命呢?

一直以来,AI在产业化的进程当中,发展得非常慢。那么在大模型的技术出来后,我们认为它来到了一个转折点。需要了解的是,大模型不仅是一个聊天机器人,也不是像抖音、快手这样让人消磨时间的娱乐软件。它是一个提高生产力的工具,不仅仅是公司间竞争的利器,更重要的是,它像发电厂一样,把以前很难直接使用的大数据从石油状态加工成了电。而电是通用的,就能赋能百行千业,就能够在实体经济转型数字化、智能化的过程中发挥重要的作用。据有关机构预测,未来三年,在生产经营环节应用AI大模型的企业占比将提高到80%以上。

为了进一步释放AI的效果,我们需要推动产学研用的深度融合,强化高价值的数据、高性能的算力、高质量的算法和协同创新,加快关键技术突破和产业应用,让AI不仅会写文章做PPT,更能够实际应用于各个领域。

算力不足:大模型发展的瓶颈

随着大模型的不断发展,我们也面临着一些挑战。比如,目前的大模型是万事通,但不是行业通。如果你真的用过大模型,在震惊完它什么都会之后,你会发现一旦问它一些行业的问题,它就会说很多概念性的正确废话。也就是说,大模型对行业理解的深度还远远不足。

大模型无法保证生成的内容完全可信,或者说大模型能产生知识模糊、制造知识幻觉。比如它会输出贾宝玉打虎林黛玉三打白骨精等不符合事实的信息。

我们认为,相比于AI大模型自身发展的问题,算力不足的问题更显突出。由于大模型的规模庞大,需要巨大的计算资源来进行训练和推理。但现有的计算基础设施还无法满足这一需求,这导致了训练时间过长、推理速度缓慢等问题。这不仅限制了大模型的应用范围,也制约了我们的创新步伐。

AI时代,算力需求增加。我们看到,GPT-3实际上是生成语言生成模型,他参数量大概1750亿,而随着和未来GPT-5的推出这个发展趋势还会延续。比如,对标GPT-3和GPT-4模型,GPT-3模型训练使用了128台英伟达A100服务器(训练34天),对应640P算力,GPT-4模型训练使用了3125台英伟达A100服务器(训练90—100天),对应15625P算力。从GPT-3至GPT-4模型参数规模增加约10倍,但用于训练的GPU数量增加了近24倍(且不考虑模型训练时间的增长)。

从全球算力的表现状态分析来看,从22到23年经历了疫情,数字经济其实在这几年增长还比较快。尤其数字化优先成为企业重要的战略发展途径。所以算力已经成为整个行业里面科技的更新和迭代的一个重要支撑。

未来算力发展的趋势

众所周知,人工智能时代,算力作为人工智能发展的基石,需求呈现爆发式增长。算力基础设施建设成为“新基建”的重要支撑,国家也对此给予高度重视。

未来算力发展的趋势主要包括以下几个方面:

  • 异构算力:随着人工智能应用的多样化,需要使用不同的计算架构来满足不同的计算需求。异构算力将成为未来算力发展的趋势,以满足人工智能多样化计算需求。
  • 云边协同:随着边缘计算的兴起,云边协同成为未来算力发展的趋势,在云中心进行集中训练,在边缘端进行推理部署,以降低时延,提高效率。
  • 绿色算力:随着人工智能应用的普及,算力消耗不断增加, 绿色算力成为未来算力发展的趋势,通过采用节能芯片、优化算法、构建绿色数据中心等方式,降低算力消耗,实现可持续发展。
  • 国产算力:为了保障国家信息安全,国产算力成为未来算力发展的趋势,通过发展国产芯片、服务器、操作系统等关键技术,增强我国算力自主可控能力。

破解算力困局的对策建议

针对大模型发展中面临的算力困局,提出以下对策建议:

  • 加大算力基础设施建设:加快数据中心建设,完善网络基础设施,为大模型训练和推理提供充足的算力支持。
  • 推进算力共享和协同创新:建立算力共享平台,促进算力资源的合理配置和高效利用,鼓励不同行业和机构共同投资建设算力基础设施。
  • 发展国产算力产业:支持国产算力芯片、服务器、操作系统等关键技术的研发和产业化,增强我国算力自主可控能力。
  • 优化大模型训练算法:通过算法优化、模型压缩等技术手段,降低大模型训练的算力需求,提高训练效率。
  • 探索新型算力架构:研究和探索适合大模型训练和推理的新型算力架构,如异构计算、云边协同等,以提高算力利用率。

通过采取以上措施,我们可以有效破解算力困局,为大模型的发展提供坚实的基础,推动大模型在各行各业的广泛应用,从而加速人工智能产业的发展。


自动驾驶革命:解密端到端背后的数据、算力和AI奇迹

作者|毫末智行数据智能科学家 贺翔

编辑|祥威

最近,特斯拉FSD V12的发布引发了业界对端到端自动驾驶的热议,业界纷纷猜测FSD V12的强大能力是如何训练出来的。从马斯克的测试视频可以大致归纳一下FSD V12系统的一些核心特征:

这些特征如此炫酷,引领着自动驾驶技术风向。那么究竟什么是端到端自动驾驶,如何实现端到端自动驾驶呢?笔者作为自动驾驶领域的从业人员,将从实战应用的角度出发,探讨端到端如何落地。

一、自动驾驶的传统做法

从第一性原理来讲,自动驾驶就是一个序列到序列的映射过程,输入的是一个传感器信号序列,可能包括多个摄像头采集到的视频、Lidar采集到的点云、以及GPS、IMU等各类信息,输出的是一个驾驶决策序列,例如可以是驾驶动作序列、也可以输出轨迹序列再转为操作动作。

这个过程与大部分AI任务基本一致,这种映射过程就相当于一个函数 y = f(x)。但是实现这种函数往往难度比较大、任务极其复杂,对于这种复杂的任务,一般可以通过2类方式来解决:

传统分治法

分治法是将自动驾驶任务进行切分,定义多个子任务,每个子任务负责解决驾驶过程的某些特定问题,再进行系统集成来完成整个自动驾驶任务。传统上,这些子任务包括:

以网络的Apollo为例,整体系统架构如图所示,可见,要完成复杂的自动驾驶任务,需要先完成大量相对简单的子任务,这些子任务可以先进行独立开发测试,然后再将这些子任务集成到一个系统里进行验证。这种方式通过把复杂的任务切分、简化、分而治之,大幅度降低了系统开发难度,同时可以针对每个模块都的输入输出进行白盒化分析,系统具备很好的可解释性,这对自动驾驶而言至关重要,一旦发生事故,必须要进行深入分析,找到原因。

但是,这种方式也有明显的弊端,例如模块太多、集成困难、错误累加等等,同时由于系统设计时引入了太多的人为先验经验,导致自动驾驶能力上限比较低,系统的泛化性比较差,对于没有见过的场景往往无法处理。

二、「端到端」技术兴起

相比之下,端到端自动驾驶不进行任务切分,希望直接输入传感器数据、输出驾驶决策(动作或者轨迹),从而抛弃传统自动驾驶里的感知、预测、规划、控制等各类子任务。这种方式有明显的优势,例如:

一个典型的端到端自动驾驶系统如图所示:

输入:大部分自动驾驶汽车都装载了相机、Lidar、毫米波雷达等各类传感器,采集这些传感器的数据,输入深度学习系统即可。

输出: 可以直接输出转向角、油门、刹车等控制信号,也可以先输出轨迹再结合不同的车辆动力学模型,将轨迹转为转向角、油门、刹车等控制信号。

可见,端到端自动驾驶系统就像人类的大脑,通过眼睛、耳朵等传感器接受信息,经过大脑处理后,下达指令给手脚执行命令,整个系统简单的都没啥可介绍的……。但是这种简单也隐藏了巨大的风险,例如可解释性很差,无法像传统自动驾驶任务一样将中间结果拿出来进行分析;对数据的要求非常高,需要高质量的、分布多样的、海量的训练数据,否则AI就会实现废品进废品出。

与传统的自动驾驶方式对比可见,同样的输入、同样的输出,传统自动驾驶包含多个任务(多个模块),但是端到端只有一个任务。此处容易产生一个误区,即认为传统的自动驾驶是多模块的、端到端自动驾驶是单模块的,把分模块与分任务的概念搞混了。

传统的自动驾驶是分任务的,必然是多个模块。端到端自动驾驶可以用单模块来实现,当然也可以用多模块来实现,其区别在于是否端到端训练。分任务系统是每个任务独立训练、独立优化、独立测评的,而端到端系统是把所有模块看成一个整体进行端到端训练、端到端测评的。

例如2023年CVPR best paper提出的UniAD就是一种分模块端到端训练方式,这种方式通过端到端训练避免了多任务训练的融合难题实现全局最优,又保留了分模块系统的优势、可以抛出中间模块的结果进行白盒化分析,反而更具灵活性对部署也更友好,如图所示:

分任务的自动驾驶系统更像model centric系统,开发者通过不断优化各个模型来提升各个任务的效果。而端到端自动驾驶则更像data centric系统,通过对数据的调优来提升系统效果。

早年,由于自动驾驶积累的数据还非常少,端到端系统的效果往往比较差。最近几年,随着带高阶辅助驾驶功能的量产车大规模落地,通过海量量产车可以采集到丰富的驾驶数据,覆盖各类场景,再加上最近几年AI算力的蓬勃发展,端到端自动驾驶在海量数据、海量算力的加持下,取得了突破性进展。

以特斯拉为例,通过遍布全球的几百万辆量产车,可以采集到足够丰富、足够多样的数据,再从中选出优质数据,在云端使用数万张GPU、以及自研的DOJO进行训练和验证,使得端到端自动驾驶能够从paper变成product。

到 2023 年初,特斯拉就声称已经分析了从特斯拉客户的汽车中收集的 1000 万个视频片段(clips),特斯拉判断完成一个端到端自动驾驶的训练至少需要100万个、分布多样、高质量的clips才能正常工作。

特斯拉通过分布在全球的几百万量产车,基于影子模式,每当自动驾驶决策与人类司机不一致时,就会采集并回传一个clip,已经累积了200P以上的数据,不管是数据规模、数据分布还是数据质量上都遥遥领先。为了能在云端处理这些数据,当前特斯拉拥有近10万张A100,位居全球top5,预计到今年底会拥有100EFlops的算力,并针对自动驾驶自研了Dojo,在算力上同样遥遥领先。

在2022年,毫末智行也开始了对端到端自动驾驶以及自动驾驶大模型的探索,走过了一条从看图说话到完型填空到写小作文的道路。

最早,毫末将端到端自动驾驶简单地定义为一个看图说话任务,希望输入一串图片、输出一串驾驶决策,这种方式与机器翻译输入一串中文输出一串英文非常类似,所以可以选择端到端的序列模型,通过对输入图片进行编码,再解码输出驾驶决策。

解码

但是训练之后,发现难以找到足够的数据来训练模型,因为手里采集到的数据绝大部分驾驶行为都是雷同的,例如大部分都是直行,能用的数据不到2%。虽然项目效果未达预期,但是训练过程发现端到端训练需要消耗大量的算力,于是又开始着手解决算力问题,并且在2022年底跟火山引擎合作落地了业界领先的智算中心,等2023年大模型爆发再加上美国的制裁,算力市场已经一卡难求了,这也算一个意外收获。

三、端到端自动驾驶的挑战

从特斯拉的开发经验来看,端到端自动驾驶真不是一般的企业能玩的,其所需的数据规模、算力规模远远超出国内企业的承受能力。除了成本高昂,端到端自动驾驶的技术难度也非常高,想要从实现从paper到product落地,相当于跨越从二踢脚到登月的难度。

端到端训练首先需要解决数据问题。早年自动驾驶企业大多依赖采集车采集数据,这种数据是不真实的、分布有偏的、低质量的,只能做个demo,难以进行大规模端到端训练。最近几年,随着量产车的规模化落地,业界很多公司都开始转向采用量产车通过影子模式采集数据,但这种模式依然面临艰巨的挑战。首先是采集策略问题,即如何平衡数据的长尾问题(有效性)和数据的规模问题(成本),如果采集策略比较宽松,我们往往发现采集回来的数据大部分是废品数据,根本没有使用价值,如果采集策略过于严格,又担心丢失大量有价值的数据。其次是数据的质量问题,如何定义数据质量是个艰巨的产品问题,如何精准地挑选出高质量的数据又是一个复杂的技术问题。然后是数据分布问题,如何从海量clips中提取有效的特征、如何统计数据的分布、应该考虑哪些维度,都需要大量的工作。对大部分自动驾驶企业,还会面临严重的数据泛化问题,因为不同的车型传感器配置差异巨大,采集的数据往往难以复用,而国内车企普遍车型众多,最后很可能是采了一堆数据放在那没法使用,看起来是数据资产,其实都是存储成本。毫不夸张地说,数据会占据端到端自动驾驶开发中80%以上的研发成本。

在美国多轮制裁之下,国内采购GPU难上加难,大部分企业手里拥有的算力资源非常有限,拥有超过1000张A100的企业寥寥无几,甚至全国加起来都没有特斯拉一家企业多。如何在算力受限的情况下,进行端到端自动驾驶的研发,是一个值得深入讨论的问题。

即使有了数据、有了算力,如何设计合适的自动驾驶算法来进行端到端训练,依然没有统一的答案。业界做过很多的尝试,包括模仿学习、强化学习等等。模仿学习是模仿人类专家的行为,从中学习最优策略,例如可以挑选一批高质量的驾驶行为数据来训练模型。强化学习则是通过与环境的交互和奖罚不断试错进行学习,可以设定一个奖励机制,例如更少的碰撞、更高的效率等,在仿真环境里进行大规模试错。

端到端自动驾驶的评估也是一个十分困难的问题。自动驾驶测评分为2类:闭环评估和开环评估,主要区别在于闭环评估可以接受到反馈信号从而形成反馈闭环。开环评估可以对不同的任务通过输入输出来进行评估,例如单独评估感知、预测、规划的效果,并与真实数据或者标注数据进行对比,传统的自动驾驶可以通过开环评估迭代。而端到端自动驾驶则难以进行开环评估,甚至也有人认为开环评估的端到端自动驾驶根本没有意义。闭环评估一般通过在仿真引擎构建的虚拟世界里建立反馈闭环,但是仿真不真是业界一大难题,很难推广到现实世界中的各种场景。例如在接近大货车时,即使自动驾驶能完美地通过,乘客往往也会有严重的恐慌心理,这种心理很难模拟。而如果采用实车闭环测评,一方面测评成本太高,另一方面危险场景的hard case使用实车测评危险太大。

如前文所述,可解释性是端到端自动驾驶的一个弱点。尤其是对于单模块端到端自动驾驶模型,实现可解释性极为困难,虽然可以将注意力权重可视化来提供部分解释性,但可靠性和实用性仍然十分有限,难以对事故、售后定责等问题给出有效的证据。对于分模块的端到端系统,虽然可以将中间结果抛出以提供更多的信息,但是这种信息往往是神经网络的隐层特征,跟直观的、真实的证据链还是有一定的差距,难以跟客户解释清楚。

终于在云端完成了端到端自动驾驶的训练了,仿真效果也很好,最后是如何把这套系统搬到车上并且高效的运行。云端系统为了处理数以百万计的clips,一般都采用复杂的网络结构、巨大的网络参数(高达10亿甚至更多),再用成千上万张A100进行训练。但是车端往往只有非常低的算力、非常低的功耗,却要求极高的帧率(每秒处理的图片数量)、极低的延迟,这导致端到端自动驾驶上车十分困难,只有经过大规模的量化剪枝等提效手段之后才有可能。

这些最难的部分,特斯拉还没公开谈过是如何解决的。今年的特斯拉AI Day,大家可以期待一下特斯拉的端到端如何破解以上难题。在这之前,笔者谈一下毫末是如何做的。

四、自动驾驶端到端的探索

为了降低训练难度,毫末考虑将端到端大模型进行拆分,分为2个阶段,一个阶段解决感知问题(看懂世界),一个阶段解决认知问题(驾驶决策),这样做的好处有2个:

在感知阶段,主要任务是把视觉信号转为感知结果,可以利用海量的带高清视频的采集数据和量产车回传的各类corner case视频来训练。而在认知阶段,则根据感知结果来进行驾驶决策,不需要输入视频,只需要输入感知结果和驾驶行为即可,这种数据可以通过量产车进行大规模定向采集。通过这种拆解,既降低了任务的难度,又能充分利用不同的数据。

对于感知大模型,毫末从第一性原理出发,认为要实现端到端自动驾驶,感知就必须跟人类一样,同时具备识别二维纹理和三维结构、认识万物这三个条件,并且最好是纯视觉的。基于这样的原则,我们建立了自监督感知大模型,将车载摄像头的二维视频数据进行编码,然后通过NeRF渲染来预测视频的下一帧图像,构建了4D特征空间。再通过多模态技术将视觉信号与文本信号对齐,实现识别万物。

对于认知大模型,输入的是感知结果、输出的是驾驶决策,由于感知结果和驾驶决策都是结构化文本,其处理的都是文本符号,我们自然而然地想到了引入NLP相关的技术。

在2023年之前,BERT模型在互联网领域取得了非常成功的应用,于是我们尝试将BERT类的掩码模型引入自动驾驶认知模型,通过量产车回传海量的数据对。这样输入历史10秒的、再用掩码盖住未来几秒的司机驾驶动作,然后让模型来预测驾驶动作,如果模型预测对了,就说明模型学会了开车,我们称之为完形填空。

但是训练效果并没有达到预期,分析后发现,与NLP任务完全不同,NLP通过mask部分单词,然后结合上下文可以把词猜出来,确实是完形填空。但是自动驾驶场景下,mask历史动作是毫无意义的,只能mask未来动作,即只有上文没有下文,这其实是写作文,大家都知道写作文的难度比完形填空高太多了。

而且,人类驾驶汽车不仅依赖历史感知结果,还更多的依赖对未来的预判,老司机往往对未来几秒的交通环境有非常好的预判,例如隔壁车道的车会不会突然变道、路边的行人会不会横穿马路等。基于这种预判,老司机再采取合理的驾驶动作。这种预判,从模型上讲就是一种生成式模型。于是我们将算法调整为GPT生成式模型,将历史感知结果使用BEV方式表达出来,再将BEV序列输入模型,让模型预测几秒钟之后未来世界可能发生的变化,这样就构建一个自回归的生成式模型,如下图所示:

然后,将感知和认识进行联合训练就可以实现端到端自动驾驶了。但是,我们发现仅通过这种方式进行训练,想要达到非常好的驾驶效果,需要的数据规模、算力规模都极为庞大,我们根本无法承受。

例如,在传统的分任务自动驾驶范式下,感知算法识别塑料袋后,可以人为设计一个塑料袋可以压过去的驾驶策略,这样训练成本很低,但是在端到端范式下想要让自动驾驶识别塑料袋并学习到塑料袋是可以压过去,需要大量数据进行训练,成本极高,这也是特斯拉手握数万卡的原因之一。

塑料袋、泡沫等软性材质是可以压过去的、交警的手势优先级是高于红绿灯的、救护车是要避让的,这些其实都属于人类社会的世界知识,这些知识都是人类经过长期学习之后获得的。

传统的基于人工策略的自动驾驶成本很低,就是因为通过人工策略直接把人类社会积累的知识用在了自动驾驶上,省去了训练成本。但是驾驶知识包罗万象,如果要基于人类知识为世间万物定制各类策略,也是一件不可能的事情。

那如何既能利用人类社会沉淀的知识,又能降低端到端自动驾驶的训练成本呢?考虑到大语言模型中压缩了几乎全人类的知识,如果能将跟驾驶决策相关的知识提取出来,应该能大幅度降低训练成本。

于是,毫末在端到端自动驾驶中又引入了大语言模型,通过感知大模型识别万物后,将这些信息输入LLM,通过LLM来提取世界知识,并作为辅助特征来指导驾驶决策。如图所示,这个系统极为复杂,算力消耗非常大,目前还只能在云端运行,未来几年将加快向车端的落地。

五、未来趋势

过去一年,大语言模型的发展思路给端到端自动驾驶很多启发,在模型、数据上都值得借鉴。

在自然语言处理领域,Chatgpt作为基础模型展示了极强的泛化能力。最近,学术界的研究在语言-视觉大模型上也取得了突破性进展,这种基础模型无疑会让自动驾驶如虎添翼。

特斯拉、Wayve等公司也提出将World Model作为自动驾驶基础模型的思路。World model是一种基于视频来预测未来世界的模型,例如特斯拉的world model可以根据prompt给出的动作来做出反馈,并生成未来的世界图像,而且能保证多视角、时序的一致性。

大语言模型压缩了人类的大部分知识,当然也包括驾驶知识。可以通过与LLM进行交互,提取驾驶常识。例如传统的占用

智能化战争中左右战争胜负的新变量:连接力、计算力、认知力

智能化战争:“强者胜”的三个维度

杨耀辉 张三虎 周正

引言

战争制胜机理从来都是在 科技 进步的推动下悄然发生变化。从热兵器时代的火力制胜,到机械化时代的机动力制胜,再到信息化时代的信息力制胜,实际上都是在开辟战斗力生成新维度的过程中,对原有战斗力因子形成“降维”打击。智能化战争建立在火药化、机械化、信息化充分发展的基础之上,作战双方的火力、机动力、信息力迟早都会达到或接近同一个水平,连接力、计算力、认知力等新的战斗力因子,则成为左右战争胜负的新变量。

连接力强者胜

连接产生智能。最令人惊叹的莫过于人类脑细胞,数百亿个神经元并不存储信息,但在连接过程中不断传递信息并激发出新的信息。当前,军事领域正在利用连接来寻求智能化的延展。

连接力强者胜,反映的是群体智能的胜利。“蜂群”式作战平台、碎片状战力群组、分布式武器部署,将是智能化战争的作战景象,战场胜负的砝码在经历了“从数量到质量”的转换之后,又回到了“从质量到数量”上来。近年来,中东战场上出现的几千美元一架的低端无人机,在战场上的表现却并不是“凑数”的样子,集群式出现令一些大国军队极为头疼。这种规模化群体与传统战场上的个体叠加不同,它们依托泛在网络,用连接的方式形成一种群体智能效应,对传统中的高价值平台产生巨大冲击。2021年5月,美国国防部发布的《联合全域作战战略》中明确,联合全域指挥控制就是“连接一切、无处不在”。而美军先进战斗管理系统则试图把U-2、F-16、F-35、F-22、XQ-58、MQ-4C等有人、无人作战平台连接到一起。连接力强者胜,已经成为智能化战争的制胜关键。

连接力强者胜,推动的是“杀伤网”的构建。传统的杀伤链路,其连接呈“线性”,是顺序的、递进的、单行的,极易出现断链。智能化战争,在“连接一切”的背景下,全域空间内的作战资源进入同一作战体系,杀伤链条上的各个执行单元被分散在小型化、无人化、在线化作战平台上,形成此断彼通的“杀伤网”。连接力越强,进入作战体系的可选择资源就越多,杀伤链路上可选择的节点就越多,体系的韧性、弹性、应激性就越强。从杀伤链到“杀伤网”的升级,推动不同时间节点进入作战链路的平台灵活搭配,给对手呈现出一种随机网络式的复杂景象,而自身却能按作战任务需求,采取类似“网络打车服务”一样的资源高效动态连接方式,达成各类作战资源的快速建链,完成自我分配、自我组织、自我控制下的目标打击行动,在作战过程中呈现出能判断、有选择、会变通的智能化样子。

连接力强者胜,突显的是自适应作战体系。网络时代,每一次成功连接的背后都有一系列用户和用户之间的自适应交互,连接平台只是提供一个“桥梁”,并没有过多地介入到谁和谁的连接上。“连接一切”条件下的智能化作战平台构成的作战体系,其敏捷适应性将比网络时代更进一步。这种敏捷适应基于物理实体的数字化模型和运行状态的数字化表征,在特定系统的支持下,各类作战资源“在用”“饱和”“空闲”等状态即时感知,并完整映射到“基础网+作战云+数字孪生体”的虚拟空间,形成“全息”对照的战场态势,每一个作战平台都可以“全维”抽取关键信息,“全域”拼接作战场景、“全程”推演打击行动,并实时感知友邻平台的运行状态。在这样的全透明战场空间,任何个体要想避免被其他成员抛弃,必须主动向体系贡献自己的能力,从而自然地产生出一种自适应调整的体系能力。

计算力强者胜

很长一段时间里,计算多是粗略概算并服务于指挥员谋略,计算力一直是战斗力的配角。智能化战争中,智能机器的计算能力大大超越人类,人类的决策、行为和意识都受到机器计算的影响,计算力强者胜成为战争制胜的重要一面。

计算力强者胜,反映的是“算料”从“DB”到“BD”的质变。数据即“算料”,其实一直存在。早期的像会计账本之类,电算化时代是机读穿孔卡带,信息化时代升级成为诸如Database之类的数据库,即“DB”。到了智能化时代,万物互联加快了数据产生的速度,运用大数据Big highlight=true>关联关系分析并推理预测客观事实,已经接近甚至超出人类在因果关系分析上的技能。比如,谷歌公司曾运用大数据技术,分析了5000万条美国人检索最频繁的词汇,成功预测出美国冬季流感的传播。智能化战争中,数以万计的智能机器,必将产生数不胜数的数据,如何利用大数据手段提升“算料”处理能力,对敌方作战企图、战场走势等做出准确预测和判断,将是决定对抗胜负的重要一极。

计算力强者胜,推动的是算力的云边端供给模式。传统的中军帐、参谋部、指挥所都是“中心计算模式”,其弊端是计算结果滞后甚至偏离战场态势,问题的根源是算力不足。智能化战争中,每一个机器在做出行动时都要进行一系列的计算处理,仅一个“大脑”的中心计算模式已显得力不从心,“云+边+端”的新计算模式则应运而生。谁的云中心能够通过策略测算,从复杂场景中“窥出”真正的战场走势;谁的边缘计算中心能够快速将计算能力推送到作战前沿侧,为前端平台提供中等强度的近实时场景模拟推演;谁的智能作战平台能够在对抗活动中,快速规划出武器选择、打击窗口、攻击路线等,将成为左右战局发展走势的关键所在。近年来,美军大力发展类似F-22战机充当“战斗云”,提高无人系统的人工智能技术含量,推动自主作战平台的自协同能力提升等,都是对“云+边+端”计算模式的尝试。

计算力强者胜,突显的是算法的机器升级迭代。2019年,星际争霸Ⅱ人机对抗赛中两位人类顶尖选手以1 10的比分惨败,使人们对机器“只会计算、不会算计”的印象发生颠覆性改变。显然,在神经网络、深度学习等技术的推动下,智能机器具备了超越人类的用大量数据拟合出新算法的能力。当智能武器代替人类成为战场上的主角,支撑它们观察战场、分析战场、适应战场能力的关键——算法,将左右战场胜负的走向。算法战,已经从人类大脑层面转换到机器类脑层面,谁的机器学习能力越强,谁的算法迭代升级就越快,谁的决策就越符合对抗态势,谁就将在智能化战争中占据算法战的顶端。

认知力强者胜

形成对战场的统一认知,是作战体系中各个参战单元形成合力的关键。信息化战争主要解决信息“从信号到数据再到知识”的价值转换过程,智能化战争则更注重在“知识到智慧”的过程中提质增效。

认知力强者胜,反映的是作战环节从“OODA”到“OD”的进阶。从本质上讲,平台中心战、网络中心战、决策中心战,“OODA”环路上观察、判断、决策、行动等链条没有变,但不同阶段的行动特点发生了很大变化。机械化战争时代,“OODA”环路按部就班,环环相扣,一步慢、步步慢,一招领先、步步主动;信息化战争时代,发现即摧毁,观察“O”和行动“A”融为一体;智能化战争时代,作战双方的观察能力达到同一水平,战场趋于双向全时透明,谁也不能从“OODA”的第一个“O”即观察上占有多少优势,只有在第二个“O”即判断上一决高下,作战对抗从“OODA”四个环节进阶到“OD”两个环节上。在智能化战争的对抗过程中,信息驱动是源头,统一认知是关键。有了统一的认知,各参战平台才能建立起指向同一作战企图下的任务分析、规划和安排,群体性决策、自适应编组、分布式行动等具有智能化特征的活动,才能真正被激发出来并最终涌现出体系作战能力。

认知力强者胜,推动的是作战指挥从艺术到智慧的转进。智能化战争中,“AI军师”“智能参谋”进入作战指挥活动,带来的变化是指挥艺术里面添加了机器计算的成分。智能机器在算速和算法上的优长,使它们能通过海量数据关联分析,对战场态势进行呈现、分析和预测,辅助指挥员预判敌方企图、动向和威胁,从而促使作战指挥由基于“经验”的艺术流,向基于“经验+算法”的智慧型转进,把认知对抗从人类大脑领域拓展到了“人脑+机器脑”的新空间。美军2020年8月组织的“阿尔法空战”实验中,AI战机5 0击败人类飞行员,其背后的基础是40亿次仿真训练。智能化战争中,纯人脑的认知能力水平必将受到来自机器脑认知的强力挑战,而机器脑失去人脑的介入也会失去战争灵魂,“人脑+机器脑”协作融合形成智慧型认知才是制胜之道。

认知力强者胜,突显的是作战策略从近忧到远虑的延展。智能化战争时代,极易产生“机器信赖症”,任由机器对战场上的作战行动进行控制。但战争的复杂性告诫我们,机器的判断永远代替不了人类。“阿尔法狗”智能围棋虽然设定了四个策略来赢得棋局,但它仍有无法逾越的短视局限,其从繁就简的策略设计中,会对非关键因子进行“剪枝”处理,而被“剪枝”的恰恰可能是战争偶然的诱因。智能化战争中,发挥智能机器的优势,要在建立起“‘人机’交互、有人监督”的条件下,运用复杂系统中各分层之间相对独立的原理,对战局进行分层分域拆解,制定全局、局部和战术行动策略,形成一整套多级关联的规则库,让智能机器在指挥人员的监督下能够顺利地计算下去,在时间约束条件下快速得到一个基本满意的方案。一方面,避免机器陷入无休止的运算;另一方面,让机器在人类指引下对战局进行“远虑”,走向“谋全局而不是求一隅”的高度。

(作者单位:国防 科技 大学信息通信学院)

“智胜”机理:一个亟待研究的课题

刘光明

编者按 现代战争发生了深刻变化,最根本的是制胜机理变了,要想赢得战争必须把现代战争制胜机理搞透。当前,战争形态加速向信息化战争演变,智能化战争初现端倪。智能化战争的制胜机理是什么,有什么新变化,表现为哪些新特点?为把这些问题解答清楚,本刊特推出“聚焦智能化战争制胜机理”系列文章,欢迎广大读者献计献策、积极争鸣,共同推动智能化战争制胜机理研究走向深入。

当前,由人工智能引领的新一轮 科技 革命和产业变革方兴未艾,“人工智能就像先前的导弹、卫星一样,无论你是否有所准备都将登上人类战争的 历史 舞台”,智能化战争已经大步走来。打赢未来可能发生的智能化战争,核心是厘清智能化战争制胜机理。

厘清智能化战争制胜机理独特内涵

厘清智能化战争制胜机理,首先要把“机理”一词的内涵界定准确。笔者认为,“机”可理解为奥秘、门道,“理”可解读为道理、理由。所谓智能化战争制胜机理,即打赢智能化战争的门道(路径)和道理。为进一步厘清这一内涵,需要准确把握三对概念的区别与联系。

从机理与规律的关系把握独特内涵。规律是事物内在的本质的必然的联系,战争制胜规律是与战争制胜有关各种因素的本质联系和发展的必然趋势。战争作为复杂巨系统,制胜也具有复杂性,众多的制胜规律往往在战场上同时起作用。如果对具体战例作具体分析会发现,每一次胜负较量必定有某个规律起决定性作用,其他规律则起着辅助的但也是不可缺少的作用。战争制胜机理则是战争制胜因素在一定条件下触发制胜规律、发挥制胜作用的链路及其道理。制胜机理依赖制胜规律,体现了制胜规律发挥作用时的途径和依据,但单凭制胜规律本身不能成为制胜机理。用相对简单的话来概括,即制胜规律是制胜机理的基础,制胜机理是制胜规律的应用之道。

从机理与机制的关系把握独特内涵。机制是事物内部的构造、功能和相互关系,作战制胜机制是作战体系各要素互动形成合力、实现制胜的内在机制,如集效聚优、并行联动都是机制,是对有关制胜机理的运用方法和实现方式,且这些方式方法体现一定的规则,带有某种制度化的特征。在信息化战争中,对情报侦察、指挥控制、火力打击和综合保障等作战要素进行综合集成,对陆、海、空等作战单元进行优化重组,会形成多种多样的制胜机制。这些制胜机制大都包含这样的制胜机理,即:事件转化为信息、信息转化为态势、态势转化为认知、认知转化为决策、决策转化为行动的信息制胜链路,等等。由此可见,制胜机理是内在的“道”,更为抽象,而制胜机制是运用道的“术”,更为具体。

从机理与理论的关系把握独特内涵。认识、把握和灵活运用战争制胜规律和机理,需要从理论和战略策略上作出正确的指导。睿智的军事理论家,总是在发现新的制胜规律和机理后,作出理论上的加工和创造,由此形成新的军事指导理论。可见,军事理论创新的核心在于揭示和厘清新的战争制胜规律和机理,进而概括出新的战争指导。世界军事史上,马汉的“海权”理论、杜黑的“制空权”理论、富勒的“机械化战争”理论、图哈切夫斯基的“大纵深作战”理论、格雷厄姆的“高边疆”理论等,都揭示了相应的战争制胜规律和机理,引领了军事潮流,改变了战争面貌。可以说,战争制胜机理是军事理论创新的基础和源泉,军事指导理论是战争制胜机理的灵动运用和理论升华。

辩证把握智能化战争制胜机理多重意蕴

智能化战争的制胜机理包括战争制胜的一般机理,同时又体现着算法博弈的鲜明特点;在战略、战役、战术等层面都有相应的制胜机理,同时也都与算法博弈紧密联系。由于受多种因素制约,每一场战争具体的制胜机理都可能有所不同。这里,仅列举几类带有一定普遍性的制胜机理。

以“强”打“弱”的“智胜”机理。“强胜弱败”是带有一定普遍性的战争制胜规律。即使是那些以弱胜强的战例,往往也须在局部和特定时段形成对敌的力量优势才能真正取胜。依据“强胜弱败”规律,以强打弱便成为带有通用性的战争制胜机理。这里的“强”,是整体战斗力的强。在机械化战争时代,整体战斗力的强大主要体现为兵力和火力优势。在信息化战争时代,军队能打胜仗有赖于信息力优势。而在智能化战争时代,智力优势对战斗力的贡献率远高于其他要素。在智能化战争对抗中,人的智能广泛渗透到作战领域、移植到武器系统,智能水平更高更强的一方,能够更好地开发和运用以强打弱的“智胜”机理,甚至据此设计战争、主导战局发展,取得最终胜利。

以“高”打“低”的“智胜”机理。这里的“高”“低”,主要指“代差”“维度差”。通常情况下,运用更高级战争形态和作战样式的一方能够打赢尚在运用较低维度战争形态和作战样式的一方。比如,普遍使用火枪的部队几乎都能胜过使用大刀长矛的部队。如果说“高”胜“低”败是制胜规律,那么以“高”打“低”的那些门道及理由便成为制胜机理。在智能化战争进程中,针对对方作战体系的弱点进行打击,使其“智能”降低或失效,实施“降维打击”,便是以“高”打“低”“智胜”机理的具体运用。还要看到,智能化战争时代很可能存在由低到高的多个发展阶段,尽可能让自己处于高级阶段,攻击对手使其处于低维度的阶段,也是以“高”打“低”“智胜”机理的运用。

以“快”打“慢”的“智胜”机理。随着科学技术的强劲推动,战争中“快”的内涵在不断刷新。在第一次世界大战期间,坦克机动速度每小时只能达到4 8英里,到二战期间装甲集群已能实施闪击战。近些年我们认为超级计算机已经很快了,但量子计算机处理“高斯玻色取样”的速度比最快的超级计算机快一百万亿倍,量子算法比经典算法实现了指数级的加速,人工智能将实现质的飞跃。未来智能化战争在算法的支撑下,预警时间提前,决策时间缩短,作战行动向前延伸,“观察-判断-决策-行动”周期大幅压缩,“瞬时摧毁”升级为“即时摧毁”,真正进入发现即摧毁的“秒杀”时代。

以“巧”打“拙”的“智胜”机理。在一些经典战例中,我们往往能够看到指挥员运用灵活机动的战略战术,变被动为主动,化劣势为优势,体现了“巧”能胜“拙”的制胜规律和以“巧”打“拙”的制胜机理。智能化战争中的“巧”,依托算法优势,开始从指挥员的大脑中走出来,被赋予拥有“智能”的武器系统。当智能化战争发展到一定阶段,全域多维、各种类型的智能化作战平台能够快速耦合作战力量,根据任务需求构建作战体系,自主实施协同作战,任务结束迅速回归待战状态,呈现智能自主趋势。未来智能化战争将向极地、深海、太空等领域拓展,以“巧”打“拙”的“智胜”机理也会相应拓展,开发出更多更新的“智胜”路径。

前瞻 探索 和开发智能化战争制胜机理

当今世界, 科技 革命和军事革命相互影响,战争形态在加速演变,战争制胜机理也在不断更新。在智能化战争大幕缓缓开启的背景下,必须紧盯智能化战争制胜机理的发展趋势,变被动为主动,变跟进为引领,前瞻 探索 和开发智能化战争制胜机理,牢牢掌控打赢智能化战争的主动权。

开发新的制胜机理。 历史 和现实表明,先进的科学技术一旦被运用于军事,将使战争制胜机理发生深刻变化,从而使现有的作战指导、条令法规和部队编制随之改变。在人工智能飞速进步的今天,军事智能的发展不可限量,未来智能化战争具体的制胜机理也必然超出现有的预料。应积极 探索 现有先进技术可能运用于智能化战争的潜能, 探索 其可能的制胜机理。全面分析对手无人化作战体系的薄弱节点和我之优势,从目标靶点反推制胜机理,提出军事创新需求,精准研发战略性、前沿性、颠覆性技术,推动战争“ 游戏 规则”向于我有利的方向转变。

验证新的制胜机理。智能化战争制胜机理的研究成果究竟管不管用,需要用实践来检验。在相对和平时期,应加强实战化军事训练和针对性作战实验的检验,在检验中发现问题、修正认识,使新的制胜机理尽可能科学、周密。在时机和条件成熟时,推动新的智能化战争制胜机理成为军事训练全方位变革、整体性提升的依据,坚持以战领训、以训促战,做到按智能化战争实战要求训练,实现作战和训练一体化。要以我为主,适度借鉴外军,破除定性分析多、定量分析少的局限,大力构建完善智能化战争实验室,打通从制胜机理到作战概念再到实验平台的创新链路,推动去粗取精、去伪存真,提高智能化战争制胜机理研究成果的科学性、权威性。

升华新的制胜机理。新的战争制胜机理是推进军事理论创新的深层依据。当我们发现了新的以“强”打“弱”、以“高”打“低”、以“快”打“慢”、以“巧”打“拙”等具体的“智胜”机理后,就可以契合这一机理提出核心作战概念、作战原则和战争指导等,经过系统加工形成关于智能化战争的新的军事理论。有人说,“丰富的想象力和深刻的洞察力,远比百分之百的准确性更为重要”。要适度鼓励战争设计上的“异想天开”,引导有创见的研究人员在深刻理解军事智能“技术创意”及其衍生而来的制胜机理的基础上,提出新的“战争创意”。要基于智能化战争制胜机理的研究,深化军事理论创新,加快形成具有时代性、引领性、独特性的军事理论体系。

(作者单位:国防大学国家安全学院)

免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。

标签: 大模型

“AI-大模型成长进入关键期-解码-背后的算力战争 (ai大模型排行榜)” 的相关文章

揭秘-之外的美国大模型-ChatGPT-探索最新进展和创新 (之外的意思)

揭秘-之外的美国大模型-ChatGPT-探索最新进展和创新 (之外的意思)

年初以来,OpenAI以ChatGPT在全球掀起AI大模型热潮。但美国的AI大模型,远不止于OpenAI的ChatGPT。 美国大模型发布数量遥遥领先 综合各种数据,虽然中国发展势头迅...

几何-成效-大模型跑分刷榜 (成就几何)

几何-成效-大模型跑分刷榜 (成就几何)

作为今年新硅编辑部的一员,我们最大的困扰就是面对超越GPT的大模型时陷入无尽的沉思。 为什么GPT如此容易被超越?在第一个中文大模型和第一个垂类大模型的名号相继被各大科技公司占领之后,这场竞...

钻研人员发现新型攻打形式-可经过图像和音频操纵大模型 (钻研人员发现了什么)

钻研人员发现新型攻打形式-可经过图像和音频操纵大模型 (钻研人员发现了什么)

随着大言语模型(LLM)开局整合多模态配置,攻打者或许会在图像和音频中暗藏恶意指令,应用这些指令操纵聊天机器人(例如)面前的LLM对用户揭示的照应。在2023年欧洲黑帽大会上示意,钻研人员指出,...

的未来-大模型竞速-2024-服务-应用和MaaS (未来的模型)

的未来-大模型竞速-2024-服务-应用和MaaS (未来的模型)

引言 年末的大模型赛道出乎意料地平静。相比于电商领域的戏剧化反转和游戏行业的连续地震,大模型领域除了行业媒体的零星解读外,只有字节跳动和百度两家头部企业与海外大模型相互套壳的新闻引起了些许波澜。...

大模型轻松标注图像-NUS合作的神奇对话式标注-清华&amp (大模型 ai)

大模型轻松标注图像-NUS合作的神奇对话式标注-清华&amp (大模型 ai)

随着多模态大模型的发展,v的登场为该领域带来了新一批模型,如LLaVA、BLIP-2等。为了进一步扩展多模态大模型的区域理解能力,研究团队打造了一个可以同时进行对话和检测、分割的多模态模型NExT...

BentoML-实践指南-使用-JuiceFS-加速大模型加载 (奔腾)

BentoML-实践指南-使用-JuiceFS-加速大模型加载 (奔腾)

简介 BentoML 是一个开源的大语言模型(LLM)应用开发框架和部署工具,致力于为开发者提供最简单的构建大语言模型 AI 应用的能力。当 BentoML 在 Serverless 环境中...

周鸿祎分享大模型十大趋势-2024年或迎杀手级应用 (周鸿祎讲座)

周鸿祎分享大模型十大趋势-2024年或迎杀手级应用 (周鸿祎讲座)

在2023年风马牛年终秀上,360集团创始人周鸿祎分享了对2024年大模型发展趋势的十大预测,呼吁企业树立信仰,AllinAI。 十大预测 大模型成为数字系统标配,无处不在。...

的崛起-大模型时代-DenseMamba-精度大幅提升-推动Mamba-RetNet-和-DenseNet (崛起的demo)

的崛起-大模型时代-DenseMamba-精度大幅提升-推动Mamba-RetNet-和-DenseNet (崛起的demo)

引言 随着大型语言模型 (LLM) 的突破性进展,这些模型在语言理解、对话交互和逻辑推理方面展示了卓越的性能。过去一年,我们目睹了 LLaMA、ChatGLM 等模型的诞生,它们基于 Tra...