《阿里AI专家交流纪要20230401.docx》由会员分享,可在线阅读,更多相关《阿里AI专家交流纪要20230401.docx(6页珍藏版)》请在课桌文档上搜索。
1、问:阿里大模型的发布节Jl,以及大致水平?答:阿里巴巴达摩院主要来牵头去做大模型的相关的研究和进展,大概是在22年的时候,我们其实就已经发布了我们自己的这种自然语言理解的大模型,一个叫m6,一个叫plugoM6的话基本是能够支持多模态的这种Al模型,比如说文字生成图片,文字生成语音,文字生成视频这种模型,但是我们大模型相比来讲,GPT3.5这种水平在参数量和整体规模上其实还是要小一点。所以在大模型目前我这种模型可能也就叫做中模型。达摩院顶层的领导下达了命令,整个团队约有100个人去开始去做相关大模型的迭代和升级,一方面是自己在复现GPT的水平,一方面是要迭代把我们的m6和plug迭代到能够对标
2、到GPT的水平。目前来看根据我们得到的一些反馈,我们自己的这种m6的一些自然语言理解的能力,目前还不能对标到GPT3.5与GPT3.5大约还得有个一年半左右差距。所以在我们预计今年在下半年云栖大会上的时候,应该会有m6的一些最新的模型的发布或者是进展,可能大概在GPT2.5左右的水平。语料积累不足。现有的大型语言模型在文本清洗和筛选方面存在一些限制,因此需要对现有模型进行升级和迭代,以适应不同领域的数据需求。例如,要将模型应用于军事、旅游文化、政治等领域,需要进行更多的数据收集和人工标注,以达到更高的准确性和效率。同时,大型语言模型的成熟也将带来更多的商业机会,例如在天猫淘宝、高德地图等应用中
3、的搜索和客服机器人等领域。此外,如果大型语言模型足够成熟,可能会释放出API,由合作伙伴接入,从而实现生态层面的垄断。问:预计阿里大模型与文心一寸对比?同时您认为制约我们大模型发展的是最主要是这个语料,还是模型一开始的这种路径IMr,您认为哪一个是制约我们发展的一个最要的原因?答:我们认为百度做得虽然不是那么智能,但还是相当不错的。在国内,它可能算是第一名。我们认为它还有很大的提升空间。文心一言虽然有一定的实用性,但雷达到GPT3水平还有一定差距。不过,我们觉得它至少可以达到GPT2.5水平,如果未来能够持续迭代和优化,可能会达到GPT-3.5的水平。数据积累对于百度来说是一个优势,尤其是在搜
4、索领域。百度在知识摩方面有很多年的积累,包括百度知道等。与文心一言不同,其模型架构基于Transformer,而文心一言则基于Berto如何在文心一言的基础上实现更智能的迭代,可能是一个挑战,需要达摩院的同学来解决。问:阿里如何后发追上?会采取怎样的打法?答:我们可以提供的方案主要有两种,一种是我们推出的模型效果相对较好,可以与集团内部的产品结合,例如天猫、海宝和高德地图的搜索业务。这将为搜索引擎带来更新的商业模式,并取代以前的商业模式。此外,我们还可以输出我们自己的API,并向合作伙伴或渠道商收费。这些合作伙伴将使用我们的API,并体现出他们的客户,这些客户是从ToC端产生的。大多数客户都有
5、自己的APP和网站,这些客户可以通过他们的APP和网站获取流量。不同的客户可以使用不同的API,这意味着厂商可以在生态系统中形成垄断。目前,已有一些厂商尝试将我们的API集成到他们的产品中,但进展不如预期快。对于我们的APl,它们可能会在特定领域上有所帮助,例如电商、搜索利推荐,并带来更好的商业模式。问:阿里目前Al算力储备情况?答:阿里国内Al算力储备最多,然后以次为:字节、百度、腐讯。阿里云现在云上至少应该有上万片的A100了,整体至少能够达到10万片,集团的话应该会是阿里云5倍的这样的一个量级。达摩院、天猫、淘宝的算力资源都是集团内资源使用。阿里云这块今年增速会有30-50%。有个别8-
6、9个客户会有复现GPT的需求,提出了大规模Al算力需求,我们以云的方式给。百度年初紧急下单3000台8卡的A800服务器,2.4万张卡,我预计全年百度会有A-H800共5万张的需求。阿里云需求不会这么多,去年采购2万多,今年可能采购量会下降。预计云上就1万张左右,其中6000张是H800。此外阿里云也会用到平头哥这种自研的,每年大概3000张去采购。从除此之外,阿里云也会选择国产芯片的一家,看是否在云上商业化。问:阿里云采购的哪家国产芯片,为何选择?答:选择的是寒武纪MLU370,主要是性能基本过关(AlOO的60-70%),检测合格,态度积极,愿意对接,服务贴身。今年会采购大概2000张的水
7、平,主要用在一些CV等小模型的训练或推理上。寡武纪MLU370没有供货的风险,后续的MLU590也许就会有了,。对于壁仞等,宣传上不错,但拿不到实涌的卡,流片大约都是今年4-6月,量产半年后。而且壁仞4月要流片的卡,不能支持FP64,互通带宽不支持8卡,支持最多4卡,采用NVbridge方式,达到180GB水平。8卡用PCIe方式只能做到32GB,弱点显著。针对海光我们技术人员也有看好的,参数也足够支撑训练但可能由于海光因产能等因素,可能更便满足国有第力那边的需求。同时,集团层面是否对接,不清楚。问:海光为何会不给样片涌试?出于什么考虑?海光DCU的应该是够的。答:海光的话,我们确实没有拿到他
8、的样卡,就是不知道为什么,我们也得知很多国产化的订单他们都中标且供货,但我们跟他对接的时候,好像反正是各种各样的问题,就是没有测起来。我们内部其实也有一些同学是支持海光深算1号的,但是一方面当时寒武纪还没被拉入黑名单,而海光被投入了黑名单,然后我1其实也有一定的担心,就是在阿里云上了之后,可能会给自己引火烧身,所以这方面也是我们考量的一个因素。最后反正就没采海光后期的供货,可能也会成问题,这也是我们考量的原因之一。不知道他们是手头是不是比较重要的这种国产化的项目,或者订单的交付还是没有人力来支持。我们也不是特别知道,可能他们团队也就几百个人吧,就是没有这个时间周期。总体上,在其他国产Al芯片竞
9、争上,海光好像不是很在意这个云上的这个市场。问:It讯大模型的进展?答:有听到是混元这个模型继续迭代,有大概100人左右做GPT复现以及自我模型迭代。应该会比我们的早,猜测大概8月份会出。但应该只是支持文生文的场景。问:目前降低算力成本的方式?答:除了大模型,即使StablediffUSiOn这种文生图模型,也消耗较小。stablediffusion模型一直在优化,以前一个推理任务一张Al00、现在降级到一个推理任务一张VlO0。对于阿里这种巨头而言,V100的存货还是很多的。同时,还会有一些针对模型的优化,或者加速软件,加快模型训练与推理。最后,也可以对模型进行降级,降低精准度要求,比如从F
10、P16降级为FP8,o问:阿里目前对于Al大模型是不计成本的大力投入,还是考虑商业落地稳扎稳打?答:大概率是稳扎稔打,现在拆分后,都要自负盈亏,压力蛮大的。ChatGPT的一个推理的任务,大概所需要消耗的这个能力是5张A100在2秒钟之内做一次推理,大规模应用起来成本很高,冲击也很大。问:华为盘古与鼻Bl如何看?答:盘古大模型效果有待考证,并没有明确对标GPT,而是往B端去做。同时因为受限制,只能用自己的昇腾,虽然昇腾910大概也有A100的70%水平(比寒武纪好),但算力的限制可能会制约大模型发展。问:从CUDA兼容性角度,海光与寒武纪如何对比?答:海光的CUDA兼容性更好,除了海光,其实阿
11、里云产的PPU其实也在一定程度上能够做到CUDA兼容,与NV做绑定。问:360的大模型如何,?答:我们了解到,最近360向NV下了上千块A800的货。360语料可能比我们强,但最后能做出什么效果,需要时间验证。问:目前跑在大模型上面的光模块架构会向英伟达推荐的方向去迭代吗?答:我们不太会去走英伟达的架构,我们有自己的路线,其他大厂可能会走英伟达路线。阿里云的公有云的层级上面,目前都是采用了阿里云自研的产品叫做DPU。我们自研的DPU其实现在已经迭代了几乎3.0或4.0的状态,支持双口100GB的水平。那DPU的功能是用于在云上开发弹性裸金属,因为我们要把服务器做成云上的云服务器中间是有一层虚拟
12、化的开发,那虚拟化之后这个物理机上的资源其实是有一定的损耗,CPU的核心数、内存的容量以及网络的带宽、硬盘的这个存储容量都会有所影响。那之所以搞DPU,是为了把这些虚拟化的资源都Ofload到DPU上去,使得我们云上的这种云服务器的资源和线下的这种物理机的资源是整体的资源数量是一模一样的,是没有任何变化的。那DPU的主要功能是在这里,那我们现在研发的第四代的这个DPU,它里面主要集成了ERDMA的这个能力,这个RDMA就是远程内存直接访问的意思,然后其实是主要应用在HPC的这个场景,然后这个E代表的是elastic,我们叫做弹性RDMA这个东西,那它其实是在以太网的架构下去跑ERDMA。也就是
13、说我们希范在以太网的这个网卡、流染交换机以及这种集群架构上去跑,类似于高性能计算的这种协议,能够把一些高性能计算的场景支持起来。所以我们大概率在公有云的这个场景,不太会去考量像Nvidia提供的这种集群架构,这是公有云的这个方式从云上讲不支持洸模块数,没有明显增长网里网珞架构不会改,光模块的规格也不太会改。但百度云字节火山云可能会采纳英伟达的架构,取决于数量,目前只采纳300台H800,对应每台服务器9张网卡,每个卡一个线,一个线两个光模块,9张网卡一台服务器是18个光模块,300台是5400个光模块,如果集成架构往上扩,扩100O个节点的话,大概是3倍的增长。问:看好BAT、字节等哪一个大模型?答:第一还是百度文心,先发优势,其次可能是字节,因为有数据、有算力、有场景。