触屏版 您好,欢迎浏览深圳销毁公司_文件销毁_过期食品销毁_过期化妆品销毁-广东益福深圳销毁公司

深圳销毁公司_文件销毁_过期食品销毁_过期化妆品销毁-广东益福深圳销毁公司

深圳销毁公司,过期食品销毁,过期化妆品销毁,文件销毁,电脑硬盘销毁,保密资料销毁,电子产品销毁,服装销毁,假冒伪劣产品销毁
  您当前所在位置:首页 > 惠州销毁公司

深圳销毁公司:280万大模型中文开发者拿到最终一块拼图

时间:2024-12-17 17:48

2023年5月,微软CEO纳德拉抛出一个惊人数字,将来全球的开发者数量将要达到10亿。

那时候Meta的Llama已经开源4个月,但一些大陆的开发者呈现,从小以英文语料喂养起来的Llama,对中文地球并不友好。

这将来的“10亿”开发者里会有多少中文开发者,这个问题难以推断,但至少已经有755万人了。

图源备注:图片由AI生成,图片授权服务商Midjourney

755万人,这是2023年在GitHub上注册的中国程序员数量,现时的程序员一定会是未来大模型的第一批开发者。

有不少人曾经是了。

在浙江省电力设计院工作的陶佳,测验用一个开源的大模型来做基于私有知识库的检索问答类应用。他所面对的场景很突出,经常需要从几十万甚至上百万字的文档中查找内容。陶佳的专注是电力系统控制优化,里面有一些结合了传统数学方法和AI方法的领域,因此对AI有基本认识,也从去年底就一直在关注着这波大模型的浪潮。

他试了几款,试下来通义千问是最好的。“准确,而且‘手感’很好,没有那些出格古怪的bug”,他说。

要做的事也很简单。有一些基本的软硬件基础后,在家里买个服务器、扔三四块显卡上去,下载通义千问、让它在服务器上运行,再搞个FRP反向代理,从阿里云上买最便宜的30多块钱一个多月的服务就行,这样就能通过外网访问家里的服务器,在单位里也能用通义千问做实验。

当一个开源生态开始成型,这样的开发者也一步步变多。

开始闭环的开源生态

陶佳对大模型最深处的盼望来自一个终极问题:人类能否成为上帝?

美国的未来学家库兹韦尔在2023年已经提出过这种或然性。库兹韦尔的想象里,人类到2030年将能够成为半机器人。通过在脑中植入纳米机器人,人类将抑或直接接入互联网,智力将变得更高,并且将拥有幽默、音乐和爱等快乐的天赋和能力。人类将成为像上帝相像的完美存在。

那一年OpenAI方才建立,但8年前库兹韦尔的设想放到当下还是有同样的地方,只不过当今看起来好像在一个机器人(Agent)中注入意识和人性,这条路好像更近点——也就是AGI。

但哪怕技术是爆炸、是跃迁式的,当下离AGI还很远。倘或说AGI会再造一个新的世界,那当今人类对大模型的祈望,继续是在现实基础上改造地球。而这首先需要建立在我们知道这个天下是什么状貌的,哪里需要被改造。世界真实的声音需要被听到,建立一条通道格外重大。

大模型时代的开源,意义就在这里。来自不同现实场景,又具有代码能力的人们需要一个广场,来让技术主动和场景对齐,然后具有代表性的产品才或然涌现。

这个广场要供大家互动用,还要有充足且价格合适的算力资源,同时也需要足够充实的可调用模型来做选择。开发者要的是这样一个闭环的开源生态,通义千问的特长开始浮现出来。

算力是关于大模型所有想象力的基础。通义千问背后的阿里云拥有我国最强的智能算力储备作为基础设施支持。其智算集群可达最大十万卡GPU规模,这意味着在阿里云上允许承载多个万亿参数大模型同时在线训练,为大规模AI集群供应无拥塞通讯的自研RDMA网络架构和低成本高可靠的高性能存储CPFS。

而在4月,阿里云在推出通义千问的同时,也发表了史上最大幅度的一次降价,对比上一代主售产品最高可下降40%的同时,还开放了计算、存储、数据库、机器学习等核心产品免费试用的机会。这为大批新涌入的AI开发者供给了测验和试错的机会。

在阿里云的算力支撑下,像陶佳相像的开发者开始带着“野心”涌入魔搭社区。

去年11月的云栖大会上,阿里云与CCF开源发展委员会合伙推出AI模型社区“魔搭”ModelScope,在社区上线同时献出了300多个AI模型,全面开源开放,其中超过1/3为中文模型。上线一年后,魔搭社区上的AI开发者数量早已超过280万人,AI模型超过2300+,下载超过1亿+。

随着大模型的热潮转向Agent,魔搭社区在今年9月推出了AI Agent开发框架ModelScope-Agent,并且搭建了一个“打样产品”ModeScopeGPT,它允许调用社区里众多AI模型的API,然后自主兑现人类布置的任务。这个ModeScopeGPT 的调用量早已超过了40万次。

除了通义千问之外,Llama2、智谱AI、百川智能甚至最新推出大模型的零一万物等近百款开源模型日前都已经进入社区。并且“正在中国有一半大模型公司跑在阿里云上”,阿里云CTO周靖人在2023年云栖大会上这样说的时候,魔搭已经是现在我国规模最大、用户最活跃的AI模型开源地。

今朝增加的参数量

12月1日,阿里云举行通义千问发表会,开源了通义千问720亿参数模型Qwen-72B。在参数量上这是此刻国内主流视线中最大的开源大模型,而在能力上,Qwen-72B的性能曾经在测验中超越开源标杆Llama2-70B。

Qwen-72B的训练基础是3T tokens的高品质数据,它采用了更多的参数和训练数据,完成了全面的性能提升。这个模型延续了通义千问预训练模型的卓越展示,在10个权威测验中取得开源模型中的最佳成绩,并在某些评测中超越了非公开的GPT-3.5和GPT-4。

在英语任务方面,Qwen-72B在MMLU基准尝试中获得开源模型中的最高分。在中文任务中,它在CEVAL、CMMLU、Gaokao等评测中领先,甚至超过了GPT-4。在数学推理领域,Qwen-72B在GSM8K、MATH评测中远超其他开源模型。同时,在代码理解任务上,经过HumanEval和MBPP评测,Qwen-72B展示了显著的进步,其代码能力实现了质的飞跃。

从8月初开始,Qwen-7B和Qwen-7B-Chat两款开源模型在魔搭社区上线开始,通义千问自身的模型开源开始提上日程。8月25日,以Qwen-7B为基座语言模型创想,支持图文输入,具备多模态报道理解能力大规模视觉语言模型 Qwen-VL开源。

Qwen-VL开源的一个月以后,阿里云在9月25日开源了通义千问百亿级的参数模型Qwen-14B及其对话模型Qwen-14B-Chat。这款模型在性能上开始头一回看向Llama-70B,添加前几款开源的模型,一个多月时间内在开源社区的下载量突破100万,在性能和可用性的平衡上,70亿和140亿参数的尺寸也是对开发者最友好的。

但当这个大模型开源生态开始走深,开发者对模型的性能上限有了更高的要求,也就需要更大参数的模型。Qwen-72B开始吸引到一些初创团队的目光。

“我对72B的模型抱有特别大的冀望,好奇72B在我们领域中的能力极限值。”

颜鑫是华东理工大学X-D Lab(心动实验室)的成员,X-D Lab实验室之前的商讨方向包括社会计算与社会智能、群体智能与隐私保护、公共卫生与舆情监测、工业智能与智能系统等方面,大模型显现之后,开始聚焦AI情感计算领域。

基于开源的通义千问基座模型,颜鑫和其他团队成员陆续开发了心理健壮大模型 MindChat(漫谈)、医疗壮健大模型 Sunsimiao(孙思邈)、教育/考试大模型 GradChat(锦鲤)三款垂直领域大模型,目下已有超过20万人次使用过这三款大模型,累计供应了超过100万次的问答服务。

推敲到计算资源的限制以及一些客户对于私有化部署的需求,颜鑫表态当前团队在供给问答服务时7B或14B尺寸的大模型是更合适的选择,但在更开放的学术推敲上——譬如怎么利用联邦学习算法处置数据——Qwen-72B有着前者不具备的性能特长。

而开源模型参数量的向上思虑,未来也有机会推动ModelScope-Agent这样关于怎样接近AGI的畅想更接近现实。

此前在阿里从事大数据业务近7年的秦续业,刻下身份是将来速度Xorbits配合创始人&CEO。Xorbits打造了公司级的分布式推理框架Xinference。通过Xinference,开源模型允许降落在个人用户和开发者的个人电脑上,企业用户抑或在计算集群上轻松部署并管理模型,享受私有化部署带来的安全、定制化以及低成本。

秦续业表态,如若外接知识库做问答应用,经过大模型召回一些数据,放到上下文中进行总结,最后给出有用的回应,那么小尺寸(10B以下)的模型是够用的。要是需要具备一定的逻辑推理能力的模型,20-30B的中等尺寸模型是比较好的选择。

“但在Agent也许需要强大推理能力的场景中,70B+的大模型会更有优势。”

AI Agent是秦续业远处的冀望,但他相仿也是个现实主义者。眼下把模型用起来是更紧要的事情,所以Xorbits曾经攻克的焦点,是让通义千问跑在一台Mac电脑上。

秦续业觉得这一点能击中很多人。因为很多开发者都是用Mac电脑,他们直奔在本地拉起Qwen序列模型,允许极大提升开发影响。

Qwen类别的全尺寸完善不止一个72B的大参数模型。与Qwen-72B同步,阿里云这次开源了通义千问18亿参数模型Qwen-1.8B和通义千问音频大模型Qwen-Audio,至此,通义千问开源光谱早已了覆盖从18亿、70亿到140亿、720亿参数的4款大语言模型,以及视觉理解(Qwen-VL)、音频理解两款多模态大模型。

大模型的开源生态,这是AI时代最后抑或汹涌而来的一味药引。周靖人对通义千问的定位是“AI时代最开放的大模型”,眼前打点好一切,静待开发者入场了。

(举报)

上一篇:没有了

版权所有 广东益福再生资源回收有限公司 粤ICP备17155072号