本地化大语言模型ChatGLM,纯前端技术玩转大模型

广告位招租
扫码页面底部二维码联系

作为前端开发,想要介入大模型应用开发,必本文作者:唐霜,转载请注明出处。【作者:唐霜】须有一个大模型可以作为底层驱动,但是op原创内容,盗版必究。【访问 www.tangshuang.net 获取更多精彩内容】enAI的chatGPT需要付费,且网络原创内容,盗版必究。【本文首发于唐霜的博客】影响因素大,本地部署大模型就成了开发阶段【未经授权禁止转载】【关注微信公众号:wwwtangshuangnet】的必然选择。作为架构中的关键一环,我们需【原创不易,请尊重版权】本文作者:唐霜,转载请注明出处。要一个本地化的大语言模型来支持“完全本地本文作者:唐霜,转载请注明出处。【访问 www.tangshuang.net 获取更多精彩内容】化”。目前市面上的大模型非常多,但对于我著作权归作者所有,禁止商业用途转载。【作者:唐霜】们而言,必须满足开源、免费、支持中文这三个硬性条件,另外还要考虑性能、tok【关注微信公众号:wwwtangshuangnet】【作者:唐霜】en量、智能程度等。开源是为了本地化部署【访问 www.tangshuang.net 获取更多精彩内容】本文作者:唐霜,转载请注明出处。,像openai的闭源模型,直接pass【版权所有】唐霜 www.tangshuang.net【作者:唐霜】。国外有几个性能和智能程度都很好的开源模原创内容,盗版必究。转载请注明出处:www.tangshuang.net型,但是不支持中文比较遗憾。最终选定了c未经授权,禁止复制转载。【原创不易,请尊重版权】hatglm作为我们的目标。本文将详细讲【访问 www.tangshuang.net 获取更多精彩内容】【本文受版权保护】解我开发的chatglmjs,这个让前端【转载请注明来源】【版权所有,侵权必究】开发者可以快速接入本地化大模型的库。

著作权归作者所有,禁止商业用途转载。【转载请注明来源】

什么是ChatGLM?

ChatGLM是有清华和智普合作研发的一本文作者:唐霜,转载请注明出处。著作权归作者所有,禁止商业用途转载。款大语言模型,目前是开源免费可商用(需获【作者:唐霜】未经授权,禁止复制转载。得许可)的状态,支持中英双语,在中文领域【原创不易,请尊重版权】转载请注明出处:www.tangshuang.net属于第一批次的开源模型。

【未经授权禁止转载】著作权归作者所有,禁止商业用途转载。

和ChatGPT一样,都是基于对话形式的【关注微信公众号:wwwtangshuangnet】本文作者:唐霜,转载请注明出处。大语言模型,虽然GLM与GPT不同,但是【访问 www.tangshuang.net 获取更多精彩内容】转载请注明出处:www.tangshuang.net在最终表现形式,ChatGLM和Chat本文版权归作者所有,未经授权不得转载。【作者:唐霜】GPT是一致的应用形态,都是对话模式下的著作权归作者所有,禁止商业用途转载。原创内容,盗版必究。LLM。预训练语言模型大体可以分为三种:【访问 www.tangshuang.net 获取更多精彩内容】著作权归作者所有,禁止商业用途转载。自回归(GPT系列)、自编码(BERT系本文版权归作者所有,未经授权不得转载。【作者:唐霜】列)、编码-解码(T5、BART)。GL【关注微信公众号:wwwtangshuangnet】原创内容,盗版必究。M是一个通用的预训练语言模型,它在NLU【未经授权禁止转载】【关注微信公众号:wwwtangshuangnet】(自然语言理解)、conditional【访问 www.tangshuang.net 获取更多精彩内容】原创内容,盗版必究。(条件文本生成) and uncondi本文版权归作者所有,未经授权不得转载。【本文首发于唐霜的博客】tional generation(非条【关注微信公众号:wwwtangshuangnet】【本文首发于唐霜的博客】件文本生成)上都有着不错的表现。通俗的讲转载请注明出处:www.tangshuang.net本文作者:唐霜,转载请注明出处。,区别于上述三种预训练方案,GLM采用“转载请注明出处:www.tangshuang.net【本文受版权保护】完形填空”的方案来训练模型。

【转载请注明来源】【访问 www.tangshuang.n本文作者:唐霜,转载请注明出处。原创内容,盗版必究。et 获取更多精彩内容】

虽然总体上,目前的最新版ChatGLM3【未经授权禁止转载】【原创不易,请尊重版权】能力还不如ChatGPT,但是在通用智能未经授权,禁止复制转载。本文作者:唐霜,转载请注明出处。方面已经有非常不俗的表现,可以作为我们开【版权所有,侵权必究】著作权归作者所有,禁止商业用途转载。发的底层智能驱动。

本文版权归作者所有,未经授权不得转载。转载请注明出处:www.tangshua【作者:唐霜】本文版权归作者所有,未经授权不得转载。ng.net

另外,与其他开源模型相比,ChatGLM转载请注明出处:www.tangshuang.net【原创内容,转载请注明出处】还有一个特点,对机器的要求不高,其量化版【版权所有】唐霜 www.tangshuang.net著作权归作者所有,禁止商业用途转载。本甚至被某些网友移植到安卓手机上运行,可【访问 www.tangshuang.net 获取更多精彩内容】【本文首发于唐霜的博客】见未来有可能在手机上大面积应用该模型。

【未经授权禁止转载】【转载请注明来源】原创内容,盗版必究。著作权归作者所有,禁止商业用途转载。

如何本地化LLM?

ChatGLM官方提供的是python的【版权所有】唐霜 www.tangshuang.net【未经授权禁止转载】demo和微调代码,怎么才能在我们的no未经授权,禁止复制转载。【原创内容,转载请注明出处】dejs环境中跑它的模型呢?一种方案是用【转载请注明来源】本文作者:唐霜,转载请注明出处。fastapi起一个python的服务提【原创不易,请尊重版权】【转载请注明来源】供接口,node端像普通调第三方接口一样【版权所有,侵权必究】【版权所有,侵权必究】调用它,但是这样就违背了我“纯前端技术”原创内容,盗版必究。转载请注明出处:www.tangshuang.net的目标,况且python的环境并不好搭,【关注微信公众号:wwwtangshuangnet】本文作者:唐霜,转载请注明出处。我折腾了很久才跑起了它的demo。还有没著作权归作者所有,禁止商业用途转载。转载请注明出处:www.tangshuang.net有其他方案呢?

【原创不易,请尊重版权】著作权归作者所有,禁止商业用途转载。

我们来分析一下,其实对于运行大模型用来预【未经授权禁止转载】原创内容,盗版必究。测而言,它的代码分为3个部分:模型文件本【作者:唐霜】【版权所有】唐霜 www.tangshuang.net身、transformer运行时代码、用本文版权归作者所有,未经授权不得转载。【关注微信公众号:wwwtangshuangnet】来提供对外标准接口的代码。其中,模型文件【转载请注明来源】【原创内容,转载请注明出处】本身都是一样的,从huggingface【版权所有】唐霜 www.tangshuang.net【原创不易,请尊重版权】上下载。官方提供的python demo【本文首发于唐霜的博客】未经授权,禁止复制转载。其实主要是实现了运行时,可以加载模型文件本文作者:唐霜,转载请注明出处。【版权所有,侵权必究】和transform,并完成预测。接口代【版权所有,侵权必究】本文版权归作者所有,未经授权不得转载。码则是赠送品,只用来作为demo的可交互【原创不易,请尊重版权】本文版权归作者所有,未经授权不得转载。界面。

【原创不易,请尊重版权】著作权归作者所有,禁止商业用途转载。【本文首发于唐霜的博客】

对于我们而言,最难搞定的就是,如何在no本文版权归作者所有,未经授权不得转载。【版权所有,侵权必究】dejs下有一个可以加载、执行模型文件的【版权所有】唐霜 www.tangshuang.net【版权所有】唐霜 www.tangshuang.net运行时。

【作者:唐霜】本文作者:唐霜,转载请注明出处。著作权归作者所有,禁止商业用途转载。

灵光一闪下,我看到社区有一个chatgl本文版权归作者所有,未经授权不得转载。原创内容,盗版必究。m.cpp的项目,结合nodejs可以支本文版权归作者所有,未经授权不得转载。本文版权归作者所有,未经授权不得转载。持c/c++ addon,瞬间就来了灵感【版权所有】唐霜 www.tangshuang.net未经授权,禁止复制转载。。chatglm.cpp这个项目用c++【访问 www.tangshuang.net 获取更多精彩内容】原创内容,盗版必究。实现了transformer运行时,除了本文作者:唐霜,转载请注明出处。【转载请注明来源】支持chatglm外,还支持百川和其他几著作权归作者所有,禁止商业用途转载。著作权归作者所有,禁止商业用途转载。个模型。我们把它的c++代码提炼出来,稍【本文受版权保护】【版权所有】唐霜 www.tangshuang.net作调整,编译成可以在nodejs环境下运【转载请注明来源】【版权所有】唐霜 www.tangshuang.net行的addon文件,直接在js里面reu本文版权归作者所有,未经授权不得转载。【访问 www.tangshuang.net 获取更多精彩内容】qire即可。这样一来,我们就可以nod【原创内容,转载请注明出处】【本文受版权保护】ejs本地运行大模型啦。此外,它需要把原【版权所有,侵权必究】未经授权,禁止复制转载。始的模型文件转化为自己的.bin文件,通【转载请注明来源】本文版权归作者所有,未经授权不得转载。过这部转化,原始模型文件由分散的文件列表著作权归作者所有,禁止商业用途转载。未经授权,禁止复制转载。,变成一个独立的.bin文件,这样更方便本文版权归作者所有,未经授权不得转载。【本文首发于唐霜的博客】我们实现模型文件的迁移和分享。

原创内容,盗版必究。本文作者:唐霜,转载请注明出处。本文版权归作者所有,未经授权不得转载。【作者:唐霜】

经过一个周末的折腾之后,我完成了这个部分转载请注明出处:www.tangshuang.net【原创不易,请尊重版权】的整理,并发布了chatglmjs这个包转载请注明出处:www.tangshuang.net【关注微信公众号:wwwtangshuangnet】,你可以方便使用它:

转载请注明出处:www.tangshua【原创不易,请尊重版权】本文版权归作者所有,未经授权不得转载。ng.net【原创不易,请尊重版权】【本文受版权保护】
import { chat } from 'chatglmjs';

chat({
  model_bin_path,
  prompt: '你好',
  onmessage(msg) {
    process.stdout.write(msg);
  },
});
【版权所有】唐霜 www.tangshu转载请注明出处:www.tangshuang.net【本文受版权保护】ang.net本文作者:唐霜,转载请注明出处。本文作者:唐霜,转载请注明出处。

安装chatglmjs时,它会自己编译自【原创不易,请尊重版权】未经授权,禁止复制转载。己,因此需要你的电脑有完整的可以编译c+【本文受版权保护】【版权所有,侵权必究】+的环境,mac上有对应版本的xcode【版权所有,侵权必究】【关注微信公众号:wwwtangshuangnet】,linux则是较高版本的g++,win转载请注明出处:www.tangshuang.net本文作者:唐霜,转载请注明出处。dows上有最新的vs即可。

【未经授权禁止转载】本文版权归作者所有,未经授权不得转载。【版权所有,侵权必究】著作权归作者所有,禁止商业用途转载。

需要注意的是,由于node的限制,我们在原创内容,盗版必究。【本文首发于唐霜的博客】后续使用langchain时会用到ten【版权所有】唐霜 www.tangshuang.net【转载请注明来源】sorflow的cpu版本,而不同电脑上【未经授权禁止转载】【作者:唐霜】的显卡驱动环境也不确定,因此,在构建ch【版权所有】唐霜 www.tangshuang.net【转载请注明来源】atglmjs时,我默认是让模型在cpu【本文受版权保护】未经授权,禁止复制转载。上运行的,虽然性能差,但是部署方便。

转载请注明出处:www.tangshua【原创不易,请尊重版权】【关注微信公众号:wwwtangshuangnet】ng.net【本文受版权保护】【本文首发于唐霜的博客】【原创内容,转载请注明出处】

Chatglm.cpp把模型文件转化为.【作者:唐霜】【本文受版权保护】bin文件的操作需要按照它的文档进行,此时又要用到python,去搭py著作权归作者所有,禁止商业用途转载。【关注微信公众号:wwwtangshuangnet】thon的环境也很麻烦,所以,你可以直接【本文受版权保护】【转载请注明来源】用别人已经转化好的.bin文件。下载之后【转载请注明来源】【作者:唐霜】,把它的路径传给model_bin_pa【本文首发于唐霜的博客】【未经授权禁止转载】th即可。

【原创内容,转载请注明出处】转载请注明出处:www.tangshua未经授权,禁止复制转载。【版权所有,侵权必究】ng.net

如何在前端开发大模型应用?

有了chatglmjs之后,我们就有了在【版权所有】唐霜 www.tangshuang.net【转载请注明来源】自己电脑上运行大模型的基础,接下来,我们著作权归作者所有,禁止商业用途转载。未经授权,禁止复制转载。要做的就是利用它进行更高层面的应用开发。原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.net对于chatglmjs而言,它只提供了一本文版权归作者所有,未经授权不得转载。本文作者:唐霜,转载请注明出处。个对话接口,大模型的所有能力都是基于对话【版权所有】唐霜 www.tangshuang.net【原创内容,转载请注明出处】来提供的,因此prompt的设计至关重要转载请注明出处:www.tangshuang.net【作者:唐霜】,除了prompt之后,想要搭建起一个类【本文首发于唐霜的博客】【关注微信公众号:wwwtangshuangnet】似chatgpt那样的聊天窗口,我们还要本文版权归作者所有,未经授权不得转载。【转载请注明来源】设计聊天历史等状态数据,以及流式交互的接【本文首发于唐霜的博客】【版权所有,侵权必究】口等等。大体上,我认为我们需要一层一层的【访问 www.tangshuang.net 获取更多精彩内容】【转载请注明来源】按照如下架构来完成开发:

【原创内容,转载请注明出处】【作者:唐霜】本文版权归作者所有,未经授权不得转载。本文版权归作者所有,未经授权不得转载。

【本文受版权保护】【原创内容,转载请注明出处】本文作者:唐霜,转载请注明出处。

大体上想要获得一个应用,要考虑5层设计,【关注微信公众号:wwwtangshuangnet】【作者:唐霜】从下到上分别是:存储层、平台层、框架层、【访问 www.tangshuang.net 获取更多精彩内容】本文版权归作者所有,未经授权不得转载。业务层、应用层。当然,我这里做的还是比较【转载请注明来源】【本文受版权保护】草率,在真正设计架构时,还要根据实际业务著作权归作者所有,禁止商业用途转载。【版权所有】唐霜 www.tangshuang.net考虑更多东西。在框架层,我推荐LangC【访问 www.tangshuang.net 获取更多精彩内容】【未经授权禁止转载】hain,因为它有js版本,提供了非常丰【访问 www.tangshuang.net 获取更多精彩内容】【访问 www.tangshuang.net 获取更多精彩内容】富的组件,我们利用这些组件来把一些核心的【原创不易,请尊重版权】【原创不易,请尊重版权】东西搭建出来,而不要自己去从零开始写。

【访问 www.tangshuang.n原创内容,盗版必究。转载请注明出处:www.tangshuang.netet 获取更多精彩内容】【版权所有】唐霜 www.tangshu未经授权,禁止复制转载。原创内容,盗版必究。ang.net本文版权归作者所有,未经授权不得转载。

当然,我们在编写代码时,还应该注意,AI未经授权,禁止复制转载。【本文受版权保护】是我们的好帮手,我们可以大胆的尝试让AI【关注微信公众号:wwwtangshuangnet】【未经授权禁止转载】帮助我们完成这个架构的实现。

【版权所有,侵权必究】原创内容,盗版必究。

结语

本文简单介绍了前端开发者应该如何参与到大【本文首发于唐霜的博客】【原创内容,转载请注明出处】模型的开发中,其中核心的部分是实现了ch本文作者:唐霜,转载请注明出处。著作权归作者所有,禁止商业用途转载。atglmjs,可以帮助开发者们在本地使本文作者:唐霜,转载请注明出处。本文作者:唐霜,转载请注明出处。用大模型作为开发时的依赖,从而更好的验证转载请注明出处:www.tangshuang.net【版权所有】唐霜 www.tangshuang.net自己的想法。相信大模型应用开发会很快成为【版权所有,侵权必究】本文作者:唐霜,转载请注明出处。我们开发业界的讨论重点,我们不妨从现在开【版权所有】唐霜 www.tangshuang.net【作者:唐霜】始尝试,从安装chatglmjs开始体验转载请注明出处:www.tangshuang.net【关注微信公众号:wwwtangshuangnet】这一神奇的新时代。

著作权归作者所有,禁止商业用途转载。【版权所有,侵权必究】【未经授权禁止转载】

2024-01-23 4555

为价值买单,打赏一杯咖啡

本文价值45.55RMB