本地化大语言模型ChatGLM,纯前端技术玩转大模型

广告位招租
扫码页面底部二维码联系

作为前端开发,想要介入大模型应用开发,必【版权所有】唐霜 www.tangshuang.net【版权所有,侵权必究】须有一个大模型可以作为底层驱动,但是op【版权所有,侵权必究】【未经授权禁止转载】enAI的chatGPT需要付费,且网络转载请注明出处:www.tangshuang.net原创内容,盗版必究。影响因素大,本地部署大模型就成了开发阶段本文版权归作者所有,未经授权不得转载。【作者:唐霜】的必然选择。作为架构中的关键一环,我们需未经授权,禁止复制转载。未经授权,禁止复制转载。要一个本地化的大语言模型来支持“完全本地【关注微信公众号:wwwtangshuangnet】【作者:唐霜】化”。目前市面上的大模型非常多,但对于我【版权所有,侵权必究】未经授权,禁止复制转载。们而言,必须满足开源、免费、支持中文本文版权归作者所有,未经授权不得转载。这三个硬性条件,另外还要考虑性能、tok【本文首发于唐霜的博客】【版权所有】唐霜 www.tangshuang.neten量、智能程度等。开源是为了本地化部署本文作者:唐霜,转载请注明出处。本文作者:唐霜,转载请注明出处。,像openai的闭源模型,直接pass转载请注明出处:www.tangshuang.net【原创内容,转载请注明出处】。国外有几个性能和智能程度都很好的开源模【转载请注明来源】【作者:唐霜】型,但是不支持中文比较遗憾。最终选定了c【未经授权禁止转载】【作者:唐霜】hatglm作为我们的目标。本文将详细讲【转载请注明来源】转载请注明出处:www.tangshuang.net解我开发的chatglmjs,这个让前端【版权所有】唐霜 www.tangshuang.net【未经授权禁止转载】开发者可以快速接入本地化大模型的库。

【原创内容,转载请注明出处】【关注微信公众号:wwwtangshuangnet】【本文首发于唐霜的博客】转载请注明出处:www.tangshuang.net本文版权归作者所有,未经授权不得转载。

什么是ChatGLM?转载请注明出处:www.tangshuang.net

原创内容,盗版必究。【未经授权禁止转载】【本文受版权保护】【作者:唐霜】

ChatGLM是有清华和智普合作研发的一【关注微信公众号:wwwtangshuangnet】【转载请注明来源】款大语言模型,目前是开源免费可商用(需获【本文首发于唐霜的博客】【版权所有,侵权必究】得许可)的状态,支持中英双语,在中文领域转载请注明出处:www.tangshuang.net【版权所有,侵权必究】属于第一批次的开源模型。

【版权所有】唐霜 www.tangshuang.net转载请注明出处:www.tangshuang.net【转载请注明来源】【作者:唐霜】

和ChatGPT一样,都是基于对话形式的【关注微信公众号:wwwtangshuangnet】【访问 www.tangshuang.net 获取更多精彩内容】大语言模型,虽然GLM与GPT不同,但是【关注微信公众号:wwwtangshuangnet】原创内容,盗版必究。在最终表现形式,ChatGLM和Chat【本文首发于唐霜的博客】【原创内容,转载请注明出处】GPT是一致的应用形态,都是对话模式下的本文版权归作者所有,未经授权不得转载。【本文受版权保护】LLM。预训练语言模型大体可以分为三种:【访问 www.tangshuang.net 获取更多精彩内容】【版权所有】唐霜 www.tangshuang.net自回归(GPT系列)、自编码(BERT系【未经授权禁止转载】【作者:唐霜】列)、编码-解码(T5、BART)。GL转载请注明出处:www.tangshuang.net著作权归作者所有,禁止商业用途转载。M是一个通用的预训练语言模型,它在NLU转载请注明出处:www.tangshuang.net【版权所有,侵权必究】(自然语言理解)、conditional【关注微信公众号:wwwtangshuangnet】【关注微信公众号:wwwtangshuangnet】(条件文本生成) and uncondi本文作者:唐霜,转载请注明出处。【版权所有,侵权必究】tional generation(非条本文作者:唐霜,转载请注明出处。【转载请注明来源】件文本生成)上都有着不错的表现。通俗的讲【转载请注明来源】未经授权,禁止复制转载。,区别于上述三种预训练方案,GLM采用“【关注微信公众号:wwwtangshuangnet】本文版权归作者所有,未经授权不得转载。完形填空”的方案来训练模型。

【版权所有】唐霜 www.tangshuang.net本文作者:唐霜,转载请注明出处。本文作者:唐霜,转载请注明出处。未经授权,禁止复制转载。

虽然总体上,目前的最新版ChatGLM3转载请注明出处:www.tangshuang.net【访问 www.tangshuang.net 获取更多精彩内容】能力还不如ChatGPT,但是在通用智能【访问 www.tangshuang.net 获取更多精彩内容】【本文受版权保护】方面已经有非常不俗的表现,可以作为我们开【访问 www.tangshuang.net 获取更多精彩内容】本文作者:唐霜,转载请注明出处。发的底层智能驱动。

转载请注明出处:www.tangshuang.net本文版权归作者所有,未经授权不得转载。原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.net【原创内容,转载请注明出处】

另外,与其他开源模型相比,ChatGLM【版权所有,侵权必究】【转载请注明来源】还有一个特点,对机器的要求不高,其量化版未经授权,禁止复制转载。本文版权归作者所有,未经授权不得转载。本甚至被某些网友移植到安卓手机上运行,可原创内容,盗版必究。本文作者:唐霜,转载请注明出处。见未来有可能在手机上大面积应用该模型。

【作者:唐霜】【版权所有,侵权必究】【原创内容,转载请注明出处】

如何本地化LLM?转载请注明出处:www.tangshuang.net

【本文首发于唐霜的博客】【未经授权禁止转载】本文作者:唐霜,转载请注明出处。著作权归作者所有,禁止商业用途转载。

ChatGLM官方提供的是python的本文作者:唐霜,转载请注明出处。【作者:唐霜】demo和微调代码,怎么才能在我们的no本文版权归作者所有,未经授权不得转载。【本文受版权保护】dejs环境中跑它的模型呢?一种方案是用【版权所有】唐霜 www.tangshuang.net【未经授权禁止转载】fastapi起一个python的服务提【关注微信公众号:wwwtangshuangnet】本文作者:唐霜,转载请注明出处。供接口,node端像普通调第三方接口一样著作权归作者所有,禁止商业用途转载。本文版权归作者所有,未经授权不得转载。调用它,但是这样就违背了我“纯前端技术”著作权归作者所有,禁止商业用途转载。【未经授权禁止转载】的目标,况且python的环境并不好搭,未经授权,禁止复制转载。【原创内容,转载请注明出处】我折腾了很久才跑起了它的demo。还有没【版权所有,侵权必究】本文版权归作者所有,未经授权不得转载。有其他方案呢?

原创内容,盗版必究。【未经授权禁止转载】著作权归作者所有,禁止商业用途转载。

我们来分析一下,其实对于运行大模型用来预【访问 www.tangshuang.net 获取更多精彩内容】【访问 www.tangshuang.net 获取更多精彩内容】测而言,它的代码分为3个部分:模型文件本未经授权,禁止复制转载。【原创不易,请尊重版权】身、transformer运行时代码、用【原创不易,请尊重版权】转载请注明出处:www.tangshuang.net来提供对外标准接口的代码。其中,模型文件【关注微信公众号:wwwtangshuangnet】【作者:唐霜】本身都是一样的,从huggingface原创内容,盗版必究。【未经授权禁止转载】上下载。官方提供的python demo著作权归作者所有,禁止商业用途转载。本文作者:唐霜,转载请注明出处。其实主要是实现了运行时,可以加载模型文件本文作者:唐霜,转载请注明出处。【原创内容,转载请注明出处】和transform,并完成预测。接口代本文作者:唐霜,转载请注明出处。【转载请注明来源】码则是赠送品,只用来作为demo的可交互未经授权,禁止复制转载。【作者:唐霜】界面。

原创内容,盗版必究。原创内容,盗版必究。【关注微信公众号:wwwtangshuangnet】

对于我们而言,最难搞定的就是,如何在no著作权归作者所有,禁止商业用途转载。本文版权归作者所有,未经授权不得转载。dejs下有一个可以加载、执行模型文件的【转载请注明来源】本文作者:唐霜,转载请注明出处。运行时。

原创内容,盗版必究。原创内容,盗版必究。未经授权,禁止复制转载。【本文首发于唐霜的博客】本文作者:唐霜,转载请注明出处。

灵光一闪下,我看到社区有一个chatgl【关注微信公众号:wwwtangshuangnet】【原创内容,转载请注明出处】m.cpp的项目,结合nodejs可以支本文作者:唐霜,转载请注明出处。【访问 www.tangshuang.net 获取更多精彩内容】持c/c++ addon,瞬间就来了灵感【未经授权禁止转载】转载请注明出处:www.tangshuang.net。chatglm.cpp这个项目用c++本文作者:唐霜,转载请注明出处。原创内容,盗版必究。实现了transformer运行时,除了转载请注明出处:www.tangshuang.net【关注微信公众号:wwwtangshuangnet】支持chatglm外,还支持百川和其他几转载请注明出处:www.tangshuang.net著作权归作者所有,禁止商业用途转载。个模型。我们把它的c++代码提炼出来,稍未经授权,禁止复制转载。【本文首发于唐霜的博客】作调整,编译成可以在nodejs环境下运【本文首发于唐霜的博客】【版权所有】唐霜 www.tangshuang.net行的addon文件,直接在js里面reu本文版权归作者所有,未经授权不得转载。【版权所有】唐霜 www.tangshuang.netqire即可。这样一来,我们就可以nod【版权所有】唐霜 www.tangshuang.net原创内容,盗版必究。ejs本地运行大模型啦。此外,它需要把原未经授权,禁止复制转载。本文版权归作者所有,未经授权不得转载。始的模型文件转化为自己的.bin文件,通【未经授权禁止转载】【本文受版权保护】过这部转化,原始模型文件由分散的文件列表【原创内容,转载请注明出处】【作者:唐霜】,变成一个独立的.bin文件,这样更方便【本文首发于唐霜的博客】【访问 www.tangshuang.net 获取更多精彩内容】我们实现模型文件的迁移和分享。

【本文受版权保护】原创内容,盗版必究。转载请注明出处:www.tangshuang.net原创内容,盗版必究。【原创不易,请尊重版权】

经过一个周末的折腾之后,我完成了这个部分【版权所有】唐霜 www.tangshuang.net【版权所有】唐霜 www.tangshuang.net的整理,并发布了chatglmjs这个包【版权所有】唐霜 www.tangshuang.net【关注微信公众号:wwwtangshuangnet】,你可以方便使用它:

【原创内容,转载请注明出处】原创内容,盗版必究。【作者:唐霜】本文作者:唐霜,转载请注明出处。
import { chat } from 'chatglmjs';

chat({
  model_bin_path,
  prompt: '你好',
  onmessage(msg) {
    process.stdout.write(msg);
  },
});

安装chatglmjs时,它会自己编译自本文作者:唐霜,转载请注明出处。【原创不易,请尊重版权】己,因此需要你的电脑有完整的可以编译c+【作者:唐霜】【本文首发于唐霜的博客】+的环境,mac上有对应版本的xcode【原创内容,转载请注明出处】转载请注明出处:www.tangshuang.net,linux则是较高版本的g++,win【版权所有,侵权必究】未经授权,禁止复制转载。dows上有最新的vs即可。

【本文首发于唐霜的博客】著作权归作者所有,禁止商业用途转载。本文作者:唐霜,转载请注明出处。【作者:唐霜】

需要注意的是,由于node的限制,我们在【关注微信公众号:wwwtangshuangnet】本文版权归作者所有,未经授权不得转载。后续使用langchain时会用到ten原创内容,盗版必究。【关注微信公众号:wwwtangshuangnet】sorflow的cpu版本,而不同电脑上原创内容,盗版必究。本文版权归作者所有,未经授权不得转载。的显卡驱动环境也不确定,因此,在构建ch著作权归作者所有,禁止商业用途转载。【本文受版权保护】atglmjs时,我默认是让模型在cpu【原创不易,请尊重版权】转载请注明出处:www.tangshuang.net上运行的,虽然性能差,但是部署方便。

【本文受版权保护】【本文受版权保护】【未经授权禁止转载】转载请注明出处:www.tangshuang.net【未经授权禁止转载】

Chatglm.cpp把模型文件转化为.本文作者:唐霜,转载请注明出处。【版权所有】唐霜 www.tangshuang.netbin文件的操作需要按照它的文档【原创不易,请尊重版权】进行,此时又要用到python,去搭py本文作者:唐霜,转载请注明出处。【未经授权禁止转载】thon的环境也很麻烦,所以,你可以直接【原创不易,请尊重版权】原创内容,盗版必究。用别人已经转化好的.bin文件。下载之后原创内容,盗版必究。【关注微信公众号:wwwtangshuangnet】,把它的路径传给model_bin_pa本文作者:唐霜,转载请注明出处。【原创内容,转载请注明出处】th即可。

转载请注明出处:www.tangshuang.net原创内容,盗版必究。未经授权,禁止复制转载。

如何在前端开发大模型应用?【访问 www.tangshuang.net 获取更多精彩内容】

【本文首发于唐霜的博客】未经授权,禁止复制转载。转载请注明出处:www.tangshuang.net著作权归作者所有,禁止商业用途转载。【转载请注明来源】

有了chatglmjs之后,我们就有了在转载请注明出处:www.tangshuang.net【作者:唐霜】自己电脑上运行大模型的基础,接下来,我们【原创不易,请尊重版权】原创内容,盗版必究。要做的就是利用它进行更高层面的应用开发。【原创内容,转载请注明出处】【访问 www.tangshuang.net 获取更多精彩内容】对于chatglmjs而言,它只提供了一【原创内容,转载请注明出处】【访问 www.tangshuang.net 获取更多精彩内容】个对话接口,大模型的所有能力都是基于对话【原创不易,请尊重版权】【版权所有】唐霜 www.tangshuang.net来提供的,因此prompt的设计至关重要【转载请注明来源】本文版权归作者所有,未经授权不得转载。,除了prompt之后,想要搭建起一个类未经授权,禁止复制转载。本文版权归作者所有,未经授权不得转载。似chatgpt那样的聊天窗口,我们还要转载请注明出处:www.tangshuang.net著作权归作者所有,禁止商业用途转载。设计聊天历史等状态数据,以及流式交互的接未经授权,禁止复制转载。【版权所有】唐霜 www.tangshuang.net口等等。大体上,我认为我们需要一层一层的【关注微信公众号:wwwtangshuangnet】【原创不易,请尊重版权】按照如下架构来完成开发:

【作者:唐霜】【未经授权禁止转载】【版权所有】唐霜 www.tangshuang.net本文作者:唐霜,转载请注明出处。

【作者:唐霜】【本文首发于唐霜的博客】本文作者:唐霜,转载请注明出处。

大体上想要获得一个应用,要考虑5层设计,【作者:唐霜】著作权归作者所有,禁止商业用途转载。从下到上分别是:存储层、平台层、框架层、原创内容,盗版必究。本文版权归作者所有,未经授权不得转载。业务层、应用层。当然,我这里做的还是比较【版权所有】唐霜 www.tangshuang.net【本文首发于唐霜的博客】草率,在真正设计架构时,还要根据实际业务【本文受版权保护】转载请注明出处:www.tangshuang.net考虑更多东西。在框架层,我推荐LangC【版权所有,侵权必究】【版权所有】唐霜 www.tangshuang.nethain,因为它有js版本,提供了非常丰原创内容,盗版必究。著作权归作者所有,禁止商业用途转载。富的组件,我们利用这些组件来把一些核心的【本文受版权保护】转载请注明出处:www.tangshuang.net东西搭建出来,而不要自己去从零开始写。

【版权所有】唐霜 www.tangshuang.net【转载请注明来源】著作权归作者所有,禁止商业用途转载。

当然,我们在编写代码时,还应该注意,AI本文版权归作者所有,未经授权不得转载。原创内容,盗版必究。是我们的好帮手,我们可以大胆的尝试让AI【原创不易,请尊重版权】【本文首发于唐霜的博客】帮助我们完成这个架构的实现。

著作权归作者所有,禁止商业用途转载。【作者:唐霜】【转载请注明来源】【关注微信公众号:wwwtangshuangnet】本文版权归作者所有,未经授权不得转载。

结语未经授权,禁止复制转载。

转载请注明出处:www.tangshuang.net原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.net【本文首发于唐霜的博客】【版权所有,侵权必究】

本文简单介绍了前端开发者应该如何参与到大【转载请注明来源】原创内容,盗版必究。模型的开发中,其中核心的部分是实现了ch【转载请注明来源】【原创内容,转载请注明出处】atglmjs,可以帮助开发者们在本地使【本文首发于唐霜的博客】原创内容,盗版必究。用大模型作为开发时的依赖,从而更好的验证原创内容,盗版必究。【关注微信公众号:wwwtangshuangnet】自己的想法。相信大模型应用开发会很快成为著作权归作者所有,禁止商业用途转载。【版权所有】唐霜 www.tangshuang.net我们开发业界的讨论重点,我们不妨从现在开【作者:唐霜】原创内容,盗版必究。始尝试,从安装chatglmjs开始体验【未经授权禁止转载】未经授权,禁止复制转载。这一神奇的新时代。

【原创内容,转载请注明出处】【关注微信公众号:wwwtangshuangnet】【关注微信公众号:wwwtangshuangnet】转载请注明出处:www.tangshuang.net原创内容,盗版必究。

2024-01-23 4355

为价值买单,打赏一杯咖啡

本文价值43.55RMB