本地化大语言模型ChatGLM,纯前端技术玩转大模型

广告位招租
扫码页面底部二维码联系

作为前端开发,想要介入大模型应用开发,必著作权归作者所有,禁止商业用途转载。本文版权归作者所有,未经授权不得转载。须有一个大模型可以作为底层驱动,但是op未经授权,禁止复制转载。【未经授权禁止转载】enAI的chatGPT需要付费,且网络著作权归作者所有,禁止商业用途转载。【本文受版权保护】影响因素大,本地部署大模型就成了开发阶段未经授权,禁止复制转载。本文作者:唐霜,转载请注明出处。的必然选择。作为架构中的关键一环,我们需【访问 www.tangshuang.net 获取更多精彩内容】【版权所有】唐霜 www.tangshuang.net要一个本地化的大语言模型来支持“完全本地著作权归作者所有,禁止商业用途转载。【作者:唐霜】化”。目前市面上的大模型非常多,但对于我【原创不易,请尊重版权】【关注微信公众号:wwwtangshuangnet】们而言,必须满足开源、免费、支持中文这三个硬性条件,另外还要考虑性能、tok本文作者:唐霜,转载请注明出处。转载请注明出处:www.tangshuang.neten量、智能程度等。开源是为了本地化部署【作者:唐霜】本文作者:唐霜,转载请注明出处。,像openai的闭源模型,直接pass原创内容,盗版必究。未经授权,禁止复制转载。。国外有几个性能和智能程度都很好的开源模【原创不易,请尊重版权】本文作者:唐霜,转载请注明出处。型,但是不支持中文比较遗憾。最终选定了c【未经授权禁止转载】转载请注明出处:www.tangshuang.nethatglm作为我们的目标。本文将详细讲原创内容,盗版必究。原创内容,盗版必究。解我开发的chatglmjs,这个让前端【关注微信公众号:wwwtangshuangnet】转载请注明出处:www.tangshuang.net开发者可以快速接入本地化大模型的库。

原创内容,盗版必究。本文作者:唐霜,转载请注明出处。

什么是ChatGLM?

ChatGLM是有清华和智普合作研发的一【访问 www.tangshuang.net 获取更多精彩内容】【作者:唐霜】款大语言模型,目前是开源免费可商用(需获本文版权归作者所有,未经授权不得转载。【关注微信公众号:wwwtangshuangnet】得许可)的状态,支持中英双语,在中文领域【转载请注明来源】【原创内容,转载请注明出处】属于第一批次的开源模型。

转载请注明出处:www.tangshua【版权所有,侵权必究】【关注微信公众号:wwwtangshuangnet】ng.net【作者:唐霜】

和ChatGPT一样,都是基于对话形式的【版权所有】唐霜 www.tangshuang.net著作权归作者所有,禁止商业用途转载。大语言模型,虽然GLM与GPT不同,但是本文版权归作者所有,未经授权不得转载。本文作者:唐霜,转载请注明出处。在最终表现形式,ChatGLM和Chat【本文受版权保护】【转载请注明来源】GPT是一致的应用形态,都是对话模式下的【原创内容,转载请注明出处】【作者:唐霜】LLM。预训练语言模型大体可以分为三种:【原创不易,请尊重版权】本文版权归作者所有,未经授权不得转载。自回归(GPT系列)、自编码(BERT系本文版权归作者所有,未经授权不得转载。【版权所有】唐霜 www.tangshuang.net列)、编码-解码(T5、BART)。GL著作权归作者所有,禁止商业用途转载。【关注微信公众号:wwwtangshuangnet】M是一个通用的预训练语言模型,它在NLU著作权归作者所有,禁止商业用途转载。【版权所有,侵权必究】(自然语言理解)、conditional原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.net(条件文本生成) and uncondi著作权归作者所有,禁止商业用途转载。【版权所有】唐霜 www.tangshuang.nettional generation(非条转载请注明出处:www.tangshuang.net【访问 www.tangshuang.net 获取更多精彩内容】件文本生成)上都有着不错的表现。通俗的讲原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.net,区别于上述三种预训练方案,GLM采用“【原创内容,转载请注明出处】转载请注明出处:www.tangshuang.net完形填空”的方案来训练模型。

【版权所有】唐霜 www.tangshu【原创不易,请尊重版权】【原创内容,转载请注明出处】ang.net【本文受版权保护】本文作者:唐霜,转载请注明出处。转载请注明出处:www.tangshua【本文受版权保护】【版权所有】唐霜 www.tangshuang.netng.net

虽然总体上,目前的最新版ChatGLM3本文版权归作者所有,未经授权不得转载。未经授权,禁止复制转载。能力还不如ChatGPT,但是在通用智能【访问 www.tangshuang.net 获取更多精彩内容】【未经授权禁止转载】方面已经有非常不俗的表现,可以作为我们开【版权所有】唐霜 www.tangshuang.net【本文首发于唐霜的博客】发的底层智能驱动。

原创内容,盗版必究。未经授权,禁止复制转载。【版权所有,侵权必究】本文版权归作者所有,未经授权不得转载。

另外,与其他开源模型相比,ChatGLM【作者:唐霜】转载请注明出处:www.tangshuang.net还有一个特点,对机器的要求不高,其量化版【转载请注明来源】【本文受版权保护】本甚至被某些网友移植到安卓手机上运行,可【原创内容,转载请注明出处】原创内容,盗版必究。见未来有可能在手机上大面积应用该模型。

本文版权归作者所有,未经授权不得转载。【未经授权禁止转载】

如何本地化LLM?

ChatGLM官方提供的是python的【版权所有,侵权必究】本文作者:唐霜,转载请注明出处。demo和微调代码,怎么才能在我们的no转载请注明出处:www.tangshuang.net原创内容,盗版必究。dejs环境中跑它的模型呢?一种方案是用本文版权归作者所有,未经授权不得转载。转载请注明出处:www.tangshuang.netfastapi起一个python的服务提未经授权,禁止复制转载。【原创不易,请尊重版权】供接口,node端像普通调第三方接口一样转载请注明出处:www.tangshuang.net转载请注明出处:www.tangshuang.net调用它,但是这样就违背了我“纯前端技术”【原创内容,转载请注明出处】【版权所有,侵权必究】的目标,况且python的环境并不好搭,著作权归作者所有,禁止商业用途转载。未经授权,禁止复制转载。我折腾了很久才跑起了它的demo。还有没【版权所有】唐霜 www.tangshuang.net转载请注明出处:www.tangshuang.net有其他方案呢?

【访问 www.tangshuang.n本文作者:唐霜,转载请注明出处。【本文首发于唐霜的博客】et 获取更多精彩内容】【原创不易,请尊重版权】原创内容,盗版必究。

我们来分析一下,其实对于运行大模型用来预转载请注明出处:www.tangshuang.net【原创内容,转载请注明出处】测而言,它的代码分为3个部分:模型文件本【本文受版权保护】转载请注明出处:www.tangshuang.net身、transformer运行时代码、用原创内容,盗版必究。未经授权,禁止复制转载。来提供对外标准接口的代码。其中,模型文件原创内容,盗版必究。【原创不易,请尊重版权】本身都是一样的,从huggingface【访问 www.tangshuang.net 获取更多精彩内容】【本文受版权保护】上下载。官方提供的python demo【本文首发于唐霜的博客】【本文首发于唐霜的博客】其实主要是实现了运行时,可以加载模型文件未经授权,禁止复制转载。【未经授权禁止转载】和transform,并完成预测。接口代【访问 www.tangshuang.net 获取更多精彩内容】【本文首发于唐霜的博客】码则是赠送品,只用来作为demo的可交互【未经授权禁止转载】原创内容,盗版必究。界面。

【本文首发于唐霜的博客】【转载请注明来源】

对于我们而言,最难搞定的就是,如何在no【本文受版权保护】【版权所有】唐霜 www.tangshuang.netdejs下有一个可以加载、执行模型文件的【本文首发于唐霜的博客】【未经授权禁止转载】运行时。

【本文首发于唐霜的博客】未经授权,禁止复制转载。【原创内容,转载请注明出处】

灵光一闪下,我看到社区有一个chatgl【版权所有,侵权必究】本文版权归作者所有,未经授权不得转载。m.cpp的项目,结合nodejs可以支原创内容,盗版必究。【原创内容,转载请注明出处】持c/c++ addon,瞬间就来了灵感本文作者:唐霜,转载请注明出处。【原创内容,转载请注明出处】。chatglm.cpp这个项目用c++【关注微信公众号:wwwtangshuangnet】转载请注明出处:www.tangshuang.net实现了transformer运行时,除了【作者:唐霜】著作权归作者所有,禁止商业用途转载。支持chatglm外,还支持百川和其他几【未经授权禁止转载】转载请注明出处:www.tangshuang.net个模型。我们把它的c++代码提炼出来,稍著作权归作者所有,禁止商业用途转载。本文作者:唐霜,转载请注明出处。作调整,编译成可以在nodejs环境下运转载请注明出处:www.tangshuang.net本文作者:唐霜,转载请注明出处。行的addon文件,直接在js里面reu转载请注明出处:www.tangshuang.net【版权所有】唐霜 www.tangshuang.netqire即可。这样一来,我们就可以nod【未经授权禁止转载】【未经授权禁止转载】ejs本地运行大模型啦。此外,它需要把原转载请注明出处:www.tangshuang.net本文版权归作者所有,未经授权不得转载。始的模型文件转化为自己的.bin文件,通【原创内容,转载请注明出处】【作者:唐霜】过这部转化,原始模型文件由分散的文件列表【作者:唐霜】【原创内容,转载请注明出处】,变成一个独立的.bin文件,这样更方便本文版权归作者所有,未经授权不得转载。【转载请注明来源】我们实现模型文件的迁移和分享。

本文作者:唐霜,转载请注明出处。【版权所有】唐霜 www.tangshu【本文首发于唐霜的博客】【关注微信公众号:wwwtangshuangnet】ang.net著作权归作者所有,禁止商业用途转载。本文版权归作者所有,未经授权不得转载。

经过一个周末的折腾之后,我完成了这个部分【原创不易,请尊重版权】本文版权归作者所有,未经授权不得转载。的整理,并发布了chatglmjs这个包本文作者:唐霜,转载请注明出处。【版权所有】唐霜 www.tangshuang.net,你可以方便使用它:

转载请注明出处:www.tangshua【未经授权禁止转载】【原创内容,转载请注明出处】ng.net本文作者:唐霜,转载请注明出处。
import { chat } from 'chatglmjs';

chat({
  model_bin_path,
  prompt: '你好',
  onmessage(msg) {
    process.stdout.write(msg);
  },
});
转载请注明出处:www.tangshua转载请注明出处:www.tangshuang.net【版权所有】唐霜 www.tangshuang.netng.net本文作者:唐霜,转载请注明出处。【版权所有】唐霜 www.tangshu著作权归作者所有,禁止商业用途转载。【未经授权禁止转载】ang.net

安装chatglmjs时,它会自己编译自本文作者:唐霜,转载请注明出处。【未经授权禁止转载】己,因此需要你的电脑有完整的可以编译c+【作者:唐霜】著作权归作者所有,禁止商业用途转载。+的环境,mac上有对应版本的xcode原创内容,盗版必究。著作权归作者所有,禁止商业用途转载。,linux则是较高版本的g++,win原创内容,盗版必究。【关注微信公众号:wwwtangshuangnet】dows上有最新的vs即可。

【版权所有,侵权必究】本文作者:唐霜,转载请注明出处。本文版权归作者所有,未经授权不得转载。【版权所有】唐霜 www.tangshu【版权所有】唐霜 www.tangshuang.net【本文首发于唐霜的博客】ang.net

需要注意的是,由于node的限制,我们在原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.net后续使用langchain时会用到ten【原创内容,转载请注明出处】原创内容,盗版必究。sorflow的cpu版本,而不同电脑上【原创内容,转载请注明出处】【访问 www.tangshuang.net 获取更多精彩内容】的显卡驱动环境也不确定,因此,在构建ch著作权归作者所有,禁止商业用途转载。【本文首发于唐霜的博客】atglmjs时,我默认是让模型在cpu未经授权,禁止复制转载。本文作者:唐霜,转载请注明出处。上运行的,虽然性能差,但是部署方便。

【版权所有】唐霜 www.tangshu转载请注明出处:www.tangshuang.net【本文受版权保护】ang.net转载请注明出处:www.tangshua【版权所有】唐霜 www.tangshuang.net【未经授权禁止转载】ng.net【作者:唐霜】本文作者:唐霜,转载请注明出处。

Chatglm.cpp把模型文件转化为.【本文首发于唐霜的博客】【本文受版权保护】bin文件的操作需要按照它的文档进行,此时又要用到python,去搭py原创内容,盗版必究。【原创不易,请尊重版权】thon的环境也很麻烦,所以,你可以直接【转载请注明来源】【访问 www.tangshuang.net 获取更多精彩内容】用别人已经转化好的.bin文件。下载之后【关注微信公众号:wwwtangshuangnet】【原创不易,请尊重版权】,把它的路径传给model_bin_pa【关注微信公众号:wwwtangshuangnet】【未经授权禁止转载】th即可。

【原创内容,转载请注明出处】本文版权归作者所有,未经授权不得转载。

如何在前端开发大模型应用?

有了chatglmjs之后,我们就有了在本文作者:唐霜,转载请注明出处。著作权归作者所有,禁止商业用途转载。自己电脑上运行大模型的基础,接下来,我们【未经授权禁止转载】【版权所有】唐霜 www.tangshuang.net要做的就是利用它进行更高层面的应用开发。本文版权归作者所有,未经授权不得转载。原创内容,盗版必究。对于chatglmjs而言,它只提供了一著作权归作者所有,禁止商业用途转载。【转载请注明来源】个对话接口,大模型的所有能力都是基于对话原创内容,盗版必究。本文版权归作者所有,未经授权不得转载。来提供的,因此prompt的设计至关重要【转载请注明来源】【本文受版权保护】,除了prompt之后,想要搭建起一个类【原创不易,请尊重版权】原创内容,盗版必究。似chatgpt那样的聊天窗口,我们还要未经授权,禁止复制转载。【作者:唐霜】设计聊天历史等状态数据,以及流式交互的接本文作者:唐霜,转载请注明出处。【版权所有,侵权必究】口等等。大体上,我认为我们需要一层一层的本文版权归作者所有,未经授权不得转载。【版权所有,侵权必究】按照如下架构来完成开发:

著作权归作者所有,禁止商业用途转载。原创内容,盗版必究。

未经授权,禁止复制转载。原创内容,盗版必究。

大体上想要获得一个应用,要考虑5层设计,著作权归作者所有,禁止商业用途转载。【作者:唐霜】从下到上分别是:存储层、平台层、框架层、未经授权,禁止复制转载。【原创内容,转载请注明出处】业务层、应用层。当然,我这里做的还是比较原创内容,盗版必究。未经授权,禁止复制转载。草率,在真正设计架构时,还要根据实际业务本文作者:唐霜,转载请注明出处。【关注微信公众号:wwwtangshuangnet】考虑更多东西。在框架层,我推荐LangC本文作者:唐霜,转载请注明出处。本文版权归作者所有,未经授权不得转载。hain,因为它有js版本,提供了非常丰转载请注明出处:www.tangshuang.net【版权所有】唐霜 www.tangshuang.net富的组件,我们利用这些组件来把一些核心的【本文受版权保护】未经授权,禁止复制转载。东西搭建出来,而不要自己去从零开始写。

【未经授权禁止转载】【原创不易,请尊重版权】

当然,我们在编写代码时,还应该注意,AI【作者:唐霜】本文版权归作者所有,未经授权不得转载。是我们的好帮手,我们可以大胆的尝试让AI本文版权归作者所有,未经授权不得转载。著作权归作者所有,禁止商业用途转载。帮助我们完成这个架构的实现。

【本文受版权保护】【原创不易,请尊重版权】著作权归作者所有,禁止商业用途转载。原创内容,盗版必究。

结语

本文简单介绍了前端开发者应该如何参与到大【版权所有】唐霜 www.tangshuang.net【本文受版权保护】模型的开发中,其中核心的部分是实现了ch【关注微信公众号:wwwtangshuangnet】本文版权归作者所有,未经授权不得转载。atglmjs,可以帮助开发者们在本地使著作权归作者所有,禁止商业用途转载。【关注微信公众号:wwwtangshuangnet】用大模型作为开发时的依赖,从而更好的验证本文作者:唐霜,转载请注明出处。未经授权,禁止复制转载。自己的想法。相信大模型应用开发会很快成为【版权所有】唐霜 www.tangshuang.net著作权归作者所有,禁止商业用途转载。我们开发业界的讨论重点,我们不妨从现在开【访问 www.tangshuang.net 获取更多精彩内容】【版权所有】唐霜 www.tangshuang.net始尝试,从安装chatglmjs开始体验【原创内容,转载请注明出处】著作权归作者所有,禁止商业用途转载。这一神奇的新时代。

未经授权,禁止复制转载。【原创不易,请尊重版权】转载请注明出处:www.tangshua原创内容,盗版必究。【版权所有,侵权必究】ng.net

2024-01-23 4654

为价值买单,打赏一杯咖啡

本文价值46.54RMB