主页 > 开源代码  > 

安卓通过termux部署ChatGLM

安卓通过termux部署ChatGLM
一、安装Termux并进行相关配置 1、安装termux

Termux 是一个 Android 终端仿真应用程序,用于在 Android 手机上搭建一个完整的 Linux 环境。 不需要 root 权限 Termux 就可以正常运行。Termux 基本实现 Linux 下的许多基本操作。可以使用 Termux 安装 python,并实现 python 编程,可以用手机架设 Server,同样可以用于渗透测试等等。

安装链接: 安卓手机termux安装

2、进行配置

打开termux进行apt的更新:

apt update && apt upgrade

安装sudo软件:

pkg install tsu

设置账户密码(后续ssh要用):

passwd

查看账户名(后续ssh要用):

whoami

安装远程ssh:

pkg install ssh

将PC和手机连接在同一局域网上,建议是电脑给手机开热点,在PC端的设置-网络和Internet-移动热点可以查看手机的IP地址。(或者termux用ifconfig查看)

PC通过SSH连接手机:使用Mobaterm,注意端口为8022。 至此,PC与手机端通过Mobaterm和termux完成远程连接。

二、通过fastllm部署ChatGLM2-6b-int4

框架地址: fastllm fastllm是纯c++实现,无第三方依赖的高性能大模型推理库6~7B级模型在安卓端上也可以流畅运行,可以在安卓上直接编译,目前已支持ChatGLM系列模型,各种LLAMA模型(ALPACA, VICUNA等),BAICHUAN模型,QWEN模型,MOSS模型,MINICPM模型等。

1、安装编译fastllm git clone github /ztxz16/fastllm cd fastllm mkdir build cd build cmake .. make -j

安装完后,build文件夹应该有

~/fastllm/build $ ls CMakeCache.txt CMakeFiles Makefile apiserver benchmark cmake_install.cmake main quant testOps tools web webui 2、下载已量化好的.flm模型并导入termux

hatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

模型链接: chatglm-6b-int4.flm

关于如何导入termux目录中,我采用的方法是将模型文件通过USB文件传输到手机文件中,找到文件选择用termux打开即可自动导入到termux系统中的download文件夹中。

3、运行chatglm

关于参数可以通过./main -h查看:

cd fastllm cd build ./main -p ../../downloads/chatglm-6b-int4.flm

手机端运行效果如下:

4、推理速度测试 ./benchmark -p ../../downloads/chatglm-6b-int4.flm -f ../example/benchmark/prompts/beijing.txt -b 1

6B级int4模型在骁龙870(小米10s)上速度大约为1 token/s。

标签:

安卓通过termux部署ChatGLM由讯客互联开源代码栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“安卓通过termux部署ChatGLM