`
arpenker
  • 浏览: 373600 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

llamafactory微调

阅读更多
获取LLaMA-Factory
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
2、创建虚拟环境
conda create -n llama python=3.11.1
conda activate llama
3.环境配置
pip install -e ".[torch,metrics]"
安装过程中出现了超时错误(ReadTimeoutError),这通常意味着在尝试从 Python 包索引(PyPI)或其他源下载包时,连接超时了。

加上清华镜像源重新执行即可。

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -e ".[torch,metrics]"
安装完成后检查是否安装成功,在终端执行:

llamafactory-cli version
结果输出如下:



4.启动Web UI
启用命令:

export USE_MODELSCOPE_HUB=1 && llamafactory-cli webui
这将启动一个本地Web服务器,可以通过访问http://0.0.0.0:7860来使用Web UI。

今天在这个地方卡了很久,直接打开弹出的链接一直处于加载中的空白页面,复制链接在浏览器打开显示无法访问,下面是解决方法。

这部分主要参考:服务器使用llama-factory 无法在本地打开webui问题处理_llamafactory 本地访问-CSDN博客

解决方案:将链接转为公共链接。
llamafactory-cli webui执行之后会出来一行信息:


中间会有启动不正常的情况。

LLaMA-Factory>pip install -r requirements.txt
官方肯定是少了这一步。

执行完就正常了。按官方的走。
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics