Releases: PiDanShouRouZhouXD/Sakura_Launcher_GUI
Releases · PiDanShouRouZhouXD/Sakura_Launcher_GUI
v1.1.0-beta
v1.1.0-alpha
新功能
GPU能力检测(可在设置中关闭)
每线程context长度检测(可在设置中关闭)
自动根据剩余显存配置合适的np和context(仅限Nvidia显卡、下载列表内存在的模型)
优化
大幅减小打包体积 @FishHawk
Contributors
- 感谢 @kurikomoe 的贡献
- 感谢 @FishHawk 的贡献
Full Changelog: v1.0.0-beta...v1.1.0-alpha
v1.0.0-beta
新增:
- UI大幅重构
- 检测版本更新,新版本下载
- 共享-在线排名查看功能(暂时不可用)
- 切换下载源
- 自动检测下载cudart
- 并行下载
感谢 @FishHawk 的贡献
Full Changelog: v0.0.8-beta...v1.0.0-beta
v0.0.8-beta
新增:
- 分享数据统计功能
- 统计数据的单位显示
优化:
- batch-bench的context滑块改为对数滑块,与server保持一致
- 增加context滑块上限到128k
- 将涉及网络访问的函数拆分到worker进程中,减少主界面卡顿
修复:
- 修正模型和llama.cpp的下载错误
- 修复numpy版本相关问题
- 一些分享相关的逻辑错误
- batch-bench不能正常运行
0.0.7版本的用户请尽快升级
v0.0.7-beta
新增:
- 自动获取最新llama.cpp(CUDA)版本
- 模型列表支持按修改时间、文件名或文件大小排序
优化:
- 升级llama版本
- 增加q4km的hash校验
- 调整下载页面结构
修复:
- 修复多次解压的问题
- 解决Linux系统无法运行的问题
- 下载路径错误的问题
v0.0.6-beta
- 新增保存窗口大小和位置的功能,默认开启。
- 新增查看共享slot数量和状态的功能。
- 对下载的模型进行hash校验。
- llamacpp新增780m专用版。
v0.0.5-beta
新增了一键分享本地部署模型的功能,详情请参考内部说明和https://github.com/1PercentSync/sakura-share
- 更新了默认的worker_url
v0.0.4-beta-fix1
v0.0.4-beta
- 更新了AMD显卡的可见设备选择支持,详情请查看用户手册。
- 增加了llamacpp override功能,优先级高于设置页面的llamacpp。
- 优化了进度条,改为了指数增长,256token一档,并支持了预览多线程时每个线程的token数量。
- 一些bug修复。
v0.0.3-beta
- 增加了自动下载llama.cpp的功能,有AMD显卡/ROCm版本,支持显卡列表详见程序内说明文字。
- 增加了从hf-mirror拉取Sakura/Galtransl模型的功能。
- 一些bug修复。