Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

RuntimeOptimze-已有模型选择和微调新模型 #86

Open
rm-rf-me opened this issue Jun 17, 2024 · 1 comment
Open

RuntimeOptimze-已有模型选择和微调新模型 #86

rm-rf-me opened this issue Jun 17, 2024 · 1 comment
Assignees
Labels
development 包含潜在创新点 搞成了大概有学术价值

Comments

@rm-rf-me
Copy link
Collaborator

ChainStream未来将会运行一个体积庞大的Stream flow graph,其单位时间内的计算量和长期开机的累积计算量都是巨大的,会带来大量的token fee开销。目前已有大量不同类型性能的LLM,但对于用户开发者来讲,选用的LLM只需要满足其需求即可,但往往处于性能最大化的考虑选择最强最贵的模型,从而带来能多额外开销。

ChainStream希望从系统角度完成token fee最优化的问题。主要包括两个部分,定制模型和模型选择:

  • 定制模型:针对某确定task,在一段数据积累后尝试微调一个定制LLM。
  • 模型选择:云端最强模型、云端普通模型、本地模型、定制模型四选一,在开销和效果中找trade off。
@rm-rf-me rm-rf-me added development 包含潜在创新点 搞成了大概有学术价值 labels Jun 17, 2024
@rm-rf-me rm-rf-me self-assigned this Jun 17, 2024
@rm-rf-me
Copy link
Collaborator Author

当前系统主要支持这几种模态:文本、视觉、语音。其中语音大多为转录+语音合成pipline构成,所以识别模型和语音合成模型单独选择。

那么模型类别和其选择空间大概是:

  • 纯文本模型:云端强、云端弱、本地、微调。
  • 文本+视觉模型:云端强、云端弱、本地、微调。
  • 原生文本+视觉+语音模型:云端强、云端弱、本地、微调。
  • pipline文本+语音模型:文本模型类别*语音模型类别。

开发者只需要选择模型的类别,Runtime自动在其选择空间中做出选择。

具体思路为,Runtime中统一监控所有LLM实例,记录task在该LLM实例上的query记录。在前期为每个query并行query所有类别模型输出并做比对和选择,根据task稳定性和query相似度做选择。后期尽在异常时发起多个模型query重新选择。此外,在积累一定数据量后尝试微调一个LLM,并在选择时考虑该模型。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
development 包含潜在创新点 搞成了大概有学术价值
Projects
None yet
Development

No branches or pull requests

1 participant