add roadmap

This commit is contained in:
JamesFlare1212
2024-04-13 07:02:01 -04:00
parent a806d14eb7
commit 5408adc0b9

View File

@@ -32,25 +32,13 @@ Access Password是一个用于验证身份的字符串你可以在[这里](ht
关于模型的实时可用性可以前去[这里](https://status.jamesflare.com/)查看,里面包含了我的所有服务。
我个人推荐Claude 3 Opus它的性能超过了GPT-4 0314仅次于GPT-4 Turbo。同时还支持多模态输入你可以在单轮对话中输入多张图片。这很有趣比如你有数张手写的实验记录一起上传它们然后就可以让Claude整理数据并且撰写实验报告。如果你有多页论文也可以一同截图上传这对Claude来说是小菜一碟。
我个人推荐Claude 3 Opus它的性能超过了GPT-4 0314仅次于GPT-4 Turbo。同时还支持多模态输入和GPT系列不同的是你可以在单轮对话中输入多张图片。这很有趣比如你有数张手写的实验记录一起上传它们然后就可以让Claude整理数据并且撰写实验报告。如果你有多页论文也可以一同截图上传这对Claude来说是小菜一碟。
## 价格
## 性能
虽然你无需付钱但是我还是希望你们了解一下这些API的价格现阶段它们依旧非常昂贵。如果你在未来要在自己的产品中使用那么你需要考虑这些费用
不同模型有不同的性能,测试数据多种多样,但我更推荐[LMSYS Chatbot Arena Leaderboard](https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)它基于 Elo 算法LoL和CS2的排名也是用的这个算法它是一个非常著名的排名算法
|Model Name|Price of Input|Price of Output|
|-|-|-|
|GPT-3.5 Turbo|$0.50 / 1M tokens|$1.50 / 1M tokens|
|GPT-4 32K|$60.00 / 1M tokens|$120.00 / 1M tokens|
|Claude 3 Opus|$15.00 / 1M tokens|$75.00 / 1M tokens|
|Mixtral 8x7B|$0.60 / 1M tokens|$0.60 / 1M tokens|
|Qwen 1.5 14B Chat|$0.30 / 1M tokens|$0.30 / 1M tokens|
Token是一个在LLM领域常用的单位它代表一个分词比如sunset就是两个tokensun和setthe的话就是一个token中文字符每个都是2 token。
这里的价格是以每百万token为单位的也就是说你的对话越长你需要支付的费用就越高。模型并没有记忆“记忆”是通过上下文实现的假设你在第一轮对话中用了输入了100个token模型生成了500个token那么你的费用就是100个输入token和500个输出token的总和。随后你追问一个50个token的问题模型回答了200个token那么你的费用就是150个token的输入和700个token的输出。如果不清除多余的上下文不仅会造成费用的浪费还会影响模型的性能。
再来一个例子假设你在单个请求中几乎用满了GPT-4 32K的32K Content Window那么你的费用就差不多是两美元。一次对话就花了2美元还不考虑输出更贵这个价格是非常昂贵的所以请务必注意你的输入和输出。
但我还是希望根据你们的实际使用环境来做选择,感觉好用就好。
## Content Window
@@ -64,11 +52,29 @@ Token是一个在LLM领域常用的单位它代表一个分词比如sunset
|Mixtral 8x7B|32k tokens|
|Qwen 1.5 14B Chat|32k tokens|
## 性能
除此之外我已经确认的是Claude 3 Opus的最大输出长度是4096 tokens。即模型在输出到达4096 tokens后会截断输出不过你可以让它在下一轮对话中继续输出。
不同模型有不同的性能,测试数据多种多样,但我更推荐[LMSYS Chatbot Arena Leaderboard](https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)它基于 Elo 算法LoL和CS2的排名也是用的这个算法它是一个非常著名的排名算法
Token是一个在LLM领域常用的单位它代表一个分词比如sunset就是两个tokensun和setthe的话就是一个token中文字符每个都是2 token
但我还是希望根据你们的实际使用环境来做选择,感觉好用就好。
> Multiple models, each with different capabilities and price points. Prices can be viewed in units of either per 1M or 1K tokens. You can think of tokens as pieces of words, where 1,000 tokens is about 750 words. This paragraph is 35 tokens.
>
> [OpenAI](https://openai.com/pricing)
## 价格
虽然你无需支付成本但是我还是希望你们了解一下这些API的价格现阶段它们依旧非常昂贵。如果你在未来要在自己的产品中使用那么你需要考虑这些费用。
|Model Name|Price of Input|Price of Output|
|-|-|-|
|GPT-3.5 Turbo|$0.50 / 1M tokens|$1.50 / 1M tokens|
|GPT-4 32K|$60.00 / 1M tokens|$120.00 / 1M tokens|
|Claude 3 Opus|$15.00 / 1M tokens|$75.00 / 1M tokens|
|Mixtral 8x7B|$0.60 / 1M tokens|$0.60 / 1M tokens|
|Qwen 1.5 14B Chat|$0.30 / 1M tokens|$0.30 / 1M tokens|
这里的价格是以每百万token为单位的也就是说你的对话越长你需要支付的费用就越高。模型并没有记忆“记忆”是通过上下文实现的假设你在第一轮对话中用了输入了100个token模型生成了500个token那么你的费用就是100个输入token和500个输出token的总和。随后你追问一个50个token的问题模型回答了200个token那么你的费用就是150个token的输入和700个token的输出。如果不清除多余的上下文不仅会造成费用的浪费还会影响模型的性能。
再来一个例子假设你在单个请求中几乎用满了GPT-4 32K的32K Content Window那么你的费用就差不多是两美元。一次对话就花了2美元还不考虑输出更贵这个价格是非常昂贵的所以请务必注意你的输入和输出。
## 评论