lobechat and file rename

This commit is contained in:
JamesFlare1212
2024-04-12 17:28:49 -04:00
parent 33b8f07239
commit a806d14eb7
332 changed files with 3817 additions and 38856 deletions

View File

@@ -0,0 +1,75 @@
---
title: LobeChat
---
# LobeChat
![LobeChat](lobe-chat-ui.avif)
## 介绍
LobeChat是一个开源的前端项目支持多种LLM你可以配置自己的API和模型供应商然后进行对话。
[![LobeChat Git Card](https://github-readme-stats.jamesflare.com/api/pin/?username=lobehub&repo=lobe-chat&theme=github_dark_dimmed&show_owner=true)](https://github.com/lobehub/lobe-chat)
作为一点福利我们提供了一个在线的LobeChat你可以直接访问[这里](https://lobe.jamesflare.com/)。我们配置好了多数API并且为你承担了这些费用你只需要输入一个Access Password即可免费使用不过我们不对此项服务的可用性做出保证。也就是说不要将重要业务依赖于此通过逆向工程提取API盈利也是不被允许的。
## Access Password
Access Password是一个用于验证身份的字符串你可以在[这里](https://lobe.jamesflare.com/settings/common)输入Access Password来使用LobeChat。Access Password是有时效性的过期后你需要重新获取一个新的Access Password。
我并不希望过多的人拥有Access Password特别不是学校里的人。如需获取Access Password请发送邮件到 support@jamesflare.com邮件标题为“LobeChat Access Password”邮件内容请回答 NKCS / DSAS 用的校务管理系统的网址是什么或者它的名字叫什么。除此之外你还可以向已有的同学询问或者联系Derick Jiang或者James Zhou如果你能。
我们正在寻找一种更好的自动化验证方式。
## 可用模型
- GPT-3.5 Turbo
- GPT-4 32K
- Claude 3 Opus
- Mixtral 8x7B
- Qwen 1.5 14B Chat
关于模型的实时可用性可以前去[这里](https://status.jamesflare.com/)查看,里面包含了我的所有服务。
我个人推荐Claude 3 Opus它的性能超过了GPT-4 0314仅次于GPT-4 Turbo。同时还支持多模态输入你可以在单轮对话中输入多张图片。这很有趣比如你有数张手写的实验记录一起上传它们然后就可以让Claude整理数据并且撰写实验报告。如果你有多页论文也可以一同截图上传这对Claude来说是小菜一碟。
## 价格
虽然你无需付钱但是我还是希望你们了解一下这些API的价格现阶段它们依旧非常昂贵。如果你在未来要在自己的产品中使用那么你需要考虑这些费用。
|Model Name|Price of Input|Price of Output|
|-|-|-|
|GPT-3.5 Turbo|$0.50 / 1M tokens|$1.50 / 1M tokens|
|GPT-4 32K|$60.00 / 1M tokens|$120.00 / 1M tokens|
|Claude 3 Opus|$15.00 / 1M tokens|$75.00 / 1M tokens|
|Mixtral 8x7B|$0.60 / 1M tokens|$0.60 / 1M tokens|
|Qwen 1.5 14B Chat|$0.30 / 1M tokens|$0.30 / 1M tokens|
Token是一个在LLM领域常用的单位它代表一个分词比如sunset就是两个tokensun和setthe的话就是一个token中文字符每个都是2 token。
这里的价格是以每百万token为单位的也就是说你的对话越长你需要支付的费用就越高。模型并没有记忆“记忆”是通过上下文实现的假设你在第一轮对话中用了输入了100个token模型生成了500个token那么你的费用就是100个输入token和500个输出token的总和。随后你追问一个50个token的问题模型回答了200个token那么你的费用就是150个token的输入和700个token的输出。如果不清除多余的上下文不仅会造成费用的浪费还会影响模型的性能。
再来一个例子假设你在单个请求中几乎用满了GPT-4 32K的32K Content Window那么你的费用就差不多是两美元。一次对话就花了2美元还不考虑输出更贵这个价格是非常昂贵的所以请务必注意你的输入和输出。
## Content Window
每个模型有它们的Content Window也就是能容纳的最大输入长度。如果你的输入超过了这个长度模型会报错。
|Model Name|Content Window|
|-|-|
|GPT-3.5 Turbo|16k tokens|
|GPT-4 32K|32k tokens|
|Claude 3 Opus|200k tokens|
|Mixtral 8x7B|32k tokens|
|Qwen 1.5 14B Chat|32k tokens|
## 性能
不同模型有不同的性能,测试数据多种多样,但我更推荐[LMSYS Chatbot Arena Leaderboard](https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)它基于 Elo 算法LoL和CS2的排名也是用的这个算法它是一个非常著名的排名算法。
但我还是希望根据你们的实际使用环境来做选择,感觉好用就好。
## 评论
{{< comments >}}