--- title: LobeChat --- # LobeChat ![LobeChat](lobe-chat-ui.avif) ## 介绍 LobeChat是一个开源的前端项目支持多种LLM,你可以配置自己的API和模型供应商然后进行对话。 [![LobeChat Git Card](https://github-readme-stats.jamesflare.com/api/pin/?username=lobehub&repo=lobe-chat&theme=github_dark_dimmed&show_owner=true)](https://github.com/lobehub/lobe-chat) 作为一点福利,我们提供了一个在线的LobeChat,你可以直接访问[这里](https://lobe.jamesflare.com/)。我们配置好了多数API并且为你承担了这些费用,你只需要输入一个Access Password即可免费使用,不过我们不对此项服务的可用性做出保证。也就是说不要将重要业务依赖于此,通过逆向工程提取API盈利也是不被允许的。 ## Access Password Access Password是一个用于验证身份的字符串,你可以在[这里](https://lobe.jamesflare.com/settings/common)输入Access Password来使用LobeChat。Access Password是有时效性的,过期后你需要重新获取一个新的Access Password。 我并不希望过多的人拥有Access Password,特别不是学校里的人。如需获取Access Password,请发送邮件到 support@jamesflare.com,邮件标题为“LobeChat Access Password”,邮件内容请回答 NKCS / DSAS 用的校务管理系统的网址是什么,或者它的名字叫什么。除此之外你还可以向已有的同学询问,或者联系Derick Jiang或者James Zhou,如果你能。 我们正在寻找一种更好的自动化验证方式。 ## 可用模型 - GPT-3.5 Turbo - GPT-4 32K - Claude 3 Opus - Mixtral 8x7B - Qwen 1.5 14B Chat 关于模型的实时可用性可以前去[这里](https://status.jamesflare.com/)查看,里面包含了我的所有服务。 我个人推荐Claude 3 Opus,它的性能超过了GPT-4 0314仅次于GPT-4 Turbo。同时还支持多模态输入,你可以在单轮对话中输入多张图片。这很有趣,比如你有数张手写的实验记录,一起上传它们,然后就可以让Claude整理数据并且撰写实验报告。如果你有多页论文,也可以一同截图上传,这对Claude来说是小菜一碟。 ## 价格 虽然你无需付钱,但是我还是希望你们了解一下这些API的价格,现阶段,它们依旧非常昂贵。如果你在未来要在自己的产品中使用,那么你需要考虑这些费用。 |Model Name|Price of Input|Price of Output| |-|-|-| |GPT-3.5 Turbo|$0.50 / 1M tokens|$1.50 / 1M tokens| |GPT-4 32K|$60.00 / 1M tokens|$120.00 / 1M tokens| |Claude 3 Opus|$15.00 / 1M tokens|$75.00 / 1M tokens| |Mixtral 8x7B|$0.60 / 1M tokens|$0.60 / 1M tokens| |Qwen 1.5 14B Chat|$0.30 / 1M tokens|$0.30 / 1M tokens| Token是一个在LLM领域常用的单位,它代表一个分词,比如sunset就是两个token(sun和set),the的话就是一个token,中文字符每个都是2 token。 这里的价格是以每百万token为单位的,也就是说你的对话越长,你需要支付的费用就越高。模型并没有记忆,“记忆”是通过上下文实现的,假设你在第一轮对话中用了输入了100个token,模型生成了500个token,那么你的费用就是100个输入token和500个输出token的总和。随后你追问一个50个token的问题,模型回答了200个token,那么你的费用就是150个token的输入和700个token的输出。如果不清除多余的上下文,不仅会造成费用的浪费,还会影响模型的性能。 再来一个例子,假设你在单个请求中几乎用满了GPT-4 32K的32K Content Window,那么你的费用就差不多是两美元。一次对话就花了2美元,还不考虑输出更贵,这个价格是非常昂贵的,所以请务必注意你的输入和输出。 ## Content Window 每个模型有它们的Content Window,也就是能容纳的最大输入长度。如果你的输入超过了这个长度,模型会报错。 |Model Name|Content Window| |-|-| |GPT-3.5 Turbo|16k tokens| |GPT-4 32K|32k tokens| |Claude 3 Opus|200k tokens| |Mixtral 8x7B|32k tokens| |Qwen 1.5 14B Chat|32k tokens| ## 性能 不同模型有不同的性能,测试数据多种多样,但我更推荐[LMSYS Chatbot Arena Leaderboard](https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)它基于 Elo 算法,LoL和CS2的排名也是用的这个算法,它是一个非常著名的排名算法。 但我还是希望根据你们的实际使用环境来做选择,感觉好用就好。 ## 评论 {{< comments >}}