阿猫的博客

阿猫的博客

LLM

LLM 超长小说文本总结

背景 使用 LLM 对网页、文章、PDF 文件等进行总结已经不是什么新鲜的应用,LLM 也逐渐往超大上下文窗口(直到 24 年 5 月,主流的模型上下文窗口基本已经到 128K,最大 200K)和多模态发展,处理一般的文本已经不是什么大的问题。 尽管如此,LLM 并不能一次性处理小说总体较长的文本,
AI
869
0
2024-06-05

LLM 选型

Leaderboard Streamlit LLM Leaderboard 2024 LLM Rankings | OpenRouter 模型概览 model cost(input) cost(output) context gpt-4-turbo $10/1M tokens $10/1M toke
258
0
2024-04-02