阿猫的博客

阿猫的博客

AI

LLM 结构化输出

引子 在几乎除了聊天以外所有的程序调用场景中,我们都希望 LLM 通过某种结构化的方式来输出,便于后续程序处理。在本文中,我们采用一个推书的例子,通过几种方式由简单到复杂地让 LLM 结构化地输出结果。我采用的方法尽量不依赖某个平台或模型的特有功能,而是一些通用的方式来实现。 这个例子很简单,向 L
AI
1055
0
2024-07-12

LLM 超长小说文本总结

背景 使用 LLM 对网页、文章、PDF 文件等进行总结已经不是什么新鲜的应用,LLM 也逐渐往超大上下文窗口(直到 24 年 5 月,主流的模型上下文窗口基本已经到 128K,最大 200K)和多模态发展,处理一般的文本已经不是什么大的问题。 尽管如此,LLM 并不能一次性处理小说总体较长的文本,
AI
869
0
2024-06-05