阿猫的博客
阿猫的博客
Code for fun, and for ever.
首页
影集
猫鱼周刊
系列小书
AI 笔记
博客搭建教程
文章归档
项目导航
关于本猫
开往
友链
首页
影集
猫鱼周刊
系列小书
AI 笔记
博客搭建教程
文章归档
项目导航
关于本猫
开往
友链
AI
Python
Cheatsheet
后端
Docker
折腾
CI/CD
安卓
收藏夹
阿猫看什么
算法
随想
Go
技术文章精读
开发技巧
猫鱼周刊
Meshtastic
博客运营
年度总结
AI
LLM 结构化输出
引子 在几乎除了聊天以外所有的程序调用场景中,我们都希望 LLM 通过某种结构化的方式来输出,便于后续程序处理。在本文中,我们采用一个推书的例子,通过几种方式由简单到复杂地让 LLM 结构化地输出结果。我采用的方法尽量不依赖某个平台或模型的特有功能,而是一些通用的方式来实现。 这个例子很简单,向 L
AI
1055
0
2024-07-12
LLM 超长小说文本总结
背景 使用 LLM 对网页、文章、PDF 文件等进行总结已经不是什么新鲜的应用,LLM 也逐渐往超大上下文窗口(直到 24 年 5 月,主流的模型上下文窗口基本已经到 128K,最大 200K)和多模态发展,处理一般的文本已经不是什么大的问题。 尽管如此,LLM 并不能一次性处理小说总体较长的文本,
AI
869
0
2024-06-05