本期节目我们将从 Podwise 实际使用 LLM 的经验出发,分享不同模型的优缺点,探讨成本下降背后的原因,以及如何混合使用大模型来提高性价比。同时,我们还会聊聊总结类 AI 产品的未来方向,以及 Podwise 如何利用 LLM 开发新的 AI 功能,比如智能推荐、AI 搜索等等。欢迎收听。
更多内容信息和时间线参考下文的硬地笔记,欢迎收听本期节目。
另外,现在加入「硬地骇客」会员服务,即可在会员专属的微信群与其他朋友一起畅所欲言,成为会员也是对我们持续更新最大的鼓励!
Podwise.ai - Podcast knowledge at 10x speed 🚀
00:00:04 Podwise 的 LLM 应用实践:总结、搜索和创作者工作流
00:09:01 LLM 进化之路:从 GPT-3.5 到 GPT-4.0 和 Gemini 1.5
00:17:44 大模型成本的显著下降:20 倍的成本降低
00:23:31 混合使用大模型:提升性价比的关键
00:26:19 GPT-4o mini vs GPT-4.0:成本与效果的权衡
00:30:07 总结类 AI 产品的未来:场景和数据至关重要
00:33:36 Podwise 的 AI 创新:从总结到知识发现
00:34:58 Podwise 的 RAG 工作流:从音频到搜索
00:38:46 构建私有数据搜索引擎:最佳实践分享
00:43:33 多语言 Embedding 模型的选择:OpenAI 和 BGE M3
00:46:02 Re-rank 模型的选择:BGE M3 和 jina
00:48:08 多语言 Prompt 的最佳实践:Prompt Perfect 和 GitHub Copilot
00:50:54 Gemini 1.5 Flash 的免费额度:个人小项目的利器
00:53:51 独立开发者选择 LLM 的建议:免费、稳定、成本优先
提到的词汇: