Podcast logo

EP53 200万的Kimi能否重塑AI应用开发?

49 分钟 · 

我们一直在关注国外的一些 AI 产品,从大模型到应用层莫不如此,今天我们决定好好讨论一下国产大模型产品 Kimi。Kimi 的200万上下文实在太炸裂了,这么大的 “内存” 能不能改变 AI 应用开发生态?又是否会逐渐淘汰现在主流的 RAG 技术栈呢?除了一系列的技术疑问之外,还有产品、商业、估值等等,都值得我们去认真了解一下这个国产大模型领域的 “当红炸子鸡”。 如果大家有更多关于 Kimi 的使用经验和体验,记得在我们评论区分享。

(本期节目没有收钱🥹🥹🥹)

欢迎收听本期节目,更多内容信息和时间线参考下文的硬地笔记。

本期 Sponsors

Special Sponsor: Podwise.ai 👑

硬地笔记

00:00:04 Kimi的200万上下文窗口:全球领先的差异化优势

00:01:59 长上下文在应用开发中的优势

00:10:28 大模型上下文复杂性与训练计算复杂度

00:14:10 Kimi的联网功能令人惊叹

00:17:09 Kimi的爆火:超出预期的体验和2C路线的优势

00:20:51 大模型在B端的落地场景有限,2C 或为更好的选择

00:25:45 C端验证,B端落地的AI产品发展路径

00:28:44 Kimi融资背后的投资关系与组织挑战

00:32:37 RAG技术:检索增强与外部知识加载

00:41:04 大模型与检索式生成技术的互补关系

00:43:33 Kimi估值25亿美金,AI公司估值溢价明显

00:47:03 中国AI巨头之争:本土市场利弊与全球化挑战

硬地新知

  • AGI: AGI是人工智能(Artificial General Intelligence)的缩写,指的是具有与人类智能相等或超过的智能水平的人工智能系统。AGI具有广泛的学习能力和适应能力,能够在各种复杂任务上表现优秀。
  • ARR: ARR是Annual Recurring Revenue的缩写,指的是一年内重复发生的收入。在讨论企业的经济情况或者估值时,ARR是一个重要指标,可以帮助衡量企业的稳定性和增长潜力。
  • RAG: RAG是Retrieval-Augmented Generation的缩写,是一种基于检索式生成的语言模型。RAG模型将检索和生成两个任务结合起来,能够根据检索到的信息生成相应的文本,提高文本生成的准确性和可控性。
  • Transformer XL: Transformer XL是一种基于Transformer架构的模型,专门用于处理超长上下文的任务。Transformer XL通过引入相对位置编码和循环机制,能够更好地处理长文本序列,提高模型在超长上下文任务中的表现。
  • 二次方关系: 二次方关系是数学中的一个重要概念,指的是两个变量之间的关系可以表示为一个二次方程。二次方关系经常出现在科学、工程等领域的建模和分析中,对于研究变量之间的复杂关系非常有用。

欢迎关注我们

  • 官网:hardhacker.com
  • Discord 社区:discord.com
  • 用爱发电不容易,请我们喝咖啡☕️:afdian.net
  • 公众号/小红书:硬地骇客
  • 商务合作:hardhackerlabs@gmail.com