今天特邀文字识别领域专家 常扬 老师做客,他将分享自己多年来在OCR技术领域的经验和心得。常扬老师将比较大型语言模型与专用模型,分析Mistral OCR模型的优缺点,对比CNN和Transformer在OCR任务中的表现。还将分享其团队在信息抽取和RAG技术应用方面的实践经验,以及如何根据不同场景选择合适的OCR模型和技术路线。如果你对人工智能、文字识别或信息抽取技术感兴趣,欢迎收听本期节目。
更多内容信息和时间线参考下文的硬地笔记,欢迎收听本期节目。
常扬:专注分享AI人工智能领域技术与洞见。Techlead,复旦AI博士,拥有10+年AI研究经验、国家级大学生赛事评审专家,发表多篇SCI核心期刊学术论文,上亿营收AI产品研发负责人。
公众号:Techlead
Podwise.ai - Podcast knowledge at 10x speed 🚀
Apple Store 下载👉🏻 apps.apple.com
00:00:48 LLM时代,OCR小模型还有用吗?
00:03:20 大模型与专有模型的区分及Mistral OCR的SOTA争议
00:06:12 大模型和小模型的合作模式:能力而非算力的协同
00:08:10 CNN与Transformer,谁在OCR中更胜一筹?
00:12:20 Transformer在OCR中的“幻觉”究竟是什么?
00:14:23 CNN-based OCR模型处理复杂排版的策略
00:17:41 如何通过场景专训提升OCR模型的识别率?
00:21:18 OCR模型的构建策略:单模型 vs. 多模型
00:27:14 在2C与2B中,OCR技术的应用有哪些不同?
00:30:26 为什么OCR是信息处理的关键第一步?
00:33:38 OCR与语音识别,这两个技术的根本差异是什么?
00:38:10 RAG技术在OCR和代码检索中的应用及成本控制