夫唯:我用七天时间,终于弄懂了“蒸馏”的真意
本文作者:夫唯 原文地址 最近一周脑海一直在折磨“蒸馏”这个词,下面按时间顺序分享我的理解。 第一天:初遇“蒸馏” 在解读DeepSeek、ChatGPT等技术时,“蒸馏”这个词反复出现。它指的是将庞…
本文作者:夫唯 原文地址 最近一周脑海一直在折磨“蒸馏”这个词,下面按时间顺序分享我的理解。 第一天:初遇“蒸馏” 在解读DeepSeek、ChatGPT等技术时,“蒸馏”这个词反复出现。它指的是将庞…
随着大模型进入“落地阶段”,真正拉开差距的已经不只是模型的参数量,而在于如何将模型“用好、用稳、用便宜、用准”。蒸馏、量化、微调、RAG,正是当前大模型工程化落地的四项关键技术手段。下面我们用通俗举例…
在上一篇文章《GEO 时代,流量为王已经过时》中,我提出一个观点: AI 时代,流量思维正让位于品牌思维。 文章留言区较多的疑问是: ”我的品牌,到底怎样才能被 AI 推荐?” 拆解这个问题为两个更具…
ChatGPT vs Perplexity vs Claude — In-Depth Comparison in 2025 随着生成式 AI 的迅猛发展,包括 ChatGPT、Perplexity 和…
一、Transformer 架构是什么? Transformer 是 Google 在 2017 年提出的一种深度学习模型架构,基于论文《Attention Is All You Need》。 其核心…
一、LLM 的发展历程(按时代划分) 阶段 1:统计语言模型时代(1990s–2017) 这是 LLM 的“石器时代”,AI 不懂真正的语言,只能做数学统计。 代表模型 特点 阶段 2:预训练 + 微…
一、LLM 的科学解释 LLM(Large Language Model,大型语言模型)是一类基于深度学习 Transformer 架构的超大规模参数模型,通过在海量语料上训练,学习语言的统计结构,从…
RAG 的科学解释(Retrieval-Augmented Generation) RAG(检索增强生成)是一种将信息检索(Retrieval)与生成式模型(Generation)结合的混合式架构。 …