Michel Johnson's Blog

Catch the future

在当今的大语言模型(LLM)发展浪潮中,我们似乎陷入了一个不可避免的“军备竞赛”:模型的效果越好,往往意味着参数量越大,随之而来的就是呈指数级增长的算力需求和推理成本。当 OpenAI 发布 GPT-4 时,整个业界都在惊叹其能力的飞跃,但同时也对其背后的算力消耗心知肚明。

Read more »

编者按: 当我们惊叹于 Gemini 1.5 Pro 能够一口气读完整个《指环王》三部曲,或者让 GPT-4o 瞬间分析完数万行代码库时,长上下文正成为大模型兵家必争之地。然而,从 8K 到 1M,这不仅仅是数字的简单放大,更是一场对底层算法、显存管理和分布式工程的极限压榨。今天,我们就来扒一扒长文本大模型背后的“硬核技术账”。

Read more »
0%