Michel Johnson's Blog

Catch the future

在如今的大模型(LLM)时代,当我们惊叹于 ChatGPT 的对答如流、惊叹于 LLaMA 的逻辑推理能力时,我们往往将目光聚焦于 Transformer 架构、注意力机制或是庞大的参数量。然而,在这些宏大的叙事背后,有一个常常被忽视却至关重要的“基石”——Tokenization(分词)

Read more »

在过去的一年多里,我们见证了大语言模型(LLM)的爆发。无数企业跃跃欲试,试图将 AI 融入自身的业务流中。然而,一个残酷的现实是:写一个基于 Gradio 的 ChatGPT 演示界面只需要几十行代码和几个小时,但将其转化为一个高可用、高并发、安全合规且能真正解决业务问题的企业级 AI 应用,却需要几个月甚至更长的时间。

Read more »
0%