白话大模型——第一回 大模型就是一个见多识广的普通人

2025年的今天,我相信还是有很多人对大模型是什么,能做什么完全搞不明白。每天看着各种大模型的新闻和资讯,你心里是不是只会觉得大模型好牛逼,都可以自己完成xxx事情了。又或是大模型好傻逼,连xxx都干不了。

接下来的几篇文章,我希望用一种通俗易懂的形式,即便你是一个小学生,也能让你了解大模型,用好大模型。

关于大模型,你需要记住的第一点,也是最重要的一点,它就是一个“见多识广的普通人”。

什么是“见多识广”?

就像你从小通过看书、听老师讲课、和同学聊天,把新知识一点点学会记在脑子里,大模型所做的也是同样的事。

大模型不会真的去上学,而是在电脑中“学习(大模型的学习叫做训练)”。它会把网络上能找到的信息、书本通通读一遍,把这些内容都存进一个“脑袋(大模型的脑袋叫做参数或权重)”里。现在,有些大模型不仅会读文字,还能“看”图片、甚至“看”视频,这让它有了更多的学习渠道。

你是不是用过“豆包”“元宝”“通义千问”或者今年特别火的“DeepSeek”?这些名字背后,其实都是大模型。和它们聊聊天,你会发现它们就像一本活的百科全书,大模型所知道的东西,多得你一辈子都学不完。

大模型虽然“见多识广”,却也只是一个“普通人”。

如果你问一个小学生“CPU的指令集有哪些?”,他肯定会一脸懵,给不出答案,因为他本没有学过这个知识。大模型也一样,如果你问它一个它没学过的问题,比如“我几岁了?”,它也会回答“不知道”,或者编一些错误答案(这种错误答案叫做大模型的幻觉)。这说明,大模型只能回答在训练时学过的内容。

当你想让大模型回答一些它没学过的问题时,需要把相关的背景信息一起告诉它。想象这些信息像是在对话中立刻给它补充的“笔记”,也被称为大模型的“上下文”。这个上下文可以让大模型看到它没有学习过的信息,从而更好的回答相关的问题。

需要注意的是,每个模型一次能看的“笔记”数量是有限的,你可以想象成你一次性丢给它太多的内容,它也读不完。假如一个大模型的上下文长度是5000个字,那么(你的问题+额外的笔记信息+它的回答)就不能超过5000个字。一旦超过,它可能就会“死机”。好消息时,目前大多数的大模型上下文长度都已经非常大,或者你使用的程序也会帮你处理超长的上下文,所以你在平时使用时并不需要特别担心它会死机。

此外,大模型和普通人相比,还有一个重要的区别。

你和好朋友聊天时,会记住彼此说过的话;过几天再聊,马上就能接上以前的对话。可是大模型的“脑袋”一旦训练完成,就固定不动了,不会自己更新。它并不会像人一样,不断记住新鲜事。

或许你会反驳我说,你和豆包、元宝聊天时,它们明明记得之前聊过的内容?这是因为你跟它们聊天时,背后还有其他程序在帮忙。这些程序会偷偷把你们的聊天记录保存下来,每次你向它们提出新问题,这些程序就会把你的问题和之前的聊天记录,一并发送给大模型,这样大模型就“知道”你们之前聊到了哪儿。

我在 Scratch 3 学习手册【AI篇】——01 毛线AI 机器人 案例中使用的就是没有程序帮忙记录聊天记录的大模型,这时它无法记住你们每次的对话内容。所以在 Scratch 3 学习手册【AI篇】——02 毛线AI 连续对话机器人 案例中,我们自己实现了一个保存和发送聊天记录给大模型的程序,让它记住我们聊过的对话。

请记住,大模型并没有多神秘,它就是一个“见多识广的普通人”。它学过海量的知识,但也不能直接回答它没学过的问题。需要靠你在它的上下文中提供背景信息,才能让它在对话中发挥最大的“聪明”。

敲黑板划重点:

  1. 1. 大模型和人一样,都是通过文字(或图片、视频等)进行学习。
  2. 2. 大模型学习(训练)完成后,大脑(参数或权重)就不会发生改变,也就是不会再学习新的知识。
  3. 3. 大模型没有记忆力,记不住和你聊天的内容。
  4. 4. 想要大模型回答它所不知道的问题(或是接着之前的对话聊天)时,需要把问题和相关背景信息(或是之前的聊天记录)一起告诉它,并且信息的长度有限制。

 

 

如果觉得内容不错,欢迎你点一下「在看」,或是将文章分享给其他有需要的人^^


相关好文推荐:

白话三国(全120回)

白话西游(全100回)

如何为你的群聊增加一个AI助手?

Scratch AI扩展工具使用说明(更新)

为什么如今的AI应用,没有像当年的手机APP一样,改变你的生活?

0条留言

留言