Prompt即认知能力的体现
前段时间沉迷于agent的学习与使用中,我用了claude code,Amp,Opencode,Pi等产品。最开始惊奇“啊,现在ai都可以做这些了吗”,再到被各种agent使用技巧和各种花里胡哨的skill弄得不知所措“我好像什么都知道一些,但是什么都好像做不出来,我试着模仿各种blog里提到的好玩的项目,最后自己做出来还是一团乱”,最后才慢慢意识到“原来重要的不是收集各种大神的配置、技巧和skill,而是学习Prompt,它是如何组成的,它逻辑是什么,它改变了我的哪些认知,它需要我补充哪些额外的知识,最后我基于对它的理解可以修改哪些部分来适合自己的DIY”。
本质上llm始终是预测下一个词的机器,如果它没有被约束,那么它会尽可能地猜测模糊命令的想法、假设和逻辑,然后进行预测,此时它的自由度非常高,每次运行它给出的结果都很可能不一样。一个好的llm使用者,会在Prompt中将模型的自由度限制的非常小,以让llm按照自己预期的方向运行,现在的模型非常聪明,它们能出色地完成这些任务,而且相较于人类,它们的优点是不知疲倦地工作直到完成任务。
模型是助手,Prompt是人类的指令,模型的输出质量的高低完全是人类指令好坏的体现,即使给你最新最强的模型opus4.6,它在karpathy的手中与在你的手中输出结果的质量会出现极大的对比。这正说明,在某个专业有着垂直深度的知识的人的手中,llm可以极大地提高他们的生产力。因为他们在该专业知识更多,他们明白模型应该输出什么样的结果,他们只需要检查过程和结果即可。而在普通人手中,他们没有对于模型输出的预期,无法控制模型输出质量:garbage in,garbage out。
这对我来说是一个事实。好消息是,关于模型的使用还是要回归到最原始的地方,就是古希腊人说的对于知识的惊奇“wow,这个skill还可以做这样的事情?它如何做到的?我要进去skill内部看看它的原理”,终归是学习和认知能力的体现。llm完全可以做到这一点,之前你不知道在什么地方找到优质资源,你完全可以让它写一个按照你的需求写一个入门教材,它作为一个博士水平通才教导你学习是完全可行的,如果你对于某个不知名的哲学家好奇,但是他又不是那种知名的哲学家,你完全可以让llm写关于不知名的哲学家的教材。在与llm共同编写教材的同时,你对于学习资料的逻辑框架会有更深的理解和认识,你第一次编的肯定很烂,那么多编一些吧,你会一直成长。
最后很简单,你告诉模型找优质的skill技能,例如是关于让llm推荐优质的补剂类产品的skill,你完全可以进入skill文件中,看看别人是如何让llm做关于补剂类产品的方法,思考每一步的原因,这时便是认知的提高。