【WIP】个人梳理的 LLM 阅读材料和文献 - 2025

"个人梳理的 LLM 阅读材料和文献,也许它能够帮助到你?"


[updated] 最后更新于 2025-02-24

这一篇是我个人梳理的感觉具有阅读价值的 LLm 领域的阅读材料和文件,还在不断更新中。 如果你是抱有理解基本概念与学习的想法来找阅读材料,请不要看在文章尾部的 MARKS 相关文档

Prompt Engineering

Weng, Lilian. (Mar 2023). Prompt Engineering.

LLM 测试

Claude,如何开发 LLM 的测试用例

Anthropic Cookbook

Agent

Weng, Lilian. (Jun 2023). “LLM-powered Autonomous Agents”

  • 【✨重点推荐】翁荔的博客:Weng, Lilian. (Jun 2023). “LLM-powered Autonomous Agents”. Lil’Log. https://lilianweng.github.io/posts/2023-06-23-agent/

    We can roughly consider the following mappings: 我们可以大致考虑以下映射:

    • Sensory memory as learning embedding representations for raw inputs, including text, image or other modalities; 感官记忆作为学习嵌入表示,适用于包括文本、图像或其他模态的原始输入;
    • Short-term memory as in-context learning. It is short and finite, as it is restricted by the finite context window length of Transformer. 短期记忆即上下文学习。它短暂且有限,受限于 Transformer 的有限上下文窗口长度。
    • Long-term memory as the external vector store that the agent can attend to at query time, accessible via fast retrieval. 长期记忆作为外部向量存储,代理在查询时可通过快速检索访问。

Anthropic 总结的代理系统的模式

其中,LangChain 团队在他们的 LangGraph 文档中给出了这些模式的具体实现:https://langchain-ai.github.io/langgraphjs/tutorials/workflows/

RAG

Retrieval-Augmented Generation for Large Language Models: A Survey

Anthropic,Contextual-Retrieval

一些通用结论,有实践意义

大模型知道自身会在什么时候感到困惑

大模型是自回归的,意味着初始步骤的错误会导致错误的累积

自回归 = self + regressive,上一步的输出会是下一步的输入,而后进行预测。 由于训练 LLM 的方式是自回归的,所有输入是真实值,因此 LLM 会信任自己的输入。这是 LLM 的根本缺陷之一。

LLM并不会推理,添加某些子句会导致性能极大下降

  • 【大模型并不在做推理,仅仅只是复制了在训练数据中观察到的推理步骤,添加一个似乎与问题相关的子句会导致所有最先进的模型的性能显著下降(高达 65%)】https://arxiv.org/abs/2410.05229

测试时间缩放

  • 【test-time scaling,测试时间缩放】对于推理模而言,给LLM更多的思考时间,它能够得到更好的结果。

嵌入的使用技巧

总结来讲:

  1. 目前大多数 LLM 厂商会做嵌入的归一化,因此,最好使用点积。
  2. 将嵌入视为球体
  3. 使用逻辑回归(logistic regression)

一些有理论意义的文章

对于 【基于对数概率信息的自适应越狱攻击】,简单来讲就是由于 LLM 底层是基于概率去预测下个 token 的,因此用户可以通过设计一个对抗性提示模板,然后通过随机搜索或其他优化策略,在后缀中寻找能够使目标 token 的对数概率最大化的内容,从而诱导模型输出越过其安全对齐限制的内容。

【预填充攻击】,模型如果不提供对数概率信息,那么可以在 prompt 中特地添加那些模型认为不安全的信息(e.g. 特朗普白宫黑幕,假设这一段内容会触发审查,那么便故意在 prompt 中添加“特朗普白宫黑幕”的关键词,例如对于推理模型可以通过 <think> 标签进行攻击)越过限制。

【转移攻击】当你构建了一个越狱的 prompt 后,可以试着将它应用到其他模型上进行攻击,由于不同模型往往存在相似的脆弱性或漏洞,当在一个模型上成功构造出“越狱”提示后,这个提示很可能也能在其他模型上生效,从而实现跨模型的攻击。

除此之外,基于上述内容,可以引出针对推理模型的 thought token forcecing 攻击,但原文是外国人写的,恶毒地用了我们的一些敏感事件作为例子,所以在这里不贴参考链接了。

一些你可能要知道,但是不一定好用的概念

ReAct

有意思的其他研究方向

仅记录了我觉得有意思的

基于熵的编码/解码器构建的LLM

有趣的地方在于,似乎这种法子可以通过熵值诱导 LLM 做出不同的选择:正常行为,去思考,采用多条路径,重采样。

LLaDA,扩散大语言模型

我个人觉得这是一个有趣的研究方向,因为传统的基于自回归的 LLM 没有全局性的回顾概念,它是 self-regressive 的,基于上一步的输入进行预测。但 LLaDA 是扩散性地生成,不是一个个按序地 token 吐出生成。

来源 timkellogg.me/blog/2025/02/17/diffusion,它给出了 LLaDA 的生成可视化示例
来源 timkellogg.me/blog/2025/02/17/diffusion,它给出了 LLaDA 的生成可视化示例

MARKS

此处记载了一些我觉得 Ok 的框架的文档。 仅作 mark 用。

【LangGraph】

【END】

Comments is loading... / 评论区正在加载中...