关于LMCC

中国计算机学会(CCF)于2025年8月推出CCF大模型能力认证(Large Model Competence Certification,简称LMCC),旨在通过认证推动人工智能全学段教育的发展,发现和培养人工智能发展所需要的不同层次、不同类型的人才,为中国人工智能的发展贡献力量。

在这个贴子里面记录和分享学习最近很火的大语言模型的过程

何意味

11.10 更新

得分93分

LMCC成人组第一轮考试成绩

11.8 LMCC 大模型认证实战体验

刚结束 LMCC 大模型认证考试,趁着记忆还清晰,整理一份超实用的经验分享,给后续要考的朋友避坑

先说说考试的基本背景:这个认证是计算机学会今年 8 月就开始宣传的,含金量在 AI 领域还算受认可,想往大模型方向发展的朋友可以冲。我本身在杭州,但杭州没有设置考点,最终选了上海考区——这里提醒杭州的考生,提前规划好行程,不用临时慌。

关于住宿:建议考试前一天(我是 11.7 晚)订在考点周边的民宿,上海考区附近的松江大学城是绝佳选择,性价比很高,几十到一百多就能拿下干净整洁的房间,而且离考点近,第二天不用早起赶路,能保持好的考试状态,比住远途酒店省心太多。

考试形式和整体体验:满分 100 分,全是选择题,共 30 道,整体难度适中,体验感很不错。前 20 题每题 3 分,侧重 AI 基础知识考察(占分 60%+);后 10 题每题 4 分,是程序填空类选择题,聚焦实操相关的知识点,65 分就能通过,只要抓准重点,通过率还是很高的。

下面是核心考点梳理,全是考场上实测遇到的,针对性极强:

一、前 20 题基础知识点(高频+中频+低频分层)

  1. 高频核心知识点(占分 60%+)

这部分是得分关键,考到的概率极高,一定要吃透:

• 模型架构与核心机制:生成式大模型(比如 GPT 系列)的核心架构是解码器模型;Transformer 自注意力机制中,Query、Key、Value 来自同一个输入向量经三个不同线性变换层投影得到;还要分清编码器模型、解码器模型、编解码混合模型的区别。

• 训练与微调技术:LoRA(低秩适配)的核心是并联低秩矩阵,仅训练这对矩阵而非全参数微调;学习率预热的目的是防止训练初期梯度爆炸或模型不稳定;RLHF 需要训练独立奖励模型,DPO 则可以省去这一步;监督微调的核心逻辑也要掌握。

• 数据与对齐:指令微调数据的典型特征是(指令/问题,期望输出)的配对形式;大模型“人类对齐”的目标是符合人类价值观、安全且有帮助;避免歧视性内容的关键是在预训练和微调阶段做数据清洗+引入公平性约束。

• 解码与推理:束搜索比贪心搜索更易生成整体通顺的句子(贪心仅每次选最优,未必全局最优);VLLM 加速的核心是 PagedAttention 内存管理机制,解决 KV Cache 碎片化问题;明确测试时间拓展(TTS)的技术范围,避免和训练阶段技术混淆。

• 指标与评测:Pass@K 的 K 指生成方案数,结果代表通过多方案生成解决问题的比例;困惑度越低,模型对文本的预测越准确,性能越好;模型评测核心维度包括任务准确率、流畅度、安全性、泛化能力,GPU 功耗这类硬件相关内容不属于核心评测项。

  1. 中频知识点(占分 30%)

这部分占比不低,针对性记忆即可:

• 模型优化与挑战:混合专家模型(MoE)的主要挑战是专家负载不均衡;强化学习优化推理能力的难点是推理路径搜索空间大,训练效率低;大模型的涌现能力、上下文学习特征(无需梯度更新即可完成新任务)要理解。

• 参数高效微调细节:LoRA 的省显存配置通常是 r=8、lora_alpha=16;全局 batch size 固定时,per_device_train_batch_size 和 gradient_accumulation_steps 的搭配要符合显存限制(比如单卡 16GB 显存下,per_device=1+梯度累积 8 更稳妥)。

• 注意力机制变体:分组查询注意力(GQA)中,KV 头数少于查询头数,需通过复制 KV 头匹配查询头;Scaled Dot-Product Attention 的缩放因子是 1/√D(D 为头维度)。

• 模型安全与偏见:模型输出安全性评测是核心评测内容之一,要明确歧视性内容的缓解阶段和核心手段。

  1. 低频知识点(占分 10%)

这部分考到的概率低,不用花费过多精力:

• 无监督学习与监督学习的区别:监督学习用标注数据,无监督学习从无标签数据中发现模式。

• 混合专家模型细节:比如训练收敛性、长序列处理限制等,了解即可。

• 推理加速辅助技术:模型量化、FlashAttention 等是优化手段,但不是 VLLM 的核心创新。

二、后 10 题程序填空类选择题(每题 4 分!)

这部分侧重实操场景,不用死记代码,但要理解核心逻辑:

• 第一大题聚焦于千问(Qwen)模型框架:比如加载 Qwen 分词器需要带 trust_remote_code=True 参数;LoRA 在千问模型中的目标模块是注意力机制的 q_proj、v_proj 等投影层。

• 第二大题聚焦 Transformer 注意力机制:重点考多头注意力(MHA)和多头隐式注意力(MLA,国产 DeepSeek 的最新技术),包括 KV 向量的扩展逻辑(比如 GQA 中用 expand_kv_for_gqa 函数复制 KV 头)、注意力分数计算(Q×K 转置×缩放因子)、因果掩码的应用、最终输出的加权求和逻辑(注意力权重×Value)。

答题技巧:遇到不会的题,优先用排除法(排除极端表述、语法错误选项),结合关键词匹配高频考点答案,不要空题(无倒扣分,蒙题也有概率得分)。

整体来说,LMCC 认证的考察重点是大模型的基础理论和核心实操逻辑,难度不算高,只要针对性备考,60 分过线很稳妥。

精神状态良好的OIer