avatar
文章
101
标签
56
分类
22
首页
归档
标签
分类
关于
很多时候不懂事面试问答 返回首页
搜索
首页
归档
标签
分类
关于

面试问答

发表于2026-04-04|更新于2026-04-04|面试准备
|浏览量:
文章作者: azuki
文章链接: https://blog.azuki.top/interviewqa/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 很多时候不懂事!
面试实习
上一篇
LeetCode59 - 括号生成
📝 题目描述 题目链接:括号生成 数字 n 代表生成括号的对数,请你设计一个函数,用于能够生成所有可能的并且 有效的 括号组合。 示例: 123456789示例 1:输入:n = 3输出:["((()))","(()())","(())()","()(())","()()()"]示例 2:输入:n = 1输出:["()"] 提示: 1 <= n <= 8 💡 解题思路 方法一:回溯 这个思路很直观: 如果左括号数量不大于 n,我们可以放一个左括号。如果右括号数量小于左括号的数量,我们可以放一个右括号。 也就是带有剪枝的深度优先搜索(DFS)/回溯。 方法二:动态规划与分治 任何一个合法的括号序列都可以拆分成这样一种结构: "(" + 【合法的括号序列A】 + ")" + 【合法的括号序列B】 如果我们假设当前需要生成 nnn 对括号,我们可以枚举内部包裹的序列 AAA 有 jjj 对括号,那么外部拼接的...
下一篇
LeetCode58 - 组合总和
📝 题目描述 题目链接:组合总和 给你一个 无重复元素 的整数数组 candidates 和一个目标整数 target ,找出 candidates 中可以使数字和为目标数 target 的 所有 不同组合 ,并以列表形式返回。你可以按 任意顺序 返回这些组合。 candidates 中的 同一个 数字可以 无限制重复被选取 。如果至少一个数字的被选数量不同,则两种组合是不同的。 对于给定的输入,保证和为 target 的不同组合数少于 150 个。 示例: 123456789101112131415161718示例 1:输入:candidates = [2,3,6,7], target = 7输出:[[2,2,3],[7]]解释:2 和 3 可以形成一组候选,2 + 2 + 3 = 7 。注意 2 可以使用多次。7 也是一个候选, 7 = 7 。仅有这两种组合。示例 2:输入: candidates = [2,3,5], target = 8输出: [[2,2,2,2],[2,3,3],[3,5]]示例 3:输入: candidates = [2], target = 1输出...
相关推荐
2026-04-09
NLLB与SentencePiece在MoeTranslate中的技术实现
avatar
azuki
记录一些琐碎的事物
文章
101
标签
56
分类
22
GitHub
公告
This is my Blog
目录
  1. 1. 华厦
    1. 1.1. 问题 1:你具体是怎么做数据清洗和处理的?
    2. 1.2. 问题 2:这份工作听起来比较机械,你有什么收获吗?
    3. 1.3. 问题 3:在处理过程中,你有想过怎么优化这个流程吗?
  2. 2. 萌译
    1. 2.1. 你为什么选择把模型放到端侧跑,而不是调用云端 API?
    2. 2.2. 你提到了 INT8 量化,能简单说说你是怎么做的吗?量化后精度有下降吗?
    3. 2.3. 在这个项目中,你遇到的最大技术难点是什么?
    4. 2.4. 请问你使用的是 PTQ(训练后量化)还是 QAT(量化感知训练)?具体是动态量化还是静态量化?为什么在端侧翻译场景下这样选择?
    5. 2.5. INT8 量化的核心公式是什么?什么是 scale 和 zero_point?对称量化和非对称量化有什么区别?
    6. 2.6. NLLB 是一个典型的 Encoder-Decoder 架构。当你把它导出为 ONNX 时,是导成了一个单文件吗?在自回归生成(Autoregressive Decoding)时,你是如何优化推理速度的?
    7. 2.7. 你简历里写’减少了近 40% 的模型大小’,INT8 理论上应该把 FP32 压缩到 1/4(75%),为什么你只减少了 40%?
  3. 3. 毕设
    1. 3.1. 你简历里写了“检索增强”,但为什么没有看到你用向量知识库(Vector DB)?
    2. 3.2. 目前的模型参数越来越大,有时候直接将问题发送给这种大模型就可以获得很好的回答,现在对7B这种小参数量的模型微调还有意义吗?
    3. 3.3. 你为什么用 Qwen-Turbo 做摘要,而不是直接把新闻喂给微调后的 Qwen2.5-7B?
    4. 3.4. 你的 LoRA 微调具体是怎么做的?有没有遇到什么困难(灾难性遗忘)?
    5. 3.5. 你在项目中使用了 LORA 技术对 Qwen2.5-7B 进行了微调 ,能不能从数学或者原理层面解释一下 LoRA 是怎么工作的?相比于全量微调(Full Fine-tuning)和 P-Tuning,它有什么优势?
    6. 3.6. 为什么选择 Qwen2.5-7B?它的底层模型架构(如 RoPE 旋转位置编码、SwiGLU 激活函数、RMSNorm 等)相比于传统的标准 Transformer 有哪些具体改进?
  4. 4. 温度T和softmax有什么关系?
    1. 4.1. 带温度的 softmax
    2. 4.2. 生成阶段的温度 T
  5. 5. 在Attention 机制中, Scaled Dot-Product Attention 的计算公式是什么?公式中为什么要除以根号下dk?
  6. 6. 多头注意力机制
  7. 7. 显存计算
  8. 8. 大模型架构分类
  9. 9. SFT与RLHF
    1. 9.1. 核心概念
      1. 9.1.1. SFT (Supervised Fine-Tuning) —— “照猫画虎”
      2. 9.1.2. RLHF (基于人类反馈的强化学习) —— “裁判打分”
      3. 9.1.3. DPO (直接偏好优化) —— “拉踩大法”
      4. 9.1.4. GRPO (组相对策略优化) —— “内部赛马” (DeepSeek 核心技术)
    2. 9.2. 讲讲 SFT、RLHF、DPO 的区别
    3. 9.3. DPO 为什么不需要奖励模型?
    4. 9.4. DPO 的 β 参数怎么设置?
    5. 9.5. GRPO 相比 DPO 的优势具体是什么?
    6. 9.6. 为什么不直接用 SFT?
    7. 9.7. DPO 会过拟合吗?
  10. 10. 目前如何使用vibe coding?有没有遇到什么问题?怎么解决的?
最新文章
LeetCode85 - 零钱兑换2026-04-26
LeetCode84 - 完全平方数2026-04-25
LeetCode83 - 打家劫舍2026-04-23
LeetCode82 - 杨辉三角2026-04-20
LeetCode81 - 爬楼梯2026-04-20
© 2024 - 2026 By azuki框架 Hexo 8.1.1|主题 Butterfly 5.5.3
搜索
数据加载中