模型问题
介绍 depth conv Depthwise separable convolution
LSTM介绍 : 主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题 「1」
clip多模态大模型简单介绍 「1」
自注意力机制,手写自注意力 「1 理解」 「2 理解」 「3 理解」 「4 卷积注意力实现」 「5 Transformer实现」
KNN算法的基本原理和实现 「1」
CNN的平移不变性是什么?「1」
ResNet到底解决了什么问题?「1」
FPN 为什么能提高小目标检测精度 「1」
yolov5正负样本分配 【1 代码解读】 【2 其他系列】 【5 7 X】 【骚骚骚】 【其他模型】 【v5 loss】
caffe 怎么实现自定义层:编译时候打开
WITH_PYTHON_LAYER:=1
,在$PYTHONPAT
下实现对应的Mylayer,也可以手动导入然后添加 【1】【2】
import sys
caffe_root='/home/yourname/caffe/'
sys.path.insert(0,caffe_root+'python')
机器学习问题
- SVM介绍,支持向量介绍【1】 【2】
- 正则化的手段有哪些?先答了L1 L2。后来问正则化的概念是什么,回答说是为了减小经验风险和泛化风险的差距,然后从VC维和过拟合的角度回答 【1】 【2】
- Pytorch Dropout L1 L2 解释+可视化 【1】【2】
- 对传统的机器学习熟悉哪些,介绍一下随机森林 【模型】 【随机森林】
- 判别模型 生成模型 【1】
- GBDT和XGBoost的区别 【1】 【2】 【3知乎简答】
- SGD陷入局部最优解怎么办 【1 念念不忘】 【2 优化】
- 随机森林和xgboost区别 「1」
- KL 散度的概率和公式【1】
- 机器学习的集成方法【1】
- 过拟合,欠拟合问题及各自解决方案
- 小样本,预训练范式,域泛化概念
- 样本分布不均有哪些解决方案,长尾...
Pytorch知识
1.DP是单进程多线程的实现方式,DDP是采用多进程的方式
2.DP只能在单机上使用,DDP单机和多机都可以使用
3.DDP相比于DP训练速度要快
基础知识
- NMS的作用和步骤 * 代码实现1 ** 代码实现2
- 手写nms
- BN层介绍
- 常用的数据增强算法:颜色,角度,噪声,缩放,cutmix,mixup,mosaic,随机擦除【1】
- BN LN GN的用法和区别 「1」 「2」
- torchscript解读 jit trace 【1】
计算机基础知识
多线程适合IO密集型任务
多进程适合计算密集型任务
- python 协程: 协程就是一种用户态内的上下文切换技术 【1】 看具体示例
- 两个大数的乘法 fp16 fp32 假设cpu计算基本乘加效率都一样 哪个更快
ans:单指令单数据fp16跟fp32是一样的,单指令多数据可以做流水的话fp16快 - 基础的cpu架构上 量化到int8还是fp16 哪个更快
ans:分cpu,定点计算在ALU算,浮点计算在FPN算,有些FPN设计的好比定点计算速度快
数学问题
- 卷积的参数量,计算量怎么算?「1」 「2」
- GFL损失函数介绍
- focal loss 数学形式,作用介绍
-
写一下Focal Loss公式
- 感受野大小计算:https://zhuanlan.zhihu.com/p/40267131
- 特征图大小计算:https://www.cnblogs.com/tianqizhi/p/9706344.html
-
甲乙扔硬币,扔到正面获胜,甲先扔,获胜概率,等比数列求和 2/3
- 交叉墒求导:https://blog.csdn.net/chaipp0607/article/details/101946040