├── .gitignore
├── README.md
├── README_new.md
├── README_old.md
├── img
├── 20190605151418761.png
├── 20190605154411382.png
├── 20210523220743.png
├── 20230408151226.jpg
├── 214291631450839_.pic_hd.jpg
├── 214341631451078_.pic_hd.jpg
├── 214361631451079_.pic_hd.jpg
├── 微信图片_20210923171910.jpg
├── 微信图片_20210923171938.jpg
├── 微信图片_20211030090037.png
├── 微信截图_20210301212242.png
├── 微信截图_20210911103452.png
├── 微信截图_20210911103812.png
├── 微信截图_20210911104015.png
├── 微信截图_20210911104142.png
├── 微信截图_20210927200609.png
├── 微信截图_20211013090502.png
├── 微信截图_20211021213953.png
├── 微信截图_20211021214035.png
├── 微信截图_20211021214124.png
├── 微信截图_20211021214836.png
├── 微信截图_20211021214858.png
├── 微信截图_20211021215034.png
├── 微信截图_20211103202924.png
├── 微信截图_20211231161940.png
├── 微信截图_20211231162516.png
└── 微信截图_20220107153441.png
├── introduction
├── img
│ ├── 20190605151418761.png
│ ├── 20190605154411382.png
│ ├── 20210523220743.png
│ ├── 214291631450839_.pic_hd.jpg
│ ├── 214341631451078_.pic_hd.jpg
│ ├── 214361631451079_.pic_hd.jpg
│ ├── 微信图片_20210923171910.jpg
│ ├── 微信图片_20210923171938.jpg
│ ├── 微信图片_20211030090037.png
│ ├── 微信截图_20210301212242.png
│ ├── 微信截图_20210911103452.png
│ ├── 微信截图_20210911103812.png
│ ├── 微信截图_20210911104015.png
│ ├── 微信截图_20210911104142.png
│ ├── 微信截图_20210927200609.png
│ ├── 微信截图_20211013090502.png
│ ├── 微信截图_20211021213953.png
│ ├── 微信截图_20211021214035.png
│ ├── 微信截图_20211021214124.png
│ ├── 微信截图_20211021214836.png
│ ├── 微信截图_20211021214858.png
│ ├── 微信截图_20211021215034.png
│ ├── 微信截图_20211103202924.png
│ ├── 微信截图_20211231161940.png
│ ├── 微信截图_20211231162516.png
│ ├── 微信截图_20220107153441.png
│ ├── 微信截图_20220107174332.png
│ ├── 微信截图_20220107174537.png
│ ├── 微信截图_20220107175154.png
│ ├── 微信截图_20220107175258.png
│ └── 微信截图_20220107175305.png
└── readme.md
├── traditional_recommendation_model
├── FFM
│ ├── img
│ │ └── 微信截图_20220112100253.png
│ └── readme.md
├── FM
│ ├── img
│ │ └── 微信截图_20220112100253.png
│ └── readme.md
├── GBDT_LR
│ ├── img
│ │ ├── 1610160500583.png
│ │ ├── 微信截图_20210203232723.png
│ │ ├── 微信截图_20210203232919.png
│ │ ├── 微信截图_20210203232945.png
│ │ ├── 微信截图_20210203233004.png
│ │ ├── 微信截图_20220117100340.png
│ │ ├── 微信截图_20220117100721.png
│ │ ├── 微信截图_20220117100913.png
│ │ ├── 微信截图_20220117100959.png
│ │ ├── 微信截图_20220117101104.png
│ │ ├── 微信截图_20220117101138.png
│ │ └── 微信截图_20220117102304.png
│ └── readme.md
├── POLY2
│ ├── img
│ │ ├── 微信截图_20220112100253.png
│ │ ├── 微信截图_20220112101634.png
│ │ ├── 微信截图_20220112103527.png
│ │ └── 微信截图_20220112103536.png
│ └── readme.md
├── collaborative_filtering
│ ├── img
│ │ ├── 微信截图_20220107175154.png
│ │ ├── 微信截图_20220107175258.png
│ │ └── 微信截图_20220107175305.png
│ └── readme.md
├── logistic_regression
│ ├── img
│ │ ├── 1610160500583.png
│ │ ├── 微信截图_20210203232723.png
│ │ ├── 微信截图_20210203232919.png
│ │ ├── 微信截图_20210203232945.png
│ │ └── 微信截图_20210203233004.png
│ └── readme.md
└── matrix_factorization
│ ├── img
│ ├── 微信截图_20220108144934.png
│ ├── 微信截图_20220108145102.png
│ ├── 微信截图_20220108150244.png
│ └── 微信截图_20220108150300.png
│ └── readme.md
└── 群精彩讨论
└── README.md
/.gitignore:
--------------------------------------------------------------------------------
1 | # Byte-compiled / optimized / DLL files
2 | __pycache__/
3 | *.py[cod]
4 | *$py.class
5 |
6 | # C extensions
7 | *.so
8 |
9 | # Distribution / packaging
10 | .Python
11 | build/
12 | develop-eggs/
13 | dist/
14 | downloads/
15 | eggs/
16 | .eggs/
17 | lib/
18 | lib64/
19 | parts/
20 | sdist/
21 | var/
22 | wheels/
23 | pip-wheel-metadata/
24 | share/python-wheels/
25 | *.egg-info/
26 | .installed.cfg
27 | *.egg
28 | MANIFEST
29 |
30 | # PyInstaller
31 | # Usually these files are written by a python script from a template
32 | # before PyInstaller builds the exe, so as to inject date/other infos into it.
33 | *.manifest
34 | *.spec
35 |
36 | # Installer logs
37 | pip-log.txt
38 | pip-delete-this-directory.txt
39 |
40 | # Unit test / coverage reports
41 | htmlcov/
42 | .tox/
43 | .nox/
44 | .coverage
45 | .coverage.*
46 | .cache
47 | nosetests.xml
48 | coverage.xml
49 | *.cover
50 | *.py,cover
51 | .hypothesis/
52 | .pytest_cache/
53 |
54 | # Translations
55 | *.mo
56 | *.pot
57 |
58 | # Django stuff:
59 | *.log
60 | local_settings.py
61 | db.sqlite3
62 | db.sqlite3-journal
63 |
64 | # Flask stuff:
65 | instance/
66 | .webassets-cache
67 |
68 | # Scrapy stuff:
69 | .scrapy
70 |
71 | # Sphinx documentation
72 | docs/_build/
73 |
74 | # PyBuilder
75 | target/
76 |
77 | # Jupyter Notebook
78 | .ipynb_checkpoints
79 |
80 | # IPython
81 | profile_default/
82 | ipython_config.py
83 |
84 | # pyenv
85 | .python-version
86 |
87 | # pipenv
88 | # According to pypa/pipenv#598, it is recommended to include Pipfile.lock in version control.
89 | # However, in case of collaboration, if having platform-specific dependencies or dependencies
90 | # having no cross-platform support, pipenv may install dependencies that don't work, or not
91 | # install all needed dependencies.
92 | #Pipfile.lock
93 |
94 | # PEP 582; used by e.g. github.com/David-OConnor/pyflow
95 | __pypackages__/
96 |
97 | # Celery stuff
98 | celerybeat-schedule
99 | celerybeat.pid
100 |
101 | # SageMath parsed files
102 | *.sage.py
103 |
104 | # Environments
105 | .env
106 | .venv
107 | env/
108 | venv/
109 | ENV/
110 | env.bak/
111 | venv.bak/
112 |
113 | # Spyder project settings
114 | .spyderproject
115 | .spyproject
116 |
117 | # Rope project settings
118 | .ropeproject
119 |
120 | # mkdocs documentation
121 | /site
122 |
123 | # mypy
124 | .mypy_cache/
125 | .dmypy.json
126 | dmypy.json
127 |
128 | # Pyre type checker
129 | .pyre/
130 |
--------------------------------------------------------------------------------
/README.md:
--------------------------------------------------------------------------------
1 | # 推荐系统 百面百搭
2 |
3 |
4 |
5 | > NLP 面无不过 面试交流群 (注:人满 可 添加 小编wx:yzyykm666 加群!)
6 |
7 |
8 |
9 | - [推荐系统 百面百搭](#推荐系统-百面百搭)
10 | - [一、推荐系统导论篇](#一推荐系统导论篇)
11 | - [二、推荐系统机器学习篇](#二推荐系统机器学习篇)
12 | - [2.1 【关于 协同过滤篇】那些你不知道的事](#21-关于-协同过滤篇那些你不知道的事)
13 | - [2.2【关于 矩阵分解篇】那些你不知道的事](#22关于-矩阵分解篇那些你不知道的事)
14 | - [2.3 【关于 逻辑回归篇】 那些你不知道的事](#23-关于-逻辑回归篇-那些你不知道的事)
15 | - [2.4 FM 算法篇](#24-fm-算法篇)
16 | - [2.5 FFM 算法篇](#25-ffm-算法篇)
17 | - [2.6 GBDT+LR 篇](#26-gbdtlr-篇)
18 | - [三、推荐系统 深度学习篇](#三推荐系统-深度学习篇)
19 | - [3.1 AutoRec 篇](#31-autorec-篇)
20 | - [3.2 NeuralCF模型 篇](#32-neuralcf模型-篇)
21 | - [3.3 Deep Crossing模型 篇](#33-deep-crossing模型-篇)
22 | - [3.4 Wide&Deep模型 篇](#34-widedeep模型-篇)
23 | - [3.5 FM与深度学习模型的结合 篇](#35-fm与深度学习模型的结合-篇)
24 | - [四、推荐系统 落地篇](#四推荐系统-落地篇)
25 | - [五、多角度审视推荐系统篇](#五多角度审视推荐系统篇)
26 | - [六、推荐系统 评估方法篇](#六推荐系统-评估方法篇)
27 | - [七、推荐系统 工程落地篇](#七推荐系统-工程落地篇)
28 |
29 | ## [一、推荐系统导论篇](introduction/)
30 |
31 | - 1.1 什么是推荐系统?
32 | - 1.2 推荐系统的作用?
33 | - 1.3 推荐系统的意义?
34 | - 1.4 推荐系统要解决的问题?
35 | - 1.5 常用的推荐系统的逻辑框架是怎么样的呢?
36 | - 1.6 常用的推荐系统的技术架构是怎么样的呢?
37 | - 1.7 推荐系统算法工程师日常解决问题?
38 | - 1.8 推荐系统算法工程师 处理的数据部分有哪些,最后得到什么数据?
39 | - 1.9 推荐系统算法工程师 处理的模型部分有哪些,最后得到什么数据?
40 | - 1.10 模型训练的方式?
41 | - 1.11 推荐系统 的 流程是什么?
42 | - 1.12 推荐系统 的 流程是什么?
43 | - 1.13 推荐系统 与 搜索、广告 的 异同?
44 | - 1.14 推荐系统 整体架构?
45 |
46 | > [点击查看答案](https://articles.zsxq.com/id_grz7880endsk.html)
47 |
48 | ## [二、推荐系统机器学习篇](traditional_recommendation_model/)
49 |
50 | ### [2.1 【关于 协同过滤篇】那些你不知道的事](https://articles.zsxq.com/id_lje4bgibeb4i.html)
51 |
52 | - 一、基础篇
53 | - 1.1 什么是协同过滤?
54 | - 1.2 协同过滤的推荐流程是怎么样?
55 | - 二、基于用户的协同过滤 (User-CF-Based)篇
56 | - 2.1 基于用户的协同过滤 (User-CF-Based) 是什么?
57 | - 2.2 基于用户的协同过滤 (User-CF-Based) 的思想是什么?
58 | - 2.3 基于用户的协同过滤 (User-CF-Based) 的特点是什么?
59 | - 三、基于物品的协同过滤 (Item-CF-Based)篇
60 | - 3.1 基于物品的协同过滤 (Item-CF-Based) 是什么?
61 | - 3.2 基于物品的协同过滤 (Item-CF-Based) 的思想是什么?
62 | - 3.3 基于物品的协同过滤 (Item-CF-Based) 的特点是什么?
63 | - 3.4 基于物品的协同过滤 (Item-CF-Based) 的具体步骤是什么?
64 | - 四、User-CF-Based 与 Item-CF-Based 对比篇
65 | - 4.1 User-CF-Based 与 Item-CF-Based 的应用场景的区别
66 | - 4.2 User-CF-Based 与 Item-CF-Based 的存在问题的区别
67 | - 五、User-CF-Based 与 Item-CF-Based 问题篇
68 |
69 | > [点击查看答案](https://articles.zsxq.com/id_lje4bgibeb4i.html)
70 |
71 | ### [2.2【关于 矩阵分解篇】那些你不知道的事](https://articles.zsxq.com/id_4hjo78at5lj8.html)
72 |
73 | - 一、动机篇
74 | - 1.1 为什么 需要 矩阵分解?
75 | - 二、隐语义模型 介绍篇
76 | - 2.1 什么是 隐语义模型?
77 | - 2.2 隐语义模型 存在什么问题?
78 | - 三、矩阵分解 介绍篇
79 | - 3.1 如何 获取 ⽤户矩阵Q 和 音乐矩阵P?
80 | - 3.2 矩阵分解 思路 是什么?
81 | - 3.3 矩阵分解 原理 是什么?
82 | - 3.4 如何 利用 矩阵分解 计算 用户 u 对 物品 v 的 评分?
83 | - 四、矩阵分解 优缺点篇
84 | - 4.1 矩阵分解 存在什么问题?
85 |
86 | > [点击查看答案](https://articles.zsxq.com/id_4hjo78at5lj8.html)
87 |
88 | ### [2.3 【关于 逻辑回归篇】 那些你不知道的事](https://articles.zsxq.com/id_3kstrwlvfuw0.html)
89 |
90 | - 一、动机篇
91 | - 1.1 为什么 需要 逻辑回归?
92 | - 二、逻辑回归 介绍篇
93 | - 2.1 逻辑回归 如何解决 上述问题?
94 | - 2.2 什么是逻辑回归
95 | - 三、逻辑回归 推导篇
96 | - 3.1 逻辑回归 如何推导?
97 | - 3.2 逻辑回归 如何求解优化?
98 | - 四、逻辑回归 推荐流程篇
99 | - 4.1 逻辑回归 推荐流程?
100 | - 五、逻辑回归 优缺点篇
101 | - 5.1 逻辑回归 有哪些优点?
102 | - 5.2 逻辑回归 有哪些缺点?
103 |
104 | > [点击查看答案](https://articles.zsxq.com/id_3kstrwlvfuw0.html)
105 |
106 | ### [2.4 FM 算法篇](https://articles.zsxq.com/id_4zqld440t2lm.html)
107 |
108 | - 一、为什么要使用 FM?
109 | - 二、FM 的思路是什么?
110 | - 三、FM 的优点?
111 | - 四、FM 的缺点?
112 | - 五、POLY2 vs FM?
113 |
114 | > [点击查看答案](https://articles.zsxq.com/id_4zqld440t2lm.html)
115 |
116 | ### [2.5 FFM 算法篇](https://articles.zsxq.com/id_uz5p2ategto9.html)
117 |
118 | - 一、为什么要使用 FFM?
119 | - 二、FFM 的思路是什么?
120 | - 三、FM vs FFM?
121 |
122 | > [点击查看答案](https://articles.zsxq.com/id_3kstrwlvfuw0.html)
123 |
124 | ### [2.6 GBDT+LR 篇](https://articles.zsxq.com/id_0l5gdn0wjtsp.html)
125 |
126 | - 一、动机篇
127 | - 1.1 为什么 需要 GBDT+LR?
128 | - 二、GBDT 介绍篇
129 | - 2.1 GBDT 的基础结构是什么样的?
130 | - 2.2 GBDT 的学习方式?
131 | - 2.3 GBDT 的思路?
132 | - 2.4 GBDT 的特点是怎么样?
133 | - 2.5 GBDT 所用分类器是什么?
134 | - 2.6 GBDT 解决二分类和回归问题的方式?
135 | - 2.7 GBDT 损失函数 是什么?
136 | - 2.8 构建分类GBDT的步骤 是什么?
137 | - 2.9 GBDT 优缺点篇?
138 | - 三、GBDT+LR 模型介绍篇
139 | - 3.1 GBDT+LR 模型 思路是什么样?
140 | - 3.2 GBDT+LR 模型 步骤是什么样?
141 | - 3.3 GBDT+LR 模型 关键点是什么样?
142 | - 3.4 GBDT+LR 模型 本质是什么样?
143 | - 四、GBDT+LR 优缺点篇
144 | - 4.1 GBDT+LR 的优点是什么?
145 | - 4.2 GBDT+LR 的缺点是什么?
146 | - 五、问题讨论
147 | - 5.1 为什么要使用集成的决策树模型,而不是单棵的决策树模型?
148 | - 5.2 为什么建树采用GBDT而非RF?
149 | - 5.3 Logistic Regression是一个线性分类器,也就是说会忽略掉特征与特征之间的关联信息,那么是否可以采用构建新的交叉特征这一特征组合方式从而提高模型的效果?
150 | - 5.4 GBDT很有可能构造出的新训练数据是高维的稀疏矩阵,而Logistic Regression使用高维稀疏矩阵进行训练,会直接导致计算量过大,特征权值更新缓慢的问题?
151 | - 5.5 FM 因为采用FM对本来已经是高维稀疏矩阵做完特征交叉后,新的特征维度会更加多,并且由于元素非0即1,新的特征数据可能也会更加稀疏,那么怎么办?
152 | - 5.6 为什么要将GBDT与LR融合?
153 |
154 | > [点击查看答案](https://articles.zsxq.com/id_0l5gdn0wjtsp.html)
155 |
156 |
157 | ## 三、推荐系统 深度学习篇
158 |
159 | ### 3.1 AutoRec 篇
160 |
161 | - 什么是自编码器?
162 | - AutoRec 思路 是什么?
163 | - AutoRec 基本原理是什么?
164 | - AutoRec模型的结构 长什么样子?
165 | - AutoRec模型的特点?
166 | - AutoRec模型的存在问题?
167 |
168 | > [点击查看答案](https://articles.zsxq.com/id_dntrd6igjk9i.html)
169 |
170 | ### 3.2 NeuralCF模型 篇
171 |
172 | - 为什么需要NeuralCF模型?
173 | - NeuralCF模型 的 普通结构?
174 | - NeuralCF模型 的 混合结构?
175 | - NeuralCF模型 主要思想?
176 | - NeuralCF模型的优势和局限性?
177 |
178 | > [点击查看答案](https://articles.zsxq.com/id_bjd8e1r6kow3.html)
179 |
180 | ### 3.3 Deep Crossing模型 篇
181 |
182 | - 为什么需要 Deep Crossing?
183 | - Deep Crossing 模型的所用特征 是什么?
184 | - Deep Crossing 模型的模型结构?
185 |
186 | > [点击查看答案](https://articles.zsxq.com/id_wl94fgqn0r5t.html)
187 |
188 | ### 3.4 Wide&Deep模型 篇
189 |
190 | - 模型的记忆能力与泛化能力
191 | - Wide&Deep模型 模型结构?
192 | - Wide&Deep模型 模型 Trick?
193 | - Wide&Deep模型 优点是什么?
194 | - Wide&Deep模型的影响力?
195 | - Wide&Deep模型的进化——Deep&Cross模型?
196 |
197 | > [点击查看答案](https://articles.zsxq.com/id_di0tp2qalgdx.html)
198 |
199 | ### 3.5 FM与深度学习模型的结合 篇
200 |
201 | - 为什么需要 DeepFM?
202 | - DeepFM 结构 介绍一下?
203 | - DeepFM 思路?
204 | - DeepFM 与 Deep&Cross模型 异同点?
205 |
206 | > [点击查看答案](https://articles.zsxq.com/id_wpbdemx6amp9.html)
207 |
208 | ## 四、推荐系统 落地篇
209 |
210 |
211 | ## 五、多角度审视推荐系统篇
212 |
213 |
214 | ## 六、推荐系统 评估方法篇
215 |
216 | ## 七、推荐系统 工程落地篇
217 |
--------------------------------------------------------------------------------
/README_new.md:
--------------------------------------------------------------------------------
1 | # 推荐系统 百面百搭
2 |
3 | > 作者:杨夕、Rulcy、大雨、刘乙己🇻、Stefan、拒绝焦虑李某人、王翔
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | 
19 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
20 |
21 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
22 |
23 | - [推荐系统 百面百搭](#推荐系统-百面百搭)
24 | - [一、推荐系统导论篇](#一推荐系统导论篇)
25 | - [二、推荐系统机器学习篇](#二推荐系统机器学习篇)
26 | - [2.1 【关于 协同过滤篇】那些你不知道的事](#21-关于-协同过滤篇那些你不知道的事)
27 | - [2.2【关于 矩阵分解篇】那些你不知道的事](#22关于-矩阵分解篇那些你不知道的事)
28 | - [2.3 【关于 逻辑回归篇】 那些你不知道的事](#23-关于-逻辑回归篇-那些你不知道的事)
29 | - [2.4 FM 算法篇](#24-fm-算法篇)
30 | - [2.5 FFM 算法篇](#25-ffm-算法篇)
31 | - [2.6 GBDT+LR 篇](#26-gbdtlr-篇)
32 | - [2.7 LS-PLM 算法篇](#27-ls-plm-算法篇)
33 | - [三、推荐系统 深度学习篇](#三推荐系统-深度学习篇)
34 | - [3.1 AutoRec 篇](#31-autorec-篇)
35 | - [3.2 NeuralCF模型 篇](#32-neuralcf模型-篇)
36 | - [3.3 Deep Crossing模型 篇](#33-deep-crossing模型-篇)
37 | - [3.4 PNN 模型 篇](#34-pnn-模型-篇)
38 | - [3.5 Wide&Deep模型 篇](#35-widedeep模型-篇)
39 | - [3.6 FM与深度学习模型的结合 篇](#36-fm与深度学习模型的结合-篇)
40 | - [3.7 注意力机制在推荐模型中的应用篇](#37-注意力机制在推荐模型中的应用篇)
41 | - [3.8 DIEN 篇](#38-dien-篇)
42 | - [四、推荐系统 落地篇](#四推荐系统-落地篇)
43 | - [五、多角度审视推荐系统篇](#五多角度审视推荐系统篇)
44 | - [六、推荐系统 评估方法篇](#六推荐系统-评估方法篇)
45 | - [七、推荐系统 工程落地篇](#七推荐系统-工程落地篇)
46 |
47 | ## [一、推荐系统导论篇](introduction/)
48 |
49 | - 1.1 什么是推荐系统?
50 | - 1.2 推荐系统的作用?
51 | - 1.3 推荐系统的意义?
52 | - 1.4 推荐系统要解决的问题?
53 | - 1.5 常用的推荐系统的逻辑框架是怎么样的呢?
54 | - 1.6 常用的推荐系统的技术架构是怎么样的呢?
55 | - 1.7 推荐系统算法工程师日常解决问题?
56 | - 1.8 推荐系统算法工程师 处理的数据部分有哪些,最后得到什么数据?
57 | - 1.9 推荐系统算法工程师 处理的模型部分有哪些,最后得到什么数据?
58 | - 1.10 模型训练的方式?
59 | - 1.11 推荐系统 的 流程是什么?
60 | - 1.12 推荐系统 的 流程是什么?
61 | - 1.13 推荐系统 与 搜索、广告 的 异同?
62 | - 1.14 推荐系统 整体架构?
63 |
64 | ## [二、推荐系统机器学习篇](traditional_recommendation_model/)
65 |
66 | ### [2.1 【关于 协同过滤篇】那些你不知道的事](traditional_recommendation_model/collaborative_filtering/)
67 |
68 | - 一、基础篇
69 | - 1.1 什么是协同过滤?
70 | - 1.2 协同过滤的推荐流程是怎么样?
71 | - 二、基于用户的协同过滤 (User-CF-Based)篇
72 | - 2.1 基于用户的协同过滤 (User-CF-Based) 是什么?
73 | - 2.2 基于用户的协同过滤 (User-CF-Based) 的思想是什么?
74 | - 2.3 基于用户的协同过滤 (User-CF-Based) 的特点是什么?
75 | - 三、基于物品的协同过滤 (Item-CF-Based)篇
76 | - 3.1 基于物品的协同过滤 (Item-CF-Based) 是什么?
77 | - 3.2 基于物品的协同过滤 (Item-CF-Based) 的思想是什么?
78 | - 3.3 基于物品的协同过滤 (Item-CF-Based) 的特点是什么?
79 | - 3.4 基于物品的协同过滤 (Item-CF-Based) 的具体步骤是什么?
80 | - 四、User-CF-Based 与 Item-CF-Based 对比篇
81 | - 4.1 User-CF-Based 与 Item-CF-Based 的应用场景的区别
82 | - 4.2 User-CF-Based 与 Item-CF-Based 的存在问题的区别
83 | - 五、User-CF-Based 与 Item-CF-Based 问题篇
84 |
85 |
86 |
87 |
88 |
89 | ### [2.2【关于 矩阵分解篇】那些你不知道的事](traditional_recommendation_model/matrix_factorization/)
90 |
91 | - 一、动机篇
92 | - 1.1 为什么 需要 矩阵分解?
93 | - 二、隐语义模型 介绍篇
94 | - 2.1 什么是 隐语义模型?
95 | - 2.2 隐语义模型 存在什么问题?
96 | - 三、矩阵分解 介绍篇
97 | - 3.1 如何 获取 ⽤户矩阵Q 和 音乐矩阵P?
98 | - 3.2 矩阵分解 思路 是什么?
99 | - 3.3 矩阵分解 原理 是什么?
100 | - 3.4 如何 利用 矩阵分解 计算 用户 u 对 物品 v 的 评分?
101 | - 四、矩阵分解 优缺点篇
102 | - 4.1 矩阵分解 存在什么问题?
103 |
104 | ### 2.3 【关于 逻辑回归篇】 那些你不知道的事
105 |
106 | - 一、动机篇
107 | - 1.1 为什么 需要 逻辑回归?
108 | - 二、逻辑回归 介绍篇
109 | - 2.1 逻辑回归 如何解决 上述问题?
110 | - 2.2 什么是逻辑回归
111 | - 三、逻辑回归 推导篇
112 | - 3.1 逻辑回归 如何推导?
113 | - 3.2 逻辑回归 如何求解优化?
114 | - 四、逻辑回归 推荐流程篇
115 | - 4.1 逻辑回归 推荐流程?
116 | - 五、逻辑回归 优缺点篇
117 | - 5.1 逻辑回归 有哪些优点?
118 | - 5.2 逻辑回归 有哪些缺点?
119 |
120 | ### 2.4 FM 算法篇
121 |
122 |
123 |
124 | ### 2.5 FFM 算法篇
125 |
126 |
127 |
128 | ### 2.6 GBDT+LR 篇
129 |
130 |
131 |
132 | ### 2.7 LS-PLM 算法篇
133 |
134 |
135 |
136 | ## 三、推荐系统 深度学习篇
137 |
138 | ### 3.1 AutoRec 篇
139 |
140 |
141 |
142 | ### 3.2 NeuralCF模型 篇
143 |
144 |
145 |
146 | ### 3.3 Deep Crossing模型 篇
147 |
148 |
149 |
150 | ### 3.4 PNN 模型 篇
151 |
152 |
153 |
154 | ### 3.5 Wide&Deep模型 篇
155 |
156 |
157 |
158 | ### 3.6 FM与深度学习模型的结合 篇
159 |
160 |
161 |
162 | ### 3.7 注意力机制在推荐模型中的应用篇
163 |
164 |
165 |
166 | ### 3.8 DIEN 篇
167 |
168 |
169 | ## 四、推荐系统 落地篇
170 |
171 |
172 | ## 五、多角度审视推荐系统篇
173 |
174 |
175 | ## 六、推荐系统 评估方法篇
176 |
177 |
178 |
179 | ## 七、推荐系统 工程落地篇
180 |
--------------------------------------------------------------------------------
/README_old.md:
--------------------------------------------------------------------------------
1 | # 推荐系统 百面百搭
2 |
3 | > 作者:杨夕、Rulcy、大雨、刘乙己🇻、Stefan、拒绝焦虑李某人、王翔
4 | >
5 | > 介绍:本项目是作者们根据个人面试和经验总结出的推荐系统(RES) 面试准备的学习笔记与资料,该资料目前包含 推荐各领域的 面试题积累。
6 | >
7 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
8 | >
9 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
10 | >
11 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
12 | >
13 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
14 | >
15 | > 搜索引擎 百面百搭 地址:https://github.com/km1994/search-engine-Interview-Notes 【编写ing】
16 | >
17 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
18 | >
19 | > 推荐系统论文学习笔记:https://github.com/km1994/RS_paper_study
20 | >
21 | > GCN 论文学习笔记:https://github.com/km1994/GCN_study
22 | >
23 | > **推广搜 军火库**:https://github.com/km1994/recommendation_advertisement_search
24 |
25 | 
26 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
27 |
28 | > **所有文章已经搬到 知识星球【关于AiGC那些你不知道的事】,方便大家利用手机学习**
29 | 
30 |
31 | - [推荐系统 百面百搭](#推荐系统-百面百搭)
32 | - [一、【关于 推荐系统 导论篇】 那些你不知道的事](#一关于-推荐系统-导论篇-那些你不知道的事)
33 | - [二、推荐系统机器学习篇](#二推荐系统机器学习篇)
34 | - [2.1 【关于 协同过滤篇】那些你不知道的事](#21-关于-协同过滤篇那些你不知道的事)
35 | - [2.2【关于 矩阵分解篇】那些你不知道的事](#22关于-矩阵分解篇那些你不知道的事)
36 | - [2.3 【关于 逻辑回归篇】 那些你不知道的事](#23-关于-逻辑回归篇-那些你不知道的事)
37 | - [2.4 【关于POLY2篇】那些你不知道的事](#24-关于poly2篇那些你不知道的事)
38 | - [2.5 【关于FM篇】那些你不知道的事](#25-关于fm篇那些你不知道的事)
39 | - [2.6 【关于FFM篇】那些你不知道的事](#26-关于ffm篇那些你不知道的事)
40 | - [2.7 【关于GBDT+LR篇】那些你不知道的事](#27-关于gbdtlr篇那些你不知道的事)
41 | - [2.8 LS-PLM 算法篇](#28-ls-plm-算法篇)
42 | - [三、推荐系统 深度学习篇](#三推荐系统-深度学习篇)
43 | - [3.1 AutoRec 篇](#31-autorec-篇)
44 | - [3.2 NeuralCF模型 篇](#32-neuralcf模型-篇)
45 | - [3.3 Deep Crossing模型 篇](#33-deep-crossing模型-篇)
46 | - [3.4 PNN 模型 篇](#34-pnn-模型-篇)
47 | - [3.5 Wide&Deep模型 篇](#35-widedeep模型-篇)
48 | - [3.6 FM与深度学习模型的结合 篇](#36-fm与深度学习模型的结合-篇)
49 | - [3.7 注意力机制在推荐模型中的应用篇](#37-注意力机制在推荐模型中的应用篇)
50 | - [3.8 DIEN 篇](#38-dien-篇)
51 | - [四、推荐系统 落地篇](#四推荐系统-落地篇)
52 | - [五、多角度审视推荐系统篇](#五多角度审视推荐系统篇)
53 | - [六、推荐系统 评估方法篇](#六推荐系统-评估方法篇)
54 | - [七、推荐系统 工程落地篇](#七推荐系统-工程落地篇)
55 | - [广告算法(系统)、推荐算法(系统)、 搜索算法(系统)](#广告算法系统推荐算法系统-搜索算法系统)
56 | - [协同过滤,优缺点。](#协同过滤优缺点)
57 | - [UserCF、ItemCF,应用场景。](#usercfitemcf应用场景)
58 | - [ctr和cvr模型有什么不同。简介ESMM模型。](#ctr和cvr模型有什么不同简介esmm模型)
59 | - [用户/项目相似度衡量指标,特征相关性衡量指标。](#用户项目相似度衡量指标特征相关性衡量指标)
60 | - [ROC曲线是怎么画的?](#roc曲线是怎么画的)
61 | - [Softmax上溢、下溢。](#softmax上溢下溢)
62 | - [LR中连续特征为什么要做离散化?](#lr中连续特征为什么要做离散化)
63 | - [LSTM输入的维度是100,隐状态的维度是50,问总共的参数量是多少?](#lstm输入的维度是100隐状态的维度是50问总共的参数量是多少)
64 | - [简述fm和矩阵分解模型思想上的的异同点。](#简述fm和矩阵分解模型思想上的的异同点)
65 | - [如何挖掘情感极性词典?](#如何挖掘情感极性词典)
66 | - [问题:业界推荐系统中如何根据应用场景选取负样本?](#问题业界推荐系统中如何根据应用场景选取负样本)
67 | - [问题:推荐系统如何解决重复推荐用户刚刚行为过的item的问题?](#问题推荐系统如何解决重复推荐用户刚刚行为过的item的问题)
68 | - [问题:WIDEand deep 哪类输入wide,哪类输入deep](#问题wideand-deep-哪类输入wide哪类输入deep)
69 | - [问题:视频推荐遇到之前推过的视频咋处理?(视频推荐)](#问题视频推荐遇到之前推过的视频咋处理视频推荐)
70 | - [问题:推荐系统健康度问题? 【注:参考:时晴 炼丹笔记:推荐系统里的那些坑儿】](#问题推荐系统健康度问题-注参考时晴-炼丹笔记推荐系统里的那些坑儿)
71 | - [问题:评估指标里问题? 【注:参考:时晴 炼丹笔记:推荐系统里的那些坑儿】](#问题评估指标里问题-注参考时晴-炼丹笔记推荐系统里的那些坑儿)
72 | - [问题:线上线下不一致问题? 【注:参考:时晴 炼丹笔记:推荐系统里的那些坑儿】](#问题线上线下不一致问题-注参考时晴-炼丹笔记推荐系统里的那些坑儿)
73 | - [1. 特征不一致](#1-特征不一致)
74 | - [2. 数据分布不一致](#2-数据分布不一致)
75 | - [AUC是如何实现的,它对正负样本采样是否敏感?](#auc是如何实现的它对正负样本采样是否敏感)
76 | - [推荐模型——LS-PLM基于机器学习算法的推荐。(可供扩展:说说你知道的推荐模型)](#推荐模型ls-plm基于机器学习算法的推荐可供扩展说说你知道的推荐模型)
77 | - [推荐模型——Airbnb基于Embedding的实时搜索推荐系统。(一种经典的embedding相似度召回模型)](#推荐模型airbnb基于embedding的实时搜索推荐系统一种经典的embedding相似度召回模型)
78 | - [如何解决推荐系统重复推荐用户已经处理过的item的问题?](#如何解决推荐系统重复推荐用户已经处理过的item的问题)
79 | - [推荐系统召回阶段如何实现热门item的打压?(推荐中的“哈利波特”效应)](#推荐系统召回阶段如何实现热门item的打压推荐中的哈利波特效应)
80 | - [关于推荐系统的召回模型。](#关于推荐系统的召回模型)
81 | - [user/item冷启动怎么解决?](#useritem冷启动怎么解决)
82 | - [推荐系统中常见的Embedding方法有哪些?](#推荐系统中常见的embedding方法有哪些)
83 | - [简述Embedding与推荐系统的结合。](#简述embedding与推荐系统的结合)
84 | - [介绍FM和FFM。](#介绍fm和ffm)
85 | - [介绍FNN。](#介绍fnn)
86 | - [特征筛选方法。](#特征筛选方法)
87 | - [推荐系统的特征工程有哪些?怎么做?](#推荐系统的特征工程有哪些怎么做)
88 | - [如何解决数据不平衡?](#如何解决数据不平衡)
89 | - [假设检验的两类错误。](#假设检验的两类错误)
90 | - [RMSE、MSE、MAE。](#rmsemsemae)
91 | - [双塔模型的应用](#双塔模型的应用)
92 | - [多路召回的作用?](#多路召回的作用)
93 | - [召回模型中,评价指标怎么设定?](#召回模型中评价指标怎么设定)
94 | - [广告算法(系统)、推荐算法(系统)、搜索算法(系统)有什么异同?](#广告算法系统推荐算法系统搜索算法系统有什么异同)
95 | - [线下提升线上效果不好](#线下提升线上效果不好)
96 | - [问题四:什么情况下使用动量优化器?(机器学习)](#问题四什么情况下使用动量优化器机器学习)
97 | - [问题三:怎么衡量两个分布的差异,熵、KL散度和交叉熵损失有什么不同,关系是什么 (机器学习/自然语言处理)](#问题三怎么衡量两个分布的差异熵kl散度和交叉熵损失有什么不同关系是什么-机器学习自然语言处理)
98 | - [问题二:w\&d模型的特征,哪些放到wide侧,哪些放到deep侧? w\&d模型在线上,如何做到根据实时数据更新模型(推荐)](#问题二wd模型的特征哪些放到wide侧哪些放到deep侧-wd模型在线上如何做到根据实时数据更新模型推荐)
99 | - [问题一:召回模型中,模型评价指标怎么设计?(推荐)](#问题一召回模型中模型评价指标怎么设计推荐)
100 | - [](#)
101 | - [机器学习基础](#机器学习基础)
102 | - [附:前言问题。(调参、Dropout、过拟合)](#附前言问题调参dropout过拟合)
103 | - [分类决策树的指标有哪些?](#分类决策树的指标有哪些)
104 | - [决策树怎么构造?](#决策树怎么构造)
105 | - [交叉熵的意义。(为什么要用交叉熵?而不用MSE?)](#交叉熵的意义为什么要用交叉熵而不用mse)
106 | - [Batch Normalization](#batch-normalization)
107 | - [FTRL是什么?](#ftrl是什么)
108 | - [梯度下降方法](#梯度下降方法)
109 | - [损失函数无法求导该怎么样进行优化?](#损失函数无法求导该怎么样进行优化)
110 | - [Batch Normalization 相关问题](#batch-normalization-相关问题)
111 | - [逻辑斯蒂回归(LR, Logistic Regression)是什么、怎么推导?](#逻辑斯蒂回归lr-logistic-regression是什么怎么推导)
112 | - [交叉熵与softmax 是 什么?有什么区别?](#交叉熵与softmax-是-什么有什么区别)
113 | - [交激活函数 是 什么?有什么作用?](#交激活函数-是-什么有什么作用)
114 | - [泛化误差(过拟合) 问题?](#泛化误差过拟合-问题)
115 | - [SVM 是什么、怎么推导?](#svm-是什么怎么推导)
116 | - [约束优化问题的对偶问题](#约束优化问题的对偶问题)
117 | - [Dropout 是什么?](#dropout-是什么)
118 | - [评价指标?](#评价指标)
119 | - [正则化L1,L2?](#正则化l1l2)
120 | - [权重初始化?](#权重初始化)
121 | - [决策树是什么、怎么推导?](#决策树是什么怎么推导)
122 | - [优化算是什么?](#优化算是什么)
123 | - [线性判别分析是什么?](#线性判别分析是什么)
124 | - [KMeans是什么?](#kmeans是什么)
125 | - [牛顿法 是什么?](#牛顿法-是什么)
126 | - [缺失值的处理?](#缺失值的处理)
127 | - [模型评估中常用的验证方法](#模型评估中常用的验证方法)
128 | - [主成分分析](#主成分分析)
129 | - [Softmax函数的特点和作用是什么](#softmax函数的特点和作用是什么)
130 | - [样本不均衡是什么](#样本不均衡是什么)
131 | - [损失函数](#损失函数)
132 | - [贝叶斯决策论](#贝叶斯决策论)
133 | - [采样](#采样)
134 | - [集成学习](#集成学习)
135 | - [XGBoost如果损失函数没有二阶导,该怎么办?](#xgboost如果损失函数没有二阶导该怎么办)
136 | - [Boosting vs Bagging?](#boosting-vs-bagging)
137 | - [梯度提升决策树GBDT/MART (Gradient Boosting Decision Tree)是什么?](#梯度提升决策树gbdtmart-gradient-boosting-decision-tree是什么)
138 | - [XGBoost和GBDT是什么?有什么区别?](#xgboost和gbdt是什么有什么区别)
139 | - [XGBoost和GBDT是什么?有什么区别?](#xgboost和gbdt是什么有什么区别-1)
140 | - [LightGBM是什么?](#lightgbm是什么)
141 | - [AdaBoost思想?](#adaboost思想)
142 | - [深度学习基础](#深度学习基础)
143 | - [VGG使用使用3\*3卷积核的优势是什么?](#vgg使用使用33卷积核的优势是什么)
144 | - [卷积是什么、怎么推导?](#卷积是什么怎么推导)
145 | - [pooling有什么意义,和卷积有什么区别](#pooling有什么意义和卷积有什么区别)
146 | - [自然语言处理](#自然语言处理)
147 | - [Transformer细节:Scaled Dot-Product Attention为什么要缩放?(两点)Position Embedding是如何实现的?](#transformer细节scaled-dot-product-attention为什么要缩放两点position-embedding是如何实现的)
148 | - [Skip-grim和Cbow的区别?Skip-grim优势在哪?](#skip-grim和cbow的区别skip-grim优势在哪)
149 | - [Word2Vec常见的加速训练的方式有哪些?](#word2vec常见的加速训练的方式有哪些)
150 | - [问题:Transformer的位置编码公式(自然语言处理)](#问题transformer的位置编码公式自然语言处理)
151 | - [问题:MSE为什么不能作为分类任务的损失函数,sigmoid与softmax分类有什么优缺点?(自然语言处理)](#问题mse为什么不能作为分类任务的损失函数sigmoid与softmax分类有什么优缺点自然语言处理)
152 | - [问题:NER任务BIO标签分布不均衡,该怎么进行优化](#问题ner任务bio标签分布不均衡该怎么进行优化)
153 | - [问题:怎么决定哪些query走字典匹配,哪些走深度模型?](#问题怎么决定哪些query走字典匹配哪些走深度模型)
154 | - [问题:检索可以用语义检索,精排也是语义吗,模型层面,检索和精排有什么异同](#问题检索可以用语义检索精排也是语义吗模型层面检索和精排有什么异同)
155 | - [问题:做NER的时候,BERT之上还需要 BiLSTM 吗? (自然语言处理)](#问题做ner的时候bert之上还需要-bilstm-吗-自然语言处理)
156 | - [问题:问一下ner标注错误的话有没有啥好的办法检测,修正 (自然语言处理)](#问题问一下ner标注错误的话有没有啥好的办法检测修正-自然语言处理)
157 | - [问题十:LSTM为什么能解决梯度消失和梯度爆炸(自然语言处理)](#问题十lstm为什么能解决梯度消失和梯度爆炸自然语言处理)
158 | - [问题九:xgb怎么处理缺省值](#问题九xgb怎么处理缺省值)
159 | - [问题八:怎么处理未登录词问题](#问题八怎么处理未登录词问题)
160 | - [问题七:对于生僻词,skip-gram和cbow哪个效果更好?原因是什么?(自然语言处理)](#问题七对于生僻词skip-gram和cbow哪个效果更好原因是什么自然语言处理)
161 | - [问题六:超过1000个字符长度的文本分类问题如何解决?(自然语言处理)](#问题六超过1000个字符长度的文本分类问题如何解决自然语言处理)
162 | - [问题五:dropout 和L1 和l2是什么关系,有什么异同? (深度学习)](#问题五dropout-和l1-和l2是什么关系有什么异同-深度学习)
163 | - [](#-1)
164 | - [Trick](#trick)
165 | - [问题:tensorflow2.0 model.predict内存不断增长,怎么优化(tensorflow优化)](#问题tensorflow20-modelpredict内存不断增长怎么优化tensorflow优化)
166 | - [常用的超参数调优方法有哪些?](#常用的超参数调优方法有哪些)
167 | - [Tensorflow与PyTorch的区别。](#tensorflow与pytorch的区别)
168 | - [问题:其他坑总结 【注:参考:时晴 炼丹笔记:推荐系统里的那些坑儿】](#问题其他坑总结-注参考时晴-炼丹笔记推荐系统里的那些坑儿)
169 | - [问题:工程里的一些坑? 【注:参考:时晴 炼丹笔记:推荐系统里的那些坑儿】](#问题工程里的一些坑-注参考时晴-炼丹笔记推荐系统里的那些坑儿)
170 | - [模型工程](#模型工程)
171 | - [系统工程](#系统工程)
172 | - [参考](#参考)
173 |
174 | ## [一、【关于 推荐系统 导论篇】 那些你不知道的事](introduction/)
175 |
176 | - 1.1 什么是推荐系统?
177 | - 1.2 推荐系统的作用?
178 | - 1.3 推荐系统的意义?
179 | - 1.4 推荐系统要解决的问题?
180 | - 1.5 常用的推荐系统的逻辑框架是怎么样的呢?
181 | - 1.6 常用的推荐系统的技术架构是怎么样的呢?
182 | - 1.7 推荐系统算法工程师日常解决问题?
183 | - 1.8 推荐系统算法工程师 处理的数据部分有哪些,最后得到什么数据?
184 | - 1.9 推荐系统算法工程师 处理的模型部分有哪些,最后得到什么数据?
185 | - 1.10 模型训练的方式?
186 | - 1.11 推荐系统 的 流程是什么?
187 | - 1.12 推荐系统 的 流程是什么?
188 | - 1.13 推荐系统 与 搜索、广告 的 异同?
189 | - 1.14 推荐系统 整体架构?
190 |
191 | ## [二、推荐系统机器学习篇](traditional_recommendation_model/)
192 |
193 | ### [2.1 【关于 协同过滤篇】那些你不知道的事](https://articles.zsxq.com/id_lje4bgibeb4i.html)
194 |
195 | - 一、基础篇
196 | - 1.1 什么是协同过滤?
197 | - 1.2 协同过滤的推荐流程是怎么样?
198 | - 二、基于用户的协同过滤 (User-CF-Based)篇
199 | - 2.1 基于用户的协同过滤 (User-CF-Based) 是什么?
200 | - 2.2 基于用户的协同过滤 (User-CF-Based) 的思想是什么?
201 | - 2.3 基于用户的协同过滤 (User-CF-Based) 的特点是什么?
202 | - 三、基于物品的协同过滤 (Item-CF-Based)篇
203 | - 3.1 基于物品的协同过滤 (Item-CF-Based) 是什么?
204 | - 3.2 基于物品的协同过滤 (Item-CF-Based) 的思想是什么?
205 | - 3.3 基于物品的协同过滤 (Item-CF-Based) 的特点是什么?
206 | - 3.4 基于物品的协同过滤 (Item-CF-Based) 的具体步骤是什么?
207 | - 四、User-CF-Based 与 Item-CF-Based 对比篇
208 | - 4.1 User-CF-Based 与 Item-CF-Based 的应用场景的区别
209 | - 4.2 User-CF-Based 与 Item-CF-Based 的存在问题的区别
210 | - 五、User-CF-Based 与 Item-CF-Based 问题篇
211 |
212 | ### [2.2【关于 矩阵分解篇】那些你不知道的事](https://articles.zsxq.com/id_4hjo78at5lj8.html)
213 |
214 | - 一、动机篇
215 | - 1.1 为什么 需要 矩阵分解?
216 | - 二、隐语义模型 介绍篇
217 | - 2.1 什么是 隐语义模型?
218 | - 2.2 隐语义模型 存在什么问题?
219 | - 三、矩阵分解 介绍篇
220 | - 3.1 如何 获取 ⽤户矩阵Q 和 音乐矩阵P?
221 | - 3.2 矩阵分解 思路 是什么?
222 | - 3.3 矩阵分解 原理 是什么?
223 | - 3.4 如何 利用 矩阵分解 计算 用户 u 对 物品 v 的 评分?
224 | - 四、矩阵分解 优缺点篇
225 | - 4.1 矩阵分解 存在什么问题?
226 |
227 | ### [2.3 【关于 逻辑回归篇】 那些你不知道的事](https://articles.zsxq.com/id_3kstrwlvfuw0.html)
228 |
229 | - 一、动机篇
230 | - 1.1 为什么 需要 逻辑回归?
231 | - 二、逻辑回归 介绍篇
232 | - 2.1 逻辑回归 如何解决 上述问题?
233 | - 2.2 什么是逻辑回归
234 | - 三、逻辑回归 推导篇
235 | - 3.1 逻辑回归 如何推导?
236 | - 3.2 逻辑回归 如何求解优化?
237 | - 四、逻辑回归 推荐流程篇
238 | - 4.1 逻辑回归 推荐流程?
239 | - 五、逻辑回归 优缺点篇
240 | - 5.1 逻辑回归 有哪些优点?
241 | - 5.2 逻辑回归 有哪些缺点?
242 |
243 | ### [2.4 【关于POLY2篇】那些你不知道的事](https://articles.zsxq.com/id_360m8rlaijqn.html)
244 |
245 | - 一、为什么要使用 POLY2?
246 | - 二、POLY2 的思路是什么?
247 | - 三、POLY2 存在什么问题?
248 |
249 | ### [2.5 【关于FM篇】那些你不知道的事](https://articles.zsxq.com/id_4zqld440t2lm.html)
250 |
251 | - 一、为什么要使用 FM?
252 | - 二、FM 的思路是什么?
253 | - 三、FM 的优点?
254 | - 四、FM 的缺点?
255 | - 五、POLY2 vs FM?
256 |
257 | ### [2.6 【关于FFM篇】那些你不知道的事](https://articles.zsxq.com/id_uz5p2ategto9.html)
258 |
259 | - 一、为什么要使用 FFM?
260 | - 二、FFM 的思路是什么?
261 | - 三、FM vs FFM?
262 |
263 | ### [2.7 【关于GBDT+LR篇】那些你不知道的事](https://articles.zsxq.com/id_0l5gdn0wjtsp.html/)
264 |
265 | - 一、动机篇
266 | - 1.1 为什么 需要 GBDT+LR?
267 | - 二、GBDT 介绍篇
268 | - 2.1 GBDT 的基础结构是什么样的?
269 | - 2.2 GBDT 的学习方式?
270 | - 2.3 GBDT 的思路?
271 | - 2.4 GBDT 的特点是怎么样?
272 | - 2.5 GBDT 所用分类器是什么?
273 | - 2.6 GBDT 解决二分类和回归问题的方式?
274 | - 2.7 GBDT 损失函数 是什么?
275 | - 2.8 构建分类GBDT的步骤 是什么?
276 | - 2.9 GBDT 优缺点篇?
277 | - 三、GBDT+LR 模型介绍篇
278 | - 3.1 GBDT+LR 模型 思路是什么样?
279 | - 3.2 GBDT+LR 模型 步骤是什么样?
280 | - 3.3 GBDT+LR 模型 关键点是什么样?
281 | - 3.4 GBDT+LR 模型 本质是什么样?
282 | - 四、GBDT+LR 优缺点篇
283 | - 4.1 GBDT+LR 的优点是什么?
284 | - 4.2 GBDT+LR 的缺点是什么?
285 |
286 | ### 2.8 LS-PLM 算法篇
287 |
288 | ## 三、[推荐系统 深度学习篇](https://articles.zsxq.com/id_edofa1m861x3.html)
289 |
290 | ### 3.1 [AutoRec 篇](https://articles.zsxq.com/id_dntrd6igjk9i.html)
291 |
292 | ### 3.2 [NeuralCF模型 篇](https://articles.zsxq.com/id_bjd8e1r6kow3.html)
293 |
294 | ### 3.3 [Deep Crossing模型 篇](https://articles.zsxq.com/id_wl94fgqn0r5t.html)
295 |
296 | ### 3.4 PNN 模型 篇
297 |
298 | ### 3.5 [Wide&Deep模型 篇](https://articles.zsxq.com/id_di0tp2qalgdx.html)
299 |
300 | ### 3.6 [FM与深度学习模型的结合 篇](https://articles.zsxq.com/id_wpbdemx6amp9.html)
301 |
302 | ### 3.7 [注意力机制在推荐模型中的应用篇](https://articles.zsxq.com/id_52lnln09rx9t.html)
303 |
304 | ### 3.8 DIEN 篇
305 |
306 | ## 四、推荐系统 落地篇
307 |
308 | ## 五、多角度审视推荐系统篇
309 |
310 | ## 六、推荐系统 评估方法篇
311 |
312 | ## 七、推荐系统 工程落地篇
313 |
314 | ## 广告算法(系统)、推荐算法(系统)、 搜索算法(系统)
315 |
316 | ### 协同过滤,优缺点。
317 |
318 | > 参考:https://zhuanlan.zhihu.com/p/420346637
319 |
320 | A: 协同过滤即是通过(不同用户/物品)合作,实现信息的过滤(即筛选),是一个简单且可解释性强的方案。最常见的协同过滤的方法有UserCF和ItemCF,可以发现早期协同过滤的方法使热门的物品(或用户)具备很强的头部效应,使所有物品都与它有较大的相似度。这揭示了这一方法的天然缺陷,即对于稀疏的数据处理能力弱。
321 |
322 | ### UserCF、ItemCF,应用场景。
323 |
324 | > 参考:https://zhuanlan.zhihu.com/p/420346637
325 |
326 | A: UserCF:得到共现矩阵,根据共现矩阵得到所有用户两两之间的相似度,对User i取TopN个相似用户,对这TopN个用户的项目评分取加权平均,作为该用户预测评分结果。
327 |
328 | - 优点:简单易用,复合直觉“兴趣相似的人喜欢的东西相似”。
329 | - 缺点:用户的历史数据稀疏,找到相似用户的准确度并不是很高。UserCF不适用于正反馈较难获取的应用场景。另一方面,用户的增长是远大于Item的增长的,从这个角度来看,UserCF带来的存储压力更大。
330 |
331 | ItemCF:得到共现矩阵,根据共现矩阵得到所有物品两两之间的相似度,对User i取正反馈物品列表,根据相似度计算出相似的TopK个物品作为推荐列表。
332 |
333 | - 优点:物品相似度存储压力远小于用户相似度。复合直觉“用户喜欢某物品,应推荐相似物品”。
334 | - 缺点:头部效应严重,同样不适用于处理稀疏数据。
335 | - 应用场景:UserCF更适用于新闻推荐,用户能快速得知与自己兴趣相似的人最近喜欢什么,从而更趋向于新闻的及时性、热点性。ItemCF更适用于兴趣在短时间内变化较为稳定的场景,如电商推荐,用户倾向于在短时间内寻找一类商品,此时利用物品相似度时更符合用户动机的。由于UserCF与ItemCF这两种不同的特性,可以作为多路召回策略。
336 |
337 | ### ctr和cvr模型有什么不同。简介ESMM模型。
338 |
339 | > 参考:https://zhuanlan.zhihu.com/p/420346637
340 |
341 | A: 样本空间不同,举例理解:CTR输入是召回Item,输出为点击率。CVR输入是点击的Item,输出为转化率。
342 |
343 | 
344 |
345 | 在ESMM模型中,业务目标为推荐物品后的转化率(收益),所以模型采用CTR×CVR=CTCVR作为线下指标。故采用了共享Embedding层的两个模块设计了一个多任务学习的框架——ESMM。ESMM的两个模块分别输出CTR与CVR并共同训练,最终输出为CTCVR(CTR×CVR),从而避免了割裂曝光->点击->转化的这一整个流程,且使整个模型的训练在同一个样本空间。
346 |
347 | ESMM的精华在于:1)CTR和CVR模块共享Embedding层(多任务学习)。2)隐式地学习CVR模块,通过下面的公式可知,CTR的参数可以单独通过点击率数据(CTR监督数据)学习,而CVR是通过CTCVR监督信息来学习的(与CTR一起学习)。
348 |
349 | 
350 |
351 | ### 用户/项目相似度衡量指标,特征相关性衡量指标。
352 |
353 | > 参考:https://zhuanlan.zhihu.com/p/420346637
354 |
355 | A: 相似度:余弦相似度、皮尔逊相关系数(消除了单个用户均分所带来的偏置——有人3分代表喜欢,有人3分代表讨厌),相似的,在衡量相似度时同样可以减去物品的均分,从而消除物品带来的偏置。
356 |
357 | 相关性:皮尔逊相关系数(线性)、卡方验证、互信息、距离相关系数等等。
358 |
359 | 需要注意,余弦相似度不能衡量相关性,举例来说两个向量(向量值只有0和1)X与!X,可知他们的余弦相似度为0,但相关性是很高的。方差用于特征筛选可以衡量单个特征发散性,不能衡量特征之间的相关性。
360 |
361 | ### ROC曲线是怎么画的?
362 |
363 | > 参考:https://zhuanlan.zhihu.com/p/420346637
364 |
365 | A: ROC曲线的绘制方法为调整截断点,即对于二分类任务,每个样本输出一个0~1的值作为判断正/负样本的概率。在绘制ROC曲线中,从0~1逐步调整正负样本划分的阈值,每次调整记录下来假阳性率和真阳性率。越接近0/1的输出越能以较大概率判断为负/正样本,而在常规情况下,我们采用阈值0.5作为二分类标准。
366 |
367 |
368 | ### Softmax上溢、下溢。
369 |
370 | > 参考:https://zhuanlan.zhihu.com/p/420346637
371 |
372 | A: 上溢:x过大,指数形式导致计算超出存储范围。下溢:x过小,导致分母接近0,计算结果出现Nan。
373 |
374 | 解决方案:对x进行变换使x = x-Max(x),此时分母至少为1。解释如下图所示。
375 |
376 | 
377 |
378 | ### LR中连续特征为什么要做离散化?
379 |
380 | > 参考:https://zhuanlan.zhihu.com/p/420346637
381 |
382 | A: 工业界很少将连续特征作为LR的输入,而采用离散化后的特征作为输入,原因如下:
383 |
384 | 1. 数据角度:离散化的特征对异常数据有很强的鲁棒性;离散化特征利于进行特征交叉。
385 | 2. 模型角度:当数据增加/减少时,利于模型快速迭代;离散化相当于为模型引入非线性表达;离散化特征简化了模型输入,降低过拟合风险;LR中离散化特征很容易根据权重找出bad case。
386 | 3. 计算角度:稀疏向量内积计算速度快。(在计算稀疏矩阵内积时,可以根据当前值是否为0来直接输出0值,这相对于乘法计算是快很多的。)
387 |
388 | 而离散化连续值特征后同样会带来一些缺点,如下:
389 |
390 | 1. 不合理的区间划分容易降低模型表达能力,构造合理的区间划分同样比较困难(需要从区间数、区间分段大小、区间内样本分布进行权衡)。
391 | 2. 如果连续特征x对y有着很强的先验知识(如强线性关系),离散化后会使x的信息表达能力损失。
392 |
393 | ### LSTM输入的维度是100,隐状态的维度是50,问总共的参数量是多少?
394 |
395 | ((100+50)*50+50)*4 = 30200
396 |
397 | ### 简述fm和矩阵分解模型思想上的的异同点。
398 |
399 | 曾伟:
400 |
401 | 简述fm和矩阵分解模型思想上的的异同点。
402 |
403 | - MF 是用use和item 的特征隐向量表示user 和 item 的特征,进而做相似度计算,用于item召回。
404 | - FM 是用因子分解机来做特征的二阶交叉,进而预测user 和 item 的ctr概率,可用于召回或者排序阶段。
405 |
406 | 1. 相同点:MF可以理解为一种特殊的FM,即只有 uid 和 iid 的 FM模型,MF将这两类特征通过矩阵分解来达到 embedding 的目的。
407 | 2. 区别:FM使用了id 之外的特征,同时FM还做了矩阵积的优化,复杂度大幅降低。
408 |
409 | 
410 |
411 | ### 如何挖掘情感极性词典?
412 |
413 | 1. tfidf
414 | 2. 互信息
415 | 3. lda
416 | 4. 决策树结合信息增益
417 |
418 | ### 问题:业界推荐系统中如何根据应用场景选取负样本?
419 |
420 | -参考地址:https://www.zhihu.com/question/29438231
421 |
422 | ### 问题:推荐系统如何解决重复推荐用户刚刚行为过的item的问题?
423 |
424 | -参考地址:https://www.zhihu.com/question/345071035
425 |
426 | ### 问题:WIDEand deep 哪类输入wide,哪类输入deep
427 |
428 | ```s
429 | Lyo:
430 | 一般wide和deep都是接收所有数据的输入吧,二者的区别是wide部分属于特征的线性交叉,deep部分属于非线性交叉
431 |
432 | AI曾小健_顺义_中华复兴:
433 | 比方说哪类数据,用户坐标,性别,
434 |
435 | Lyo:
436 | 你是说稀疏数据或稠密数据吗
437 |
438 | 麻木的程序猿:
439 | wide是输入稀疏的类别性数据和一些类别数据的组合
440 |
441 | AI曾小健_顺义_中华复兴:
442 | deep呢
443 |
444 | 麻木的程序猿:
445 | wide&deep文章里,是将用户被推荐的app id和下载的app id喂给wide
446 |
447 | 麻木的程序猿:
448 | deep就是各种属性特征
449 |
450 | AI曾小健_顺义_中华复兴:
451 | 推荐系统中的aUC是如何计算的?
452 |
453 | 麻木的程序猿:
454 | 一个是计算面积,还有一个是正样本rank和减去正样本组合数再除正负样本乘积
455 | ```
456 |
457 | ### 问题:视频推荐遇到之前推过的视频咋处理?(视频推荐)
458 |
459 | ```s
460 | 大雨:
461 | feed流的短视频咋办呢?有段时间刷抖音,一帮人抬着一块玻璃吓唬人的视频反复给我推(可能不是一个问题,是不同号的相同视频)
462 |
463 | 王翔:
464 | 这东西过滤不就好了,或者如果场景有重定向的或者其他规则,再透出就好了
465 |
466 | 王翔:
467 | 这不就黄赌毒一个道理吗,模型会推,你就不会过滤吗
468 |
469 | 大雨:
470 | 需不需要区分处理?如果某个短视频给了很好的正反馈和一划而过那种
471 |
472 | 王翔:
473 | 怎么加和怎么过就是业务的问题
474 |
475 | 大雨:
476 | 不知道一般实际做得时候大多人工拍一个过滤规则还是单独训一个"复播"的模型?
477 |
478 | 文笔超好的男同学:
479 | id做cache其实就很不错了
480 |
481 | 文笔超好的男同学:
482 | 我感觉大部分是盗用导致的复播吧,这个占比不清楚
483 |
484 | 王翔:
485 | 其他不知道,没专门了解,一般走策略吧,复播模型这东西,至少我认识的好像没人这么做
486 |
487 | 大雨:
488 | 嗯,所以主要还是屏蔽去重,就是屏蔽的方法各异
489 |
490 | 文笔超好的男同学:
491 | 专业说法就是去重
492 |
493 | 文笔超好的男同学:
494 | 加个带时间的cache就完事了
495 |
496 | 文笔超好的男同学:
497 | 和用聊天窗记闪现时间一样
498 |
499 | 大雨:
500 | 嗯嗯
501 |
502 | just do it!:
503 | 推荐系统如何解决重复推荐用户刚刚行为过的item的问题?https://www.zhihu.com/question/345071035
504 |
505 |
506 | 文笔超好的男同学:
507 | 那种剪辑的,去重难度真不低,你看很多视频都带音乐的,一定程度就是因为可以躲过去重
508 |
509 | 文笔超好的男同学:
510 | 这个和洗稿是一样的
511 |
512 | 文笔超好的男同学:
513 | 或者说我们的论文要躲查重
514 | ```
515 |
516 | ### 问题:推荐系统健康度问题? 【注:参考:[时晴 炼丹笔记:推荐系统里的那些坑儿](https://mp.weixin.qq.com/s/iY9bzCBdceJXTWVCwbsdZg)】
517 |
518 | 推荐系统应该是一个良性循环的系统。这也就导致了E&E, exploration & exploitation问题的出现,简单说,就是保证精准推荐的同时,进行兴趣探索。
519 |
520 | 一说大家都明白了,这不就是所有推荐系统做的最差的地方吗?我看了一个东西,就使劲出一个东西,App明明很多东西,我却越用越窄。
521 |
522 | 这个问题更加玄学,更加让人无奈。
523 |
524 | EE要不要做?肯定要做,你不能让用户只能看到一类新闻,这样久了他的feed 流只会越来越小,自己也觉得没劲,所以一定要做兴趣探索。
525 |
526 | 但是做,就势必牺牲指标,探索的过程是艰难的,大部分时间用户体验上也是负向的。那么,
527 |
528 | - 牺牲多少CTR来保EE才算是合适的?
529 | - EE的ROI什么时候算是>1的?
530 | - 怎么样确定EE的效果?
531 | - EE要E到什么程度?
532 |
533 | 其实大家也都没有想清楚,多避而不谈。
534 |
535 | ### 问题:评估指标里问题? 【注:参考:[时晴 炼丹笔记:推荐系统里的那些坑儿](https://mp.weixin.qq.com/s/iY9bzCBdceJXTWVCwbsdZg)】
536 |
537 | 在《推荐系统采样评估指标及线上线下一致性问题》一文中,主要阐述了该部分的观点:
538 |
539 | - 在评估推荐算法的效果时,能不采样就不采样!
540 | - 除了AUC, Precision@K, Recall@K, Average Precision, NDCG都是不一致的,采样计算得到的结果和真实结果可能差很大!
541 | - 现在随机采样计算得到的评估指标的分数具有高偏差,低方差的问题,很多情况和真实情况不符合,结论可能也都错了!
542 | - 如果一定要进行采样计算评估指标的值, 建议采用文中提出的纠正的方案,虽然可能会有较大的方差,但是偏差大大降低,更加接近真实情况;
543 |
544 | 举个例子,比如在信息流推荐中,低俗内容和标题党往往会在短期内对CTR指标有较好的提升,但是这些内容对整个生态在长期来看是有害的,如何处理这部分内容是值得思考的问题。又比如在电商推荐中,如何处理重复推荐也是一直都存在的问题。
545 |
546 | 推荐系统太难了。难到工程师和产品都还没清楚自己要的是什么。“推荐”这个问题本身都不是well-defined的。按照道理来讲,推荐系统要做的事情其实是“推荐用户希望看到的东西”,但是“用户希望看到的东西”落实到指标上,可就让人头大了。
547 |
548 | 以内容推荐为例。你说究竟要得到什么呢?
549 |
550 | - 高CTR?那么擦边球的软色情以及热门文章就会被选出来
551 | - 高Staytime?那么视频+文章feed流就成为为视频feed流和超长文章feed流
552 | - 高read/U?那么短文章就会被选出来
553 |
554 | 这些指标相互依赖,此消彼长,目前主流是沿用计算广告的老路,按照CTR作为最广泛使用的评价指标来优化,这个指标的劣根性是显而易见的,然而至今并没有很好地指标来指导系统。
555 | 今日头条的做法是,优化CTR同时关注其他指标的变动;也有的从CTR开始,优化到瓶颈后进行Staytime的优化等等...
556 | Medium的做法是,优化一个f(CTR, staytime,...)的多指标加权的综合指标,但是据我所知,这个加权的系数,还是一个magic number,是人拍脑门定的。
557 |
558 | 大家都在探索, 也并没有一个定论,究竟推荐系统该优化一些什么。
559 |
560 | 相信很多人刚入行的时候对单纯优化CTR都是有疑惑的,日子久了,也就都麻木了。
561 |
562 | ### 问题:线上线下不一致问题? 【注:参考:[时晴 炼丹笔记:推荐系统里的那些坑儿](https://mp.weixin.qq.com/s/iY9bzCBdceJXTWVCwbsdZg)】
563 |
564 | #### 1. 特征不一致
565 |
566 | 这种在离线拼接样本和特征的Pipeline中比较常见。一般离线特征都是按照天处理的,考虑各种数据pipeline的流程,处理时间一般都会有延迟,离线特征处理完之后导到线上之后,用于线上模型预估时请求使用。
567 | 那这种情况产生的原因是什么呢?在离线,我们使用T-n到T-1的数据训练模型,用T天的数据进行测评,拿到了很好的离线指标,比如AUC为0.82。但是在线服务的模型,并不是这样的理想情况,一个模型每天重新迭代训练,需要新一天(T-1天)的日志,日志从数据队列传输到大数据平台,进行日志的处理,新一天各种特征的计算,组织训练样本,进行模型训练,之后还要把模型从大数据平台更新到在线服务器,整个流程走下来几个小时过去了。那么在新模型上线前,在线服务的是T-2的模型,相当于在离线用T-2的模型去测评T天的样本,效果会大打折扣。因而线上一整天的平均测评指标,是低于离线测评指标的。
568 | 举个例子,例如12月15日这天,线上预估请求用的特征是12月14号的特征数据。到了12月16日,特征Pipeline开始处理数据,到了凌晨5点(有时候ETL作业集群有问题可能会到中午12点),离线特征处理完了导到线上。那么在12月16日0点-2月16日5点,这段时间线上请求的特征使用的是老的特征数据,也就是12月14日的特征数据。12月16日5点-12月16日24点,线上特征使用的是12月15日的数据。而在离线样本生成过程中,到了12月17日0点,如果是按天拼接的,那么12月16号这天的所有样本,都会使用12月15日的特征。
569 |
570 | 这样,12月16日0点--2月16日5点的样本,在离线样本拼接的阶段,使用的是12月15日的特征数据,而在线上请求特征的时候使用的还是12月14日的特征。特征Pipeline流程处理越长,这种不一致会越大。
571 |
572 | 那么问题来了,如果换成实时数据进行实时特征加工是不是就解决这个问题了?
573 |
574 | 实时特征在线使用的时候,经过客户端埋点的上报(这些先不考虑埋点系统的各种坑),流式计算处理日志数据进入在线数据源或特征库,需要经过一段时间。也就是说,如果你刚刚点击了某个“豪车、豪宅”视频,紧接着下滑翻页,系统是拿不到“豪车、豪宅”这个行为的。如果离线模型训练中有用到了带有“豪车、豪宅”的特征,由于近期行为的影响非常大,那么离在线的不一致会非常严重。
575 |
576 | #### 2. 数据分布不一致
577 |
578 | 如果仔细排查,既不存在数据泄漏,也没有出现不一致的问题,离线auc明明就是涨了很多,线上就是下降,而且是离线涨的越多,线上下降越多,还有一种可能就是数据的不一致,也就是数据的“冰山效应”——离线训练用的是有偏的冰山上的数据,而在线上预估的时候,需要预测的是整个冰山的数据,包括大量冰面以下的数据!
579 | 这种情况其实在推荐系统里非常常见,但是往往非常的隐蔽,一时半会很难发现。我们看下面这张图。左边是我们的Baseline,绿色的表示正样本,红色表示负样本,灰色部分表示线上由于推荐系统的“偏见”(预估分数较低),导致根本没有展现过的数据。
580 |
581 | 关于推进系统的偏差问题,之前的《推荐系统Bias大全》一文已经总结了推荐系统中所有Bias情况,有兴趣的可以跳转看一下。
582 |
583 | 离线阶段,我们通过各种优化,新模型的离线评估表现更好了,例如图中第二列,可以发现第4个绿色的正样本和第7个绿色的正样本排到了第3和第6的位置,离线的auc指标涨了。
584 |
585 | 到了真正线上的预估也就是第三列,发现对于这部分离线见过的样本,模型的预估序并未改变。但是新模型给了灰色没有见过的数据更高的预估分数,这部分数据一旦表现不好,很可能造成我们前面说的情况,离线(第二列)评估指标明明涨了不少,在线(第三列)评估指标CTR却下降。
586 |
587 | 
588 |
589 | 这种情况也不是必现的,在LR以特征工程为主要迭代的时代很少见。主要的原因是模型的前后迭代差异并不大。新模型对比老模型最主要的特点是新加入了一部分特征,往往模型的打分差异并不大,从图中第二列到第三列,原来那些冰山下的数据也就是旧模型预估分数偏低的部分,在新模型中能够脱颖而出拿到很高的预估分数的概率并不高。
590 |
591 | 而在模型有较大变化的时候,例如lr->树模型,lr->深度模型,不同网络结构的深度模型变化,这种情况容易出现,原因就是新旧模型的变化较大,预估分数变化也较大。
592 |
593 | 举一个简单的例子,假设我们的baseline是热门模型,样本都是老的热门模型生产出的热门样本,这个时候我们用简单的lr模型去拟合,到了真正的线上预估的时候,对于大量之前没见过的非热门的数据,模型自然很难预估好。没有足够好的样本,模型也很难学到足够有用的信息。
594 |
595 | 说另一个很有意思的现象,之前在某个组的时候,两个team优化同一个场景,大家用的回流样本都是一样的,但是特征和模型都是自己独立优化和迭代。有意思的是,如果一个team的优化取得了比较明显的提升之后,另一个team哪怕什么都不做,过一段时间效果也会慢慢涨上来。
596 |
597 | 对于这种情况,最根本的手段就是解决数据的有偏问题。尤其是新模型,一开始相当于都是在拟合老模型产生的样本,刚上线效果如果比较差,经过一段时间迭代,影响的样本分布慢慢趋近于新模型,也能收敛,但效率较低。这里给下两个在我们这还比较有效的经验:
598 |
599 | 对无偏数据进行上采样
600 | 这里的无偏是相对的,可以是随机/探索流量产生的样本,也可以是新模型产生的样本。大概意思,就是尽可能利用这些对新模型有利的样本。
601 | 线上线下模型融合
602 | 比较trick的方法,没有太多方法论,但是确实能work。
603 | 新模型预估分数PCTRnew 和老模型预估分数PCTRold 直接在线上做线性融合,刚上线的时候a选取比较小,随着慢慢迭代,a慢慢放大。
604 |
605 | ### AUC是如何实现的,它对正负样本采样是否敏感?
606 |
607 | > 参考:https://zhuanlan.zhihu.com/p/416008271
608 |
609 | A: 在弄懂AUC之前,需要知道混淆矩阵。混淆矩阵核心:TP、TN、FP、FN即真伪阴阳。由此引出了真阳率和伪样率——真阳率(TPRate):正样本被预测为正样本的概率。伪阳率(FPRate):负样本被预测为正样本的概率。利用TPRate和FPRate可以画出ROC曲线。ROC曲线下面积为AUC under ROC,模型有效时,其值在0.5~1之间,越大越好。
610 |
611 | AUC同时考虑了正负样本,且其期望目标在于正样本因为准确而得的分(TPRate)大于负样本因为不准扣的分(FPRate)。
612 |
613 | 同时需要注意,AUC(Area Under Curve)并不特指ROC曲线下的面积,只是因为AUC under ROC最为常见被默认了。
614 |
615 | ### 推荐模型——LS-PLM基于机器学习算法的推荐。(可供扩展:说说你知道的推荐模型)
616 |
617 | > 参考:https://zhuanlan.zhihu.com/p/416008271
618 |
619 | A: LS-PLM(大规模分段线性模型)又称MLR(混合逻辑回归),阿里爸爸曾经的主流模型。思想是先对样本进行聚类,在每个聚类基础上分别建立LR模型进行预测。对于LS-PLM模型的运行机制对于以下公式理解就不难。
620 |
621 | 
622 | > LS-PLM预测模型(输出为y)
623 |
624 | 其中μ可以代表样本离聚类中心的距离,通过softmax函数输出了一组权重,每个权重乘以对应的聚类簇的LR模型。可以认为LS-PLM是每个聚类簇建立一个LR模型,以样本点与聚类中心的距离作为attetion权重,LR预测值作为value并乘以权重进行预测。
625 |
626 | 很显然LR对于非线性的数据拟合能力有限,通过聚类找到多个分片分别进行LR,能有效提高预测能力。
627 |
628 | ### 推荐模型——Airbnb基于Embedding的实时搜索推荐系统。(一种经典的embedding相似度召回模型)
629 |
630 | > 参考:https://zhuanlan.zhihu.com/p/416008271
631 |
632 | A: 相似度的计算进行物品搜索。Airbnb应用场景是租房中介平台,主要特点在于用户兴趣的短期和长期建模。以下介绍该推荐系统特有的工程性质:
633 |
634 | 一.基于短期兴趣的房源Embedding:利用session序列(包含浏览与点击信息),采用了Word2Vec建立房源embedding。该方案基本上同word2vec相同,巧妙之处在于目标函数的构造上。基于常规的负样本降采样的word2vec目标函数,该方案:1.考虑将最终预定房源与滑动窗口中心房源关系,作为正样本引入到目标函数中。2.考虑滑动窗口中心房源与该房源同类房源的关系,作为负样本引入到目标函数中。该方案引导我们根据实际情况构造更优的目标函数。
635 |
636 | 二.基于长期兴趣的房源和用户Embedding:利用session(浏览-点击)建模无法获取到用户长期兴趣,故该推荐系统采用了用户预订序列(用户较长时间才有一次预订行为)作为长期兴趣建模。遗憾的是,预订序列数据稀疏,很难直接进行建模。此处将房源id和用户id采用它们的属性向量表示,相当于引入了额外信息,并一定程度克服了数据稀疏。在训练时,使它们在同一向量空间训练,故得到的用户和房源的embedding可以直接利用相似度进行适配预测。
637 |
638 | 三.利用用户和房源embedding相似度固然可以得到推荐结果,但Airbnb并没有采用这种方案。Airbnb将候选房源与用户点击房源、忽略房源、用户属性、用户收藏房源等等的相似度作为新构造的特征,输入到模型中进行预测。该方案类似于一个Stacking的集成模式。
639 |
640 | 综上所述,Airbnb带给我们的工程收获是:1.如何从业务的角度构造目标函数/评价指标。2.如何处理稀疏序列数据。3.利用单个word2vec建模如何获取用户与项目之间的语义相似性。(使用户与项目之间的embedding相似度可以作为推荐结果)4.如何利用基于embedding的相似度构造更具备可解释性的特征。
641 |
642 | ### 如何解决推荐系统重复推荐用户已经处理过的item的问题?
643 |
644 | > 参考:https://zhuanlan.zhihu.com/p/416008271
645 |
646 | A: 这是一个去重的问题,导致重复推荐主要有两种情况:1)物料相同。这种情况下有可能是重复推荐同一个id的item导致,或是同样的内容由不同的来源发布;2)物料近似。这是由于两个item都在讲述类似的事情导致的。
647 |
648 | 在物料id相同的情况下,一般可以根据用户的曝光信息在召回阶段做过滤(如对召回的item进行过滤),或是在后端对item过滤,最差的情况可以用客户端过滤做兜底。
649 |
650 | 对于物料id不同物料内容相同的情况下,需要给物料映射为一个值,利用该值进行去重。对于常规的生搬、盗用,这种方案是有效的。但对于有二次创作行为的物料来说,识别这种行为较为困难,可以归结为物料相似情况。
651 |
652 | 当物料相似的情况下,对于强相似物料,可以直接采取去重措施;对于较强相似物料,可以考虑根据物料主题在排序阶段做打散,避免短时间内出现推荐扎堆现象。另外,可以通过用户的负反馈降低同类推荐可能性(如B站屏蔽理由:重复内容)。
653 |
654 | ### 推荐系统召回阶段如何实现热门item的打压?(推荐中的“哈利波特”效应)
655 |
656 | > 参考:https://zhuanlan.zhihu.com/p/416008271
657 |
658 | A: 在召回的排序中,由于热门Item的多数来源于用户点击过,item+主要都是热门item,会使模型一定程度上丧失个性化。解决方案主要是在召回阶段控制选择正负样本的概率(对热门的惩罚):
659 |
660 | 1. 生成Item+时,根据热门程度对正样本进行打压。
661 |
662 | 2. 生成Item-时,热门程度更高的item更有可能被选定为负样本(hard negative)。
663 |
664 | 一个简单的方式是对表示热门程度特征值取对数(叉烧大佬提供),对越高频的样本打击力度越大,且打击后热门item流行度特征仍然是优于冷门item的。
665 |
666 | 另外是否需要对热门进行打压是根据业务来的,实际上在流量至上的年代,有些应用不打压热门,这样更容易制造话题提高热度,带来的负面影响就是用户个性化被忽视了。
667 |
668 | 另外,在排序过程中,合理的用户画像能够帮助模型打压不合用户喜好的热门item。
669 |
670 | ### 关于推荐系统的召回模型。
671 |
672 | > 参考:https://zhuanlan.zhihu.com/p/416008271
673 |
674 | A: 召回模型在策略上是多优于好的,召回模型多半较简单,故近年来推荐系统的模型研究里排序模型远远多于召回模型,早期的一些基于协同过滤的召回甚至都能取得很好的效果。关于这个问题我更愿意推荐一个大佬的文章。以下是原文:
675 |
676 | [工业界推荐系统中有哪些召回策略?](https://www.zhihu.com/question/315120636/answer/1687203383)
677 |
678 | 文章主题:从NFEP的视角理解召回。
679 |
680 | Near——定义向量距离近,取决于不同的召回方式。
681 |
682 | Far——定义向量距离远,取决于负样本的采样方式。
683 |
684 | Embedding——如何生成embedding,这被归结到用户/物品画像的问题。
685 |
686 | Pairwise-loss——召回阶段无法追求预测值与标签值的绝对准确性,所以往往采用Pairwise(user,item+,item-)追求排序之间的相对准确性。
687 |
688 | ### user/item冷启动怎么解决?
689 |
690 | > 参考:https://zhuanlan.zhihu.com/p/416008271
691 |
692 | A: user冷启动:基于规则的冷启动(如热度、最高评分);基于模型的冷启动(收集必要的用户属性信息进行建模);主动学习方案的冷启动(用户自由选择/反馈);基于迁移学习的冷启动(合理利用其它领域/来源的信息)。
693 |
694 | item冷启动:采用随机分发资源获取用户反馈信息;基于重要属性的冷启动(如同一作者/系列等);设置“最新”排序列表获取用户反馈信息。
695 |
696 | ### 推荐系统中常见的Embedding方法有哪些?
697 |
698 | > 参考:https://zhuanlan.zhihu.com/p/409434095
699 |
700 | A: word2vec是最经典的词向量embedding方式,基于word2vec思想,item2vec使用item向量代替词向量。这类方法无法处理网络化的数据,于是出现了大量Graph Embedding技术。
701 |
702 | DeepWalk使用用户行为序列构建物品关系图,然后通过随机游走生成新的序列数据,继而通过word2vec训练。DeepWalk可以看做序列embedding到Graph embedding的过度方法。
703 |
704 | Node2vec核心思想在于同质性与结构性的权衡。同质性指的图中距离近的节点应该尽量相似(倾向于DFS),结构性指图中节点所处结构位置相似的应该尽量相似(倾向于BFS)。Node2vec设置了跳转概率,使当前游走过程可能朝着更深的方向(同质性),或是返回之前的方向(结构性)。
705 |
706 | EGES(基于边信息的增强图Embedding)引入边信息作为物品embedding的补充信息,边信息可以是基于知识图谱获得的信息(这类信息包括特征信息)。EGES的方法是对Item及其特征一起进行embedding建模,最终得到的单个Item的embedding向量是该item及其特征的加权平均。EGES对缺少历史数据的Item更为亲切。
707 |
708 | ### 简述Embedding与推荐系统的结合。
709 |
710 | > 参考:https://zhuanlan.zhihu.com/p/409434095
711 |
712 | 1. 高维稀疏向量向低维稠密向量的转换;
713 | 2. 预训练Embedding向量作为网络输入(使embedding向量携带更多信息;提高网络计算效率);
714 | 3. 基于embedding相似度的推荐(如Youtube推荐召回层直接利用了Embedding相似度进行候选Item召回,而值得品味的一点是,Youtube对于单个用户的召回,采用了该用户的embedding与物品embedding计算相似度从而召回物品候选集,这点是很有意思的一个trick)。
715 |
716 | ### 介绍FM和FFM。
717 |
718 | > 参考:https://zhuanlan.zhihu.com/p/409434095
719 |
720 | A: 首先需要避免的一个误区:FM是通过embedding向量的内积构造二阶特征。诚然,embedding向量构造二阶特征确实是一种有效的方式,与FM也有相似点。但是FM提出的时候,基于embedding的推荐还没有应用于推荐系统中。
721 |
722 | FM是构造二阶交叉特征的一种算法。FM的提出是因为,传统的构造二阶特征的方式,使原本就稀疏的特征变得更为稀疏(例如篮球and女的群体相对于篮球群体而言,样本更少),且计算参数量级别由n提升到了n^2(能表示n个特征的one-hot向量维度为n,他们的二阶交叉特征有n^2个)。
723 |
724 | FM的核心在于引入了隐向量来控制需要更新的权重参数量,形式如下:假设一共有n个一阶特征,则二阶特征的LR模型有n^2的参数量(w),若使每个参数为两个向量的内积,则使用n×k个权重即可计算得到所有n^2的参数。这n×k个权重被称为隐权重向量(W)。即wi,j=Wi · Wj。对W进行参数更新可以参考矩阵分解。
725 |
726 | FM将n^2级别的参数量减少到nk,但丢失了对某些具体特征组合的精确记忆能力。另一方面,从参数更新的方式来看,POLY2只有组合特征同时出现在一个样本时,才能学习到对应的权重。而在FM中,通过隐向量进行更新,可以学习到组合特征分别的权重,这对于稀疏数据是友好的。
727 |
728 | 而FFM相对于FM,引入了特征域的概念。首先在业务上,我们需要明白特征域是什么:当特征为男、女时,特征域是性别;当学历为本科、硕士、博士时,特征域是学历。假设特征域个数为f,则FFM中每个隐向量维度由原来的1×k变为f×k,每次进行两个隐向量内积而得到权重时,内积双方的特征所在的特征域同样得到了关注。这显然是更合理的,因为谈到特征是离不开特征域的,FM的做法反而将特征域和特征割裂开了。但FFM增加了计算复杂度。
729 |
730 | ### 介绍FNN。
731 |
732 | > 参考:https://zhuanlan.zhihu.com/p/409434095
733 |
734 | A: FNN采用FM的权重参数初始化输入层到embedding层之间的权重。这是属于预训练,相当于在训练之前就引入了有价值的先验信息。假设在FM中隐权重向量维度为k,则连接输入层的每个神经元(也是单个特征,相当于one-hot向量的每个单值)的权重初始化方案为:[该特征在FM中的一阶权重(维度为1),该特征在FM中的二阶隐权重(维度为k)]。可以很自然地发现,FNN模型中每个特征域维度决定于FM。
735 |
736 | ### 特征筛选方法。
737 |
738 | > 参考:https://zhuanlan.zhihu.com/p/409434095
739 |
740 | A: 过滤法(Filter):通过发散性(单个特征——方差、熵等)或相关性(特征之间——协方差、皮尔逊相关系数、卡方验证)。
741 |
742 | 包装法(Wrapper):根据不同特征子集的预测结果进行特征选择。
743 |
744 | 嵌入法(Embedding):根据模型/网络系数进行特征选择。典型的如LR+L1正则的特征筛选。
745 |
746 | 小trick:使用一个属性去预测另外一个属性,如果准确率高,代表它们相关性高。
747 |
748 | ### 推荐系统的特征工程有哪些?怎么做?
749 |
750 | > 参考:https://zhuanlan.zhihu.com/p/412523397
751 |
752 | A: 数据、模型、算力共同决定效果,而数据部分决定了效果上限,模型和算力只是在逼近上限。推荐系统的特征工程属于数据部分,目的是为了保留有用的特征,摒弃无用的特征。常用的特征类别有:
753 |
754 | 1. 固有属性特征。可以是用户/商家自行设置的标签,或是由用户给物品打上的标签等。
755 | 2. 行为特征。这类数据多为序列型数据,多用以序列建模。或是取历史行为数据的平均embedding或DIN的方式处理(embedding求权)。
756 | 3. 社交特征。关于社交关系的特征,可以建立关系图并应用图embedding技术;或是作为用户的一个固有属性进行预测。
757 | 4. 内容特征(多媒体特征)。图片、视频、文字等信息。
758 | 5. 上下文特征(场景特征)。此类特征保留推荐行为发生的场景信息,包括时间、空间、特定事件等。
759 | 6. 统计特征。通过统计方法计算出来的特征。
760 | 7. 高阶组合特征。
761 |
762 | 不同类别的特征输入可以作为多路召回的策略之一。
763 |
764 | 常见的基本特征类型有连续型特征和类别(离散)型特征。对于它们的处理方式通常有:
765 |
766 | 1. 连续型特征:归一化、离散化、加非线性函数处理(如log、幂等,主要是为了使特征数值更适合模型输入)。
767 | 2. 类别型特征:one-hot、multi-hot等。
768 |
769 | ### 如何解决数据不平衡?
770 |
771 | > 参考:https://zhuanlan.zhihu.com/p/412523397
772 |
773 | A: 在数据不平衡的前提下训练,很容易使模型预测结果总偏向于数据量多的一方,从而产生没有实际收益的结果。解决数据不平衡有以下几种方案:
774 |
775 | 1. 重采样(包括欠采样和过采样)。举例说明,对数据进行聚类,对大的簇进行随机欠采样,对小的簇进行数据生成。缺点:欠采样可能导致数据信息损失,使模型欠拟合;过采样需要生成较少类别的数据或使用重复数据,导致过拟合。合成新数据和过采样地理念是相似的,这种方法有可能造成数据信息不准确。
776 | 2. 集成模型。对多类样本进行欠采样,并与所有的少类样本共同作为基学习器的数据。
777 | 3. 选择对于数据不平衡相对不敏感的模型,如树模型。
778 | 4. 将有监督学习问题转化为一个无监督学习问题,如异常检测。
779 | 5. 阈值调整。例如在二分类中,将类别分类的阈值从0.5转为较少类别/(较大类别+较少类别)。个人认为,调整阈值的方法需要对损失函数进行调整,且这种方案可以理解成”改变权重”,即对与少数类分类错误的惩罚加重。
780 |
781 | ### 假设检验的两类错误。
782 |
783 | > 参考:https://zhuanlan.zhihu.com/p/412523397
784 |
785 | A: 弃真(第一类错误)、取伪(第二类错误)。常用避免两类错误的方法是增大样本量。
786 |
787 | ### RMSE、MSE、MAE。
788 |
789 | > 参考:https://zhuanlan.zhihu.com/p/412523397
790 |
791 | A: MSE——均方误差,对量纲敏感(万*万会到亿级别),多用于损失函数。RMSE——均方根误差,克服了MSE的量纲问题,多用于评价指标。MAE——平均绝对误差,多用于评价指标。
792 |
793 | 需要注意,这里说的多用于损失函数/评价指标并不绝对,只是大多数研究中是这么做的。
794 |
795 | MSE用于损失函数的优点在于其平方的形式,使误差更大的模型被给予更高的惩罚,这有利于快速收敛。缺点在于这种“更高的惩罚”是相对的,如果模型训练出现了离群点,那么训练过程会更偏向于离群点,使得模型整体性能下降。
796 |
797 | MAE相较于MSE,没有平方项的作用,对所有训练数据惩罚力度相同。但反之,MAE对所有数据的一视同仁,使基于MAE的模型学习速度慢,甚至可能由于梯度值小,使模型陷入局部最优。另外,MAE在0处不可导。
798 |
799 | RMSE更多的是作为评价指标与MAE相比较而言的。RMSE由于其平方的性质,如果评估集中较大误差的数据会更大程度的提升RMSE值(简单来说,RMSE更容易受到方差的影响)。所以常规情况下,RMSE值是大于MAE的。在评测中,更小的RMSE更具备代表意义,这说明在评估集中相对较大的误差也是比较小的。
800 |
801 | ### 双塔模型的应用
802 |
803 | > 参考:https://zhuanlan.zhihu.com/p/412523397
804 |
805 | A: 说到双塔模型不得不谈DSSM模型。DSSM模型用于解决NLP的语义匹配任务,后被引入到推荐领域,成为早期的双塔模型代表。双塔模型主要的理念是,将user与item分别利用一个网络进行建模,在网络的最后计算相似度/通过隐层输出预测结果值,其模型结构像两座高塔。双塔模型在工业界应用广泛,在线下训练完成后,将user与item的embedding存入内存数据库中,在线上推断时,直接拿出缓存的embedding进行简单的计算(相似度)即可。双塔模型的不足在于只在最后阶段有着user与item的交互(特征交叉程度不足,只在user/item内部域才存在特征交叉)。2019年谷歌提出的双塔模型具有较大的工业价值,有时间可以自行看看。
806 |
807 | ### 多路召回的作用?
808 |
809 | > 参考:https://zhuanlan.zhihu.com/p/408640761
810 |
811 | A: 交叉与互补,满足用户兴趣多元化。
812 |
813 | ### 召回模型中,评价指标怎么设定?
814 |
815 | > 参考:https://zhuanlan.zhihu.com/p/408640761
816 |
817 | A: 召回的好坏决定模型的上限,召回的指标主要分为两部分:单路召回的效果;单路召回对剩余整体的影响。评价指标有:
818 |
819 | 1. 对召回集的直接评价指标:召回率、精确率和综合两者的F1。
820 |
821 | 2. 熵:Entropy=∑pi*log(pi)。pi表示类别i在召回集出现的次数,熵越大,代表该路召回的类别越多(多样性)。
822 |
823 | 3. 召回集和精确率这类指标会受到user-item交互的频数影响,可以使用F1 score作为替代(主要为了解决Recall和Precision受到N(TopN)的影响),另一方面,可以在评价召回模型时,对于不同的用户设置根据交互频数设置不同的N。
824 |
825 | 4. 另外,可以对于不同位置的召回集与未召回集,取少量数据进行排序模型的训练,使用精排评价指标判断该召回是否有明显优势。
826 |
827 | ### 广告算法(系统)、推荐算法(系统)、搜索算法(系统)有什么异同?
828 |
829 | 
830 |
831 | - 参考:[广告算法(系统)和推荐算法(系统)有什么异同?](https://www.zhihu.com/question/279830647)
832 |
833 | ### 线下提升线上效果不好
834 |
835 | > 参考:https://zhuanlan.zhihu.com/p/408640761
836 |
837 | A: 原因是多样的,主要原因在于样本与评估指标、环境。
838 |
839 | 在样本上,线下样本为历史数据,而线上样本难免出现新数据,同理还有新特征等,如线上时间特征在线下是无法训练的。
840 |
841 | 在评估指标上表现为评估指标不对等,线下评估指标需要更贴近业务才能更好地表示真实推荐结果(或线上指标)。例如AUC表示的是所有user对所有item的评估指标,而线上更多需要单个user对其所有item的评估作为推荐结果,这时可以采用GAUC,即对每个user的AUC做量权求和作为评估指标。
842 |
843 | 另外即是线下训练很难还原线上环境。可以理解为线下训练无法捕获到全部的线上特征。
844 |
845 | ### 问题四:什么情况下使用动量优化器?(机器学习)
846 |
847 | > 回答者1:Rulcy
848 |
849 | 我只能说出来基于动量的优化器有两个优点:1、优化速度更快。2、更容易跳脱局部最优点。
850 |
851 | > 回答者2:Hirah
852 |
853 | 动量优化器应对poor conditioning Hessian matrix有优势,用符合直觉的方法来解释就是不同维度的优化函数陡峭程度不一样的时候,动量优化器比SGD好。
854 |
855 | 动量优化器比SGD还有一个优势,SGD mini-batch之间如果方差大的话优化路径会发生震荡,加入动量可以改善这个。
856 |
857 | Ian goodfellow的花书讲到动量的时候就讲了这两个motivations。
858 |
859 |
860 |
861 | 图例:动量用于解决优化过程中的两个问题:病态条件(poor conditioning)下的黑塞矩阵和随机梯度下降中出现的方差。图例中的黑色箭头代表每一个优化步骤计算出的梯度方向,红色的轨迹则是引入动量后的优化路径。当黑塞矩阵处于病态条件时目标函数呈现出狭长山谷的形状。引入动量能够在优化时修正路径,不至于在峡谷窄侧长期穿梭浪费时间。
862 |
863 | > 回答者3:Moonlight
864 |
865 | 我看到的资料是这样的,比如你有个狭长小路,两边是山峰,容易在山峰来回震荡,而你把这个物体当成个有质量的,把那种来回的动量加到速度上,就能加速在小路上下降的速度,达到提速的效果
866 |
867 | - 相关讨论:比较不同的优化器 SGD/AdaGrad/Adam/Momentum
868 |
869 | ### 问题三:怎么衡量两个分布的差异,熵、KL散度和交叉熵损失有什么不同,关系是什么 (机器学习/自然语言处理)
870 |
871 | > 回答者:杨夕
872 |
873 | 1. 熵 entropy 介绍
874 |
875 | - 定义:衡量系统的不确定性(熵越大,信息量越大)
876 | - 公式:
877 |
878 | 
879 |
880 | > 注:
881 | > P(vi):vi 在系统中概率;
882 | > S(v):蕴含的信息量
883 |
884 | 2. KL 散度 KL divergence 介绍
885 |
886 | - 定义:用来度量两个分布之间的差异。KL 散度全称叫kullback leibler 散度,也叫做相对熵(relative entropy)
887 | - 公式:
888 |
889 | 
890 |
891 | > 注:
892 | > 公式第一部分:A 的熵;
893 | > 公式第二部分:事件B相对于A的期望值
894 |
895 | 3. 交叉熵 cross entropy 介绍
896 |
897 | - 定义:在监督学习中,通常是train一个分布在标签的监督下,极大地近似 target distribution
898 | - 公式:
899 |
900 | 
901 |
902 | 4. 区别
903 |
904 | - 概念的角度分析
905 | - 熵:可以表示一个事件A的自信息量,也就是A包含多少信息,即**衡量系统不确定程度**。
906 | - KL散度:可以用来表示从事件A的角度来看,事件B有多大不同,即**衡量两个事件/分布之间的不同**。
907 | - 交叉熵:可以用来表示从事件A的角度来看,如何描述事件B,即**衡量两个事件/分布的近似程度**。
908 |
909 | 也就是说:KL散度可以被用于计算代价,而在特定情况下最小化KL散度等价于最小化交叉熵。而交叉熵的运算更简单,所以用交叉熵来当做代价。
910 |
911 | - 从公式的角度分析:
912 |
913 | 
914 | > 交叉熵 cross entropy = 熵 entropy + KL 散度 KL divergence
915 |
916 | 5. 参考
917 |
918 | - [交叉熵和KL散度有什么区别?](https://zhuanlan.zhihu.com/p/292434104)
919 | - [KL散度与交叉熵区别与联系](https://blog.csdn.net/Dby_freedom/article/details/83374650)
920 |
921 | > 回答者:王翔
922 |
923 | 衡量分布就是减法,至于怎么减,就看本事了。
924 |
925 | 一个分布减去另一个分布,至于咋减,就看自己了,像KL就是以哪个分布为概率分布,算个信息差,当然你也可以选择其他算法
926 |
927 | ### 问题二:w&d模型的特征,哪些放到wide侧,哪些放到deep侧? w&d模型在线上,如何做到根据实时数据更新模型(推荐)
928 |
929 | > **【这道题比较发散,最后没 讨论出比较合适的答案,想看大佬博弈,可以点此链接 [群精彩讨论](群精彩讨论/README.md#问题二wd模型的特征哪些放到wide侧哪些放到deep侧-wd模型在线上如何做到根据实时数据更新模型推荐)】**
930 |
931 | > 回答者 1:拒绝焦虑李某人
932 |
933 | 和预测目标强相关的,共现频率高的特征和手工交叉特征可以放到wide侧,其余的放到deep侧,全都放在deep侧应该也行吧。
934 |
935 | > 回答者 2:刘乙己??
936 |
937 | w&d模型在线上,如何做到根据实时数据更新模型
938 | (推荐)?
939 | 模型服务器每次收到(app召回集合+当前用户特征),模型服务器返回每个app的score。
940 | score就是对于wide & deep模型的一次 forward pass。
941 | 为了缩短响应时间10ms以内,并行预测,例如可以将分布式多线程的计算不同批次app的得分。
942 |
943 |
944 | ### 问题一:召回模型中,模型评价指标怎么设计?(推荐)
945 |
946 | > 回答者 1:刘乙己🇻
947 |
948 | 1. **召回率:**在用户真实购买或者看过的物品中, 模型真正预测出了多少, 这个考察的是模型推荐的一个全面性。
949 |
950 | 2. **准确率 :**推荐的所有物品中, 用户真正看的有多少, 这个考察的是模型推荐的一个准确性。 为了提高准确率, 模型需要把非常有把握的才对用户进行推荐, 所以这时候就减少了推荐的数量, 而这往往就损失了全面性, 真正预测出来的会非常少,所以实际应用中应该综合考虑两者的平衡。
951 |
952 | 3. **Hit Ratio(HR):**在top-K推荐中,HR是一种常用的衡量召回率的指标,计算公式为:
953 |
954 | 
955 |
956 | 分母是所有的测试集合,分子表示每个用户top-K列表中属于测试集合的个数的总和。
957 |
958 | 举个简单的例子,三个用户在测试集中的商品个数分别是10,12,8,模型得到的top-10推荐列表中,分别有6个,5个,4个在测试集中,那么此时HR的值是(6+5+4)/(10+12+8) = 0.5。
959 |
960 | 1. **覆盖率(Coverage):**描述一个推荐系统对物品长尾的发掘能力。最简单的定义为推荐系统能够推荐出来的物品占总物品集合的比例。
961 |
962 | 假设系统的用户集合为U,总物品集合为I ,推荐系统给每个用户推荐一个长度为N的物品列表R(u):
963 |
964 | 
965 |
966 | 其中I表示所有物品的集合,覆盖率表示最终的推荐列表中包含多大比例的物品,如果所有用户都被推荐给至少一个用户,则覆盖率为100%。可以通过研究物品在推荐列表中出现的次数的分布描述推荐系统挖掘长尾的能力。如果这个分布比较平,那么说明推荐系统的覆盖率比较高,而如果这个分布比较陡峭,说明这个推荐系统的覆盖率比较低。
967 |
968 | 5. **新颖度:**用推荐列表中物品的平均流行度度量推荐结果的新颖度。 如果推荐出的物品都很热门, 说明推荐的新颖度较低。 由于物品的流行度分布呈长尾分布, 所以为了流行度的平均值更加稳定, 在计算平均流行度时对每个物品的流行度取对数。
969 |
970 | > 回答者 2:Stefan
971 |
972 | - 线上评估:
973 |
974 | 1. 可以拿召回的topk个物品,与线上用户实际的点击做交集,或根据线上用户点击的物品在召回集中的平均排名位置
975 | 2. 线上也可以直接看一些数据,分析bas case
976 | 3. 可以控制精排模型一致,AB分流测试不同的召回模型,直接看最终线上指标变化
977 |
978 | - 离线评估:
979 |
980 | 1. 可以准备一份用户会点击的一些items A,然后用模型预测召回一批items B,看这些items A在items B中的hit数
981 |
982 | - 参考资料:
983 | - [「召回层」如何评估召回效果?](https://mp.weixin.qq.com/s/L4G-Gu5pRc0obbHRZvQy5w)
984 | - [如何评价推荐召回算法的效果](https://www.zhihu.com/tardis/sogou/art/364046069)
985 |
986 | ###
987 |
988 | ## 机器学习基础
989 |
990 | ### 附:前言问题。(调参、Dropout、过拟合)
991 |
992 | > 参考:https://zhuanlan.zhihu.com/p/416008271
993 |
994 | 1. 调参经验。Batch-Size较大时梯度下降方向更准确,此时可以设置较大的学习率进行匹配;Batch-Size较小时,模型更注重于个体差异性而非整体性,此时学习率宜较小。关于具体该怎么调参,可以看我之前的文章: [Rulcy:《调参侠》](https://zhuanlan.zhihu.com/p/397456423)
995 | 2. Dropout怎么输出。在前向传播中,屏蔽的神经元不输出,未屏蔽的神经元根据该层比例对输出进行放大(倍数为该层神经元/未屏蔽神经元)。
996 | 3. 过拟合解决方案。模型角度:简化模型、L1/L2正则、Dropout与集成、Normalization。数据角度:增加样本量、减少冗余特征、添加噪声。训练角度:早停法、交叉验证。等等。
997 | 4. 另:欠拟合解决方案。添加更多特征/数据,增加模型复杂度或可解释性,减少正则化力度。
998 |
999 | ### 分类决策树的指标有哪些?
1000 |
1001 | > 参考:https://zhuanlan.zhihu.com/p/420346637
1002 |
1003 | A: 信息增益(选择一个属性后,信息熵的变化);增益率(信息增益偏向于选择取值多的属性,增益率抑制了这一点);基尼指数(用基尼值定义纯度,在计算方面会快一点)。对于连续值属性,将数值排序后,采用相邻数据的平均值(中心值)作为划分标准,选择最优的划分点。
1004 |
1005 | ### 决策树怎么构造?
1006 |
1007 | > 参考:https://zhuanlan.zhihu.com/p/420346637
1008 |
1009 | A: 输入:给定数据(特征,标签)和当前数据的属性集合。
1010 |
1011 | 1. 为当前输入生成一个结点。
1012 | 2. 当标签全属于同一类别,当前节点标记为叶子节点,属于同一类别。
1013 | 3. 当属性集合为空集/训练集在属性集合中取值相同时,则当前节点标记为叶子节点,标记为当前数据中多数的类别。
1014 | 4. 从数据中选择最优的划分属性。(对于连续值是选择属性的最优划分点)
1015 | 5. 对最优划分属性的每个值生成树分支。
1016 | 6. 在分支树的基础上递归地构造决策树。
1017 |
1018 | ### 交叉熵的意义。(为什么要用交叉熵?而不用MSE?)
1019 |
1020 | > 参考:https://zhuanlan.zhihu.com/p/420346637
1021 |
1022 | A: 问题原因:交叉熵作为损失函数意义不明。
1023 |
1024 | 解答:一方面,MSE可能引导sigmoid/Softmax进入梯度平缓层,而对于交叉熵损失的求导与激活函数的导数无关。另一方面,交叉熵能让模型尽量拟合真实分布(是从公式进行理解的,详情看公式)。首先抛弃交叉熵这个概念,在拟合时,需要让模型分布M尽量拟合训练数据分布T,在KL散度理解即使最小化KL(T|M),KL散度一般用来衡量两个分布之间的不同。在训练数据T固定的情况下,T的信息熵固定,最小化KL散度即等于最小化交叉熵。
1025 |
1026 | 可以根据公式对交叉熵进行理解,交叉熵的目的为,模型输出的分布中,正确的样本被预测为分类正确的可能性尽可能大。
1027 |
1028 | ### Batch Normalization
1029 |
1030 | > 参考:https://zhuanlan.zhihu.com/p/416008271
1031 |
1032 | A: BN是什么——简单理解就是对前一层神经元输出以某种方案进行归一化与再放缩,再输入到下一层网络中。实际上BN在操作上就是十分简单,但却很有效。
1033 |
1034 | Normalization为什么产生——Internal Covariate Shift(ICS),这个概念指神经网络中层之间由于相互作用,神经网络中任意两层的数据分布都保持一定的非线性关系(hi = g(hj))。这是神经网络的一个基本的性质,但这一性质会导致:浅层网络饱和(反向传播中无法有效进行浅层训练,实际上是由于梯度消失引起的)、深层网络隐层输入振荡(输入有细微的变化时,深层网络可能震荡激烈)。
1035 |
1036 | BN怎么做——1.取Batch。2.计算Batch内均值方差。3.根据均值方差对Batch内神经元规范化。4.再放缩。
1037 |
1038 | 
1039 |
1040 | 为什么要再放缩——避免因为强行规范化使模型丧失了信息,再放缩是在原分布与归一化分布之间的折中。当再放缩的权重为Batch计算的均值与方差(标准差)时,相当于维持原分布。
1041 |
1042 | Normalization为什么有效——
1043 |
1044 | 1. 层层之间的一定程度的解耦。其一是使每层保持在了一个相对稳定的分布。其二使Sigmoid、Tanh等激活函数的偏微分对于梯度反向传播影响更小(保持在了导数非饱和区),缓解了梯度消失。
1045 |
1046 | 2. 使模型对网络中的参数不再敏感。对于Norm操作而言,假设W=aW’,显然Norm(W)=Norm(W’)。对于以下两个公式,对x进行微分进行的是链式传播中隐层之间的反向传播累乘因子,对w进行微分进行的是计算对于当前层W的更新梯度值(这部分理解对BP熟悉就不难)。
1047 |
1048 | 
1049 |
1050 | 这两个公式使得:1)参数权重的伸缩变化不会影响反向传播,缓解了反向传播中权重过大/过小引发的梯度爆炸/消失。(权重初始化更简单)2)权重值越大,梯度就越小,参数变化趋于稳定,起到了一定的正则化作用。(自适应的梯度下降值,使学习率设定更简单)
1051 |
1052 | 3. BN对mini-batch随机的选取,使计算的均值和方差有区别,相当于引入噪声,起到了正则化作用。
1053 |
1054 | BN和LN(Layer Normalization)——BN选取了一批mini-batch计算均值和方差,进行归一化;而LN是对单层神经元(单个样本的所有维度)进行归一化。抽象理解可以是BN为纵向归一化,LN横向。BN实现的放缩最后使不同的神经元被Norm到不同区间,且LN会强制使它们都被Norm到同一个区间,这更可能损失模型的表达能力。相对的,LN不需要保存mini-batch的均值方差,省了空间,且适用范围比BN大。
1055 |
1056 | ### FTRL是什么?
1057 |
1058 | > 参考:https://zhuanlan.zhihu.com/p/409434095
1059 |
1060 | A: FTRL是一种参数更新的优化算法,该算法保证了模型的稀疏度与精度。在推荐场景中,FTRL常用与LR模型的实时更新上。FTRL的提出是为了解决:在实时更新中,单个(少量)样本对模型的更新容易使模型丧失稀疏性(LR+L1正则化很难解决这个问题)。FTRL的本质是参数截取,即某一条件下直接使权重参数置为0。
1061 |
1062 | ### 梯度下降方法
1063 |
1064 | > 参考:https://zhuanlan.zhihu.com/p/409434095
1065 |
1066 | A: 从普通梯度下降来讲,采用学习率*梯度的方式进行权重的增量更新,很容易使模型优化停留在局部最优解。于是产生了基于动量的梯度下降,基本思路是将历史梯度值添加到增量更新的计算中,使模型在陷入局部最优解时更有可能跳出来。
1067 |
1068 | 自适应梯度算法(Adagrad)的梯度更新公式表达的是,对于梯度更新得越多,将要更新的越少。这使稀疏的特征将会得到更多机会进行更新。
1069 |
1070 | RMSProp的提出解决了Adagrad更新缓慢的问题,Adagrad的公式使得梯度更新越多,梯度更新的就更慢。
1071 |
1072 | Adam(自适应矩估计)兼具RMSProp的优点。Adam从动量获得了模型更新速度(增量更新更大)和跳脱局部最优的能力,从RMSProp获得了不同方向梯度的适应能力。Adam是近年来深度模型的首选。
1073 |
1074 | ### 损失函数无法求导该怎么样进行优化?
1075 |
1076 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1077 |
1078 | A: 使用次梯度。
1079 |
1080 | ### Batch Normalization 相关问题
1081 |
1082 | 1. 什么是 Batch Normalization?
1083 | 2. Batch Normalization 多卡同步 的动机?
1084 | 3. Batch Normalization 多卡同步 的原理?
1085 | 4. Batch Normalization 多卡同步 的操作(pytorch)?
1086 |
1087 | - [答案](https://zhuanlan.zhihu.com/p/429901476)
1088 |
1089 | ### 逻辑斯蒂回归(LR, Logistic Regression)是什么、怎么推导?
1090 |
1091 | - [答案](https://zhuanlan.zhihu.com/p/429901476)
1092 |
1093 | ### 交叉熵与softmax 是 什么?有什么区别?
1094 |
1095 | 1. 交叉熵 数学原理?
1096 | 2. 交叉熵 损失函数?
1097 | 3. 交叉熵不适用于回归问题?
1098 | 4. 交叉熵与softmax 的 区别?
1099 | 5. 为什么softmax分母是所有类别的加权和?
1100 | 6. 为什么要引入指数形式?
1101 | 7. 为什么不用2、4、10等自然数为底而要以 e 为底呢?
1102 | 8. 为什么分母是所有类别的加权和?
1103 | 9. 为什么要引入指数形式?
1104 |
1105 | - [答案1](https://zhuanlan.zhihu.com/p/429901476)
1106 | - [答案2](https://www.jianshu.com/p/1536f98c659c)
1107 |
1108 | ### 交激活函数 是 什么?有什么作用?
1109 |
1110 | 1. 激活函数的主要作用?
1111 |
1112 | - [答案1](https://zhuanlan.zhihu.com/p/429901476)
1113 |
1114 | ### 泛化误差(过拟合) 问题?
1115 |
1116 | - [答案](https://zhuanlan.zhihu.com/p/429901476)
1117 |
1118 | ### SVM 是什么、怎么推导?
1119 |
1120 | 1. SVM 基本原理、意义?
1121 | 2. SVM推导?
1122 | 3. SVM 核函数 是什么?
1123 | 4. SVM 核函数作用 是什么?
1124 | 5. SVM 核函数 有哪些?
1125 | 6. SVM 核函数 怎么选择?
1126 | 7. SVM 软间隔与损失函数
1127 |
1128 | - [答案-》10. SVM](https://zhuanlan.zhihu.com/p/429901476)
1129 |
1130 | ### 约束优化问题的对偶问题
1131 |
1132 | - [答案-》11. 约束优化问题的对偶问题](https://zhuanlan.zhihu.com/p/429901476)
1133 |
1134 | ### Dropout 是什么?
1135 |
1136 | 1. 为什么 需要用 Dropout?
1137 | 2. Dropout 原理?
1138 | 3. Dropout 训练与测试
1139 | 4. Dropout 为什么可以减轻过拟合?
1140 | 5. BN和Dropout共同使用出现的问题?
1141 |
1142 | - [答案-》11.Dropout](https://zhuanlan.zhihu.com/p/429901476)
1143 |
1144 | ### 评价指标?
1145 |
1146 | - [答案-》12. 评价指标](https://zhuanlan.zhihu.com/p/429901476)
1147 |
1148 | ### 正则化L1,L2?
1149 |
1150 | 1. 什么是正则化?
1151 | 2. L1正则化 是什么?
1152 | 3. L2正则化 是什么?
1153 | 4. L1和L2正则化的区别?
1154 |
1155 | - [答案-》13.正则化L1,L2](https://zhuanlan.zhihu.com/p/429901476)
1156 |
1157 | ### 权重初始化?
1158 |
1159 | 1. 是否可以将权重初始化为0?
1160 |
1161 | - [答案-》14.权重初始化](https://zhuanlan.zhihu.com/p/429901476)
1162 |
1163 | ### 决策树是什么、怎么推导?
1164 |
1165 | 1. 决策树是什么?
1166 | 2. ID3 是什么?
1167 | 1. 什么是 信息增益?
1168 | 3. C4.5 是什么?
1169 | 1. 什么是 增益率
1170 | 4. CART决策树 是什么?
1171 | 1."基尼指数" (Gini index) 是什么?
1172 | 5. 剪枝策略?
1173 | 6. 缺失值处理?
1174 | 1. 如何在属性值缺失的情况F进行划分属性选择?
1175 | 2. 给定划分属性?若样本在该属性上的值缺失,如何对样本进行划分?
1176 | 7. LR、决策树、SVM的选择与对比
1177 |
1178 | - [答案-》15. 决策树](https://zhuanlan.zhihu.com/p/429901476)
1179 |
1180 | ### 优化算是什么?
1181 |
1182 | 1. 优化算法是什么?
1183 | 2. 梯度下降法的含义 是什么?
1184 | 3. 什么是 批量梯度下降法 (Batch Gradient Descent)?
1185 | 4. 随机梯度下降(Stochastic Gradient Descent) 是什么?
1186 | 5. 什么是 小批量梯度下降(Mini-Batch Gradient Descent)
1187 | 6. 动量法(Momentum)?
1188 | 7. Nesterov Momentum(Nesterov Accelerated Gradient?
1189 | 8. Adagrad法
1190 | 9. Adadelta/RMSprop
1191 | 10. Adam:Adaptive Moment Estimation自适应矩估计
1192 |
1193 | - [答案-》17.优化算法](https://zhuanlan.zhihu.com/p/429901476)
1194 |
1195 | ### 线性判别分析是什么?
1196 |
1197 | 1. 线性判别分析(linear discriminant analysis,LDA)是什么?
1198 | 2. LDA与PCA 异同点 是什么?
1199 | 3. LDA优缺点 是什么?
1200 |
1201 | - [答案-》18. 线性判别分析](https://zhuanlan.zhihu.com/p/429901476)
1202 |
1203 | ### KMeans是什么?
1204 |
1205 | 1. KMeans是什么?
1206 | 2. KMeans 优缺点 是什么?
1207 |
1208 | - [答案-》21.KMeans](https://zhuanlan.zhihu.com/p/429901476)
1209 |
1210 | ### 牛顿法 是什么?
1211 |
1212 | 1. 牛顿法 是什么?
1213 |
1214 | - [答案-》22. 牛顿法](https://zhuanlan.zhihu.com/p/429901476)
1215 |
1216 | ### 缺失值的处理?
1217 |
1218 | 1. 缺失值的原 是什么?
1219 | 2. 具体算法的缺失值处理?
1220 |
1221 | - [答案-》23. 缺失值的处理](https://zhuanlan.zhihu.com/p/429901476)
1222 |
1223 | ### 模型评估中常用的验证方法
1224 |
1225 | 1. Holdout检验 是什么?
1226 | 2. 交叉检验 是什么?
1227 | 3. 自助法 是什么?
1228 |
1229 | - [答案-》24. 模型评估中常用的验证方法](https://zhuanlan.zhihu.com/p/429901476)
1230 |
1231 | ### 主成分分析
1232 |
1233 | 1. 主成分分析 是什么?
1234 |
1235 | - [答案-》25. 主成分分析](https://zhuanlan.zhihu.com/p/429901476)
1236 |
1237 | ### Softmax函数的特点和作用是什么
1238 |
1239 | 1. Softmax函数的特点和作用是什么?
1240 |
1241 | - [答案-》26.Softmax函数的特点和作用是什么](https://zhuanlan.zhihu.com/p/429901476)
1242 |
1243 | ### 样本不均衡是什么
1244 |
1245 | 1. 导致模型性能降低的本质原因是什么?
1246 | 2. 导致模型性能降低的解决办法是什么?
1247 |
1248 | - [答案-》27.样本不均衡](https://zhuanlan.zhihu.com/p/429901476)
1249 |
1250 | ### 损失函数
1251 |
1252 | - [答案-》 28.损失函数](https://zhuanlan.zhihu.com/p/429901476)
1253 |
1254 | ### 贝叶斯决策论
1255 |
1256 | - [答案-》29.贝叶斯决策论](https://zhuanlan.zhihu.com/p/429901476)
1257 |
1258 | ### 采样
1259 |
1260 | - [答案-》30.采样](https://zhuanlan.zhihu.com/p/429901476)
1261 |
1262 | ## 集成学习
1263 |
1264 | ### XGBoost如果损失函数没有二阶导,该怎么办?
1265 |
1266 | > 参考:https://zhuanlan.zhihu.com/p/412523397
1267 |
1268 | A: 使用次导数或退化到使用一阶导。
1269 |
1270 | ### Boosting vs Bagging?
1271 |
1272 | 1. Bagging和Boosting的区别?
1273 | 2. 决策树、GBDT、XGBoost 区别与联系?
1274 | 3. XGBoost 是什么?
1275 | 4. Boosting 是什么?
1276 | 5. Bagging 是什么?
1277 | 6. 从减小偏差和方差来解释Boosting和Bagging?
1278 | 7. 随机森林(RF) 是什么?
1279 |
1280 | - [答案-》16. Boosting vs Bagging](https://zhuanlan.zhihu.com/p/429901476)
1281 |
1282 | ### 梯度提升决策树GBDT/MART (Gradient Boosting Decision Tree)是什么?
1283 |
1284 | 1. 梯度提升决策树GBDT/MART (Gradient Boosting Decision Tree)是什么?
1285 | 2. 梯度提升与梯度下降关系 是什么?
1286 | 3. 梯度提升决策树GBDT/MART (Gradient Boosting Decision Tree) 优缺点 是什么?
1287 |
1288 | - [答案-》20.梯度提升决策树GBDT/MART (Gradient Boosting Decision Tree)](https://zhuanlan.zhihu.com/p/429901476)
1289 |
1290 | ### XGBoost和GBDT是什么?有什么区别?
1291 |
1292 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1293 |
1294 | A: GBDT:关键点在于Gradient和Boosting和DT(回归树)。在BDT中:Boosting——阶梯状训练,每棵树学习的是之前的树学习结果的残差。通过多棵树的预测结果求和,作为最终预测结果。而在GBDT中,采用损失函数梯度作为每棵树需要学习的预测结果(y)。
1295 |
1296 | 为什么使用损失函数的梯度?——基于残差的模型无法处理分类模型(类别数据无法取残差);基于损失函数梯度的模型,由于梯度是优化方向,那么就具备和残差同样的性质(使模型输出结果向着正确方向靠近),且损失函数类型多,可以根据模型业务选择合适的损失函数。实际上,BDT是GBDT的特例。
1297 |
1298 | GBDT容易过拟合,故在推荐中采用GBDT+LR的模型,使GBDT的输出结果作为LR的特征输入。
1299 |
1300 | 关于回归树:叶子节点输出值常见采用的是当前叶子节点划分领域的值的均值,划分方式同分类树一样,根据特征划分计算当前指标(决策树的划分指标),选择最佳的特征作为当前划分。在推荐的GBDT+LR模型中,训练的是回归树,输出的是表示每棵回归树落到的节点的特征向量([1,0,0,...,0,1,0,0])。
1301 |
1302 | GBDT是一种机器学习算法,而XGBoost是GBDT最广为人知的工程实现。XGB相对于GBDT,对实现方式更为详尽,能够得到更准确的结果。在实现方式上,相对于GBDT在损失函数构造上添加了二阶泰勒展开和正则项,并根据最小化损失函数构造了决策树的划分标准。
1303 |
1304 | XGB相对于GBDT有以下优化:加入正则项(与叶子节点个数与节点输出权值有关)防止过拟合;采用二阶泰勒展开,相对于GBDT的一阶导数(梯度)更为准确;支持多种基分类器,不限于GBDT的CART决策树;XGB有缺失值处理方案,能够自动学习缺失值处理策略;Shrinkage(衰减)策略,每次迭代的新模型乘以一个衰减率降低优化速度,避免过拟合;借鉴了随机森林(RF)的两种抽样策略;并行处理。
1305 |
1306 | ### XGBoost和GBDT是什么?有什么区别?
1307 |
1308 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1309 |
1310 | A: 随机森林是一种Bagging集成模型,基模型是决策树。随机森林的随机体现在:随机选择样本(Bootstrap自助法,有放回抽样),随机选择特征(每颗树使用不同的特征子集)。相当于综合了一群有偏见的分析师做决策。
1311 |
1312 | 随机森林的优点在于:算法表现优秀,易于并行,且在处理高维度数据上不需要做特征筛选。
1313 |
1314 | ### LightGBM是什么?
1315 |
1316 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1317 |
1318 | A: LightGBM是一个基于决策树的Boosting(实现GBDT算法)的框架,对比于XGBoost具有更快的训练效率与更低的内存消耗。
1319 |
1320 | ### AdaBoost思想?
1321 |
1322 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1323 |
1324 | A: Adaboost思想是对分类错误的样本提高权重,且在模型融合时,错误率低的模型具有更高权重。
1325 |
1326 |
1327 | ## 深度学习基础
1328 |
1329 | ### VGG使用使用3*3卷积核的优势是什么?
1330 |
1331 | - [答案](https://zhuanlan.zhihu.com/p/429901476)
1332 |
1333 | ### 卷积是什么、怎么推导?
1334 |
1335 | 1. 卷积 原理?
1336 | 2. 什么是 反卷积?
1337 | 3. 什么是空洞卷积?
1338 |
1339 | - [答案](https://zhuanlan.zhihu.com/p/429901476)
1340 |
1341 | ### pooling有什么意义,和卷积有什么区别
1342 |
1343 | - [答案](https://zhuanlan.zhihu.com/p/429901476)
1344 |
1345 |
1346 | ## 自然语言处理
1347 |
1348 | ### Transformer细节:Scaled Dot-Product Attention为什么要缩放?(两点)Position Embedding是如何实现的?
1349 |
1350 | > 参考:https://zhuanlan.zhihu.com/p/412523397
1351 |
1352 | A: Scaled——论文中的解释为,点积的结果可能会比较大,将softmax函数push到一个梯度很小的区域。Scaled通过对向量中数值的同程度放缩,缓解这种现象。可以如此进行理解,如传入softmax层的向量为[0.27,0.73]时,softmax能起到好的效果,而放大100倍,softmax输出结果近似能达到[0,1]的程度,使梯度传播缓慢。
1353 |
1354 | 另一方面,需要了解为什么scaled采用根号d(向量维度)进行放缩:对于QK的内积(1×D · D×1)而言,假设QK中各个分量都服从均值方差~(0,1),则内积结果服从(0,D)。方差越大,即说明点积结果可能取到更大/小的概率。故采用Scaled操作将方差控制在1。
1355 |
1356 | 可以扩展的是,常规的Attention形式有Add和Mul两种。简化来看,Add将两个向量相加并通过一个隐层输出权重,Mul将两个向量通过内积得到相似度值,并使用Softmax层输出权重。Mul相较于Add实现更为简单快捷,但发现随着向量维度D增长,Mul的性能渐渐不如Add了,此时认为是较大的内积值将Softmax层推向了梯度平缓区,而Add由于其性质,天然的不需要Scaled的存在。
1357 |
1358 | Position Embedding——存在的原因在于Self-attention的形式和常规神经网络是同一性质的,即平等地看待网络中的所有输入,这不同于串行训练的循环网络,会使序列信息中宝贵的位置信息丢失。Transformer中引入的位置编码为正弦位置编码,并将不同的Position Embedding加到不同位置的向量中。正弦位置编码在为每个向量引入不同的绝对位置编码的同时,任意两个向量能够很好地获取相对位置的信息(原文提到过,PE(pos+k)可以表示成PE(pos)的线性函数)。
1359 |
1360 | ### Skip-grim和Cbow的区别?Skip-grim优势在哪?
1361 |
1362 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1363 |
1364 | A: 使用中心词预测上下文与使用上下文预测中心词的区别。使用Sg的训练更为细致,从BP的角度看待,Sg的输出节点为Cbow的K倍,则在反向传播时的计算次数时Cbow的K倍(Cbow原理上对上下文向量做了Average)。对于数据量较少或生僻词较多的时候,Sg能展现出明显优势。简单而言,Cbow训练速度更快,但Skip-grim更为准确,实际上论文中也指出了Sg效果更好。
1365 |
1366 | ### Word2Vec常见的加速训练的方式有哪些?
1367 |
1368 | > 参考:https://zhuanlan.zhihu.com/p/408640761
1369 |
1370 | A: 对高频词抽样,对于部分高频词(如“the”),很难对语义贡献有针对意义的信息,而学习高频词的样本又远远超过了训练该高频词emb所需的样本数。故通过“抽样”的方式,对于每个词都有一定概率被删除掉,而删除的概率与该词的词频有关。
1371 |
1372 | 负采样提高训练效率。在Word2Vec训练中,word词表(ont-hot向量)中每个训练样本会更新所有权重,如输出样本数据为[0,0,...,0,1,...,0,0],其中1代表正样本,而0代表其他的所有的负样本。此时对负样本的0进行筛选再反向传播。假设词表大小为1W,而负样本集合为10,则计算复杂度至少缩减到千分之一。出现频次高的样本更容易被选为负样本。
1373 |
1374 | Hierarchical(层级) SoftMax。预测的输出词采用哈夫曼树编码表示(从[0,0,..,1,..0,0]转化为00..1的形式),词频高的位于哈夫曼树浅层,词频低的位于深层。此时输出层由原来的V分类(V代表词典大小,V分类指将隐层输出的值通过Softmax转化为预测的one-hot词向量结果)转为了logV次的二分类。该方法没有明显优于负采样方法,故较少采用。
1375 |
1376 | ## 问题:Transformer的位置编码公式(自然语言处理)
1377 |
1378 | - 回答1:transformer位置编码公式
1379 |
1380 | PE(pos,2i)=sin(pos/10000^(2i/dim)) PE(pos,2i+1)=cos(pos/10000^(2i/dim))
1381 |
1382 | - 回答2:transformer位置编码公式
1383 |
1384 | 
1385 |
1386 | - 回答3:transformer位置编码公式
1387 |
1388 | 
1389 |
1390 | ## 问题:MSE为什么不能作为分类任务的损失函数,sigmoid与softmax分类有什么优缺点?(自然语言处理)
1391 |
1392 | ```s
1393 | A:
1394 | 1. MSE为什么不能作为分类任务的损失函数?
1395 | 选用损失函数主要看两点:1)是否连续可导;2)更新参数的速度,误差大的时候更新快,误差小的时候更新慢。以二分类为例:
1396 | 1)分类任务最后需要经过 sigmoid 函数,转换为(0,1)的概率值。
1397 | - sigmoid,取值范围在(0,1), 在很大和很小的时候,梯度接近0。
1398 | - 导数为 sigmoid(z)' = sigmoid(z)(1-sigmoid(z))
1399 | 2)采用MSE损失函数,连续可导满足条件。
1400 | - 但当z值小于-2.5 或 大于2.5时,梯度接近于0,在这个区间参数更新非常慢。
1401 | - 在参数的梯度变化中,绝对误差与梯度之间的关系是,误差范围是[0,1],误差由大到小的过程中,梯度会先变小再变大使得误差最小化,不太利于模型的收敛。
1402 | 综合以上,MSE不适合分类任务的损失函数。
1403 |
1404 | B:
1405 | 补充一点: 分类任务中通过mse 得到的损失函数是非凸函数,梯度下降时容易陷入局部极小值
1406 |
1407 | ```
1408 |
1409 | ## 问题:NER任务BIO标签分布不均衡,该怎么进行优化
1410 |
1411 | 1. 不均衡不是问题,是常态,看最少的那一类是否足够。
1412 |
1413 | ## 问题:怎么决定哪些query走字典匹配,哪些走深度模型?
1414 |
1415 | 1. 名词类、高频的优先走词典。
1416 | 2. 模糊的,泛化的,走深度。
1417 |
1418 | ## 问题:检索可以用语义检索,精排也是语义吗,模型层面,检索和精排有什么异同
1419 |
1420 | 1. 精排本质上是交互式和表征式都可以。检索只能用表征式。原因是检索只支持向量检索。
1421 |
1422 | ## 问题:做NER的时候,BERT之上还需要 BiLSTM 吗? (自然语言处理)
1423 |
1424 | 1. 不建议,后面的组件 容易 误导 BERT
1425 |
1426 | ## 问题:问一下ner标注错误的话有没有啥好的办法检测,修正 (自然语言处理)
1427 |
1428 | 1. 人工检测;
1429 | 2. 预测结果 比较;
1430 |
1431 | ## 问题十:LSTM为什么能解决梯度消失和梯度爆炸(自然语言处理)
1432 |
1433 | ```s
1434 | dz-Summer:
1435 | 大佬们,新一期 TopicShare 的 Topic 分享 填报来了,大家可以填一下感兴趣的 Topic
1436 |
1437 | Topic8 TopicShape Topic收集:https://shimo.im/sheets/y98CHkv6KHvkwrQ3/R6vm5/
1438 |
1439 | 【#每日一题#】
1440 |
1441 | LSTM为什么能解决梯度消失和梯度爆炸(自然语言处理)
1442 |
1443 | 面试题收集问卷:https://shimo.im/forms/Gd3jQWDpgyd3xcJ3/fill
1444 | 【面筋】百面百搭:https://github.com/km1994/Interview-Notes
1445 |
1446 | dz-刘鸿儒:
1447 | 可以解决梯度爆炸,解决不了梯度消失?
1448 |
1449 | dz-刘鸿儒:
1450 | 因为有门,可以限制输出的范围
1451 |
1452 | dz-Summer:
1453 | 欢迎大佬们积极讨论,题目中隐藏的一些问题,直接怼
1454 |
1455 | dz-稻米:
1456 | 他不能解决,只能缓解,因为引入了门控机制,由rnn的累乘改为了累和,反向传播梯度消失的影响较大的缓解,细胞状态c也可以较好的存储长序列的语义信息
1457 |
1458 | Dw-成员-李祖贤-萌弟:
1459 | 至今没能解决
1460 |
1461 | dz-刘鸿儒:
1462 | 对,缓解
1463 |
1464 | dz-刘乙己🇻:
1465 | LSTM为什么能解决梯度消失和梯度爆炸
1466 |
1467 | Rnn梯度消失是因为在反向传播的时候,梯度信息衰减,求偏导∣∂ht /∂ht−1∣<1,步数多了造成了梯度消失,如0.9的n次方趋近于0;梯度爆炸是因为在反向传播的时候,梯度信息增强,求偏导∣∂ht /∂ht−1∣>1,步数多了就会梯度爆炸,如1.1的n次方趋近于无穷。
1468 | RNN用tanh而不是relu的主要目的就是缓解梯度爆炸风险,激活函数tanh相对relu来说,tanh是有界的,梯度爆炸风险更低。
1469 | LSTM解决方法是门控机制,遗忘门、输入门、输出门,三门都用了sigmoid,尤其第一个遗忘门,将过往信息压在0~1之间,如果依赖于历史信息,就会接近于1,这时候的梯度信息正好不容易消失,否则不依赖于历史信息,梯度消失也无妨。
1470 | ft即遗忘门在0~1之间这个特性决定了它梯度爆炸的风险很小,同时ft表明了模型对历史信息的依赖性,也正好是历史梯度的保留程度,两者相互自洽,所以LSTM也能较好地缓解梯度消失问题。
1471 |
1472 | ```
1473 |
1474 | ## 问题九:xgb怎么处理缺省值
1475 |
1476 | ```s
1477 | dz-琼花梦落:
1478 | 还问xgb怎么处理缺省值
1479 |
1480 | dz-琼花梦落:
1481 | 咋处理啊
1482 |
1483 | 冯。:
1484 | 训练时候 选择分裂后增益最大的那个方向(左分支或是右分支)
1485 |
1486 | just do it!:
1487 | 有大佬愿意参与 群讨论内容 整理么?
1488 |
1489 | 冯。:
1490 | 预测时候 出现新缺失 默认向右?
1491 |
1492 | dz-夜伦:
1493 | 论文好像是左
1494 |
1495 | 冯。:
1496 | 我记得是右
1497 |
1498 | dz-夜伦:
1499 | 这个应该是训练的时候没有碰到缺失值,而预测的时候碰到缺失值
1500 |
1501 | dz-夜伦:
1502 | 如果在训练当中碰到 缺失值不参与损失下降吧 好像做都会分配到左右节点
1503 |
1504 | dz-夜伦:
1505 | 看哪个增益大 作为默认分裂方向
1506 |
1507 | dz-琼花梦落:
1508 | 我没用过,都没答上来,上面回答的两位应该更懂
1509 |
1510 | 冯。:
1511 | 默认向左 我错了
1512 |
1513 | 冯。:
1514 | https://zhuanlan.zhihu.com/p/382231757
1515 |
1516 | ```
1517 |
1518 | ## 问题八:怎么处理未登录词问题
1519 |
1520 | ```s
1521 | OPPO-文笔超好的男同学:
1522 | 问题可以考虑升级泛化一下,怎么处理未登录词问题,这样更加开放性
1523 |
1524 | just do it!:
1525 | 可以可以
1526 |
1527 | dz-稻米:
1528 | 太狠了,会问这么深嘛
1529 |
1530 | dz-琼花梦落:
1531 | 今天下午
1532 |
1533 | dz-稻米:
1534 | 好像一般都问到如何将层次softmax和负采样融入进模型训练的,差不多就给过了
1535 |
1536 | just do it!:
1537 | 尽可能找还原语义
1538 |
1539 | 1.原始词有没有
1540 | 2.全小写有没有
1541 | 3.全大写有没有
1542 | 4.首字母大写有没有
1543 | 5.三种次干化有没有
1544 | 6.长得最像的几种编辑方法有没有
1545 |
1546 | OPPO-文笔超好的男同学:
1547 | 问这种开放问题,基本都能答,然后可以跟着回答继续问下去
1548 |
1549 | dz-琼花梦落:
1550 | 也问了word2vec里面分层softmax和负采样
1551 |
1552 | just do it!:
1553 | https://www.zhihu.com/question/308543084/answer/576517555
1554 |
1555 | just do it!:
1556 | 挨家挨户 找亲家
1557 | ```
1558 |
1559 | ## 问题七:对于生僻词,skip-gram和cbow哪个效果更好?原因是什么?(自然语言处理)
1560 |
1561 | ```python
1562 | 【每日一题】
1563 | 对于生僻词,skip-gram和cbow哪个效果更好?原因是什么?
1564 | (自然语言处理)
1565 |
1566 | 面试题收集问卷:https://shimo.im/forms/Gd3jQWDpgyd3xcJ3/fill
1567 | 【面筋】百面百搭:https://github.com/km1994/Interview-Notes
1568 |
1569 | 文笔超好的男同学:
1570 | 生僻字频次太低,大概率都是会因为这个而没法训练
1571 |
1572 | 文笔超好的男同学:
1573 | 我感觉就是统计词频,在正类和在负类里频次差别巨大的可以考虑下
1574 |
1575 | Stefan:
1576 | skip gram对低频高频都差不多
1577 |
1578 | Stefan:
1579 | cbow 更倾向高频
1580 |
1581 | Stefan:
1582 | 训练速度上看。cbow快一些,但获取的信息少一些
1583 |
1584 | 刘乙己??:
1585 | skip_gram:一个学生K个老师
1586 |
1587 | 刘乙己??:
1588 | cbow:一个老师要教K个学生
1589 |
1590 | just do it!:
1591 | 但是,我们在训练词向量的时候,其实会把低频词(出现1-2词)的过滤掉的,所以很多时候不用考虑吧,而且对于一个出现词数极低的,对于模型的价值也不大
1592 |
1593 | just do it!:
1594 | 我是觉得需要结合业务场景出发,比如如果是医疗领域,会出现很多 生僻词(eg:骨骺)等,但是如果语料中出现次数多的话,其实是可以学到的。因为从我们主观觉得“骨骺”是生僻词,但是从模型角度讲,骨骺 就不算是生僻词了,而是高频词
1595 | ```
1596 |
1597 | ## 问题六:超过1000个字符长度的文本分类问题如何解决?(自然语言处理)
1598 |
1599 | ```s
1600 | 大佬们,新一期 TopicShare 的 Topic 分享 填报来了,大家可以填一下感兴趣的 Topic
1601 |
1602 | Topic8 TopicShape Topic收集:https://shimo.im/sheets/y98CHkv6KHvkwrQ3/R6vm5/
1603 |
1604 | 【每日一题】
1605 | 超过1000个字符长度的文本分类问题如何解决?
1606 | (自然语言处理)
1607 |
1608 | 面试题收集问卷:https://shimo.im/forms/Gd3jQWDpgyd3xcJ3/fill
1609 | 【面筋】百面百搭:https://github.com/km1994/Interview-Notes
1610 |
1611 | 文笔超好的男同学:
1612 | 还是看场景看问题吧,点太多了
1613 |
1614 | 文笔超好的男同学:
1615 | 长串dna测序用nlp都能解,长文本本身不是难题,难得是问题定义和数据
1616 |
1617 | 我的女票美如画:
1618 | 1. 抽取 2. 截断 3. 输入层处理压缩维度 4. 对输入没限制的预训练模型 我只知道这几个方案
1619 |
1620 | 文笔超好的男同学:
1621 | 举个例子吧,情感分析类,长文本本身情感可能复杂,那处理起来甚至标签都有问题
1622 |
1623 | 王泽军:
1624 | 假设现在有个语料库,每个样本是1000多字的文档,标签是对应的文档类别。怎么做分类效果比较好?
1625 |
1626 | 文笔超好的男同学:
1627 | 经验上长文本用截断,然后用cnn-lstm做基线试试
1628 |
1629 | 王翔:
1630 | 长文本确实不是问题,很多变形都已经cover住长度了,关键也是上线压力和真正的全文信息吧
1631 |
1632 | 文笔超好的男同学:
1633 | 本身难度就是数据和标签本身的关系
1634 |
1635 | 文笔超好的男同学:
1636 | 因为文本太长信息太多,标签很多时候拿不准,别说模型,人都不容易
1637 |
1638 | 王翔:
1639 | 是的,其实看做啥了,太多无用信息了
1640 |
1641 | 大雨:
1642 | 需要先做抽取再分类吗?
1643 |
1644 | 王泽军:
1645 | 如果长文本有摘要内容的话,可以拿摘要出来做分类
1646 |
1647 | 文笔超好的男同学:
1648 | 玄学的说,tfidf加机器学习效果说不定不比深度学习差
1649 |
1650 | :
1651 | 太多无用信息..
1652 |
1653 | :
1654 | 对 就规则吧
1655 |
1656 | 王泽军:
1657 | 用 tfidf + libsvm 做基线试试
1658 |
1659 | 大雨:
1660 | 有没有先做摘要再分类的做法?
1661 |
1662 | 文笔超好的男同学:
1663 | 中文长文本分类数据集
1664 |
1665 | 文笔超好的男同学:
1666 | 那就要看摘要准不准了
1667 |
1668 | 王泽军:
1669 | 可以先用简单的方法提取一些关键句,再用深度学习的方法分类,说不定效果不错
1670 |
1671 | 文笔超好的男同学:
1672 | 准确率肯定要打个折的
1673 |
1674 | 王翔:
1675 | 摘要本来就做的一般,又加一层损失的感觉,其实滑动截断或者层次都还好,我感觉除非强相关,反正其实一般分类截断够用了
1676 |
1677 | 大雨:
1678 | 是不是得把反应段落主旨的句子选出来
1679 |
1680 | 大雨:
1681 | 应该是以句子为基本单位来选?
1682 |
1683 | 王翔:
1684 | 这个看需求吧
1685 |
1686 | 大雨:
1687 | 所以怎么选主旨句有好办法吗?
1688 |
1689 | 王翔:
1690 | @大雨?有标签,做段落排序而已
1691 |
1692 | 大雨:
1693 | 具体咋排呢?如果标注了一段话的主旨句的话
1694 |
1695 | 王翔:
1696 | 最简单就是看打分,打分高就是
1697 |
1698 | 大雨:
1699 | 是谁对谁打分?
1700 |
1701 | 王翔:
1702 | 对句子打分,预测时主旨句的概率,最简单不就是做二分类吗
1703 |
1704 | 大雨:
1705 | 输入是整个段落吗?整个段落本身都已经太长了‘
1706 |
1707 | 王翔:
1708 | 怎么做,看具体做的思路,句子+上下文
1709 |
1710 | 大雨:
1711 | 是指每个句子只用上下相邻的几个句子做二分类?而不需要整段
1712 |
1713 | just do it!:
1714 | 1. 规则:
1715 | 1.1 截取;
1716 | 1.2 划窗
1717 |
1718 | 2. 模型
1719 | 2.1 Transformer-XL
1720 | 2.2 XLNet
1721 |
1722 | 3. trick
1723 | 3.1 做 文本摘要,提取主干,再用主干做分类
1724 |
1725 | 大雨:
1726 | 主要是怎样提取主干
1727 |
1728 | LLLuna:
1729 | 用预训练模型对句子进行语义表示,如果是对句子所有token取最后一层编码的平均,是不是要mask掉padding的那些token的表示?
1730 | ```
1731 |
1732 | ## 问题五:dropout 和L1 和l2是什么关系,有什么异同? (深度学习)
1733 |
1734 | > 回答者:杨夕
1735 |
1736 | - 笔记:[【关于 正则化】那些你不知道的事](https://mp.weixin.qq.com/s/32tcqdEvHBKaLsnC6_RAlg)
1737 |
1738 |
1739 | ###
1740 |
1741 | ## Trick
1742 |
1743 | ### 问题:tensorflow2.0 model.predict内存不断增长,怎么优化(tensorflow优化)
1744 |
1745 | - 回答:https://www.yuque.com/docs/share/ffa83a1e-5b81-465c-bb24-657e1dc6b7f3?#
1746 |
1747 | ### 常用的超参数调优方法有哪些?
1748 |
1749 | > 参考:https://zhuanlan.zhihu.com/p/420346637
1750 |
1751 | A: 网格搜索;随机搜索;贝叶斯优化算法。
1752 |
1753 | - 网格搜索——查找范围内所有点来确定最优超参数,需要确定搜索范围和搜索步长,在模型调参的初期,可以设置较大的搜索范围和搜索步长,在优化的过程中逐步减少(可能错过全局最优);
1754 | - 随机搜索——随机选择参数进行测试,在参数设定的样本集足够的情况下是可以找到最优的,但结果无法确定;
1755 | - 贝叶斯优化算法,对参数设定一个先验分布(称为采集函数),通过参数先验分布得到当前超参,并根据当前参数得到的结果更新参数的先验分布,这使每次测试参数时的实验结果都是有意义的(在网格/随机搜索中,每次的实验结果是相互独立的)。
1756 |
1757 | ### Tensorflow与PyTorch的区别。
1758 |
1759 | > 参考:https://zhuanlan.zhihu.com/p/416008271
1760 |
1761 | A: 动态图与静态图。Tensorflow的静态图解释为,在网络训练前网络构建已经完成,静态图的训练更快,但不够灵活(TensorFlow Eager);Pytorch的动态图解释为,不同于Tensorflow写完代码就搭建完了整个静态网络,Pytorch的执行方式类似于解释性语言,边执行代码,边搭建网络,正是这样的实现机制,使得Pytorch可以像Python一样进行调试,非常的友好。(虽然谈到Tensorflow与PyTorch之间的区别,动静之争一定是焦点问题,但实际上现在的框架发展已经使Tensorflow支持动态图了)
1762 |
1763 | ### 问题:其他坑总结 【注:参考:[时晴 炼丹笔记:推荐系统里的那些坑儿](https://mp.weixin.qq.com/s/iY9bzCBdceJXTWVCwbsdZg)】
1764 |
1765 | - i2i/simirank等相似计算算法中的哈利波特问题,相似性计算在推荐系统的召回起到非常重要的作用,而热门物品和用户天然有优势。因此,处理方法基本上都是凭经验,会出现各种magic number的参数。
1766 | - svd/svd++等算法,在各种比赛中大放异彩,但是据我所知,各大互联网公司中基本没有用它的。
1767 | - i2i及它的各种变种真是太好用了,大部分公司的业务量,从ROI来看,其实没有必要再做什么优化了。
1768 | - 推荐的召回策略多优于少,但系统的计算rt是个问题,没有好的系统架构,也没有什么优化空间。
1769 | - i2i等类似计算算法,实际业务中容易跑挂,比如用spark就容易oom,很容易发生倾斜,处理起来又有很多trick和dirty job。
1770 | - 推荐系统不只有召回,召回后的ranking起到非常大的作用,这个和广告的点击率预估有点像。
1771 | - 非常多的业务没有办法向头条/facebook之类的有稳定的用户留存指标,而留存是推荐系统非常重要目标,因此需要找各种折中的指标去知道abtest。
1772 | - 训练样本穿越/泄露问题,即在训练的特征中包含了测试集的样本的信息,这个是初期非常容易犯的错误,在后期有时也会隐秘的发生。
1773 | - 大部分推荐系统的训练数据需要在离线条件下去拼接,其中用户的行为状态和时间有关,拼接非常容易出问题,因为系统当时的状态会有各种状况(延时、数据不一致)等,导致训练和实际在线的数据不一致,建议把训练需要的日志在实际请求中直接拼接好打印落盘。
1774 | - 最后,算法的作用有点像前辈们讲的:短期被人高估,长期被人低估。按目前国内业务方对算法有了解的特别少,算法对生态的长短期影响,只能靠算法负责人去判断,因此,就算你只是个打工的,请有一颗做老板的心。
1775 |
1776 | ## 问题:工程里的一些坑? 【注:参考:[时晴 炼丹笔记:推荐系统里的那些坑儿](https://mp.weixin.qq.com/s/iY9bzCBdceJXTWVCwbsdZg)】
1777 |
1778 | ### 模型工程
1779 |
1780 | - 如何优化计算框架和算法,支持千亿特征规模的问题
1781 | - 如何优化召回算法和排序算法不一致性带来的信息损失
1782 | - 如何把多样性控制、打散、疲劳控制等机制策略融入到模型训练中去的问题
1783 | - 如何优化FTRL来更好地刻画最新样本的问题。
1784 | - 还有很多,像CF怎么优化的问题。至今对阿里ATA上那篇swing印象深刻。系统工程:这就更多,没有强大的工程系统支持的算法都是实验室的玩具。
1785 |
1786 | ### 系统工程
1787 |
1788 | - 实时样本流中日志如何对齐的问题
1789 | - 如何保证样本流稳定性和拼接正确性
1790 | - 调研样本如何获取动态特征的问题:服务端落快照和离线挖出实时特征
1791 | - 基于fealib保证线上线下特征抽取的一致性问题。
1792 | - 在线预估服务怎么优化特征抽取的性能。如何支持超大规模模型的分布式存储,主流的模型通常在100G以上规模了。
1793 | - 内容系统进行如何实时内容理解,如何实时构建索引,以及高维索引等相关问题。
1794 |
1795 |
1796 |
1797 |
1798 |
1799 | ## 参考
1800 |
1801 | 1. [推荐系统面经48题总结版(完)](https://zhuanlan.zhihu.com/p/422464069)
1802 | 2. [6万字解决算法面试中的深度学习基础问题(一)](https://zhuanlan.zhihu.com/p/429901476)
--------------------------------------------------------------------------------
/img/20190605151418761.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/20190605151418761.png
--------------------------------------------------------------------------------
/img/20190605154411382.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/20190605154411382.png
--------------------------------------------------------------------------------
/img/20210523220743.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/20210523220743.png
--------------------------------------------------------------------------------
/img/20230408151226.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/20230408151226.jpg
--------------------------------------------------------------------------------
/img/214291631450839_.pic_hd.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/214291631450839_.pic_hd.jpg
--------------------------------------------------------------------------------
/img/214341631451078_.pic_hd.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/214341631451078_.pic_hd.jpg
--------------------------------------------------------------------------------
/img/214361631451079_.pic_hd.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/214361631451079_.pic_hd.jpg
--------------------------------------------------------------------------------
/img/微信图片_20210923171910.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信图片_20210923171910.jpg
--------------------------------------------------------------------------------
/img/微信图片_20210923171938.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信图片_20210923171938.jpg
--------------------------------------------------------------------------------
/img/微信图片_20211030090037.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信图片_20211030090037.png
--------------------------------------------------------------------------------
/img/微信截图_20210301212242.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20210301212242.png
--------------------------------------------------------------------------------
/img/微信截图_20210911103452.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20210911103452.png
--------------------------------------------------------------------------------
/img/微信截图_20210911103812.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20210911103812.png
--------------------------------------------------------------------------------
/img/微信截图_20210911104015.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20210911104015.png
--------------------------------------------------------------------------------
/img/微信截图_20210911104142.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20210911104142.png
--------------------------------------------------------------------------------
/img/微信截图_20210927200609.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20210927200609.png
--------------------------------------------------------------------------------
/img/微信截图_20211013090502.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211013090502.png
--------------------------------------------------------------------------------
/img/微信截图_20211021213953.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211021213953.png
--------------------------------------------------------------------------------
/img/微信截图_20211021214035.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211021214035.png
--------------------------------------------------------------------------------
/img/微信截图_20211021214124.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211021214124.png
--------------------------------------------------------------------------------
/img/微信截图_20211021214836.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211021214836.png
--------------------------------------------------------------------------------
/img/微信截图_20211021214858.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211021214858.png
--------------------------------------------------------------------------------
/img/微信截图_20211021215034.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211021215034.png
--------------------------------------------------------------------------------
/img/微信截图_20211103202924.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211103202924.png
--------------------------------------------------------------------------------
/img/微信截图_20211231161940.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211231161940.png
--------------------------------------------------------------------------------
/img/微信截图_20211231162516.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20211231162516.png
--------------------------------------------------------------------------------
/img/微信截图_20220107153441.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/img/微信截图_20220107153441.png
--------------------------------------------------------------------------------
/introduction/img/20190605151418761.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/20190605151418761.png
--------------------------------------------------------------------------------
/introduction/img/20190605154411382.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/20190605154411382.png
--------------------------------------------------------------------------------
/introduction/img/20210523220743.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/20210523220743.png
--------------------------------------------------------------------------------
/introduction/img/214291631450839_.pic_hd.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/214291631450839_.pic_hd.jpg
--------------------------------------------------------------------------------
/introduction/img/214341631451078_.pic_hd.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/214341631451078_.pic_hd.jpg
--------------------------------------------------------------------------------
/introduction/img/214361631451079_.pic_hd.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/214361631451079_.pic_hd.jpg
--------------------------------------------------------------------------------
/introduction/img/微信图片_20210923171910.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信图片_20210923171910.jpg
--------------------------------------------------------------------------------
/introduction/img/微信图片_20210923171938.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信图片_20210923171938.jpg
--------------------------------------------------------------------------------
/introduction/img/微信图片_20211030090037.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信图片_20211030090037.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20210301212242.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20210301212242.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20210911103452.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20210911103452.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20210911103812.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20210911103812.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20210911104015.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20210911104015.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20210911104142.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20210911104142.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20210927200609.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20210927200609.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211013090502.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211013090502.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211021213953.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211021213953.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211021214035.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211021214035.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211021214124.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211021214124.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211021214836.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211021214836.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211021214858.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211021214858.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211021215034.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211021215034.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211103202924.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211103202924.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211231161940.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211231161940.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20211231162516.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20211231162516.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20220107153441.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20220107153441.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20220107174332.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20220107174332.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20220107174537.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20220107174537.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20220107175154.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20220107175154.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20220107175258.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20220107175258.png
--------------------------------------------------------------------------------
/introduction/img/微信截图_20220107175305.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/introduction/img/微信截图_20220107175305.png
--------------------------------------------------------------------------------
/introduction/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 推荐系统 导论篇】 那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > 介绍:本项目是作者们根据个人面试和经验总结出的搜索引擎(search engine) 面试准备的学习笔记与资料,该资料目前包含 搜索引擎各领域的 面试题积累。
6 | >
7 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
8 | >
9 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
10 | >
11 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
12 | >
13 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
14 | >
15 | > 搜索引擎 百面百搭 地址:https://github.com/km1994/search-engine-Interview-Notes 【编写ing】
16 | >
17 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
18 | >
19 | > 推荐系统论文学习笔记:https://github.com/km1994/RS_paper_study
20 | >
21 | > GCN 论文学习笔记:https://github.com/km1994/GCN_study
22 |
23 | 
24 | > 关注公众号 **【关于NLP那些你不知道的事】** 加入 【NLP && 推荐学习群】一起学习!!!
25 |
26 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
27 |
28 | - [【关于 推荐系统 导论篇】 那些你不知道的事](#关于-推荐系统-导论篇-那些你不知道的事)
29 | - [1.1 什么是推荐系统?](#11-什么是推荐系统)
30 | - [1.2 推荐系统的作用?](#12-推荐系统的作用)
31 | - [1.3 推荐系统的意义?](#13-推荐系统的意义)
32 | - [1.4 推荐系统要解决的问题?](#14-推荐系统要解决的问题)
33 | - [1.5 常用的推荐系统的逻辑框架是怎么样的呢?](#15-常用的推荐系统的逻辑框架是怎么样的呢)
34 | - [1.6 常用的推荐系统的技术架构是怎么样的呢?](#16-常用的推荐系统的技术架构是怎么样的呢)
35 | - [1.7 推荐系统算法工程师日常解决问题?](#17-推荐系统算法工程师日常解决问题)
36 | - [1.8 推荐系统算法工程师 处理的数据部分有哪些,最后得到什么数据?](#18-推荐系统算法工程师-处理的数据部分有哪些最后得到什么数据)
37 | - [1.9 推荐系统算法工程师 处理的模型部分有哪些,最后得到什么数据?](#19-推荐系统算法工程师-处理的模型部分有哪些最后得到什么数据)
38 | - [1.10 模型训练的方式?](#110-模型训练的方式)
39 | - [1.11 推荐系统 的 流程是什么?](#111-推荐系统-的-流程是什么)
40 | - [1.12 推荐系统 的 流程是什么?](#112-推荐系统-的-流程是什么)
41 | - [1.13 推荐系统 与 搜索、广告 的 异同?](#113-推荐系统-与-搜索广告-的-异同)
42 | - [1.14 推荐系统 整体架构?](#114-推荐系统-整体架构)
43 | - [参考](#参考)
44 |
45 | ## 1.1 什么是推荐系统?
46 |
47 | “啤酒与尿布” 的故事相信很多人都听过,年轻爸爸去超市购买尿布时,经常会买点啤酒犒劳自己。因此,沃尔玛将这两种商品进行了捆绑销售,最终获得了更好的销量。
48 |
49 | 这个故事背后的理论依据就是 “推荐算法”,因为尿布和啤酒经常出现在同一个购物车中,那么向购买尿布的年轻爸爸推荐啤酒确实有一定道理。
50 |
51 | ## 1.2 推荐系统的作用?
52 |
53 | - 用户角度:推荐系统解决在“信息过载”的情况下,用户如何高效获得感兴趣信息的问题。
54 | - 公司角度:推荐系统解决产品能够最大限度地吸引用户、留存用户、增加用户黏性、提高用户转化率的问题,从而达到公司商业目标连续增长的目的。
55 |
56 | ## 1.3 推荐系统的意义?
57 |
58 | - 用户体验的优化;
59 | - 满足公司的商业利益;
60 |
61 | ## 1.4 推荐系统要解决的问题?
62 |
63 | 推荐系统要解决的“用户痛点”是用户如何在“信息过载”的情况下高效地获得感兴趣的信息。
64 |
65 | ## 1.5 常用的推荐系统的逻辑框架是怎么样的呢?
66 |
67 | 
68 | > 推荐系统的逻辑框架
69 |
70 | 对于用户U(user),在特定场景C(context)下,针对海量的“物品”信息,构建一个函数f(U,I,C),预测用户对特定候选物品 I (item)的喜好程度,再根据喜好程度对所有候选物品进行排序,生成推荐列表的问题。
71 |
72 | ## 1.6 常用的推荐系统的技术架构是怎么样的呢?
73 |
74 | 
75 |
76 | ## 1.7 推荐系统算法工程师日常解决问题?
77 |
78 | - 数据和信息相关的问题:即“用户信息”“物品信息”“场景信息”分别是什么?如何存储、更新和处理?
79 | - 推荐系统算法和模型相关的问题:推荐模型如何训练、如何预测、如何达成更好的推荐效果?
80 |
81 | ## 1.8 推荐系统算法工程师 处理的数据部分有哪些,最后得到什么数据?
82 |
83 | - 数据入口:负责“用户”“物品”“场景”的信息收集与处理;
84 | - 数据出口:
85 | - 生成推荐模型所需的样本数据,用于算法模型的训练和评估;
86 | - 生成推荐模型服务(model serving)所需的“特征”,用于推荐系统的线上推断;
87 | - 生成系统监控、商业智能(Business Intelligence,BI)系统所需的统计型数据;
88 |
89 | ## 1.9 推荐系统算法工程师 处理的模型部分有哪些,最后得到什么数据?
90 |
91 | - 组成:
92 | - “召回层”:利用高效的召回规则、算法或简单的模型,快速从海量的候选集中召回用户可能感兴趣的物品。
93 | - “排序层”:利用排序模型对初筛的候选集进行精排序。
94 | - “补充策略与算法层”(再排序层):在将推荐列表返回用户之前,为兼顾结果的“多样性”“流行度”“新鲜度”等指标,结合一些补充的策略和算法对推荐列表进行一定的调整,最终形成用户可见的推荐列表
95 |
96 | ## 1.10 模型训练的方式?
97 |
98 | - 离线训练:可以利用全量样本和特征,使模型逼近全局最优点;
99 | - 在线更新:可以准实时地“消化”新的数据样本,更快地反映新的数据变化趋势,满足模型实时性的需求。
100 |
101 | ## 1.11 推荐系统 的 流程是什么?
102 |
103 | - 本质:信息过滤系统;
104 | - 流程:召回->排序->重排序
105 | - 目标:每个环节逐层过滤,最终从海量的物料库中筛选出几十个用户可能感兴趣的物品推荐给用户
106 |
107 | 
108 |
109 | ## 1.12 推荐系统 的 流程是什么?
110 |
111 | - 场景:
112 | - 资讯类:今日头条、腾讯新闻等
113 | - 电商类:淘宝、京东、拼多多、亚马逊等
114 | - 娱乐类:抖音、快手、爱奇艺等
115 | - 生活服务类:美团、大众点评、携程等
116 | - 社交类:微信、陌陌、脉脉等
117 | - 按类别分类:
118 | - 基于用户维度的推荐:根据用户的历史行为和兴趣进行推荐,比如淘宝首页的猜你喜欢、抖音的首页推荐等;
119 | - 基于物品维度的推荐:根据用户当前浏览的标的物进行推荐,比如打开京东APP的商品详情页,会推荐和主商品相关的商品给你;
120 |
121 | ## 1.13 推荐系统 与 搜索、广告 的 异同?
122 |
123 | - 搜索:有明确的搜索意图,搜索出来的结果和用户的搜索词相关;
124 | - 推荐:不具有目的性,依赖用户的历史行为和画像数据进行个性化推荐;
125 | - 广告:借助搜索和推荐技术实现广告的精准投放,可以将广告理解成搜索推荐的一种应用场景,技术方案更复杂,涉及到智能预算控制、广告竞价等;
126 |
127 | ## 1.14 推荐系统 整体架构?
128 |
129 | 
130 |
131 | - 数据源:推荐算法所依赖的各种数据源,包括物品数据、用户数据、行为日志、其他可利用的业务数据、甚至公司外部的数据。
132 | - 计算平台:负责对底层的各种异构数据进行清洗、加工,离线计算和实时计算。
133 | - 数据存储层:存储计算平台处理后的数据,根据需要可落地到不同的存储系统中,比如Redis中可以存储用户特征和用户画像数据,ES中可以用来索引物品数据,Faiss中可以存储用户或者物品的embedding向量等。
134 | - 召回层:包括各种推荐策略或者算法,比如经典的协同过滤,基于内容的召回,基于向量的召回,用于托底的热门推荐等。为了应对线上高并发的流量,召回结果通常会预计算好,建立好倒排索引后存入缓存中。
135 | - 融合过滤层:触发多路召回,由于召回层的每个召回源都会返回一个候选集,因此这一层需要进行融合和过滤。
136 | - 排序层:利用机器学习或者深度学习模型,以及更丰富的特征进行重排序,筛选出更小、更精准的推荐集合返回给上层业务。
137 |
138 | ## 参考
139 |
140 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
--------------------------------------------------------------------------------
/traditional_recommendation_model/FFM/img/微信截图_20220112100253.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/FFM/img/微信截图_20220112100253.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/FFM/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 FFM 篇】那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于 FFM 篇】那些你不知道的事](#关于-ffm-篇那些你不知道的事)
23 | - [一、为什么要使用 FFM?](#一为什么要使用-ffm)
24 | - [二、FFM 的思路是什么?](#二ffm-的思路是什么)
25 | - [三、FM vs FFM?](#三fm-vs-ffm)
26 | - [参考](#参考)
27 |
28 | ## 一、为什么要使用 FFM?
29 |
30 | 1. LR 表达能力不强问题。由于LR表达能力不强,导致模型学习的时候,有效信息容易丢失。
31 | 2. 单一特征存在信息损失问题。在仅利用单一特征而非交叉特征进行判断的情况下,有时不仅是信息损失的问题,甚至会得出错误的结论。
32 | 3. 手动构建组合特征,再筛选的方法比较低效问题。
33 | 4. POLY2 特征稀疏问题。在处理互联网数据时,经常采用 one-hot 编码的方法处理类别型数据,致使特征向量极度稀疏,POLY2进行无选择的特征交叉——原本就非常稀疏的特征向量更加稀疏,导致大部分交叉特征的权重缺乏有效的数据进行训练,无法收敛。
34 | 5. POLY2 复杂度增加问题。权重参数的数量由n直接上升到n^2,极大地增加了训练复杂度。
35 |
36 | ## 二、FFM 的思路是什么?
37 |
38 | 引入了特征域感知(field-aware)这一概念,使模型的表达能力更强。
39 |
40 | 
41 |
42 | 本质上,FM引入隐向量的做法,与矩阵分解用隐向量代表用户和物品的做法异曲同工。可以说,FM是将矩阵分解隐向量的思想进行了进一步扩展,从单纯的用户、物品隐向量扩展到了所有特征上。
43 |
44 | ## 三、FM vs FFM?
45 |
46 | 1. 相比FM,FFM引入了特征域的概念,为模型引入了更多有价值的信息,使模型的表达能力更强,但与此同时,FFM 的计算复杂度上升到 kn^2,远大于 FM的kn。在实际工程应用中,需要在模型效果和工程投入之间进行权衡。
47 |
48 | ## 参考
49 |
50 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
--------------------------------------------------------------------------------
/traditional_recommendation_model/FM/img/微信截图_20220112100253.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/FM/img/微信截图_20220112100253.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/FM/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 FM 篇】那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于 FM 篇】那些你不知道的事](#关于-fm-篇那些你不知道的事)
23 | - [一、为什么要使用 FM?](#一为什么要使用-fm)
24 | - [二、FM 的思路是什么?](#二fm-的思路是什么)
25 | - [三、FM 的优点?](#三fm-的优点)
26 | - [四、FM 的缺点?](#四fm-的缺点)
27 | - [五、POLY2 vs FM?](#五poly2-vs-fm)
28 | - [参考](#参考)
29 |
30 | ## 一、为什么要使用 FM?
31 |
32 | 1. LR 表达能力不强问题。由于LR表达能力不强,导致模型学习的时候,有效信息容易丢失。
33 | 2. 单一特征存在信息损失问题。在仅利用单一特征而非交叉特征进行判断的情况下,有时不仅是信息损失的问题,甚至会得出错误的结论。
34 | 3. 手动构建组合特征,再筛选的方法比较低效问题。
35 | 4. POLY2 特征稀疏问题。在处理互联网数据时,经常采用 one-hot 编码的方法处理类别型数据,致使特征向量极度稀疏,POLY2进行无选择的特征交叉——原本就非常稀疏的特征向量更加稀疏,导致大部分交叉特征的权重缺乏有效的数据进行训练,无法收敛。
36 | 5. POLY2 复杂度增加问题。权重参数的数量由n直接上升到n^2,极大地增加了训练复杂度。
37 |
38 | ## 二、FM 的思路是什么?
39 |
40 | FM为每个特征学习了一个隐权重向量(latent vector)。在特征交叉时,使用两个特征隐向量的内积作为交叉特征的权重。
41 |
42 | 
43 |
44 | 本质上,FM引入隐向量的做法,与矩阵分解用隐向量代表用户和物品的做法异曲同工。可以说,FM是将矩阵分解隐向量的思想进行了进一步扩展,从单纯的用户、物品隐向量扩展到了所有特征上。
45 |
46 | ## 三、FM 的优点?
47 |
48 | 1. FM通过引入特征隐向量的方式,直接把POLY2模型n^2级别的权重参数数量减少到了nk (k为隐向量维度,n>>k);
49 | 2. 在使用梯度下降法进行FM训练的过程中,FM的训练复杂度同样可被降低到nk级别,极大地降低了训练开销;
50 | 3. 隐向量的引入使FM能更好地解决数据稀疏性的问题.
51 | 4. 在工程方面,FM 同样可以用梯度下降法进行学习,使其不失实时性和灵活性。相比之后深度学习模型复杂的网络结构导致难以部署和线上服务,FM 较容易实现的模型结构使其线上推断的过程相对简单,也更容易进行线上部署和服务。
52 |
53 | ## 四、FM 的缺点?
54 |
55 | 1. FM 二阶以上交叉没有较强的意义,无法加速。
56 |
57 | ## 五、POLY2 vs FM?
58 |
59 | 1. 在POLY2中,只有当ESPN和Adidas同时出现在一个训练样本中时,模型才能学到这个组合特征对应的权重;而在FM中,ESPN的隐向量也可以通过(ESPN,Gucci)样本进行更新,Adidas的隐向量也可以通过(NBC,Adidas)样本进行更新,这大幅降低了模型对数据稀疏性的要求。甚至对于一个从未出现过的特征组合(NBC,Gucci),由于模型之前已经分别学习过NBC和Gucci的隐向量,具备了计算该特征组合权重的能力,这是 POLY2无法实现的。
60 | 2. 相比POLY2,FM虽然丢失了某些具体特征组合的精确记忆能力,但是泛化能力大大提高。
61 |
62 | ## 参考
63 |
64 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/1610160500583.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/1610160500583.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203232723.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203232723.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203232919.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203232919.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203232945.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203232945.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203233004.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20210203233004.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100340.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100340.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100721.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100721.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100913.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100913.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100959.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117100959.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117101104.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117101104.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117101138.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117101138.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117102304.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/GBDT_LR/img/微信截图_20220117102304.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/GBDT_LR/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 GBDT+LR 篇】 那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于 GBDT+LR 篇】 那些你不知道的事](#关于-gbdtlr-篇-那些你不知道的事)
23 | - [一、动机篇](#一动机篇)
24 | - [1.1 为什么 需要 GBDT+LR?](#11-为什么-需要-gbdtlr)
25 | - [二、GBDT 介绍篇](#二gbdt-介绍篇)
26 | - [2.1 GBDT 的基础结构是什么样的?](#21-gbdt-的基础结构是什么样的)
27 | - [2.2 GBDT 的学习方式?](#22-gbdt-的学习方式)
28 | - [2.3 GBDT 的思路?](#23-gbdt-的思路)
29 | - [2.4 GBDT 的特点是怎么样?](#24-gbdt-的特点是怎么样)
30 | - [2.5 GBDT 所用分类器是什么?](#25-gbdt-所用分类器是什么)
31 | - [2.6 GBDT 解决二分类和回归问题的方式?](#26-gbdt-解决二分类和回归问题的方式)
32 | - [2.7 GBDT 损失函数 是什么?](#27-gbdt-损失函数-是什么)
33 | - [2.8 构建分类GBDT的步骤 是什么?](#28-构建分类gbdt的步骤-是什么)
34 | - [2.9 GBDT 优缺点篇?](#29-gbdt-优缺点篇)
35 | - [三、GBDT+LR 模型介绍篇](#三gbdtlr-模型介绍篇)
36 | - [3.1 GBDT+LR 模型 思路是什么样?](#31-gbdtlr-模型-思路是什么样)
37 | - [3.2 GBDT+LR 模型 步骤是什么样?](#32-gbdtlr-模型-步骤是什么样)
38 | - [3.3 GBDT+LR 模型 关键点是什么样?](#33-gbdtlr-模型-关键点是什么样)
39 | - [3.4 GBDT+LR 模型 本质是什么样?](#34-gbdtlr-模型-本质是什么样)
40 | - [四、GBDT+LR 优缺点篇](#四gbdtlr-优缺点篇)
41 | - [4.1 GBDT+LR 的优点是什么?](#41-gbdtlr-的优点是什么)
42 | - [4.2 GBDT+LR 的缺点是什么?](#42-gbdtlr-的缺点是什么)
43 | - [参考](#参考)
44 |
45 | ## 一、动机篇
46 |
47 | ### 1.1 为什么 需要 GBDT+LR?
48 |
49 | 1. 协同过滤和矩阵分解存在问题
50 |
51 | - 仅利用了用户与物品相互行为信息进行推荐, 忽视了用户自身特征, 物品自身特征以及上下文信息等,导致生成的结果往往会比较片面。
52 |
53 | 2. FFM 存在问题
54 |
55 | - FFM特征交叉能力有限:虽然 FFM 模型采用引入特征域的方式增强了模型的特征交叉能力,只能做二阶的特征交叉,如果继续提高特征交叉的维度,会不可避免地产生组合爆炸和计算复杂度过高的问题。
56 |
57 | 3. LR 存在问题
58 |
59 | - 表达能力不强, 无法进行特征交叉, 特征筛选等一系列“高级“操作(这些工作都得人工来干, 这样就需要一定的经验, 否则会走一些弯路), 因此可能造成信息的损失
60 | - 准确率并不是很高。因为这毕竟是一个线性模型加了个sigmoid, 形式非常的简单(非常类似线性模型),很难去拟合数据的真实分布
61 | - 处理非线性数据较麻烦。逻辑回归在不引入其他方法的情况下,只能处理线性可分的数据, 如果想处理非线性, 首先对连续特征的处理需要先进行离散化(离散化的目的是为了引入非线性),如上文所说,人工分桶的方式会引入多种问题。
62 | - LR 需要进行人工特征组合,这就需要开发者有非常丰富的领域经验,才能不走弯路。这样的模型迁移起来比较困难,换一个领域又需要重新进行大量的特征工程。
63 |
64 | ## 二、GBDT 介绍篇
65 |
66 | ### 2.1 GBDT 的基础结构是什么样的?
67 |
68 | - 基本结构:决策树组成的树林
69 |
70 | ### 2.2 GBDT 的学习方式?
71 |
72 | - 学习方式:是梯度提升
73 |
74 | ### 2.3 GBDT 的思路?
75 |
76 | - 思路:通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的误差来达到将数据分类或者回归的算法, 其训练过程如下:
77 |
78 | 
79 |
80 | > 通过多轮迭代, 每轮迭代会产生一个弱分类器, 每个分类器在上一轮分类器的残差基础上进行训练。 GBDT 对弱分类器的要求一般是足够简单, 并且低方差高偏差。 因为训练的过程是通过降低偏差来不断提高最终分类器的精度。 由于上述高偏差和简单的要求,每个分类回归树的深度不会很深。最终的总分类器是将每轮训练得到的弱分类器加权求和得到的(也就是加法模型)。
81 |
82 | ### 2.4 GBDT 的特点是怎么样?
83 |
84 | 每轮的训练是在上一轮的训练的残差基础之上进行训练的**, 而这里的残差指的就是当前模型的负梯度值, 这个就要求每轮迭代的时候,弱分类器的输出的结果相减是有意义的;
85 |
86 | ### 2.5 GBDT 所用分类器是什么?
87 |
88 | - 分类器:CART 回归树
89 |
90 | ### 2.6 GBDT 解决二分类和回归问题的方式?
91 |
92 | 通过不断构建决策树的方式,使预测结果一步步的接近目标值, 但是二分类问题和回归问题的损失函数是不同的。
93 |
94 | ### 2.7 GBDT 损失函数 是什么?
95 |
96 | - 回归问题:平方损失
97 | - 二分类问题:
98 |
99 | 
100 |
101 | > 其中, $y_i$是第$i$个样本的观测值, 取值要么是0要么是1, 而$p_i$是第$i$个样本的预测值, 取值是0-1之间的概率,由于我们知道GBDT拟合的残差是当前模型的负梯度,
102 |
103 | ### 2.8 构建分类GBDT的步骤 是什么?
104 |
105 | 1. 初始化GBDT
106 |
107 | 和回归问题一样, 分类 GBDT 的初始状态也只有一个叶子节点,该节点为所有样本的初始预测值,如下:
108 |
109 | 
110 |
111 | > 上式里面, $F$代表GBDT模型, $F_0$是模型的初识状态, 该式子的意思是找到一个$\gamma$,使所有样本的 Loss 最小,在这里及下文中,$\gamma$都表示节点的输出,即叶子节点, 且它是一个 $log(\eta_i)$ 形式的值(回归值),在初始状态,$\gamma =F_0$。
112 |
113 | 2. 循环生成决策树
114 | 3. 第一就是计算负梯度值得到残差;
115 |
116 | 
117 |
118 | > 使用$m-1$棵树的模型, 计算每个样本的残差$r_{im}$, 就是上面的$y_i-pi$;
119 |
120 | 4. 第二步是用回归树拟合残差$r_{im}$
121 |
122 | 这里的$i$表示样本哈,回归树的建立过程可以参考下面的链接文章,简单的说就是遍历每个特征, 每个特征下遍历每个取值, 计算分裂后两组数据的平方损失, 找到最小的那个划分节点。
123 |
124 | 5. 第三步对于每个叶子节点$j$, 计算最佳残差拟合值
125 |
126 | 
127 |
128 | 在刚构建的树$m$中, 找到每个节点$j$的输出$\gamma_{jm}$, 能使得该节点的loss最小
129 |
130 | 6. 第四步是 更新模型$F_m(x)$
131 |
132 | 
133 |
134 | 这样, 通过多次循环迭代, 就可以得到一个比较强的学习器$F_m(x)$
135 |
136 | ### 2.9 GBDT 优缺点篇?
137 |
138 | - 优点:把树的生成过程理解成自动进行多维度的特征组合的过程,从根结点到叶子节点上的整个路径(多个特征值判断),才能最终决定一棵树的预测值, 另外,对于连续型特征的处理,GBDT 可以拆分出一个临界阈值,比如大于 0.027 走左子树,小于等于 0.027(或者 default 值)走右子树,这样很好的规避了人工离散化的问题。这样就非常轻松的解决了逻辑回归那里自动发现特征并进行有效组合的问题;
139 | - 缺点: 对于海量的 id 类特征,GBDT 由于树的深度和棵树限制(防止过拟合),不能有效的存储;另外海量特征在也会存在性能瓶颈,当 GBDT 的 one hot 特征大于 10 万维时,就必须做分布式的训练才能保证不爆内存。所以 GBDT 通常配合少量的反馈 CTR 特征来表达,这样虽然具有一定的范化能力,但是同时会有信息损失,对于头部资源不能有效的表达。
140 |
141 | ## 三、GBDT+LR 模型介绍篇
142 |
143 | ### 3.1 GBDT+LR 模型 思路是什么样?
144 |
145 | 1. 利用GBDT自动进行特征筛选和组合,进而生成新的离散特征向量;
146 | 2. 再把该特征向量当做LR模型的输入, 来产生最后的预测结果;
147 |
148 | 
149 |
150 | ### 3.2 GBDT+LR 模型 步骤是什么样?
151 |
152 | - 训练时,GBDT 建树的过程相当于自动进行的特征组合和离散化,然后从根结点到叶子节点的这条路径就可以看成是不同特征进行的特征组合,用叶子节点可以唯一的表示这条路径,并作为一个离散特征传入 LR 进行二次训练。
153 |
154 | 比如上图中, 有两棵树,x为一条输入样本,遍历两棵树后,x样本分别落到两颗树的叶子节点上,每个叶子节点对应LR一维特征,那么通过遍历树,就得到了该样本对应的所有LR特征。构造的新特征向量是取值0/1的。 比如左树有三个叶子节点,右树有两个叶子节点,最终的特征即为五维的向量。对于输入x,假设他落在左树第二个节点,编码[0,1,0],落在右树第二个节点则编码[0,1],所以整体的编码为[0,1,0,0,1],这类编码作为特征,输入到线性分类模型(LR or FM)中进行分类。
155 |
156 | - 预测时,会先走 GBDT 的每棵树,得到某个叶子节点对应的一个离散特征(即一组特征组合),然后把该特征以 one-hot 形式传入 LR 进行线性加权预测。
157 |
158 | ### 3.3 GBDT+LR 模型 关键点是什么样?
159 |
160 | 1. 通过GBDT进行特征组合之后得到的离散向量是和训练数据的原特征一块作为逻辑回归的输入, 而不仅仅全是这种离散特征
161 | 2. 建树的时候用ensemble建树的原因就是一棵树的表达能力很弱,不足以表达多个有区分性的特征组合,多棵树的表达能力更强一些。GBDT每棵树都在学习前面棵树尚存的不足,迭代多少次就会生成多少棵树。
162 | 3. RF也是多棵树,但从效果上有实践证明不如GBDT。且GBDT前面的树,特征分裂主要体现对多数样本有区分度的特征;后面的树,主要体现的是经过前N颗树,残差仍然较大的少数样本。优先选用在整体上有区分度的特征,再选用针对少数样本有区分度的特征,思路更加合理,这应该也是用GBDT的原因。
163 | 4. 在CRT预估中, GBDT一般会建立两类树(非ID特征建一类, ID类特征建一类), AD,ID类特征在CTR预估中是非常重要的特征,直接将AD,ID作为feature进行建树不可行,故考虑为每个AD,ID建GBDT树。
164 | 5. 非ID类树:不以细粒度的ID建树,此类树作为base,即便曝光少的广告、广告主,仍可以通过此类树得到有区分性的特征、特征组合
165 | 6. ID类树:以细粒度 的ID建一类树,用于发现曝光充分的ID对应有区分性的特征、特征组合
166 |
167 | ### 3.4 GBDT+LR 模型 本质是什么样?
168 |
169 | 通过GBDT来对样本进行分群,然后再通过LR来从全局角度考虑各样本群的权重。
170 |
171 | ## 四、GBDT+LR 优缺点篇
172 |
173 | ### 4.1 GBDT+LR 的优点是什么?
174 |
175 | - GBDT+LR 的特征组合能力强
176 |
177 | ### 4.2 GBDT+LR 的缺点是什么?
178 |
179 | - GBDT 容易产生过拟合
180 | - GBDT 的特征转换方式实际上丢失了大量特征的数值信息
181 |
182 | ## 参考
183 |
184 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
185 | - [team-learning-rs](https://github.com/datawhalechina/team-learning-rss)
--------------------------------------------------------------------------------
/traditional_recommendation_model/POLY2/img/微信截图_20220112100253.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/POLY2/img/微信截图_20220112100253.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/POLY2/img/微信截图_20220112101634.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/POLY2/img/微信截图_20220112101634.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/POLY2/img/微信截图_20220112103527.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/POLY2/img/微信截图_20220112103527.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/POLY2/img/微信截图_20220112103536.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/POLY2/img/微信截图_20220112103536.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/POLY2/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于POLY2篇】那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于POLY2篇】那些你不知道的事](#关于poly2篇那些你不知道的事)
23 | - [一、为什么要使用 POLY2?](#一为什么要使用-poly2)
24 | - [二、POLY2 的思路是什么?](#二poly2-的思路是什么)
25 | - [三、POLY2 存在什么问题?](#三poly2-存在什么问题)
26 | - [参考](#参考)
27 |
28 | ## 一、为什么要使用 POLY2?
29 |
30 | 1. LR 表达能力不强问题。由于LR表达能力不强,导致模型学习的时候,有效信息容易丢失。
31 | 2. 单一特征存在信息损失问题。在仅利用单一特征而非交叉特征进行判断的情况下,有时不仅是信息损失的问题,甚至会得出错误的结论。
32 | 3. 手动构建组合特征,再筛选的方法比较低效问题。
33 |
34 | ## 二、POLY2 的思路是什么?
35 |
36 | PLOY2模型 采用 “暴力”组合 的方式对特征进行交叉。
37 |
38 | 
39 |
40 | 该模型对所有特征进行了两两交叉(特征 $x_j1$ 和 $x_j2$ ),并对所有的特征组合赋予权重 $w_{h(j1,j2)}$ 。POLY2 通过暴力组合特征的方式,在一定程度上解决了特征组合的问题。
41 |
42 | ## 三、POLY2 存在什么问题?
43 |
44 | 1. 特征稀疏问题。在处理互联网数据时,经常采用 one-hot 编码的方法处理类别型数据,致使特征向量极度稀疏,POLY2进行无选择的特征交叉——原本就非常稀疏的特征向量更加稀疏,导致大部分交叉特征的权重缺乏有效的数据进行训练,无法收敛。
45 | 2. 复杂度增加问题。权重参数的数量由n直接上升到n^2,极大地增加了训练复杂度。
46 |
47 | ## 参考
48 |
49 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
--------------------------------------------------------------------------------
/traditional_recommendation_model/collaborative_filtering/img/微信截图_20220107175154.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/collaborative_filtering/img/微信截图_20220107175154.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/collaborative_filtering/img/微信截图_20220107175258.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/collaborative_filtering/img/微信截图_20220107175258.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/collaborative_filtering/img/微信截图_20220107175305.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/collaborative_filtering/img/微信截图_20220107175305.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/collaborative_filtering/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 协同过滤篇】 那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于 协同过滤篇】 那些你不知道的事](#关于-协同过滤篇-那些你不知道的事)
23 | - [一、基础篇](#一基础篇)
24 | - [1.1 什么是协同过滤?](#11-什么是协同过滤)
25 | - [1.2 协同过滤的推荐流程是怎么样?](#12-协同过滤的推荐流程是怎么样)
26 | - [二、基于用户的协同过滤 (User-CF-Based)篇](#二基于用户的协同过滤-user-cf-based篇)
27 | - [2.1 基于用户的协同过滤 (User-CF-Based) 是什么?](#21-基于用户的协同过滤-user-cf-based-是什么)
28 | - [2.2 基于用户的协同过滤 (User-CF-Based) 的思想是什么?](#22-基于用户的协同过滤-user-cf-based-的思想是什么)
29 | - [2.3 基于用户的协同过滤 (User-CF-Based) 的特点是什么?](#23-基于用户的协同过滤-user-cf-based-的特点是什么)
30 | - [三、基于物品的协同过滤 (Item-CF-Based)篇](#三基于物品的协同过滤-item-cf-based篇)
31 | - [3.1 基于物品的协同过滤 (Item-CF-Based) 是什么?](#31-基于物品的协同过滤-item-cf-based-是什么)
32 | - [3.2 基于物品的协同过滤 (Item-CF-Based) 的思想是什么?](#32-基于物品的协同过滤-item-cf-based-的思想是什么)
33 | - [3.3 基于物品的协同过滤 (Item-CF-Based) 的特点是什么?](#33-基于物品的协同过滤-item-cf-based-的特点是什么)
34 | - [3.4 基于物品的协同过滤 (Item-CF-Based) 的具体步骤是什么?](#34-基于物品的协同过滤-item-cf-based-的具体步骤是什么)
35 | - [四、User-CF-Based 与 Item-CF-Based 对比篇](#四user-cf-based-与-item-cf-based-对比篇)
36 | - [4.1 User-CF-Based 与 Item-CF-Based 的应用场景的区别](#41-user-cf-based-与-item-cf-based-的应用场景的区别)
37 | - [4.2 User-CF-Based 与 Item-CF-Based 的存在问题的区别](#42-user-cf-based-与-item-cf-based-的存在问题的区别)
38 | - [五、User-CF-Based 与 Item-CF-Based 问题篇](#五user-cf-based-与-item-cf-based-问题篇)
39 | - [参考](#参考)
40 |
41 | ## 一、基础篇
42 |
43 | ### 1.1 什么是协同过滤?
44 |
45 | 协同大家的反馈、评价和意见一起对海量的信息进行过滤,从中筛选出目标用户可能感兴趣的信息的推荐过程。
46 |
47 | ### 1.2 协同过滤的推荐流程是怎么样?
48 |
49 | 
50 |
51 | ## 二、基于用户的协同过滤 (User-CF-Based)篇
52 |
53 | ### 2.1 基于用户的协同过滤 (User-CF-Based) 是什么?
54 |
55 | 先 “找到相似用户”,再“找到他们喜欢的物品”。
56 |
57 | 
58 | > 注:左边用户和右边用户都喜欢相同的商品,那么这个时候 左边用户有可能也喜欢 右边用户所喜欢的鞋子
59 |
60 | ### 2.2 基于用户的协同过滤 (User-CF-Based) 的思想是什么?
61 |
62 | 1. 计算 C 用户的相似用户;
63 | 2. 找到相似用户喜欢,但是 C用户 没有评分过的物品推荐给 用户C;
64 |
65 | ### 2.3 基于用户的协同过滤 (User-CF-Based) 的特点是什么?
66 |
67 | 注重 大众化
68 |
69 | ## 三、基于物品的协同过滤 (Item-CF-Based)篇
70 |
71 | ### 3.1 基于物品的协同过滤 (Item-CF-Based) 是什么?
72 |
73 | 先 “找到用户喜欢的物品”,再“找到喜欢的物品的相似物品”。
74 |
75 | 
76 | > 注:左边用户和右边用户都喜欢上面的商品,那么这个时候 左边用户有可能也喜欢 右边用户所喜欢的下面的商品
77 |
78 | ### 3.2 基于物品的协同过滤 (Item-CF-Based) 的思想是什么?
79 |
80 | 1. 计算 物品间相似度;
81 | 2. 根据用户历史行为鱼物品相似度,为用户生成推荐列表;
82 |
83 | ### 3.3 基于物品的协同过滤 (Item-CF-Based) 的特点是什么?
84 |
85 | 注重 个性化
86 |
87 | ### 3.4 基于物品的协同过滤 (Item-CF-Based) 的具体步骤是什么?
88 |
89 | 1. 基于历史数据,构建以用户(假设用户总数为m)为行坐标,物品(物品总数为n)为列坐标的m×n维的共现矩阵。
90 | 2. 计算共现矩阵两两列向量间的相似性(相似度的计算方式与用户相似度的计算方式相同),构建n×n维的物品相似度矩阵。
91 | 3. 获得用户历史行为数据中的正反馈物品列表。
92 | 4. 利用物品相似度矩阵,针对目标用户历史行为中的正反馈物品,找出相似的Top k个物品,组成相似物品集合。
93 | 5. 对相似物品集合中的物品,利用相似度分值进行排序,生成最终的推荐列表。
94 |
95 | ## 四、User-CF-Based 与 Item-CF-Based 对比篇
96 |
97 | ### 4.1 User-CF-Based 与 Item-CF-Based 的应用场景的区别
98 |
99 | - User-CF-Based
100 | - 具备更强的社交特性:用户能够快速得知与自己兴趣相似的人最近喜欢的是什么
101 | - 适用于:物品》用户的场景 (新闻推荐场景)
102 | - 因为新闻本身的兴趣点往往是分散的,相比用户对不同新闻的兴趣偏好,新闻的及时性、热点性往往是其更重要的属性,而UserCF正适用于发现热点,以及跟踪热点的趋势
103 | - Item-CF-Based
104 | - 适用于:用户》物品 的场景 适用于兴趣变化较为稳定的应用
105 |
106 | ### 4.2 User-CF-Based 与 Item-CF-Based 的存在问题的区别
107 |
108 | - User-CF-Based
109 | - 在互联网应用的场景下,用户数往往远大于物品数,而 UserCF 需要维护用户相似度矩阵以便快速找出 TopN 相似用户。
110 | - 用户的历史数据向量往往非常稀疏,对于只有几次购买或者点击行为的用户来说,找到相似用户的准确度是非常低的,这导致 UserCF 不适用于那些正反馈获取较困难的应用场景(如酒店预定、大件商品购买等低频应用)。
111 |
112 | ## 五、User-CF-Based 与 Item-CF-Based 问题篇
113 |
114 | 1. 数据稀疏性。尾部的物品由于特征向量稀疏,很少与其他物品产生相似性,导致很少被推荐。
115 | 2. 缺乏泛化性。
116 | 3. 算法扩展性。基于用户的协同过滤需要维护用户相似度矩阵以便快速的找出Topn相似用户, 该矩阵的存储开销非常大,存储空间随着用户数量的增加而增加,不适合用户数据量大的情况使用;
117 | 4. 没有利用到物品本身或者是用户自身的属性, 仅仅利用了用户与物品的交互信息就可以实现推荐,比较简单高效, 但这也是它的一个短板所在, 由于无法有效的引入用户年龄, 性别,商品描述,商品分类,当前时间,地点等一系列用户特征、物品特征和上下文特征, 这就造成了有效信息的遗漏,不能充分利用其它特征数据。
118 | 5. 马太效应。热门的物品具有很强的头部效应,容易跟大量物品产生相似性
119 |
120 | ## 参考
121 |
122 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
123 |
124 |
125 |
126 |
127 |
128 |
--------------------------------------------------------------------------------
/traditional_recommendation_model/logistic_regression/img/1610160500583.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/logistic_regression/img/1610160500583.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/logistic_regression/img/微信截图_20210203232723.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/logistic_regression/img/微信截图_20210203232723.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/logistic_regression/img/微信截图_20210203232919.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/logistic_regression/img/微信截图_20210203232919.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/logistic_regression/img/微信截图_20210203232945.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/logistic_regression/img/微信截图_20210203232945.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/logistic_regression/img/微信截图_20210203233004.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/logistic_regression/img/微信截图_20210203233004.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/logistic_regression/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 逻辑回归篇】 那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于 逻辑回归篇】 那些你不知道的事](#关于-逻辑回归篇-那些你不知道的事)
23 | - [一、动机篇](#一动机篇)
24 | - [1.1 为什么 需要 逻辑回归?](#11-为什么-需要-逻辑回归)
25 | - [二、逻辑回归 介绍篇](#二逻辑回归-介绍篇)
26 | - [2.1 逻辑回归 如何解决 上述问题?](#21-逻辑回归-如何解决-上述问题)
27 | - [2.2 什么是逻辑回归?](#22-什么是逻辑回归)
28 | - [三、逻辑回归 推导篇](#三逻辑回归-推导篇)
29 | - [3.1 逻辑回归 如何推导?](#31-逻辑回归-如何推导)
30 | - [3.2 逻辑回归 如何求解优化?](#32-逻辑回归-如何求解优化)
31 | - [四、逻辑回归 推荐流程篇](#四逻辑回归-推荐流程篇)
32 | - [4.1 逻辑回归 推荐流程?](#41-逻辑回归-推荐流程)
33 | - [五、逻辑回归 优缺点篇](#五逻辑回归-优缺点篇)
34 | - [5.1 逻辑回归 有哪些优点?](#51-逻辑回归-有哪些优点)
35 | - [5.2 逻辑回归 有哪些缺点?](#52-逻辑回归-有哪些缺点)
36 | - [参考](#参考)
37 |
38 | ## 一、动机篇
39 |
40 | ### 1.1 为什么 需要 逻辑回归?
41 |
42 | - 协同过滤:仅利用用户与商品的相互行为信息进行推荐
43 | - 协同过滤 和 矩阵分解:利用 用户与商品的“相似度”进行推荐
44 |
45 | ## 二、逻辑回归 介绍篇
46 |
47 | ### 2.1 逻辑回归 如何解决 上述问题?
48 |
49 | - 协同过滤:仅利用用户与商品的相互行为信息进行推荐
50 | - 解决方法:逻辑回归:能够综合利用用户、物品、上下文等多种不同的特征,生成较为“全面”的推荐结果。
51 | - 协同过滤 和 矩阵分解:利用 用户与商品的“相似度”进行推荐
52 | - 逻辑回归:将推荐问题看成一个分类问题,通过预测正样本的概率对物品进行排序。
53 |
54 | ### 2.2 什么是逻辑回归?
55 |
56 | LR是Logistic Regression Classifier,本质上是线性回归,特殊之处在于特征到结果的映射中加入了一层逻辑函数g(z),即先把特征线性求和,然后使用函数g(z)作为假设函数来预测。g(z)可以将连续值映射到0 和1。逻辑回归使用的g(z)函数是sigmoid函数。因此逻辑回归=线性回归 + sigmoid。
57 |
58 | 逻辑回归的表达式为
59 |
60 | 
61 |
62 | 图像
63 |
64 | 
65 |
66 | ## 三、逻辑回归 推导篇
67 |
68 | ### 3.1 逻辑回归 如何推导?
69 |
70 | 假设数据集为
71 |
72 | $$
73 | Data: {\{(x_i, y_i)\}}^{N}_{i=1} \\
74 | x_i\in \mathbb{R}^p,y_i\in\{0,1\}
75 | $$
76 |
77 | sigmoid函数为
78 |
79 | $$
80 | sigmoid:\sigma(z)=\frac{1}{1+e^{-z}}
81 | $$
82 |
83 | 在线性回归中有
84 |
85 | $$
86 | y=w^Tx+b
87 | $$
88 |
89 | 为了方便,我们将其中的权值向量$w$和输入向量$x$进行扩充,即$w=(w_1,w_2,...,w_n,b)$;$x=(x_1,x_2,...,x_n,1)$,则式(3)可以改写为$y=w^Tx$
90 |
91 | 线性回归是将向量$x$映射为具体的数值$y$(连续),而逻辑回归是用来解决分类问题(通常为二分类问题),希望得到$0$或$1$的概率(区间$[0,1]$),即通过某种方式将数值$y$映射到区间$[0,1]$范围内。逻辑回归采用sigmoid函数来完成这样的映射,从而建立$y$与$x$之间的概率判别模型
92 |
93 | $$
94 | P(Y|X)
95 | $$
96 |
97 | 有
98 |
99 | $$
100 | p_1=P(y=1|x)=\frac{1}{1+e^{-(w^Tx)}}
101 | $$
102 |
103 | $$
104 | p_0=P(y=0|x)=1-P(y=1|x)=\frac{e^{-(w^Tx)}}{1+e^{-(w^Tx)}}
105 | $$
106 |
107 | 得到
108 |
109 | $$
110 | P(Y|X)=p_1^Yp_0^{1-Y},Y\in\{0,1\}
111 | $$
112 |
113 | 对应的似然函数为
114 |
115 | $$
116 | \prod_{i=1}^NP(y_i|x_i)
117 | $$
118 |
119 | 取对数,得到对数似然函数
120 |
121 | 
122 |
123 |
124 | 对$L(w)$求极大值(即极大似然估计),即可得到$w$的估计值
125 | $$
126 | \hat w=\mathop{\arg\max}_{w}L(w)
127 | $$
128 |
129 | 这样,问题就变成了以对数似然函数为目标的最优化问题,可采用梯度下降法或拟牛顿法。
130 |
131 | ### 3.2 逻辑回归 如何求解优化?
132 |
133 | 令
134 |
135 | 
136 |
137 | 此时,
138 |
139 | 
140 |
141 | 因为这里是求最大值,采用梯度上升法:
142 |
143 | 
144 |
145 |
146 |
147 | ## 四、逻辑回归 推荐流程篇
148 |
149 | ### 4.1 逻辑回归 推荐流程?
150 |
151 | 1. 数值型特征向量:将用户年龄、性别、物品属性、物品描述、当前时间、当前地点等特征转换成数值型特征向量。
152 | 2. 确定逻辑回归模型的优化目标:(以优化“点击率”为例),利用已有样本数据对逻辑回归模型进行训练,确定逻辑回归模型的内部参数。
153 | 3. 点击概率预测:在模型服务阶段,将特征向量输入逻辑回归模型,经过逻辑回归模型的推断,得到用户“点击”(这里用点击作为推荐系统正反馈行为的例子)物品的概率。
154 | 4. 排序:利用“点击”概率对所有候选物品进行排序,得到推荐列表。
155 |
156 | ## 五、逻辑回归 优缺点篇
157 |
158 | ### 5.1 逻辑回归 有哪些优点?
159 |
160 | 1. 数字含义上的支撑
161 | 2. 可解释性强
162 | 3. 工程化的需要 : 其易于并行化、模型简单、训练开销小等特点
163 |
164 | ### 5.2 逻辑回归 有哪些缺点?
165 |
166 | 1. 表达能力不强, 无法进行特征交叉, 特征筛选等一系列“高级“操作(这些工作都得人工来干, 这样就需要一定的经验, 否则会走一些弯路), 因此可能造成信息的损失
167 | 2. 准确率并不是很高。因为这毕竟是一个线性模型加了个sigmoid, 形式非常的简单(非常类似线性模型),很难去拟合数据的真实分布
168 | 3. 处理非线性数据较麻烦。逻辑回归在不引入其他方法的情况下,只能处理线性可分的数据, 如果想处理非线性, 首先对连续特征的处理需要先进行离散化(离散化的目的是为了引入非线性),如上文所说,人工分桶的方式会引入多种问题。
169 | 4. LR 需要进行人工特征组合,这就需要开发者有非常丰富的领域经验,才能不走弯路。这样的模型迁移起来比较困难,换一个领域又需要重新进行大量的特征工程。
170 |
171 | ## 参考
172 |
173 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
--------------------------------------------------------------------------------
/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108144934.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108144934.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108145102.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108145102.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108150244.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108150244.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108150300.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/km1994/RES-Interview-Notes/6d3be864f72824e9b4dd2fb54c659bd40d51124b/traditional_recommendation_model/matrix_factorization/img/微信截图_20220108150300.png
--------------------------------------------------------------------------------
/traditional_recommendation_model/matrix_factorization/readme.md:
--------------------------------------------------------------------------------
1 | # 【关于 矩阵分解篇】 那些你不知道的事
2 |
3 | > 作者:杨夕
4 | >
5 | > NLP 百面百搭 地址:https://github.com/km1994/NLP-Interview-Notes
6 | >
7 | > **[手机版NLP百面百搭](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=3&sn=5d8e62993e5ecd4582703684c0d12e44&chksm=1bbff26d2cc87b7bf2504a8a4cafc60919d722b6e9acbcee81a626924d80f53a49301df9bd97&scene=18#wechat_redirect)**
8 | >
9 | > 推荐系统 百面百搭 地址:https://github.com/km1994/RES-Interview-Notes
10 | >
11 | > **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
12 | >
13 | > NLP论文学习笔记:https://github.com/km1994/nlp_paper_study
14 | >
15 | > **[手机版NLP论文学习笔记](https://mp.weixin.qq.com/s?__biz=MzAxMTU5Njg4NQ==&mid=100005719&idx=1&sn=14d34d70a7e7cbf9700f804cca5be2d0&chksm=1bbff26d2cc87b7b9d2ed12c8d280cd737e270cd82c8850f7ca2ee44ec8883873ff5e9904e7e&scene=18#wechat_redirect)**
16 | >
17 |
18 | > **关注公众号 【关于NLP那些你不知道的事】 加入 【NLP && 推荐学习群】一起学习!!!**
19 |
20 | > 注:github 网页版 看起来不舒服,可以看 **[手机版推荐系统百面百搭](https://mp.weixin.qq.com/s/b_KBT6rUw09cLGRHV_EUtw)**
21 |
22 | - [【关于 矩阵分解篇】 那些你不知道的事](#关于-矩阵分解篇-那些你不知道的事)
23 | - [一、动机篇](#一动机篇)
24 | - [1.1 为什么 需要 矩阵分解?](#11-为什么-需要-矩阵分解)
25 | - [二、隐语义模型 介绍篇](#二隐语义模型-介绍篇)
26 | - [2.1 什么是 隐语义模型?](#21-什么是-隐语义模型)
27 | - [2.2 隐语义模型 存在什么问题?](#22-隐语义模型-存在什么问题)
28 | - [三、矩阵分解 介绍篇](#三矩阵分解-介绍篇)
29 | - [3.1 如何 获取 ⽤户矩阵Q 和 音乐矩阵P?](#31-如何-获取-户矩阵q-和-音乐矩阵p)
30 | - [3.2 矩阵分解 思路 是什么?](#32-矩阵分解-思路-是什么)
31 | - [3.3 矩阵分解 原理 是什么?](#33-矩阵分解-原理-是什么)
32 | - [3.4 如何 利用 矩阵分解 计算 用户 u 对 物品 v 的 评分?](#34-如何-利用-矩阵分解-计算-用户-u-对-物品-v-的-评分)
33 | - [四、矩阵分解 优缺点篇](#四矩阵分解-优缺点篇)
34 | - [4.1 矩阵分解 存在什么问题?](#41-矩阵分解-存在什么问题)
35 | - [参考](#参考)
36 |
37 | ## 一、动机篇
38 |
39 | ### 1.1 为什么 需要 矩阵分解?
40 |
41 | - 协同过滤算法 所存在的问题:
42 |
43 | 1. 数据稀疏性。尾部的物品由于特征向量稀疏,很少与其他物品产生相似性,导致很少被推荐。
44 | 2. 缺乏泛化性。
45 | 3. 算法扩展性。基于用户的协同过滤需要维护用户相似度矩阵以便快速的找出Topn相似用户, 该矩阵的存储开销非常大,存储空间随着用户数量的增加而增加,不适合用户数据量大的情况使用;
46 | 4. 没有利用到物品本身或者是用户自身的属性, 仅仅利用了用户与物品的交互信息就可以实现推荐,比较简单高效, 但这也是它的一个短板所在, 由于无法有效的引入用户年龄, 性别,商品描述,商品分类,当前时间,地点等一系列用户特征、物品特征和上下文特征, 这就造成了有效信息的遗漏,不能充分利用其它特征数据。
47 | 5. 马太效应。热门的物品具有很强的头部效应,容易跟大量物品产生相似性
48 |
49 | ## 二、隐语义模型 介绍篇
50 |
51 | ### 2.1 什么是 隐语义模型?
52 |
53 | 通过隐含特征(latent factor)联系⽤户兴趣和物品(item), 基于⽤户的⾏为找出潜在的主题和分类, 然后对item进⾏⾃动聚类,划分到不同类别/主题(⽤户的兴趣)。
54 |
55 | 利用 两个矩阵 分别表示:
56 |
57 | 1. ⽤户矩阵Q:不同用户 对不同元素的偏好;
58 | 2. 商品矩阵P:不同商品 所包含的不同元素的多少;
59 |
60 | > 例如:用户 和 音乐,那么:
61 | > ⽤户矩阵Q:表示 不同用户 对不同情感元素的偏好;
62 | > 音乐矩阵P:不同音乐 所包含的不同情感元素的多少;
63 |
64 | ### 2.2 隐语义模型 存在什么问题?
65 |
66 | - 问题1:真实的情况下 不存在 ⽤户矩阵Q 和 音乐矩阵P,只有一个大矩阵;
67 | - 问题2:矩阵特点:稀疏,如果直接基于⽤户相似性或者物品相似性去填充这个矩阵是不太容易的, 并且很容易出现⻓尾问题;
68 |
69 | ## 三、矩阵分解 介绍篇
70 |
71 | ### 3.1 如何 获取 ⽤户矩阵Q 和 音乐矩阵P?
72 |
73 | 如何 基于这个评分矩阵去找到上⾯例⼦中的那两个矩阵?
74 |
75 | ### 3.2 矩阵分解 思路 是什么?
76 |
77 | 用两个矩阵表示⽤户兴趣和物品的隐向量表达, 然后就把这个评分矩阵分解成Q和P两个矩阵乘积的形式, 这时候就可以基于这两个矩阵去预测某个⽤户对某个物品的评分了。 然后基于这个评分去进⾏推荐。
78 |
79 | ### 3.3 矩阵分解 原理 是什么?
80 |
81 | - 原理:将 将m×n维的共现矩阵R 分解为 m×k维的用户矩阵U 和 k×n维的物品矩阵V 相乘的形式。
82 |
83 | 
84 |
85 | ### 3.4 如何 利用 矩阵分解 计算 用户 u 对 物品 v 的 评分?
86 |
87 | 基于用户矩阵 U和物品矩阵 V,用户 u对物品 i的预估评分
88 |
89 | 
90 |
91 | ## 四、矩阵分解 优缺点篇
92 |
93 | ### 4.1 矩阵分解 存在什么问题?
94 |
95 | - 优点:
96 | - 泛化能力强: 一定程度上解决了稀疏问题
97 | - 空间复杂度低: 由于用户和物品都用隐向量的形式存放, 少了用户和物品相似度矩阵, 空间复杂度由$n^2$降到了$(n+m)*f$
98 | - 更好的扩展性和灵活性:矩阵分解的最终产物是用户和物品隐向量, 这个深度学习的embedding思想不谋而合, 因此矩阵分解的结果非常便于与其他特征进行组合和拼接, 并可以与深度学习无缝结合。
99 | - 缺点:
100 | - 矩阵分解算法依然是只用到了评分矩阵, 没有考虑到用户特征, 物品特征和上下文特征, 这使得矩阵分解丧失了利用很多有效信息的机会;
101 | - 在缺乏用户历史行为的时候, 无法进行有效的推荐。 所以为了解决这个问题, 逻辑回归模型及后续的因子分解机模型, 凭借其天然的融合不同特征的能力, 逐渐在推荐系统领域得到了更广泛的应用。
102 |
103 |
104 | ## 参考
105 |
106 | - [深度学习与推荐系统 王喆](https://item.jd.com/12630209.html)
--------------------------------------------------------------------------------
/群精彩讨论/README.md:
--------------------------------------------------------------------------------
1 | # 【面筋】百面百搭 群讨论收集
2 |
3 | 本项目是作者们根据个人面试和经验总结出的自然语言处理(NLP)、推荐系统(RES) 面试准备的学习笔记与资料,该资料目前包含 自然语言处理和推荐各领域的 面试题积累。
4 |
5 | - [【面筋】百面百搭 群讨论收集](#面筋百面百搭-群讨论收集)
6 | - [问题十:LSTM为什么能解决梯度消失和梯度爆炸(自然语言处理)](#问题十lstm为什么能解决梯度消失和梯度爆炸自然语言处理)
7 | - [问题九:xgb怎么处理缺省值](#问题九xgb怎么处理缺省值)
8 | - [问题八:怎么处理未登录词问题](#问题八怎么处理未登录词问题)
9 | - [问题七:对于生僻词,skip-gram和cbow哪个效果更好?原因是什么?(自然语言处理)](#问题七对于生僻词skip-gram和cbow哪个效果更好原因是什么自然语言处理)
10 | - [问题六:超过1000个字符长度的文本分类问题如何解决?(自然语言处理)](#问题六超过1000个字符长度的文本分类问题如何解决自然语言处理)
11 | - [问题一:召回模型中,模型评价指标怎么设计?(推荐)](#问题一召回模型中模型评价指标怎么设计推荐)
12 | - [问题二:w&d模型的特征,哪些放到wide侧,哪些放到deep侧? w&d模型在线上,如何做到根据实时数据更新模型(推荐)](#问题二wd模型的特征哪些放到wide侧哪些放到deep侧-wd模型在线上如何做到根据实时数据更新模型推荐)
13 |
14 | ## 问题十:LSTM为什么能解决梯度消失和梯度爆炸(自然语言处理)
15 |
16 | ```s
17 | dz-Summer:
18 | 大佬们,新一期 TopicShare 的 Topic 分享 填报来了,大家可以填一下感兴趣的 Topic
19 |
20 | Topic8 TopicShape Topic收集:https://shimo.im/sheets/y98CHkv6KHvkwrQ3/R6vm5/
21 |
22 | 【#每日一题#】
23 |
24 | LSTM为什么能解决梯度消失和梯度爆炸(自然语言处理)
25 |
26 | 面试题收集问卷:https://shimo.im/forms/Gd3jQWDpgyd3xcJ3/fill
27 | 【面筋】百面百搭:https://github.com/km1994/Interview-Notes
28 |
29 | dz-刘鸿儒:
30 | 可以解决梯度爆炸,解决不了梯度消失?
31 |
32 | dz-刘鸿儒:
33 | 因为有门,可以限制输出的范围
34 |
35 | dz-Summer:
36 | 欢迎大佬们积极讨论,题目中隐藏的一些问题,直接怼
37 |
38 | dz-稻米:
39 | 他不能解决,只能缓解,因为引入了门控机制,由rnn的累乘改为了累和,反向传播梯度消失的影响较大的缓解,细胞状态c也可以较好的存储长序列的语义信息
40 |
41 | Dw-成员-李祖贤-萌弟:
42 | 至今没能解决
43 |
44 | dz-刘鸿儒:
45 | 对,缓解
46 |
47 | ```
48 |
49 | ## 问题九:xgb怎么处理缺省值
50 |
51 | ```s
52 | dz-琼花梦落:
53 | 还问xgb怎么处理缺省值
54 |
55 | dz-琼花梦落:
56 | 咋处理啊
57 |
58 | 冯。:
59 | 训练时候 选择分裂后增益最大的那个方向(左分支或是右分支)
60 |
61 | just do it!:
62 | 有大佬愿意参与 群讨论内容 整理么?
63 |
64 | 冯。:
65 | 预测时候 出现新缺失 默认向右?
66 |
67 | dz-夜伦:
68 | 论文好像是左
69 |
70 | 冯。:
71 | 我记得是右
72 |
73 | dz-夜伦:
74 | 这个应该是训练的时候没有碰到缺失值,而预测的时候碰到缺失值
75 |
76 | dz-夜伦:
77 | 如果在训练当中碰到 缺失值不参与损失下降吧 好像做都会分配到左右节点
78 |
79 | dz-夜伦:
80 | 看哪个增益大 作为默认分裂方向
81 |
82 | dz-琼花梦落:
83 | 我没用过,都没答上来,上面回答的两位应该更懂
84 |
85 | 冯。:
86 | 默认向左 我错了
87 |
88 | 冯。:
89 | https://zhuanlan.zhihu.com/p/382231757
90 |
91 | ```
92 |
93 | ## 问题八:怎么处理未登录词问题
94 |
95 | ```s
96 | OPPO-文笔超好的男同学:
97 | 问题可以考虑升级泛化一下,怎么处理未登录词问题,这样更加开放性
98 |
99 | just do it!:
100 | 可以可以
101 |
102 | dz-稻米:
103 | 太狠了,会问这么深嘛
104 |
105 | dz-琼花梦落:
106 | 今天下午
107 |
108 | dz-稻米:
109 | 好像一般都问到如何将层次softmax和负采样融入进模型训练的,差不多就给过了
110 |
111 | just do it!:
112 | 尽可能找还原语义
113 |
114 | 1.原始词有没有
115 | 2.全小写有没有
116 | 3.全大写有没有
117 | 4.首字母大写有没有
118 | 5.三种次干化有没有
119 | 6.长得最像的几种编辑方法有没有
120 |
121 | OPPO-文笔超好的男同学:
122 | 问这种开放问题,基本都能答,然后可以跟着回答继续问下去
123 |
124 | dz-琼花梦落:
125 | 也问了word2vec里面分层softmax和负采样
126 |
127 | just do it!:
128 | https://www.zhihu.com/question/308543084/answer/576517555
129 |
130 | just do it!:
131 | 挨家挨户 找亲家
132 | ```
133 |
134 | ## 问题七:对于生僻词,skip-gram和cbow哪个效果更好?原因是什么?(自然语言处理)
135 |
136 | ```python
137 | 【每日一题】
138 | 对于生僻词,skip-gram和cbow哪个效果更好?原因是什么?
139 | (自然语言处理)
140 |
141 | 面试题收集问卷:https://shimo.im/forms/Gd3jQWDpgyd3xcJ3/fill
142 | 【面筋】百面百搭:https://github.com/km1994/Interview-Notes
143 |
144 | 文笔超好的男同学:
145 | 生僻字频次太低,大概率都是会因为这个而没法训练
146 |
147 | 文笔超好的男同学:
148 | 我感觉就是统计词频,在正类和在负类里频次差别巨大的可以考虑下
149 |
150 | Stefan:
151 | skip gram对低频高频都差不多
152 |
153 | Stefan:
154 | cbow 更倾向高频
155 |
156 | Stefan:
157 | 训练速度上看。cbow快一些,但获取的信息少一些
158 |
159 | 刘乙己??:
160 | skip_gram:一个学生K个老师
161 |
162 | 刘乙己??:
163 | cbow:一个老师要教K个学生
164 |
165 | just do it!:
166 | 但是,我们在训练词向量的时候,其实会把低频词(出现1-2词)的过滤掉的,所以很多时候不用考虑吧,而且对于一个出现词数极低的,对于模型的价值也不大
167 |
168 | just do it!:
169 | 我是觉得需要结合业务场景出发,比如如果是医疗领域,会出现很多 生僻词(eg:骨骺)等,但是如果语料中出现次数多的话,其实是可以学到的。因为从我们主观觉得“骨骺”是生僻词,但是从模型角度讲,骨骺 就不算是生僻词了,而是高频词
170 | ```
171 |
172 | ## 问题六:超过1000个字符长度的文本分类问题如何解决?(自然语言处理)
173 |
174 | ```s
175 | 大佬们,新一期 TopicShare 的 Topic 分享 填报来了,大家可以填一下感兴趣的 Topic
176 |
177 | Topic8 TopicShape Topic收集:https://shimo.im/sheets/y98CHkv6KHvkwrQ3/R6vm5/
178 |
179 | 【每日一题】
180 | 超过1000个字符长度的文本分类问题如何解决?
181 | (自然语言处理)
182 |
183 | 面试题收集问卷:https://shimo.im/forms/Gd3jQWDpgyd3xcJ3/fill
184 | 【面筋】百面百搭:https://github.com/km1994/Interview-Notes
185 |
186 | 文笔超好的男同学:
187 | 还是看场景看问题吧,点太多了
188 |
189 | 文笔超好的男同学:
190 | 长串dna测序用nlp都能解,长文本本身不是难题,难得是问题定义和数据
191 |
192 | 我的女票美如画:
193 | 1. 抽取 2. 截断 3. 输入层处理压缩维度 4. 对输入没限制的预训练模型 我只知道这几个方案
194 |
195 | 文笔超好的男同学:
196 | 举个例子吧,情感分析类,长文本本身情感可能复杂,那处理起来甚至标签都有问题
197 |
198 | 王泽军:
199 | 假设现在有个语料库,每个样本是1000多字的文档,标签是对应的文档类别。怎么做分类效果比较好?
200 |
201 | 文笔超好的男同学:
202 | 经验上长文本用截断,然后用cnn-lstm做基线试试
203 |
204 | 王翔:
205 | 长文本确实不是问题,很多变形都已经cover住长度了,关键也是上线压力和真正的全文信息吧
206 |
207 | 文笔超好的男同学:
208 | 本身难度就是数据和标签本身的关系
209 |
210 | 文笔超好的男同学:
211 | 因为文本太长信息太多,标签很多时候拿不准,别说模型,人都不容易
212 |
213 | 王翔:
214 | 是的,其实看做啥了,太多无用信息了
215 |
216 | 大雨:
217 | 需要先做抽取再分类吗?
218 |
219 | 王泽军:
220 | 如果长文本有摘要内容的话,可以拿摘要出来做分类
221 |
222 | 文笔超好的男同学:
223 | 玄学的说,tfidf加机器学习效果说不定不比深度学习差
224 |
225 | :
226 | 太多无用信息..
227 |
228 | :
229 | 对 就规则吧
230 |
231 | 王泽军:
232 | 用 tfidf + libsvm 做基线试试
233 |
234 | 大雨:
235 | 有没有先做摘要再分类的做法?
236 |
237 | 文笔超好的男同学:
238 | 中文长文本分类数据集
239 |
240 | 文笔超好的男同学:
241 | 那就要看摘要准不准了
242 |
243 | 王泽军:
244 | 可以先用简单的方法提取一些关键句,再用深度学习的方法分类,说不定效果不错
245 |
246 | 文笔超好的男同学:
247 | 准确率肯定要打个折的
248 |
249 | 王翔:
250 | 摘要本来就做的一般,又加一层损失的感觉,其实滑动截断或者层次都还好,我感觉除非强相关,反正其实一般分类截断够用了
251 |
252 | 大雨:
253 | 是不是得把反应段落主旨的句子选出来
254 |
255 | 大雨:
256 | 应该是以句子为基本单位来选?
257 |
258 | 王翔:
259 | 这个看需求吧
260 |
261 | 大雨:
262 | 所以怎么选主旨句有好办法吗?
263 |
264 | 王翔:
265 | @大雨?有标签,做段落排序而已
266 |
267 | 大雨:
268 | 具体咋排呢?如果标注了一段话的主旨句的话
269 |
270 | 王翔:
271 | 最简单就是看打分,打分高就是
272 |
273 | 大雨:
274 | 是谁对谁打分?
275 |
276 | 王翔:
277 | 对句子打分,预测时主旨句的概率,最简单不就是做二分类吗
278 |
279 | 大雨:
280 | 输入是整个段落吗?整个段落本身都已经太长了‘
281 |
282 | 王翔:
283 | 怎么做,看具体做的思路,句子+上下文
284 |
285 | 大雨:
286 | 是指每个句子只用上下相邻的几个句子做二分类?而不需要整段
287 |
288 | just do it!:
289 | 1. 规则:
290 | 1.1 截取;
291 | 1.2 划窗
292 |
293 | 2. 模型
294 | 2.1 Transformer-XL
295 | 2.2 XLNet
296 |
297 | 3. trick
298 | 3.1 做 文本摘要,提取主干,再用主干做分类
299 |
300 | 大雨:
301 | 主要是怎样提取主干
302 |
303 | LLLuna:
304 | 用预训练模型对句子进行语义表示,如果是对句子所有token取最后一层编码的平均,是不是要mask掉padding的那些token的表示?
305 | ```
306 |
307 | ## [问题一:召回模型中,模型评价指标怎么设计?(推荐)](README.md#问题一召回模型中模型评价指标怎么设计推荐)
308 |
309 | ## [问题二:w&d模型的特征,哪些放到wide侧,哪些放到deep侧? w&d模型在线上,如何做到根据实时数据更新模型(推荐)](README.md#问题二wd模型的特征哪些放到wide侧哪些放到deep侧-wd模型在线上如何做到根据实时数据更新模型推荐)
310 |
311 | > 精彩讨论
312 | ```s
313 | 刘乙己??:
314 | w&d模型在线上,如何做到根据实时数据更新模型
315 | (推荐)?
316 | 模型服务器每次收到(app召回集合+当前用户特征),模型服务器返回每个app的score。
317 | score就是对于wide & deep模型的一次 forward pass。
318 | 为了缩短响应时间10ms以内,并行预测,例如可以将分布式多线程的计算不同批次app的得分。
319 |
320 | 拒绝焦虑李某人:
321 | https://zhuanlan.zhihu.com/p/75597761
322 |
323 | 拒绝焦虑李某人:
324 | 我看教程说,w&d里边wide的部分的优化器是用的FTRL做在线学习,利用少量样本对参数更新做类似截断的方法,满足某个条件跟新,不满足不更新,deep侧用的adagrad用全量数据做训练,我贴这个问题是想问,线上的w&d,wide可以做在线学习,那deep侧就不用了么
325 |
326 | 拒绝焦虑李某人:
327 | 王吉吉老师的一个学习笔记里写,全量数据用SGD adagrad等传统优化器来更新参数,增量数据做在线学习的时候用FTRL等,但是w&d里只有wide侧的优化器是FTRL啊
328 |
329 | 大雨:
330 | sgd adagrad也可以增量更新啊
331 |
332 | 拒绝焦虑李某人:
333 | 增量数据带来的梯度有可能会是不正确的方向
334 |
335 | 拒绝焦虑李某人:
336 | 就是类似脏数据的意思
337 |
338 | 拒绝焦虑李某人:
339 | 如果用sgd或者adagrad没传一次增量数据就更新,模型不会跑偏么
340 |
341 | 大雨:
342 | 实时性和全局准确性是矛盾的
343 |
344 | 大雨:
345 | 可以2个版本我猜,和老版本pk一下,新的把老的赢了才用新的
346 |
347 | 拒绝焦虑李某人:
348 | 我看了下wide侧用FTRL+L1正则化是为了让模型参数更加稀疏,更在线学习没关系至于wide&deep怎么做在线学习参数实时更新,这个问题好像挺少见
349 |
350 | 刘乙己??:
351 | 我认为这个更新还是根据wide&deep这个的数据类型进行判断的叭
352 | wide是原始特征,一些固定的数据,他不是经常变动;deep是数值特征,类别特征,是要求实时性
353 |
354 | 刘乙己??:
355 | 如果一些固定数据的变动的话,还是要进行更新的叭
356 |
357 | 刘乙己??:
358 | 更新频率的不同,导致相对来说,wide是不进行更新的
359 |
360 | 大雨:
361 | 所以要实时都实时要不实时都不实时,没有分开处理一说
362 |
363 | 拒绝焦虑李某人:
364 | 是的
365 |
366 | 大雨:
367 | 我觉得不是这个,但我说不来是哪个
368 |
369 | _Rulcy:
370 | 我也看了一下,解释还是和业务有点关系的。论文里wide侧数据维度还是挺高的,所以需要控制Wide侧稀疏程度保证在线模型实时性。这里在线学习和模型稀疏还是紧密相关的,是因为在线学习引入的单个样本更新更可能影响到模型全局的权重,使模型丧失稀疏性,所以采用了FTRL进行更新。至于为什么只考虑Wide不考虑Deep侧实时性,是因为模型输入时Deep通常输入Embedding,相对Wide的LR模型输入One-hot那种,维度低了很多,所以Deep侧更看重精度,而对于实时性没有过多考虑。
371 |
372 | _Rulcy:
373 |
374 | _Rulcy:
375 | 原答案在这里,根本原因还是稀疏性和在线模型复杂度是紧密相关的
376 |
377 | 大雨:
378 | 为什么deep侧不考虑稀疏性,也会有很多id特征啊
379 |
380 | _Rulcy:
381 | 原因是模型上线后,在wide输入是稀疏向量,而deep输入是embedding向量。wide侧稀疏的话,线上模型对wide做的压缩提升是很大的。
382 |
383 | _Rulcy:
384 | 单独提出deep侧来看,如果使特征输入层到下一隐层稀疏的话,丧失了本来的目的,就是本来Deep就是考虑用几近全量的特征以提高模型泛化能力的,没必要再做一次特征筛选。如果使模型整体稀疏的话,同样可以在设置模型参数时就让Deep侧更轻量,不需要设置一个大的网络再通过稀疏化来缩减模型。
385 |
386 | 大雨:
387 | 可以让deep侧的时候sparse层更稀疏啊
388 |
389 | _Rulcy:
390 | 可以但是没必要啊,拖慢网络速度的主要就是输入到embedding,Deep侧模型上线后直接采用embedding向量作为输入了,网络已经优化到一定程度了
391 |
392 | _Rulcy:
393 | 就举例子来说,经过稀疏后,wide侧效率从100ms->10ms。经过同样的稀疏,deep侧效率可以从10ms->1ms,优化程度还是有很大区别的
394 |
395 | 大雨:
396 | 增加稀疏性还能提速?
397 |
398 | _Rulcy:
399 | 是指线下训练增加稀疏性,线上模型就可以通过压缩提速了
400 |
401 | 大雨:
402 | 我的理解,压缩是通过降低网络开销提速的?
403 |
404 | _Rulcy:
405 | 是这样的,简单来说一个LR模型,通过稀疏使它一半的权重为0,那么模型上限时就可以把这些权重去掉,提高效率
406 |
407 | 大雨:
408 | 所以大头还是省了网络通信开销,cpu/gpu计算耗时基本不变
409 |
410 | _Rulcy:
411 | emmm倒不是这个意思。这里理解两点就很好懂了:1.线下训练的模型和线上服务的模型有很大的差别,所有最终的目的都是为线上模型服务的。2.线下模型中,Deep侧训练开销更大。但是模型上线后,Wide的可能反而压力是更大的。
412 |
413 | _Rulcy:
414 | 提高稀疏性对于线下的模型肯定是计算耗时基本不变的,但是对于线上模型一定是有提升的。
415 |
416 | 大雨:
417 | wide端的压力更多来自存储?
418 |
419 | _Rulcy:
420 | wide侧的压力来自于LR没有embedding层
421 |
422 | 大雨:
423 | 忽略存储因素,忽略网络通信因素,稀疏与否并不影响,我觉得
424 |
425 | 大雨:
426 | 没有embedding层照样可以把向量变成标量,存redis
427 |
428 | _Rulcy:
429 | 类别特征存储并不是难事啊,只是在预测时,没有Emb层的输入是稀疏的,有Emb层输入是稠密的
430 |
431 | _Rulcy:
432 | 这种稀疏向量才是影响网络计算最大的问题
433 |
434 | 大雨:
435 | 没有问题embedding层的输入也可以是id啊,进行查表
436 |
437 | 大雨:
438 | 只不过查的不是向量,是权重,是标量
439 |
440 | _Rulcy:
441 | 是可以的,但是主要还是one-hot嘛。类别型特征如果转化为标量,效果肯定是比不上one-hot的
442 |
443 | _Rulcy:
444 | 如果你让LR的输入层都转为标量型,那肯定没有上面的这些顾虑了。但是为了效果,LR层的输入都是One-Hot的
445 |
446 | _Rulcy:
447 | 类别特征转化为标量最大的问题还是,标量之间的差很难解释其意义,但又是一个重要性质
448 |
449 | _Rulcy:
450 | 所以可以采用标量存储,但是预测时不推荐
451 |
452 | 拒绝焦虑李某人:
453 | 我觉得模型计算时间跟特征维度有关,跟网络深度也有关,跟有网络是否稀疏无关
454 |
455 | 大雨:
456 | 我不是直接转成标量,而是将id和对应的权重k,v存储
457 |
458 | _Rulcy:
459 | 你忽视的点是,线下模型是稀疏的,线上模型会剔除稀疏权重。
460 |
461 | 拒绝焦虑李某人:
462 | 也就是参数为0的直接不算了么
463 |
464 | _Rulcy:
465 | 对的
466 |
467 | _Rulcy:
468 | 网络压缩也是一个热门研究方向的
469 |
470 | 大雨:
471 | 跟实现有关
472 |
473 | 大雨:
474 | 我觉得网络通信传输是大头
475 |
476 | 拒绝焦虑李某人:
477 | deep侧不在线学习的原因是它没法稀疏化是么
478 |
479 | 大雨:
480 | wide侧的职责我觉得是快速地捕捉变化
481 |
482 | _Rulcy:
483 | 是稀疏化取得的提升不是太大
484 |
485 | _Rulcy:
486 | 下班了还是给大伙推荐点好文章吧,一个很形象的将梯度下降方法的文章。http://www.360doc.com/content/20/0611/01/32196507_917690415.shtml
487 |
488 | _Rulcy:
489 | 感觉理解更深了哈哈哈
490 |
491 | 大雨:
492 | deep侧因为比较深,学得慢,所以要厚积薄发,举一反三
493 |
494 | 大雨:
495 | dnn的稀疏化本来就很难
496 | ```
497 |
498 |
--------------------------------------------------------------------------------