论坛元老 
   
- 威望
 - 0 
 
- 贡献
 - 61 
 
- 热心值
 - 2 
 
- 金币
 - 3488 
 
- 注册时间
 - 2020-8-31
 
 
 
 
 | 
 
 
课程目录 
113 - 构建决策树/ 
114 - 构建决策树/ 
115 - 构建决策树/ 
116 - 构建决策树/ 
119 - 构建决策树/ 
120 - 构建决策树/ 
225 - sklearn 中的年龄/ 
226 - sklearn 中的年龄/ 
260 - 异常值检测/ 
310 - 最小值/ 
311 - 最小值/ 
312 - sklearn 中的最小值/ 
415 - PCA 的回顾/ 
429 - 在 sklearn 中分开的训练/ 
1 - 简介  
10 - 特征和标签音乐示例  
100 - 核和伽玛  
101 - 核和伽玛 Solution  
102 - SVM C 参数  
103 - SVM C 参数 Solution  
104 - 过拟合  
105 - 过拟合 Solution  
106 - SVM 的优缺点  
107 - SVM 迷你项目简介  
108 - 欢迎学习决策树  
109 - 可线性分离的数据  
11 - 特征可视化  
110 - 可线性分离的数据 Solution  
111 - 多元线性问题  
112 - 多元线性问题 Solution  
117 - 第二次分割后的类标签  
118 - 第二次分割后的类标签 Solution  
12 - 特征可视化 Solution  
121 - 决策树编码  
122 - 决策树编码 Solution  
123 - 决策树准确性  
124 - 决策树准确性 Solution  
125 - 决策树参数  
126 - 决策树参数 Solution  
127 - 最小样本分割  
128 - 最小样本分割 Solution  
129 - 决策树准确性  
13 - 肉眼分类  
130 - 决策树准确性 Solution  
131 - 数据杂质与熵  
132 - 在分割中尽可能减少杂质  
133 - 在分割中尽可能减少杂质 Solution  
134 - 熵公式  
135 - 熵计算(第 1 部分)  
136 - 熵计算(第 1 部分) Solution  
137 - 熵计算(第 2 部分)  
138 - 熵计算(第 2 部分) Solution  
139 - 熵计算(第 3 部分)  
14 - 肉眼分类 Solution  
140 - 熵计算(第 3 部分) Solution  
141 - 熵计算(第 4 部分)  
142 - 熵计算(第 4 部分) Solution  
143 - 熵计算(第 5 部分)  
144 - 熵计算(第 5 部分) Solution  
145 - 信息增益  
146 - 信息增益计算(第 1 部分)  
147 - 信息增益计算(第 1 部分) Solution  
148 - 信息增益计算(第 2 部分)  
149 - 信息增益计算(第 2 部分) Solution  
15 - Stanley 地形分类简介  
150 - 信息增益计算(第 3 部分)  
151 - 信息增益计算(第 3 部分) Solution  
152 - 信息增益计算(第 4 部分)  
153 - 信息增益计算(第 4 部分) Solution  
154 - 信息增益计算(第 5 部分)  
155 - 信息增益计算(第 5 部分) Solution  
156 - 信息增益计算(第 6 部分)  
157 - 信息增益计算(第 6 部分) Solution  
158 - 信息增益计算(第 7 部分)  
159 - 信息增益计算(第 7 部分) Solution  
16 - 速度散点图:坡度和颠簸度  
160 - 信息增益计算(第 8 部分)  
161 - 信息增益计算(第 8 部分) Solution  
162 - 信息增益计算(第 9 部分)  
163 - 信息增益计算(第 9 部分) Solution  
164 - 信息增益计算(第 10 部分)  
165 - 信息增益计算(第 10 部分) Solution  
166 - 调整标准参数  
167 - 偏差-方差困境  
168 - DT 的优缺点  
169 - 决策树迷你项目简介  
17 - 速度散点图:坡度和颠簸度 Solution  
170 - 选择你自己的算法  
171 - 选择你的冒险  
172 - 可选算法  
173 - 调查过程  
174 - 你的算法如何比较  
175 - L4 迷你项目  
176 - 结尾  
177 - 简介  
178 - 什么是 POI  
179 - 准确率与训练集大小  
18 - 速度散点图 2  
180 - 下载安然数据  
181 - 数据类型测验 1  
182 - 数据类型测验 1 Solution  
183 - 数据类型测验 2  
184 - 数据类型测验 2 Solution  
185 - 数据类型测验 3  
186 - 数据类型测验 3 Solution  
187 - 数据类型测验 4  
188 - 数据类型测验 4 Solution  
189 - 数据类型测验 5  
19 - 速度散点图 2 Solution  
190 - 数据类型测验 5 Solution  
191 - 数据类型测验 6  
192 - 数据类型测验 6 Solution  
193 - 安然数据集迷你项目简介  
194 - 连续输出  
195 - 连续输出 Solution  
196 - 连续  
197 - 连续 Solution  
198 - 年龄:连续还是离散?  
199 - 年龄:连续还是离散? Solution  
2 - 简介 - 第 2 部分  
20 - 速度散点图 3  
200 - 天气:连续还是离散?  
201 - 天气:连续还是离散? Solution  
202 - 电子邮件作者:连续还是离散?  
203 - 电子邮件作者:连续还是离散? Solution  
204 - 电话号码:连续还是离散?  
205 - 电话号码:连续还是离散? Solution  
206 - 收入:连续还是离散?  
207 - 收入:连续还是离散? Solution  
208 - 连续特征  
209 - 连续特征 Solution  
21 - 速度散点图 3 Solution  
210 - 具有连续输出的监督式学习  
211 - 具有连续输出的监督式学习 Solution  
212 - 回归线性方程  
213 - 回归线性方程 Solution  
214 - 斜率和截距  
215 - 斜率  
216 - 斜率 Solution  
217 - 截距  
218 - 截距 Solution  
219 - 使用回归的预测  
22 - 从散点图到预测  
220 - 使用回归的预测 Solution  
221 - 添加截距  
222 - 添加截距 Solution  
223 - 移交给 Katie  
224 - 编码  
227 - 通过 sklearn 提取信息  
228 - 通过 sklearn 提取分数数据  
229 - 线性回归误差  
23 - 从散点图到预测 Solution  
230 - 误差  
231 - 误差 Solution  
232 - 误差和拟合质量  
233 - 误差和拟合质量 Solution  
234 - 最小化误差平方和  
235 - 最小化误差平方和的算法  
236 - 为何最小化 SSE  
237 - 为何最小化 SSE Solution  
238 - 最小化绝对误差的问题  
239 - 肉眼评估回归  
24 - 从散点图到预测 2  
240 - 肉眼评估回归 Solution  
241 - SSE 的问题  
242 - SSE 的问题 Solution  
243 - 回归的 R 平方指标  
244 - SKlearn 中的 R 平方  
245 - 可视化回归  
246 - 什么数据适用于线性回归  
247 - 什么数据适用于线性回归 Solution  
248 - 比较分类与回归  
249 - 多元回归  
25 - 从散点图到预测 2 Solution  
250 - 多元回归 Solution  
251 - 多元回归 2  
252 - 多元回归 2 Solution  
253 - 回归迷你项目简介  
254 - 回归中的异常值  
255 - 回归中的异常值 Solution  
256 - 产生异常值的原因  
257 - 产生异常值的原因 Solution  
258 - 选择异常值  
259 - 选择异常值 Solution  
26 - 从散点图到决策面  
261 - 使用残差的异常值检测  
262 - 使用残差的异常值检测 Solution  
263 - 删除异常值对回归的影响  
264 - 删除异常值对回归的影响 Solution  
265 - 异常值删除策略的小结  
266 - 异常值迷你项目简介  
267 - 非监督学习  
268 - 聚类电影  
269 - 多少个聚类?  
27 - 从散点图到决策面 Solution  
270 - 多少个聚类? Solution  
271 - 将点与聚类匹配  
272 - 将点与聚类匹配 Solution  
273 - 优化中心(橡皮筋)  
274 - 优化中心(橡皮筋) Solution  
275 - 移动中心 2  
276 - 移动中心 2 Solution  
277 - 匹配点(再次)  
278 - 匹配点(再次) Solution  
279 - 移交给 Katie  
28 - 良好的线性决策面  
280 - K-均值聚类可视化  
281 - K-均值聚类可视化 Solution  
282 - K-均值聚类可视化 2  
283 - K-均值聚类可视化 3  
284 - Sklearn  
285 - K-均值的挑战  
286 - K-均值的局限  
287 - K-均值的局限 Solution  
288 - 反直觉的聚类  
289 - 反直觉的聚类 Solution  
29 - 良好的线性决策面 Solution  
290 - 反直觉的聚类 2  
291 - 反直觉的聚类 2 Solution  
292 - 聚类迷你项目  
293 - Chris 的 T 恤尺寸(直觉)  
294 - Chris 的 T 恤尺寸(直觉) Solution  
295 - 针对 Chris 的度量  
296 - 针对 Chris 的度量 Solution  
297 - Cameron 的身高 + 体重  
298 - Cameron 的身高 + 体重 Solution  
299 - Sarah 的身高 + 体重  
3 - 简介 - 第 3 部分  
30 - 转为使用朴素贝叶斯  
300 - Sarah 的身高 + 体重 Solution  
301 - 由我们的度量确定的 Chris T 恤尺寸  
302 - 由我们的度量确定的 Chris T 恤尺寸 Solution  
303 - 利用不同的尺度来比较特征  
304 - 特征缩放公式练习 1  
305 - 特征缩放公式练习 1 Solution  
306 - 特征缩放公式练习 2  
307 - 特征缩放公式练习 2 Solution  
308 - 特征缩放公式练习 3  
309 - 特征缩放公式练习 3 Solution  
31 - Python 中的 NB 决策边界  
313 - 需要重缩放的算法练习  
314 - 需要重缩放的算法练习 Solution  
315 - 特征缩放迷你项目简介  
316 - 学习文本时的维度  
317 - 学习文本时的维度 Solution  
318 - 词袋  
319 - 词袋 Solution  
32 - sklearn 使用入门  
320 - 美好的一天  
321 - 美好的一天 Solution  
322 - Day 先生热爱美好的一天  
323 - Day 先生热爱美好的一天 Solution  
324 - 词袋属性  
325 - 词袋属性 Solution  
326 - Sklearn 中的词袋  
327 - 低信息的单词  
328 - 低信息的单词 Solution  
329 - 停止词  
33 - 高斯朴素贝叶斯示例  
330 - 停止词 Solution  
331 - 从 NLTK 中获取停止词  
332 - 从 NLTK 中获取停止词 Solution  
333 - 词干化以合并词汇  
334 - 使用 NLTK 进行词干化  
335 - 文本处理中的运算符顺序  
336 - 文本处理中的运算符顺序 Solution  
337 - 由词频确定的权重  
338 - 由词频确定的权重 Solution  
339 - 为何要向上加权少见单词  
34 - 有关地形数据的高斯 NB 部署  
340 - 文本学习迷你项目简介  
341 - 为何使用特征选择?  
342 - 一个新的安然特征  
343 - 一个新的安然特征练习  
344 - 一个新的安然特征练习 Solution  
345 - 可视化新特征  
346 - 可视化新特征 Solution  
347 - 警惕特征漏洞!  
348 - 去除特征  
349 - 去除特征 Solution  
35 - 有关地形数据的高斯 NB 部署 Solution  
350 - 特征不等于信息  
351 - TfIdf 向量器中的特征选择  
352 - TfIdf 向量器中的特征选择 Solution  
353 - 偏差、方差和特征数量  
354 - 偏差、方差和特征数量 Solution  
355 - 偏差、方差和特征数量 2  
356 - 偏差、方差和特征数量 2 Solution  
357 - 肉眼过拟合  
358 - 带有特征数量的平衡误差  
359 - 正则化  
36 - 计算 NB 准确性  
360 - 套索回归  
361 - 套索回归练习  
362 - 套索回归练习 Solution  
363 - 使用 Sklearn 进行套索预测练习  
364 - 使用 Sklearn 进行套索预测练习 Solution  
365 - Sklearn 中的套索系数练习  
366 - Sklearn 中的套索系数练习 Solution  
367 - 在 Sklearn 中使用套索练习  
368 - 在 Sklearn 中使用套索练习 Solution  
369 - 特征选择迷你项目简介  
37 - 计算 NB 准确性 Solution  
370 - 数据维度  
371 - 数据维度 Solution  
372 - 较棘手的数据维度  
373 - 较棘手的数据维度 Solution  
374 - 一维或二维?  
375 - 一维或二维? Solution  
376 - 略微不完美的数据  
377 - 略微不完美的数据 Solution  
378 - 最棘手的数据维度  
379 - 最棘手的数据维度 Solution  
38 - 训练数据和测试数据  
380 - 用于数据转换的 PCA  
381 - 新坐标系的中心  
382 - 新坐标系的中心 Solution  
383 - 新坐标系的主轴  
384 - 新坐标系的主轴 Solution  
385 - 新系统的第二主成分  
386 - 新系统的第二主成分 Solution  
387 - 练习查找中心  
388 - 练习查找中心 Solution  
389 - 练习查找新轴  
39 - 使用贝叶斯规则将 NB 拆包  
390 - 练习查找新轴 Solution  
391 - 哪些数据可用于 PCA  
392 - 哪些数据可用于 PCA Solution  
393 - 轴何时占主导地位  
394 - 轴何时占主导地位 Solution  
395 - 可测量的特征与潜在的特征练习  
396 - 可测量的特征与潜在的特征练习 Solution  
397 - 从四个特征到两个  
398 - 从四个特征到两个 Solution  
399 - 在保留信息的同时压缩  
4 - 先修要求  
40 - 贝叶斯规则  
400 - 在保留信息的同时压缩 Solution  
401 - 复合特征  
402 - 复合特征 Solution  
403 - 最大方差  
404 - 最大方差 Solution  
405 - 最大方差的优点  
406 - 最大方差的优点 Solution  
407 - 最大方差与信息损失  
408 - 最大方差与信息损失 Solution  
409 - 信息损失和主成分  
41 - 癌症测试  
410 - 相邻复合特征  
411 - 相邻复合特征 Solution  
412 - 用于特征转换的 PCA  
413 - 最大主成分数量  
414 - 最大主成分数量 Solution  
416 - 安然财务数据的 PCA  
417 - 安然财务数据的 PCA Solution  
418 - sklearn 中的 PCA  
419 - 何时使用 PCA  
42 - 癌症测试 Solution  
420 - 用于人脸识别的 PCA  
421 - 用于人脸识别的 PCA Solution  
422 - 特征脸方法代码  
423 - PCA 迷你项目简介  
424 - 选择主成分  
425 - 选择主成分 Solution  
426 - 既有趣、又有益的交叉验证  
427 - 测试的好处  
428 - 测试的好处 Solution  
43 - 先验和后验  
430 - 何处使用训练与测试数据 1  
431 - 何处使用训练与测试数据 1 Solution  
432 - 何处使用训练与测试数据 2  
433 - 何处使用训练与测试数据 2 Solution  
434 - 何处使用训练与测试数据 3  
435 - 何处使用训练与测试数据 3 Solution  
436 - 何处使用训练与测试数据 4  
437 - 何处使用训练与测试数据 4 Solution  
438 - K 折交叉验证  
439 - K 折交叉验证 Solution  
44 - 先验和后验 Solution  
440 - Sklearn 中的 K 折 CV  
441 - 针对 Sklearn 中的 K 折的实用建议  
442 - 为调整参数而进行的交叉验证  
443 - 开始验证迷你项目  
444 - 验证迷你项目简介  
445 - 评估指标  
446 - 准确率回顾  
447 - 准确率的缺陷  
448 - 准确率的缺陷 Solution  
449 - 选择最合适的指标  
45 - 规范化 1  
450 - 混淆矩阵  
451 - 混淆矩阵 Solution  
452 - 混淆矩阵练习 1  
453 - 混淆矩阵练习 1 Solution  
454 - 混淆矩阵练习 2  
455 - 混淆矩阵练习 2 Solution  
456 - 填充混淆矩阵  
457 - 填充混淆矩阵 Solution  
458 - 混淆矩阵:误报  
459 - 混淆矩阵:误报 Solution  
46 - 规范化 1 Solution  
460 - 决策树混淆矩阵  
461 - 决策树混淆矩阵 Solution  
462 - 特征脸混淆矩阵  
463 - 特征脸混淆矩阵 Solution  
464 - 有多少 Schroeder  
465 - 有多少 Schroeder Solution  
466 - 有多少 Schroeder 预测值  
467 - 有多少 Schroeder 预测值 Solution  
468 - 正确分类查韦斯 1  
469 - 正确分类查韦斯 1 Solution  
47 - 规范化 2  
470 - 正确分类查韦斯 2  
471 - 正确分类查韦斯 2 Solution  
472 - 精确率和召回率  
473 - 鲍威尔精确率和召回率  
474 - 鲍威尔精确率和召回率 Solution  
475 - 布什精确率和召回率  
476 - 布什精确率和召回率 Solution  
477 - 特征脸方法中的 True Positives  
478 - 特征脸方法中的 True Positives Solution  
479 - 特征脸方法中的 False Positives  
48 - 规范化 2 Solution  
480 - 特征脸方法中的 False Positives Solution  
481 - 特征脸方法中的 False Negatives  
482 - 特征脸方法中的 False Negatives Solution  
483 - 对拉姆斯菲尔德练习 TP、FP、FN  
484 - 对拉姆斯菲尔德练习 TP、FP、FN Solution  
485 - 精确率公式  
486 - 精确率公式 Solution  
487 - 召回率公式  
488 - 召回率公式 Solution  
489 - 最后部分  
49 - 规范化 3  
490 - 评估迷你项目简介  
491 - 简介  
492 - 小结  
493 - 内容结尾  
494 - 回顾  
5 - Google 无人驾驶汽车中的机器学习  
50 - 规范化 3 Solution  
51 - 全概率  
52 - 全概率 Solution  
53 - 贝叶斯规则图  
54 - 用于分类的贝叶斯规则  
55 - 用于分类的贝叶斯规则 Solution  
56 - Chris 或 Sara  
57 - Chris 或 Sara Solution  
58 - 后验概率  
59 - 后验概率 Solution  
6 - acerous 还是 non-acerous?  
60 - 你独自得出的贝叶斯概率  
61 - 你独自得出的贝叶斯概率 Solution  
62 - 为何朴素贝叶斯很朴素  
63 - 为何朴素贝叶斯很朴素 Solution  
64 - 朴素贝叶斯的优势和劣势  
65 - 恭喜你学完了朴素贝叶斯  
66 - 朴素贝叶斯迷你项目  
67 - 欢迎学习 SVM  
68 - 分隔线  
69 - 分隔线 Solution  
7 - acerous 还是 non-acerous? Solution  
70 - 选择分隔线  
71 - 选择分隔线 Solution  
72 - 好的分隔线有何特点  
73 - 好的分隔线有何特点 Solution  
74 - 间隔练习  
75 - 间隔练习 Solution  
76 - SVMs 和棘手的数据分布  
77 - SVMs 和棘手的数据分布 Solution  
78 - SVM 对异常值的响应  
79 - SVM 对异常值的响应 Solution  
8 - 监督式分类示例  
80 - SVM 异常值练习  
81 - SVM 异常值练习 Solution  
82 - 移交给 Katie  
83 - SKlearn 中的 SVM  
84 - SVM 决策边界  
85 - SVM 编码  
86 - SVM 编码 Solution  
87 - 非线性 SVM  
88 - 非线性数据  
89 - 非线性数据 Solution  
9 - 监督式分类示例 Solution  
90 - 新特征  
91 - 新特征 Solution  
92 - 可视化新特征  
93 - 与新特征分隔  
94 - 与新特征分隔 Solution  
95 - 练习创建新特征  
96 - 练习创建新特征 Solution  
97 - 核技巧  
98 - 尝试选择各种核  
99 - 尝试选择各种核 Solution 
 
 
 
 |   
 
 
 
 |