├── .gitignore
├── README.md
├── assets
├── bilibiliDemo.jpg
└── xmindDemo.jpg
├── guide
├── guide.md
└── guideAssets
│ ├── assignmentTree.jpg
│ ├── checkAnswer.jpg
│ ├── completeCode.jpg
│ ├── downloadAssignmet.jpg
│ ├── locateAssignment.jpg
│ ├── locateToCode.jpg
│ ├── miniApp1.jpg
│ ├── miniApp2.jpg
│ ├── miniApp3.jpg
│ ├── miniApp4.jpg
│ ├── openIPython.jpg
│ └── uzipAssignment.jpg
├── trials
├── C1W1_noAnswers.md
├── C1W1_noAnswers_EnVer.md
├── C1W1_withAnswers.md
├── C1W2_noAnswers.md
├── C1W2_noAnswers_EnVer.md
├── C1W2_withAnswers.md
├── C1W3_noAnswers.md
├── C1W3_noAnswers_EnVer.md
├── C1W3_withAnswers.md
├── C1W4_noAnswers.md
├── C1W4_noAnswers_EnVer.md
├── C1W4_withAnswers.md
├── C2W1_noAnswers.md
├── C2W1_noAnswers_EnVer.md
├── C2W1_withAnswers.md
├── C2W2_noAnswers.md
├── C2W2_noAnswers_EnVer.md
├── C2W2_withAnswers.md
├── C2W3_noAnswers.md
├── C2W3_noAnswers_EnVer.md
├── C2W3_withAnswers.md
├── C3W1_noAnswers.md
├── C3W1_noAnswers_EnVer.md
├── C3W1_withAnswers.md
├── C3W2_noAnswers.md
├── C3W2_noAnswers_EnVer.md
├── C3W2_withAnswers.md
├── C4W1_noAnswers.md
├── C4W1_noAnswers_EnVer.md
├── C4W1_withAnswers.md
├── C4W2_noAnswers.md
├── C4W2_noAnswers_EnVer.md
├── C4W2_withAnswers.md
├── C4W3_noAnswers.md
├── C4W3_noAnswers_EnVer.md
├── C4W3_withAnswers.md
├── C4W4_noAnswers.md
├── C4W4_noAnswers_EnVer.md
├── C4W4_withAnswers.md
├── C5W1_noAnswers.md
├── C5W1_noAnswers_EnVer.md
├── C5W1_withAnswers.md
├── C5W2_noAnswers.md
├── C5W2_noAnswers_EnVer.md
├── C5W2_withAnswers.md
├── C5W3_noAnswers.md
├── C5W3_noAnswers_EnVer.md
├── C5W3_withAnswers.md
└── testAssests
│ ├── C1W1
│ ├── handDrewDiagram.jpg
│ ├── iterateDiagram.jpg
│ ├── leakyRelu.jpg
│ ├── relu.jpg
│ ├── sigmoid.jpg
│ ├── tanh.jpg
│ └── trialC1W1.jpg
│ ├── C1W2
│ ├── X.jpg
│ ├── computationGraph.jpg
│ ├── lossFunction1.jpg
│ ├── lossFunction2.jpg
│ ├── lossFunction3.jpg
│ ├── lossFunction4.jpg
│ └── trialC1W2.jpg
│ ├── C1W3
│ ├── a2.jpg
│ ├── a212.jpg
│ ├── a24.jpg
│ ├── formula1.jpg
│ ├── formula2.jpg
│ ├── formula3.jpg
│ ├── formula4.jpg
│ ├── oneHiddenLaynerNN.jpg
│ └── trialC1W3.jpg
│ ├── C1W4
│ ├── neuralNetworkGraph.jpg
│ ├── trialC1W4.jpg
│ └── twoHiddenLayersNN.jpg
│ ├── C2W1
│ └── trialC2W1.jpg
│ ├── C2W2
│ ├── cost.jpg
│ ├── gradientDescent.jpg
│ ├── temperature.jpg
│ └── trialC2W2.jpg
│ ├── C2W3
│ ├── normalizationFormula.jpg
│ └── trialC2W3.jpg
│ ├── C3W1
│ ├── cityOverlook.jpg
│ ├── newBirds.jpg
│ └── trialC3W1.jpg
│ ├── C3W2
│ ├── foggy.jpg
│ ├── trafficSignal.jpg
│ └── trialC3W2.jpg
│ ├── C4W1
│ ├── filter.jpg
│ ├── formula1.jpg
│ └── trialC4W1.jpg
│ ├── C4W2
│ ├── equation.jpg
│ ├── errorCompare.jpg
│ └── trialC4W2.jpg
│ ├── C4W3
│ ├── CNN_3.png
│ ├── IoU.jpg
│ ├── can.jpg
│ ├── car.jpg
│ ├── load.jpg
│ ├── predicted_boxes.jpg
│ └── trialC4W3.jpg
│ ├── C4W4
│ ├── siameseNetwork.jpg
│ └── trialC4W4.jpg
│ ├── C5W1
│ ├── 2.jpg
│ ├── 3.jpg
│ ├── 4.jpg
│ ├── 5.jpg
│ ├── 8.jpg
│ ├── 9.jpg
│ └── trialC5W1.jpg
│ ├── C5W2
│ ├── GloVeFunction.jpg
│ ├── trialC5W2.jpg
│ └── word2vecSoftmax.jpg
│ └── C5W3
│ ├── 1.jpg
│ ├── 6-1.jpg
│ ├── 6-2.jpg
│ ├── 6-3.jpg
│ ├── 6-4.jpg
│ └── trialC5W3.jpg
├── xmind
├── AIAndFinance
│ ├── AIAndFinance.png
│ ├── AIAndFinance.svg
│ ├── AIAndFinance.xmind
│ └── README.md
├── C1W2
│ ├── C1W2 神经网络的编程基础A.xmind
│ └── C1W2 神经网络的编程基础B.xmind
├── C1W3
│ ├── C1W3 浅层神经网络A.xmind
│ └── C1W3 浅层神经网络B.xmind
├── C1W4
│ ├── C1W4 深度神经网络A.xmind
│ └── C1W4 深度神经网络B.xmind
├── C2W1
│ ├── C2W1深度学习的实践A.xmind
│ └── C2W1深度学习的实践B.xmind
├── C2W2
│ └── C2W2 优化算法.xmind
├── C2W3
│ └── C2W3 超参数调试、正则化以及优化.xmind
├── C3W1
│ └── C3W1 机器学习(ML)策略(1).xmind
├── C3W2
│ └── C3W2 机器学习(ML)策略(2).xmind
└── C4W1
│ └── C4W1 卷积神经网络.xmind
└── 课件
├── C1 Week 1
├── C1W1L01 Welcome.pdf
├── C1W1L02 notes.pdf
├── C1W1L02 slides.pdf
├── C1W1L03 notes.pdf
├── C1W1L03.pdf
├── C1W1L04 notes.pdf
├── C1W1L04.pdf
├── C1W1L05 slides.pdf
└── C1W1L06 CourseResources.pdf
├── C1 Week 2
├── C1W2L01 notes.pdf
├── C1W2L01 slides.pdf
├── C1W2L02 notes.pdf
├── C1W2L02 slides.pdf
├── C1W2L03 notes.pdf
├── C1W2L04 slides.pdf
├── C1W2L05 slides.pdf
├── C1W2L07 slides.pdf
├── C1W2L09 slides.pdf
├── C1W2L11 slides.pdf
├── C1W2L13 slides.pdf
├── C1W2L15 slides.pdf
└── C1W2L16 slides.pdf
├── C1 Week 3
├── C1W3L01 slides.pdf
├── C1W3L010 slides.pdf
├── C1W3L011 slides.pdf
├── C1W3L02 slides.pdf
├── C1W3L04 slides.pdf
├── C1W3L06 slides.pdf
├── C1W3L07 slides.pdf
├── C1W3L08 slides.pdf
└── C1W3L09 slides.pdf
├── C1 Week 4
├── C1W4L01 DeepLLayerNN_annotated.pdf
├── C1W4L02 ForwardPropInDN_annotated.pdf
├── C1W4L03 notes.pdf
├── C1W4L04 notes.pdf
├── C1W4L05 notes.pdf
├── C1W4L06 slides.pdf
├── C1W4L07 notes.pdf
└── C1W4L08 notes.pdf
├── C2 Week 1
├── C2W1L01 notes.pdf
├── C2W1L02 notes.pdf
├── C2W1L03 pdf.pdf
├── C2W1L04 notes.pdf
├── C2W1L05 notes.pdf
├── C2W1L06 notes.pdf
├── C2W1L08 notes.pdf
├── C2W1L09 notes.pdf
├── C2W1L10 notes.pdf
├── C2W1L12 notes.pdf
└── C2W1L13 notes.pdf
├── C2 Week 2
├── C2W2L01 notes.pdf
├── C2W2L02 notes.pdf
├── C2W2L03 notes.pdf
├── C2W2L04 notes.pdf
├── C2W2L05 notes.pdf
├── C2W2L06 lecture.pdf
├── C2W2L07 notes.pdf
├── C2W2L08 notes.pdf
├── C2W2L09 notes.pdf
└── C2W2L10 notes.pdf
├── C2 Week 3
├── C2W3L01 notes.pdf
├── C2W3L02 notes.pdf
├── C2W3L03 notes.pdf
├── C2W3L04 notes.pdf
├── C2W3L05 notes.pdf
├── C2W3L06 notes.pdf
├── C2W3L07 notes.pdf
├── C2W3L08 notes.pdf
├── C2W3L09 notes.pdf
├── C2W3L10 notes.pdf
└── C2W3L11 notes.pdf
├── C3 Week 1
├── C3W1L01 notes.pdf
├── C3W1L02 notes.pdf
├── C3W1L02 supplemental notes.pdf
├── C3W1L03 notes.pdf
├── C3W1L03 supplemental notes.pdf
├── C3W1L04 notes.pdf
├── C3W1L04 supplemental notes.pdf
├── C3W1L05 notes.pdf
├── C3W1L05 supplemental notes.pdf
├── C3W1L06 slides.pdf
├── C3W1L06 supplemental notes.pdf
├── C3W1L07 notes.pdf
├── C3W1L07 supplemental notes.pdf
├── C3W1L08 notes.pdf
├── C3W1L08 supplemental notes.pdf
├── C3W1L09 notes.pdf
├── C3W1L09 supplemental notes.pdf
├── C3W1L10 notes.pdf
├── C3W1L10 supplemental notes.pdf
├── C3W1L11 notes.pdf
├── C3W1L11 supplemental notes.pdf
├── C3W1L12 notes.pdf
└── C3W1L12 supplemental notes.pdf
├── C3 Week 2
├── C3W2L01 slides.pdf
├── C3W2L02 notes.pdf
├── C3W2L03 notes.pdf
├── C3W2L04 notes.pdf
├── C3W2L05 notes.pdf
├── C3W2L06 notes.pdf
├── C3W2L07 notes.pdf
├── C3W2L08 notes.pdf
├── C3W2L09 notes.pdf
└── C3W2L10 notes.pdf
├── C4 Week 1
├── C4W1L01 slides.pdf
├── C4W1L02-EdgeDetectionExample.pdf
├── C4W1L03-MoreEdgeDetection.pdf
├── C4W1L04-Padding.pdf
├── C4W1L05-StridedConv.pdf
├── C4W1L06-ConvolutionsOverVolumes.pdf
├── C4W1L08-SimpleCNNExample.pdf
├── C4W1L09-PoolingLayers.pdf
├── C4W1L10-CNNExample.pdf
└── C4W1L11-WhyConvs.pdf
├── C4 Week 2
├── C4W2L01-WhyLookAtCaseStudies.pdf
├── C4W2L02-ClassicNetworks.pdf
├── C4W2L03-ResNets.pdf
├── C4W2L05-NetworkinNetworkand1x1.pdf
├── C4W2L06-InceptionNetworkMotivation.pdf
└── C4W2L07-InceptionNetwork.pdf
├── C4 Week 3
├── C4W3L01-ObjectLocalization.pdf
├── C4W3L02-LandmarkDetection.pdf
├── C4W3L03-ObjectDetection.pdf
├── C4W3L04-ConvImpSlidingWindows.pdf
├── C4W3L06-InstersecOverUnion.pdf
├── C4W3L07-NonmaxSuppression.pdf
├── C4W3L08-AnchorBoxes.pdf
├── C4W3L09-YOLOAlgorithm.pdf
└── C4W3L10-RegionProposals.pdf
├── C4 Week 4
├── C4W4L01-WhatIsFaceRecog.pdf
├── C4W4L02-OneShotLearning.pdf
├── C4W4L03-SiameseNetwork.pdf
├── C4W4L04-TripletLoss.pdf
├── C4W4L05-FaceVerifABinaryClass.pdf
├── C4W4L06-WhatIsNeuralTransferStyle.pdf
├── C4W4L07-WhatAreDeepCNsLearning.pdf
├── C4W4L08-CostFunction.pdf
├── C4W4L09-ContentCostFunction.pdf
├── C4W4L10-StyleCostFunction.pdf
└── C4W4L11-1D3DGeneralizations.pdf
├── C5 Week 1
├── C5W1L01.pdf
├── C5W1L02.pdf
├── C5W1L03.pdf
├── C5W1L04.pdf
├── C5W1L05.pdf
├── C5W1L06.pdf
├── C5W1L07.pdf
├── C5W1L08.pdf
├── C5W1L09.pdf
├── C5W1L10.pdf
└── C5W1L11.pdf
└── C5 Week 3
├── C5W3L01.pdf
├── C5W3L02.pdf
├── C5W3L03.pdf
├── C5W3L04.pdf
├── C5W3L05.pdf
├── C5W3L06.pdf
├── C5W3L07.pdf
├── C5W3L08.pdf
├── C5W3L09.pdf
├── C5W3L10.pdf
└── C5W3L11.pdf
/.gitignore:
--------------------------------------------------------------------------------
1 | .DS_Store
2 | .idea
3 | *.py[cod]
4 | *.so
5 | *.egg
6 | *.egg-info
7 | dist
8 | build
9 |
--------------------------------------------------------------------------------
/README.md:
--------------------------------------------------------------------------------
1 |
《深度学习》学习笔记(xmind)、代码视频讲解
2 |
3 | ## 笔记
4 |
5 | xmind整理的笔记,持续更新中...
6 | [](./xmind/)
7 |
8 | - [**C1W2 神经网络的编程基础A.xmind**](./xmind/C1W2/C1W2%20神经网络的编程基础A.xmind)
9 | - [**C1W2 神经网络的编程基础B.xmind**](./xmind/C1W2/C1W2%20神经网络的编程基础B.xmind)
10 | - [**C1W3 浅层神经网络A.xmind**](./xmind/C1W3/C1W3%20浅层神经网络A.xmind)
11 | - [**C1W3 浅层神经网络B.xmind**](./xmind/C1W3/C1W3%20浅层神经网络B.xmind)
12 | - [**C1W4 深层神经网络A.xmind**](./xmind/C1W4/C1W4%20深度神经网络A.xmind)
13 | - [**C1W4 深层神经网络B.xmind**](./xmind/C1W4/C1W4%20深度神经网络B.xmind)
14 | - [**C2W1 深度学习的实践A.xmind**](./xmind/C2W1/C2W1深度学习的实践A.xmind)
15 | - [**C2W1 深度学习的实践B.xmind**](./xmind/C2W1/C2W1深度学习的实践B.xmind)
16 | - [**C2W2 优化算法.xmind**](./xmind/C2W2/C2W2%20优化算法.xmind)
17 | - [**C2W3 超参数调试、正则化以及优化.xmind**](./xmind/C2W3/C2W3%20超参数调试、正则化以及优化.xmind)
18 | - [**C3W1 机器学习(ML)策略(1).xmind**](./xmind/C3W1/C3W1%20机器学习(ML)策略(1).xmind)
19 | - [**C3W2 机器学习(ML)策略(2).xmind**](./xmind/C3W2/C3W2%20机器学习(ML)策略(2).xmind)
20 | - [**C4W1 卷积神经网络.xmind**](./xmind/C4W1/C4W1%20卷积神经网络.xmind)
21 | - [**上海财经大学金成博士分享:利用AI做金融市场预测靠谱吗**](./xmind/AIAndFinance/)
22 |
23 | ## 测验
24 |
25 | ---
26 | 英文版本
27 | - [**C1W1 深度学习引言【无答案】**](./trials/C1W1_noAnswers_EnVer.md)
28 | - [**C1W2 神经网络的编程基础【无答案】**](./trials/C1W2_noAnswers_EnVer.md)
29 | - [**C1W3 浅层神经网络【无答案】**](./trials/C1W3_noAnswers_EnVer.md)
30 | - [**C1W4 深层神经网络【无答案】**](./trials/C1W4_noAnswers_EnVer.md)
31 | - [**C2W1 深度学习的实践【无答案】**](./trials/C2W1_noAnswers_EnVer.md)
32 | - [**C2W2 优化算法【无答案】**](./trials/C2W2_noAnswers_EnVer.md)
33 | - [**C2W3 超参数调整、批量标准化、编程框架【无答案】**](./trials/C2W3_noAnswers_EnVer.md)
34 | - [**C3W1 和平之城中的鸟类识别(案例研究)【无答案】**](./trials/C3W1_noAnswers_EnVer.md)
35 | - [**C3W2 自动驾驶(案例研究)【无答案】**](./trials/C3W2_noAnswers_EnVer.md)
36 | - [**C4W1 卷积神经网络的基本知识【无答案】**](./trials/C4W1_noAnswers_EnVer.md)
37 | - [**C4W2 深度卷积网络模型【无答案】**](./trials/C4W2_noAnswers_EnVer.md)
38 | - [**C4W3 目标检测算法【无答案】**](./trials/C4W3_noAnswers_EnVer.md)
39 | - [**C4W4 人脸识别与神经风格迁移【无答案】**](./trials/C4W4_noAnswers_EnVer.md)
40 | - [**C5W1 循环神经网络【无答案】**](./trials/C5W1_noAnswers_EnVer.md)
41 | - [**C5W2 自然语言处理与词嵌入【无答案】**](./trials/C5W2_noAnswers_EnVer.md)
42 | - [**C5W3 序列模型与注意力机制【无答案】**](./trials/C5W3_noAnswers_EnVer.md)
43 |
44 | ---
45 | 中文版本
46 | - [**C1W1 深度学习引言【无答案】**](./trials/C1W1_noAnswers.md)
47 | - [**C1W2 神经网络的编程基础【无答案】**](./trials/C1W2_noAnswers.md)
48 | - [**C1W3 浅层神经网络【无答案】**](./trials/C1W3_noAnswers.md)
49 | - [**C1W4 深层神经网络【无答案】**](./trials/C1W4_noAnswers.md)
50 | - [**C2W1 深度学习的实践【无答案】**](./trials/C2W1_noAnswers.md)
51 | - [**C2W2 优化算法【无答案】**](./trials/C2W2_noAnswers.md)
52 | - [**C2W3 超参数调整、批量标准化、编程框架【无答案】**](./trials/C2W3_noAnswers.md)
53 | - [**C3W1 和平之城中的鸟类识别(案例研究)【无答案】**](./trials/C3W1_noAnswers.md)
54 | - [**C3W2 自动驾驶(案例研究)【无答案】**](./trials/C3W2_noAnswers.md)
55 | - [**C4W1 卷积神经网络的基本知识【无答案】**](./trials/C4W1_noAnswers.md)
56 | - [**C4W2 深度卷积网络模型【无答案】**](./trials/C4W2_noAnswers.md)
57 | - [**C4W3 目标检测算法【无答案】**](./trials/C4W3_noAnswers.md)
58 | - [**C4W4 人脸识别与神经风格迁移【无答案】**](./trials/C4W4_noAnswers.md)
59 | - [**C5W1 循环神经网络【无答案】**](./trials/C5W1_noAnswers.md)
60 | - [**C5W2 自然语言处理与词嵌入【无答案】**](./trials/C5W2_noAnswers.md)
61 | - [**C5W3 序列模型与注意力机制【无答案】**](./trials/C5W3_noAnswers.md)
62 | ---
63 | 中文版本答案
64 | - [**C1W1 深度学习引言【有答案】**](./trials/C1W1_withAnswers.md)
65 | - [**C1W2 神经网络的编程基础【有答案】**](./trials/C1W2_withAnswers.md)
66 | - [**C1W3 浅层神经网络【有答案】**](./trials/C1W3_withAnswers.md)
67 | - [**C1W4 深层神经网络【有答案】**](./trials/C1W4_withAnswers.md)
68 | - [**C2W1 深度学习的实践【有答案】**](./trials/C2W1_withAnswers.md)
69 | - [**C2W2 优化算法【有答案】**](./trials/C2W2_withAnswers.md)
70 | - [**C2W3 超参数调整、批量标准化、编程框架【有答案】**](./trials/C2W3_withAnswers.md)
71 | - [**C3W1 和平之城中的鸟类识别(案例研究)【有答案】**](./trials/C3W1_withAnswers.md)
72 | - [**C3W2 自动驾驶(案例研究)【有答案】**](./trials/C3W2_withAnswers.md)
73 | - [**C4W1 卷积神经网络的基本知识【有答案】**](./trials/C4W1_withAnswers.md)
74 | - [**C4W2 深度卷积网络模型【有答案】**](./trials/C4W2_withAnswers.md)
75 | - [**C4W3 目标检测算法【有答案】**](./trials/C4W3_withAnswers.md)
76 | - [**C4W4 人脸识别与神经风格迁移【有答案】**](./trials/C4W4_withAnswers.md)
77 | - [**C5W1 循环神经网络【有答案】**](./trials/C5W1_withAnswers.md)
78 | - [**C5W2 自然语言处理与词嵌入【有答案】**](./trials/C5W2_withAnswers.md)
79 | - [**C5W3 序列模型与注意力机制【有答案】**](./trials/C5W3_withAnswers.md)
80 | ---
81 |
82 | ## 代码讲解视频(bilibili)
83 | **bilibili主页** : https://space.bilibili.com/10410626
84 | **本仓库仅提供解决思路, 想撸代码的同学可于coursera购买或申请免费的编程环境~**
85 |
86 | [](https://space.bilibili.com/10410626)
87 | - [**C1W2 编程作业1:构建一个逻辑回归分类器来识别猫**](https://www.bilibili.com/video/av50307869)
88 | - [**C1W3 编程作业2:通过一个隐藏层的神经网络来做平面数据的分类**](https://www.bilibili.com/video/av51486088)
89 | - [**C1W4 编程作业3:构建深度神经网络做图像处理**](https://www.bilibili.com/video/av52785212)
90 | - [**C2W3 编程作业4:TensorFlow实战**](https://www.bilibili.com/video/av54668655)
91 | - [**C4W1 编程作业5:一步步构建卷积神经网络**](https://www.bilibili.com/video/av56250374)
92 | - [**C4W2 编程作业6:利用Keras框架构建残差网络**](https://www.bilibili.com/video/av57062905)
93 | - [**C4W3 编程作业7:自动驾驶—目标检测(yolo模型)**](https://www.bilibili.com/video/av58025877)
94 | - [**C4W4 编程作业8:特殊应用(人脸识别和神经风格迁移)**](https://www.bilibili.com/video/av58152812)
95 | - [**C5W1 编程作业9:字符级语言模型 - 恐龙岛**](https://www.bilibili.com/video/av59087993)
96 |
97 | ## 课程地址
98 |
99 | [deeplearning.ai - 主页 - 网易云课堂](https://study.163.com/provider/2001053000/index.htm)
100 |
--------------------------------------------------------------------------------
/assets/bilibiliDemo.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/assets/bilibiliDemo.jpg
--------------------------------------------------------------------------------
/assets/xmindDemo.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/assets/xmindDemo.jpg
--------------------------------------------------------------------------------
/guide/guide.md:
--------------------------------------------------------------------------------
1 | 学习指南
2 |
3 | ## 如何获取每日任务
4 |
5 |
6 | 
7 | 
8 | 1. 打开"深度之眼"【公众号】,点击 训练营-【小程序】
9 | 2. 选择【对应课程】进入对应的训练营小程序
10 | 3. 选择顶端【日期】,查看【每日任务】
11 | ```diff
12 | 第一次进入这个小程序的同学找到【最早的日期】,认真观看【开营仪式】)
13 | ```
14 | 4. 每日打卡任务可以【全文复制】下来,将文字发送到电脑端方便操作
15 |
16 |
17 | ## 编程环境配置
18 |
19 | 实验环境推荐使用Linux或者Mac系统,以下环境搭建方法皆适用:
20 | - [**本地配置【非常重要】**](https://github.com/learning511/cs224n-learning-camp/blob/master/environment.md)
21 |
22 | ```diff
23 | 前四次编程作业无需用到tensorflow
24 | 同学们可先安装好ipython-notebook
25 | 待第五次编程作业时再安装tensorflow
26 | 安装方式不拘泥于上述文档,可搜索适合自己的安装方式
27 | ```
28 |
29 | ## 编程作业怎么做?
30 |
31 | 1.打开 [**https://github.com/greebear/deeplearning.ai-notes**](https://github.com/learning511/cs224n-learning-camp/blob/master/environment.md)找到本次作业,或通过小程序中发布的网盘链接下载编程作业。
32 |
33 |
34 | 
35 |
36 | 
37 |
38 | 2.下载并解压压缩包,可以看到这样的目录(以第一次编程作业为例)。
39 | 
40 |
41 | 3.第一次编程作业的目录列表如下图所示,红框处为本次作业需要填写代码的文件。
42 |
43 | 
44 |
45 | 4.打开 **ipython(jupyter) notebook** ,进入后如下图所示。红框处为第一次编程作业"C1W2 编程作业1:构建一个逻辑回归分类器来识别猫"
46 |
47 |
48 | 
49 |
50 | 5.点击进入后,可以看到许多代码,找到下面的【注释内容】,我们需要在中间填入代码。
51 |
52 |
53 | ### START CODE HERE ###
54 | ### END CODE HERE ###
55 |
56 |
57 | 比如:
58 |
59 | 
60 |
61 | 我们需要修改None为自己编程的代码
62 |
63 | 
64 |
65 | 6.运行代码块后,查看输出结果,与下面的答案校验。
66 | 
67 |
68 | 7.恭喜你,答对了!
69 |
70 |
--------------------------------------------------------------------------------
/guide/guideAssets/assignmentTree.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/assignmentTree.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/checkAnswer.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/checkAnswer.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/completeCode.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/completeCode.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/downloadAssignmet.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/downloadAssignmet.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/locateAssignment.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/locateAssignment.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/locateToCode.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/locateToCode.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/miniApp1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/miniApp1.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/miniApp2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/miniApp2.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/miniApp3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/miniApp3.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/miniApp4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/miniApp4.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/openIPython.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/openIPython.jpg
--------------------------------------------------------------------------------
/guide/guideAssets/uzipAssignment.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/guide/guideAssets/uzipAssignment.jpg
--------------------------------------------------------------------------------
/trials/C1W1_noAnswers.md:
--------------------------------------------------------------------------------
1 | C1W1 深度学习引言
2 |
3 | ## 测验
4 | ___
5 | > 1、“AI是新电力”这个比喻是指什么?
6 | - [ ] 就像100年前产生电能一样,AI正在改变很多的行业。
7 | - [ ] AI为我们的家庭和办公室的个人设备供电,类似于电力。
8 | - [ ] 通过“智能电网”,AI提供新的电能。
9 | - [ ] AI在计算机上运行,并由电力驱动,但是它正在让以前的计算机不能做的事情变为可能。
10 | ___
11 | > 2、哪些是深度学习快速发展的原因? (三个选项)
12 | - [ ] 我们现在可以获得更多的数据。
13 | - [ ] 深度学习已经取得了重大的进展,比如在在线广告、语音识别和图像识别方面有了很多的应用。
14 | - [ ] 神经网络是一个全新的领域。
15 | - [ ] 现在我们有了更好更快的计算能力。
16 | ___
17 | > 3、回想一下关于不同的机器学习思想的迭代图。下面哪(个/些)陈述是正确的?
18 |
19 | 
20 | - [ ] 能够让深度学习工程师快速地实现自己的想法。
21 | - [ ] 在更好更快的计算机上能够帮助一个团队减少迭代(训练)的时间。
22 | - [ ] 在数据量很多的数据集上训练上的时间要快于小数据集。
23 | - [ ] 使用更新的深度学习算法可以使我们能够更快地训练好模型(即使更换CPU / GPU硬件)。
24 | ___
25 | > 4、当一个经验丰富的深度学习工程师在处理一个新的问题的时候,他们通常可以利用先前的经验来在第一次尝试中训练一个表现很好的模型,而不需要通过不同的模型迭代多次从而选择一个较好的模型,这个说法是正确的吗?
26 | - [ ] 正确
27 | - [ ] 错误
28 | ___
29 | > 5、这些图中的哪一个表示ReLU激活功能?
30 | - [ ] 图1
31 |
32 | 
33 | - [ ] 图2
34 |
35 | 
36 | - [ ] 图3
37 |
38 | 
39 |
40 | - [ ] 图4
41 |
42 | 
43 |
44 | ___
45 | > 6、用于识别猫的图像是“结构化”数据的一个例子,因为它在计算机中被表示为结构化矩阵,是真的吗?
46 | - [ ] 正确
47 | - [ ] 错误
48 | ___
49 | > 7、人口统计数据集, 包含不同城市人口、人均GDP、经济增长的数据集是“非结构化”数据的一个例子,因为它包含来自不同来源的数据,是真的吗?
50 | - [ ] 正确
51 | - [ ] 错误
52 | ___
53 |
54 | > 8、为什么在上RNN(循环神经网络)可以应用机器翻译将英语翻译成法语?
55 | - [ ] 因为它可以被用做监督学习。
56 | - [ ] 严格意义上它比卷积神经网络(CNN)效果更好。
57 | - [ ] 它比较适合用于当输入/输出是一个序列的时候(例如:一个单词序列)
58 | - [ ] RNNs代表递归过程:想法->编码->实验->想法->…
59 | ___
60 | > 9、在我们手绘的这张图中,横轴(x轴)和纵轴(y轴)代表什么?
61 |
62 | 
63 | - [ ] x轴是数据量; y轴(垂直轴)训练模型大小
64 | - [ ] x轴是数据量; y轴(垂直轴)是算法的性能表现
65 | - [ ] x轴是算法的性能表现; y轴(垂直轴)是数据量
66 | - [ ] x轴是算法的输入; y轴(垂直轴)算法的输出
67 | ___
68 | > 10、假设上一个问题图中描述的是准确的(并且希望您的轴标签正确),以下哪一项是正确的?
69 | - [ ] 减小神经网络的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
70 | - [ ] 增加训练集的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
71 | - [ ] 减小训练集的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
72 | - [ ] 增加神经网络的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
73 | ___
74 |
75 |
--------------------------------------------------------------------------------
/trials/C1W1_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C1W1_withAnswers.md:
--------------------------------------------------------------------------------
1 | C1W1 深度学习引言
2 |
3 | ## 测验
4 | ___
5 | > 1、“AI是新电力”这个比喻是指什么?
6 | - [x] 就像100年前产生电能一样,AI正在改变很多的行业。
7 | ```diff
8 | AI改变了许多行业如汽车工业、农业产业、供应链等等
9 | ```
10 | - [ ] AI为我们的家庭和办公室的个人设备供电,类似于电力。
11 | - [ ] 通过“智能电网”,AI提供新的电能。
12 | - [ ] AI在计算机上运行,并由电力驱动,但是它正在让以前的计算机不能做的事情变为可能。
13 | ___
14 | > 2、哪些是深度学习快速发展的原因? (三个选项)
15 | - [x] 我们现在可以获得更多的数据。
16 | ```diff
17 | 我们社会的数字化发展在这方面发挥了巨大的作用。
18 | ```
19 | - [x] 深度学习已经取得了重大的进展,比如在在线广告、语音识别和图像识别方面有了很多的应用。
20 | ```diff
21 | 这些例子在第3课中讨论过。
22 | ```
23 | - [ ] 神经网络是一个全新的领域。
24 | - [x] 现在我们有了更好更快的计算能力。
25 | ```diff
26 | 硬件的发展,特别是GPU计算的发展,大大提高了深度学习算法的性能。
27 | ```
28 | ___
29 | > 3、回想一下关于不同的机器学习思想的迭代图。下面哪(个/些)陈述是正确的?
30 |
31 | 
32 | - [x] 能够让深度学习工程师快速地实现自己的想法。
33 | ```diff
34 | 第4课中详细讨论过
35 | ```
36 | - [x] 在更好更快的计算机上能够帮助一个团队减少迭代(训练)的时间。
37 | ```diff
38 | 第4课中详细讨论过
39 | ```
40 | - [ ] 在数据量很多的数据集上训练上的时间要快于小数据集。
41 | - [x] 使用更新的深度学习算法可以使我们能够更快地训练好模型(即使更换CPU / GPU硬件)。
42 | ```diff
43 | 例如,课上讨论了如何从Sigmoid转换为Relu激活函数,从而使训练过程更快。
44 | ```
45 | ___
46 | > 4、当一个经验丰富的深度学习工程师在处理一个新的问题的时候,他们通常可以利用先前的经验来在第一次尝试中训练一个表现很好的模型,而不需要通过不同的模型迭代多次从而选择一个较好的模型,这个说法是正确的吗?
47 | - [ ] 正确
48 | - [x] 错误
49 | ```diff
50 | 找到模型的特征是获得良好模型性能的关键。尽管经验可以帮助我们,但是仍然需要多次迭代才能建立一个好的模型。
51 | ```
52 | ___
53 | > 5、这些图中的哪一个表示ReLU激活功能?
54 | - [ ] 图1
55 |
56 | 
57 | - [ ] 图2
58 |
59 | 
60 | - [x] 图3
61 |
62 | 
63 |
64 |
65 | ```diff
66 | 这便是Relu激活函数,在神经网络中最常用的激活函数。
67 | ```
68 |
69 | - [ ] 图4
70 |
71 | 
72 |
73 | ___
74 | > 6、用于识别猫的图像是“结构化”数据的一个例子,因为它在计算机中被表示为结构化矩阵,是真的吗?
75 | - [ ] 正确
76 | - [x] 错误
77 | ```diff
78 | 解释: 用于猫识别的图像是“非结构化”数据的一个例子。
79 | ```
80 | ___
81 | > 7、人口统计数据集, 包含不同城市人口、人均GDP、经济增长的数据集是“非结构化”数据的一个例子,因为它包含来自不同来源的数据,是真的吗?
82 | - [ ] 正确
83 | - [x] 错误
84 | ```diff
85 | 解释: 一个人口统计数据集,包含了不同城市的人口、人均GDP、经济增长的统计数据,是一个与图像、音频或文本数据集相反的“结构化”数据的例子。
86 | ```
87 | ___
88 |
89 | > 8、为什么在上RNN(循环神经网络)可以应用机器翻译将英语翻译成法语?
90 | - [x] 因为它可以被用做监督学习。
91 | ```diff
92 | 我们可以在许多句子中训练x(英语)和y(法语)。
93 | ```
94 | - [ ] 严格意义上它比卷积神经网络(CNN)效果更好。
95 | - [x] 它比较适合用于当输入/输出是一个序列的时候(例如:一个单词序列)
96 | ```diff
97 | RNN可以实现从英语单词序列映射到法语单词序列。
98 | ```
99 | - [ ] RNNs代表递归过程:想法->编码->实验->想法->…
100 | ___
101 | > 9、在我们手绘的这张图中,横轴(x轴)和纵轴(y轴)代表什么?
102 |
103 | 
104 | - [ ] x轴是数据量; y轴(垂直轴)训练模型大小
105 | - [x] x轴是数据量; y轴(垂直轴)是算法的性能表现
106 | - [ ] x轴是算法的性能表现; y轴(垂直轴)是数据量
107 | - [ ] x轴是算法的输入; y轴(垂直轴)算法的输出
108 | ___
109 | > 10、假设上一个问题图中描述的是准确的(并且希望您的轴标签正确),以下哪一项是正确的?
110 | - [ ] 减小神经网络的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
111 | - [x] 增加训练集的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
112 | ```diff
113 | 将更多的数据引入模型总是有益的。
114 | ```
115 | - [ ] 减小训练集的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
116 | - [x] 增加神经网络的大小通常不会负面影响算法的性能,并且可能对性能提升有很大帮助。
117 | ```diff
118 | 根据第9题图片中的趋势,大网络通常比小网络性能更好。
119 | ```
120 | ___
121 |
122 |
--------------------------------------------------------------------------------
/trials/C1W2_noAnswers.md:
--------------------------------------------------------------------------------
1 | C1W2 神经网络编程基础
2 |
3 | ## 测验
4 | ___
5 | > 1、神经元节点计算什么?
6 | - [ ] 神经元节点先计算线性函数(z = Wx + b),再计算激活函数。
7 | - [ ] 神经元节点先计算激活函数,再计算线性函数(z = Wx + b)。
8 | - [ ] 神经元节点计算函数g,函数g计算(Wx + b)。
9 | - [ ] 在将输出应用于激活函数之前,神经元节点计算所有特征的平均值。
10 | ___
11 | > 2、下面哪一个是Logistic损失?
12 | - [ ] 
13 | - [ ] 
14 | - [ ] 
15 | - [ ] 
16 | ___
17 | > 3、假设img是一个(32, 32, 3)数组,具有3个颜色通道:红色、绿色和蓝色的32x32像素的图像。 如何将其重新转换为列向量?
18 | - [ ] x = img.reshape((3, 32 * 32))
19 | - [ ] x = img.reshape((3, 32 * 32))
20 | - [ ] x = img.reshape((32 * 32, 3))
21 | - [ ] x = img.reshape((32 * 32 * 3, 1))
22 | ___
23 | > 4、看一下下面的这两个随机数组“a”和“b”
24 |
25 | > a = np.random.randn(2, 3) # a.shape = (2, 3)
26 | > b = np.random.randn(2, 1) # b.shape = (2, 1)
27 | > c = a + b
28 | > 请问数组c的维度是多少?
29 |
30 | - [ ] c.shape = (2, 1)
31 | - [ ] c.shape = (3, 2)
32 | - [ ] 无法进行计算,因为大小不匹配。将会报错。
33 | - [ ] c.shape = (2, 3)
34 | ___
35 | > 5、看一下下面的这两个随机数组“a”和“b”
36 |
37 | > a = np.random.randn(4, 3) # a.shape = (4, 3)
38 | > b = np.random.randn(3, 2) # b.shape = (3, 2)
39 | > c = a * b
40 | > 请问数组c的维度是多少?
41 | - [ ] c.shape = (4, 2)
42 | - [ ] c.shape = (4, 3)
43 | - [ ] c.shape = (3, 3)
44 | - [ ] 无法进行计算,因为大小不匹配。将会报错。
45 | ___
46 | > 6、假设你的每一个实例有n_x个输入特征,想一下在中,X的维度是多少?
47 | - [ ] (1, m)
48 | - [ ] (m, 1)
49 | - [ ] (m, n_x)
50 | - [ ] (n_x, m)
51 | ___
52 | > 7、回想一下,np.dot(a,b) 在a和b上执行矩阵乘法,而 a * b 执行元素方式的乘法。
53 | > 看下面的这两个随机数组“a”和“b”:
54 |
55 | > a = np.random.randn(12288, 150) # a.shape = (12288, 150)
56 | > b = np.random.randn(150, 45) # b.shape = (150, 45)
57 | > c = np.dot(a, b)
58 | > 请问c的维度是多少?
59 | - [ ] c.shape = (150,150)
60 | - [ ] c.shape = (12288, 150)
61 | - [ ] 无法进行计算,因为大小不匹配。将会报错。
62 | - [ ] c.shape = (12288, 45)
63 | ___
64 |
65 | > 8、看下面的代码片段:
66 |
67 | > # a.shape = (3,4)
68 | > # b.shape = (4,1)
69 | > for i in range(3):
70 | > for j in range(4):
71 | > c[i][j] = a[i][j] + b[j]
72 | > 请问要怎么把它们向量化?
73 | - [ ] c = a.T + b.T
74 | - [ ] c = a + b
75 | - [ ] c = a + b.T
76 | - [ ] c = a.T + b
77 | ___
78 | > 9、看下面的代码:
79 |
80 | > a = np.random.randn(3, 3)
81 | > b = np.random.randn(3, 1)
82 | > c = a * b
83 | > 请问c的维度会是多少?
84 | - [ ] 这里将会使用广播机制,b会被复制三次,就会变成(3, 3),“*”代表对应元素乘法。因此c.shape将是(3,3)
85 | - [ ] 这里将会使用广播机制,b会被复制三次,就会变成(3, 3),“*”代表两个3x3矩阵的矩阵乘法运算。因此c.shape将是(3,3)
86 | - [ ] 这里将会使3x3矩阵A与3x1矢量相乘,从而产生3x1矢量。因此c.shape将是(3,1)。
87 | - [ ] 这里将会报错,因为不能使用“*”对这两个矩阵进行操作。需要使用np.dot(a,b)。
88 | ___
89 | > 10、看下面的计算图:
90 |
91 | >
92 |
93 | > 请问输出是什么?
94 | - [ ] J = (c - 1) * (b + a)
95 | - [ ] J = (a - 1) * (b + c)
96 | - [ ] J = a * b + b * c + a * c
97 | - [ ] J = (b - 1) * (c + a)
98 | ___
99 |
100 |
--------------------------------------------------------------------------------
/trials/C1W2_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C1W2_withAnswers.md:
--------------------------------------------------------------------------------
1 | C1W2 神经网络编程基础
2 |
3 | ## 测验
4 | ___
5 | > 1、神经元节点计算什么?
6 | - [x] 神经元节点先计算线性函数(z = Wx + b),再计算激活函数。
7 | ```diff
8 | 我们通常说神经元的输出是a=g(wx+b),其中g是激活功能(sigmoid,tanh,relu,…)
9 | ```
10 | - [ ] 神经元节点先计算激活函数,再计算线性函数(z = Wx + b)。
11 | - [ ] 神经元节点计算函数g,函数g计算(Wx + b)。
12 | - [ ] 在将输出应用于激活函数之前,神经元节点计算所有特征的平均值。
13 | ___
14 | > 2、下面哪一个是Logistic损失?
15 | - [ ] 
16 | - [x] 
17 | ```diff
18 | 这便是课上讲到的逻辑损失函数
19 | ```
20 | - [ ] 
21 | - [ ] 
22 | ___
23 | > 3、假设img是一个(32, 32, 3)数组,具有3个颜色通道:红色、绿色和蓝色的32x32像素的图像。 如何将其重新转换为列向量?
24 | - [ ] x = img.reshape((3, 32 * 32))
25 | - [ ] x = img.reshape((3, 32 * 32))
26 | - [ ] x = img.reshape((32 * 32, 3))
27 | - [x] x = img.reshape((32 * 32 * 3, 1))
28 | ___
29 | > 4、看一下下面的这两个随机数组“a”和“b”
30 |
31 | > a = np.random.randn(2, 3) # a.shape = (2, 3)
32 | > b = np.random.randn(2, 1) # b.shape = (2, 1)
33 | > c = a + b
34 | > 请问数组c的维度是多少?
35 |
36 | - [ ] c.shape = (2, 1)
37 | - [ ] c.shape = (3, 2)
38 | - [ ] 无法进行计算,因为大小不匹配。将会报错。
39 | - [x] c.shape = (2, 3)
40 | ```diff
41 | 这便是广播机制。b(列向量)被复制3次,这样它的每一列就可以与a的每一列求和。
42 | ```
43 |
44 | ___
45 | > 5、看一下下面的这两个随机数组“a”和“b”
46 |
47 | > a = np.random.randn(4, 3) # a.shape = (4, 3)
48 | > b = np.random.randn(3, 2) # b.shape = (3, 2)
49 | > c = a * b
50 | > 请问数组c的维度是多少?
51 | - [ ] c.shape = (4, 2)
52 | - [ ] c.shape = (4, 3)
53 | - [ ] c.shape = (3, 3)
54 | - [x] 无法进行计算,因为大小不匹配。将会报错。
55 | ```diff
56 | numpy中的“*”运算符表示元素乘法。它不同于“np.dot()”。如果你尝试“c=np.dot(a,b)”,你会得到c.shape=(4,2)。
57 | ```
58 | ___
59 | > 6、假设你的每一个实例有n_x个输入特征,想一下在中,X的维度是多少?
60 | - [ ] (1, m)
61 | - [ ] (m, 1)
62 | - [ ] (m, n_x)
63 | - [x] (n_x, m)
64 | ___
65 | > 7、回想一下,np.dot(a,b) 在a和b上执行矩阵乘法,而 a * b 执行元素方式的乘法。
66 | > 看下面的这两个随机数组“a”和“b”:
67 |
68 | > a = np.random.randn(12288, 150) # a.shape = (12288, 150)
69 | > b = np.random.randn(150, 45) # b.shape = (150, 45)
70 | > c = np.dot(a, b)
71 | > 请问c的维度是多少?
72 | - [ ] c.shape = (150,150)
73 | - [ ] c.shape = (12288, 150)
74 | - [ ] 无法进行计算,因为大小不匹配。将会报错。
75 | - [x] c.shape = (12288, 45)
76 | ```diff
77 | 谨记np.dot(a,b)运算后的变量的shape为(a的行数, b的列数)。因为“a的列数=150=b的行数”,所以才能运算。
78 | ```
79 | ___
80 |
81 | > 8、看下面的代码片段:
82 |
83 | > # a.shape = (3,4)
84 | > # b.shape = (4,1)
85 | > for i in range(3):
86 | > for j in range(4):
87 | > c[i][j] = a[i][j] + b[j]
88 | > 请问要怎么把它们向量化?
89 | - [ ] c = a.T + b.T
90 | - [ ] c = a + b
91 | - [x] c = a + b.T
92 | - [ ] c = a.T + b
93 | ___
94 | > 9、看下面的代码:
95 |
96 | > a = np.random.randn(3, 3)
97 | > b = np.random.randn(3, 1)
98 | > c = a * b
99 | > 请问c的维度会是多少?
100 | - [x] 这里将会使用广播机制,b会被复制三次,就会变成(3, 3),“*”代表对应元素乘法。因此c.shape将是(3,3)
101 | - [ ] 这里将会使用广播机制,b会被复制三次,就会变成(3, 3),“*”代表两个3x3矩阵的矩阵乘法运算。因此c.shape将是(3,3)
102 | - [ ] 这里将会使3x3矩阵A与3x1矢量相乘,从而产生3x1矢量。因此c.shape将是(3,1)。
103 | - [ ] 这里将会报错,因为不能使用“*”对这两个矩阵进行操作。需要使用np.dot(a,b)。
104 | ___
105 | > 10、看下面的计算图:
106 |
107 | >
108 |
109 | > 请问输出是什么?
110 | - [ ] J = (c - 1) * (b + a)
111 | - [x] J = (a - 1) * (b + c)
112 | ```diff
113 | J = u + v - w = a * b + a * c - (b + c) = a * (b + c) - (b + c) = (a - 1) * (b + c).
114 | ```
115 | - [ ] J = a * b + b * c + a * c
116 | - [ ] J = (b - 1) * (c + a)
117 | ___
118 |
119 |
--------------------------------------------------------------------------------
/trials/C1W3_noAnswers.md:
--------------------------------------------------------------------------------
1 | C1W3 浅层神经网络
2 |
3 | ## 测验
4 | ___
5 | > 1、以下哪一项是正确的?
6 | - [ ] 是第2个训练样本第12层的激活输出向量。
7 | - [ ] X是一个矩阵,其中每一行都是一个训练样本。
8 | - [ ]  是第4个训练样本第2层的激活输出值。
9 | - [ ]  是第2层第4个神经元的激活输出值。
10 | - [ ] 是第2层的激活向量。
11 | - [ ] 是第12个训练样本第2层的激活输出向量。
12 | - [ ] X是一个矩阵,其中每一列都是一个训练样本。
13 | ___
14 | > 2、tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中,这对于下一层是更好的选择,请问正确吗?
15 | - [ ] 正确
16 | - [ ] 错误
17 | ___
18 | > 3、其中哪一个是第 l 层向前传播的正确向量化实现,其中1 ≤ l ≤ L
19 | - [ ] A.
20 |
21 | 
22 | - [ ] B.
23 |
24 | 
25 | - [ ] C.
26 |
27 | 
28 | - [ ] D.
29 |
30 | 
31 | ___
32 | > 4、你正在构建一个识别黄瓜(y = 1)与西瓜(y = 0)的二元分类器。 你会推荐哪一种激活函数用于输出层?
33 | - [ ] ReLU
34 | - [ ] Leaky ReLU
35 | - [ ] sigmoid
36 | - [ ] tanh
37 | ___
38 | > 5、看下面的代码:
39 |
40 | > A = np.random.randn(4,3)
41 | > B = np.sum(A, axis = 1, keepdims = True)
42 | > 请问B.shape的值是多少?(可以打开python实验)
43 | - [ ] (4,)
44 | - [ ] (1, 3)
45 | - [ ] (, 3)
46 | - [ ] (4, 1)
47 | ___
48 | > 6、假设你已经建立了一个神经网络。 你决定将权重和偏差初始化为零。 以下哪项陈述是正确的?
49 | - [ ] 第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的内容。
50 | - [ ] 第一个隐藏层中的每个神经元将在第一次迭代中执行相同的计算。 但经过一次梯度下降迭代后,他们将学会计算不同的内容,因为我们已经“破坏了对称性”。
51 | - [ ] 第一个隐藏层中的每一个神经元都会计算出相同的内容,但是不同层的神经元会计算不同的内容,因此我们已经完成了“对称破坏”。
52 | - [ ] 即使在第一次迭代中,第一个隐藏层的神经元也会执行不同的计算, 他们的参数将以各自的方式不断发展。
53 | ___
54 | > 7、Logistic回归的权重w应该随机初始化,而不是全零,因为如果初始化为全零,那么逻辑回归将无法学习到有用的决策边界,因为它将无法“破坏对称性”,是正确的吗?
55 | - [ ] 正确
56 | - [ ] 错误
57 | ___
58 |
59 | > 8、你已经为所有隐藏单元使用tanh激活建立了一个网络。 使用np.random.randn(..,..)* 1000 将权重初始化为相对较大的值。 会发生什么?
60 | - [ ] 这将导致tanh的输入也非常大,因此导致梯度也变大。因此,你必须将α设置得非常小以防止发散; 这会减慢学习速度。
61 | - [ ] 这会导致tanh的输入也非常大,导致单位被“高度激活”,从而加快了学习速度,而权重必须从小数值开始。
62 | - [ ] 这没关系。只要随机初始化权重,梯度下降不受权重大小的影响。
63 | - [ ] 这将导致tanh的输入也很大,因此导致梯度接近于零, 优化算法将因此变得缓慢。
64 | ___
65 | > 9、看下面的单隐层神经网络
66 |
67 | 
68 | - [ ] W[1] 的维度是 (2, 4)
69 | - [ ] b[1] 的维度是 (4, 1)
70 | - [ ] W[1] 的维度是 (4, 2)
71 | - [ ] b[1] 的维度是 (2, 1)
72 | - [ ] W[2] 的维度是 (1, 4)
73 | - [ ] b[2] 的维度是 (4, 1)
74 | - [ ] W[2] 的维度是 (4, 1)
75 | - [ ] b[2] 的维度是 (1, 1)
76 | ___
77 | > 10、在和上一个相同的网络中,Z[1] 和 A[1]的维度是多少?
78 | - [ ] Z[1] 和 A[1] 的维度都是 (4, 1)
79 | - [ ] Z[1] 和 A[1] 的维度都是 (1, 4)
80 | - [ ] Z[1] 和 A[1] 的维度都是 (4, m)
81 | - [ ] Z[1] 和 A[1] 的维度都是 (4, 2)
82 | ___
83 |
84 |
--------------------------------------------------------------------------------
/trials/C1W3_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C1W3_withAnswers.md:
--------------------------------------------------------------------------------
1 | C1W3 浅层神经网络
2 |
3 | ## 测验
4 | ___
5 | > 1、以下哪一项是正确的?
6 | - [ ] 是第2个训练样本第12层的激活输出向量。
7 | - [ ] X是一个矩阵,其中每一行都是一个训练样本。
8 | - [ ]  是第4个训练样本第2层的激活输出值。
9 | - [x]  是第2层第4个神经元的激活输出值。
10 | - [x] 是第2层的激活向量。
11 | - [x] 是第12个训练样本第2层的激活输出向量。
12 | - [x] X是一个矩阵,其中每一列都是一个训练样本。
13 | ___
14 | > 2、tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中,这对于下一层是更好的选择,请问正确吗?
15 | - [x] 正确
16 | ```diff
17 | tanh的输出介于-1和1之间,因此它将数据集中起来,使下一层的学习更加简单。
18 | ```
19 | - [ ] 错误
20 | ___
21 | > 3、其中哪一个是第 l 层向前传播的正确向量化实现,其中1 ≤ l ≤ L
22 | - [ ] A.
23 |
24 | 
25 | - [ ] B.
26 |
27 | 
28 | - [ ] C.
29 |
30 | 
31 | - [x] D.
32 |
33 | 
34 | ___
35 | > 4、你正在构建一个识别黄瓜(y = 1)与西瓜(y = 0)的二元分类器。 你会推荐哪一种激活函数用于输出层?
36 | - [ ] ReLU
37 | - [ ] Leaky ReLU
38 | - [x] sigmoid
39 | ```diff
40 | sigmoid输出一个介于0和1之间的值,这使得它成为二进制分类的一个很好的选择。
41 | 如果输出小于0.5,可以分类为0;如果输出大于0.5,可以分类为1。
42 | 也可以用tanh来完成,但由于tanh输出介于-1和1之间,所以不太方便。
43 | ```
44 | - [ ] tanh
45 | ___
46 | > 5、看下面的代码:
47 |
48 | > A = np.random.randn(4,3)
49 | > B = np.sum(A, axis = 1, keepdims = True)
50 | > 请问B.shape的值是多少?(可以打开python实验)
51 | - [ ] (4,)
52 | - [ ] (1, 3)
53 | - [ ] (, 3)
54 | - [x] (4, 1)
55 | ```diff
56 | 我们使用(keepdims=true)来确保A.shape是(4,1)而不是(4,)。这使我们的代码更加严谨。
57 | ```
58 | ___
59 | > 6、假设你已经建立了一个神经网络, 你决定将权重和偏差初始化为零。以下哪项陈述是正确的?
60 | - [x] 第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的内容。
61 | - [ ] 第一个隐藏层中的每个神经元将在第一次迭代中执行相同的计算。 但经过一次梯度下降迭代后,他们将学会计算不同的内容,因为我们已经“破坏了对称性”。
62 | - [ ] 第一个隐藏层中的每一个神经元都会计算出相同的内容,但是不同层的神经元会计算不同的内容,因此我们已经完成了“对称破坏”。
63 | - [ ] 即使在第一次迭代中,第一个隐藏层的神经元也会执行不同的计算, 他们的参数将以各自的方式不断发展。
64 | ___
65 | > 7、Logistic回归的权重w应该随机初始化,而不是全零,因为如果初始化为全零,那么逻辑回归将无法学习到有用的决策边界,因为它将无法“破坏对称性”,是正确的吗?
66 | - [ ] 正确
67 | - [x] 错误
68 | ```diff
69 | 逻辑回归没有隐藏层。如果将权重初始化为零,输入第一个样本x,模型将输出零。
70 | 但逻辑回归的导数取决于输入x(因为没有隐藏层),并且输入x不是零。
71 | 所以在第二次迭代中,权重W值遵循x的分布,并且如果x不是一个常数向量,那么它们(w1,w2,...)之间是不同的。
72 | ```
73 | ___
74 |
75 | > 8、你已经为所有隐藏单元使用tanh激活建立了一个网络。 使用np.random.randn(..,..)* 1000 将权重初始化为相对较大的值。 会发生什么?
76 | - [ ] 这将导致tanh的输入也非常大,因此导致梯度也变大。因此,你必须将α设置得非常小以防止发散; 这会减慢学习速度。
77 | - [ ] 这会导致tanh的输入也非常大,导致单位被“高度激活”,从而加快了学习速度,而权重必须从小数值开始。
78 | - [ ] 这没关系。只要随机初始化权重,梯度下降不受权重大小的影响。
79 | - [x] 这将导致tanh的输入也很大,因此导致梯度接近于零, 优化算法将因此变得缓慢。
80 | ```diff
81 | 对于较大的值,tanh的图案变得平滑,将导致其梯度接近于零。这会减慢优化算法的速度。
82 | ```
83 | ___
84 | > 9、看下面的单隐层神经网络
85 |
86 | 
87 | - [ ] W[1] 的维度是 (2, 4)
88 | - [x] b[1] 的维度是 (4, 1)
89 | - [x] W[1] 的维度是 (4, 2)
90 | - [ ] b[1] 的维度是 (2, 1)
91 | - [x] W[2] 的维度是 (1, 4)
92 | - [ ] b[2] 的维度是 (4, 1)
93 | - [ ] W[2] 的维度是 (4, 1)
94 | - [x] b[2] 的维度是 (1, 1)
95 | ___
96 | > 10、在和上一个相同的网络中,Z[1] 和 A[1]的维度是多少?
97 | - [ ] Z[1] 和 A[1] 的维度都是 (4, 1)
98 | - [ ] Z[1] 和 A[1] 的维度都是 (1, 4)
99 | - [x] Z[1] 和 A[1] 的维度都是 (4, m)
100 | ```diff
101 | m为样本数
102 | ```
103 | - [ ] Z[1] 和 A[1] 的维度都是 (4, 2)
104 | ___
105 |
106 |
--------------------------------------------------------------------------------
/trials/C1W4_noAnswers.md:
--------------------------------------------------------------------------------
1 | C1W4 深层神经网络
2 |
3 | ## 测验
4 | ___
5 | > 1、在实现前向传播和反向传播中使用的“cache”是什么?
6 | - [ ] 它用于跟踪我们正在搜索的超参数,以加速计算。
7 | - [ ] 用于在训练期间缓存代价函数的中间值。
8 | - [ ] 我们使用它传递反向传播中计算的变量到相应的前向传播步骤,它包含对于前向传播计算导数有用的变量。
9 | - [ ] 我们使用它传递前向传播中计算的变量到相应的反向传播步骤,它包含对于反向传播计算导数有用的变量。
10 | ___
11 | > 2、以下哪些是“超参数”?
12 | - [ ] 隐藏层的大小
13 | - [ ] 神经网络的层数
14 | - [ ] 激活值
15 | - [ ] 权重
16 | - [ ] 学习率
17 | - [ ] 迭代次数
18 | - [ ] 偏置
19 | ___
20 | > 3、下列哪个说法是正确的?
21 | - [ ] 神经网络的更深层通常比前面层计算更复杂的输入特征。
22 | - [ ] 神经网络的前面层通常比更深层计算更复杂的输入特性。
23 | ___
24 | > 4、向量化允许在L层神经网络中计算前向传播,而不需要在层(l = 1,2,…,L)上显式的使用for-loop(或任何其他显式迭代循环),正确吗?
25 | - [ ] 正确
26 | - [ ] 错误
27 | ___
28 | > 5、假设我们将n[l]的值存储在名为layers的数组中,如下所示:layer_dims = [n_x,4,3,2,1]。 因此,第1层有四个隐藏单元,第2层有三个隐藏单元,依此类推。 您可以使用哪个for循环初始化模型参数?
29 | - [ ] A.
30 | > for(i in range(1, len(layer_dims)/2)):
31 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
32 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
33 | - [ ] B.
34 | > for(i in range(1, len(layer_dims)/2)):
35 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
36 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01
37 | - [ ] C.
38 | > for(i in range(1, len(layer_dims))):
39 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01
40 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
41 | - [ ] D.
42 | > for(i in range(1, len(layer_dims))):
43 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
44 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
45 |
46 | ___
47 | > 6、下面关于神经网络的说法正确的是:
48 | 
49 | - [ ] 总层数L为4,隐藏层层数为3。
50 | - [ ] 总层数L为3,隐藏层层数为3。
51 | - [ ] 总层数L为4,隐藏层层数为4。
52 | - [ ] 总层数L为5,隐藏层层数为4。
53 | ___
54 | > 7、在前向传播期间,在层l的前向传播函数中,您需要知道层l中的激活函数(Sigmoid,tanh,ReLU等)是什么, 在反向传播期间,相应的反向传播函数也需要知道第l层的激活函数是什么,因为梯度是根据它来计算的。这样描述正确吗?
55 | - [ ] 正确
56 | - [ ] 错误
57 | ___
58 |
59 | > 8、有一些功能具有以下属性:
60 |
61 | >(i) 利用浅网络电路计算一个函数时,需要一个大网络(我们通过网络中的逻辑门数量来度量大小),但是(ii)使用深网络电路来计算它,只需要一个指数较小的网络。真/假?
62 | - [ ] 正确
63 | - [ ] 错误
64 | ___
65 | > 9、在2层隐层神经网络中,下列哪个说法是正确的?
66 | 
67 | - [ ] W[1] 的维度为 (4, 4)
68 | - [ ] b[1] 的维度为 (4, 1)
69 | - [ ] W[1]的维度为 (3, 4)
70 | - [ ] b[1] 的维度为 (3, 1)
71 |
72 | - [ ] W[2]的维度为 (3, 4)
73 | - [ ] b[2] 的维度为 (1, 1)
74 | - [ ] W[2]的维度为 (3, 1)
75 | - [ ] b[2] 的维度为 (3, 1)
76 |
77 | - [ ] W[3]的维度为 (3, 1)
78 | - [ ] b[3] 的维度为 (1, 1)
79 | - [ ] W[3]的维度为 (1, 3)
80 | - [ ] b[3] 的维度为 (3, 1)
81 |
82 | ___
83 | > 10、前面的问题使用了一个特定的网络,一般情况下, 与层l有关的权重矩阵W[l]的维数是多少?
84 | - [ ] W[l]的维度是 (n[l], n[l−1])
85 | - [ ] W[l]的维度是 (n[l-1], n[l])
86 | - [ ] W[l]的维度是 (n[l+1], n[l])
87 | - [ ] W[l]的维度是 (n[l], n[l+1])
88 | ___
89 |
90 |
--------------------------------------------------------------------------------
/trials/C1W4_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C1W4_withAnswers.md:
--------------------------------------------------------------------------------
1 | C1W4 深层神经网络
2 |
3 | ## 测验
4 | ___
5 | > 1、在实现前向传播和反向传播中使用的“cache”是什么?
6 | - [ ] 它用于跟踪我们正在搜索的超参数,以加速计算。
7 | - [ ] 用于在训练期间缓存代价函数的中间值。
8 | - [ ] 我们使用它传递反向传播中计算的变量到相应的前向传播步骤,它包含对于前向传播计算导数有用的变量。
9 | - [x] 我们使用它传递前向传播中计算的变量到相应的反向传播步骤,它包含对于反向传播计算导数有用的变量。
10 | ```diff
11 | “缓存”记录来自正向传播单元的值,并将其发送到反向传播单元,这是链式求导的需要。
12 | ```
13 | ___
14 | > 2、以下哪些是“超参数”?
15 | - [x] 隐藏层的大小
16 | - [x] 神经网络的层数
17 | - [ ] 激活值
18 | - [ ] 权重
19 | - [x] 学习率
20 | - [x] 迭代次数
21 | - [ ] 偏置
22 | ___
23 | > 3、下列哪个说法是正确的?
24 | - [x] 神经网络的更深层通常比前面层计算更复杂的输入特征。
25 | - [ ] 神经网络的前面层通常比更深层计算更复杂的输入特性。
26 | ___
27 | > 4、向量化允许在L层神经网络中计算前向传播,而不需要在层(l = 1,2,…,L)上显式的使用for-loop(或任何其他显式迭代循环),正确吗?
28 | - [ ] 正确
29 | - [x] 错误
30 | ```diff
31 | 正向传播是层层传递的,尽管对于浅层网络,我们可能只需写下:
32 | (a[2]=g[2](z[2])、z[2]=w[2]a[1]+b[2]…)
33 | 但我们不能避免在层上进行for循环迭代:
34 | (a[l]=g[l](z[l])、z[l]=w[l]a[l−1]+b[l]…)
35 | 备注:上面的[]均为上标。
36 | ```
37 | ___
38 | > 5、假设我们将n[l]的值存储在名为layers的数组中,如下所示:layer_dims = [n_x,4,3,2,1]。 因此,第1层有四个隐藏单元,第2层有三个隐藏单元,依此类推。 您可以使用哪个for循环初始化模型参数?
39 | - [ ] A.
40 | > for(i in range(1, len(layer_dims)/2)):
41 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
42 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
43 | - [ ] B.
44 | > for(i in range(1, len(layer_dims)/2)):
45 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
46 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01
47 | - [ ] C.
48 | > for(i in range(1, len(layer_dims))):
49 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01
50 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
51 | - [x] D.
52 | > for(i in range(1, len(layer_dims))):
53 | > parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
54 | > parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
55 |
56 | ___
57 | > 6、下面关于神经网络的说法正确的是:
58 | 
59 | - [x] 总层数L为4,隐藏层层数为3。
60 | ```diff
61 | 网络层数按隐藏层数+1计算。输入和输出层不算作隐藏层。
62 | ```
63 | - [ ] 总层数L为3,隐藏层层数为3。
64 | - [ ] 总层数L为4,隐藏层层数为4。
65 | - [ ] 总层数L为5,隐藏层层数为4。
66 | ___
67 | > 7、在前向传播期间,在层l的前向传播函数中,您需要知道层l中的激活函数(Sigmoid,tanh,ReLU等)是什么, 在反向传播期间,相应的反向传播函数也需要知道第l层的激活函数是什么,因为梯度是根据它来计算的。这样描述正确吗?
68 | - [x] 正确
69 | - [ ] 错误
70 | ```diff
71 | 不同激活函数有不同的导数。在反向传播期间,需要知道正向传播中使用哪种激活函数才能计算正确的导数。
72 | ```
73 | ___
74 |
75 | > 8、有一些功能具有以下属性:
76 |
77 | >(i) 利用浅网络电路计算一个函数时,需要一个大网络(我们通过网络中的逻辑门数量来度量大小),但是(ii)使用深网络电路来计算它,只需要一个指数较小的网络。真/假?
78 | - [x] 正确
79 | ```diff
80 | 深层的网络隐藏单元数量相对较少,隐藏层数目较多,
81 | 如果浅层的网络想要达到同样的计算结果则需要指数级增长的单元数量才能达到。
82 | ```
83 | - [ ] 错误
84 | ___
85 | > 9、在2层隐层神经网络中,下列哪个说法是正确的?
86 | 
87 |
88 | ```diff
89 | 一般来说
90 | W[l]的形状是(n[l],n[l-1])
91 | b[l]的形状是(n[l],1)
92 | ```
93 |
94 |
95 | - [x] W[1] 的维度为 (4, 4)
96 | - [x] b[1] 的维度为 (4, 1)
97 | - [ ] W[1]的维度为 (3, 4)
98 | - [ ] b[1] 的维度为 (3, 1)
99 |
100 | - [x] W[2]的维度为 (3, 4)
101 | - [ ] b[2] 的维度为 (1, 1)
102 | - [ ] W[2]的维度为 (3, 1)
103 | - [x] b[2] 的维度为 (3, 1)
104 |
105 | - [ ] W[3]的维度为 (3, 1)
106 | - [x] b[3] 的维度为 (1, 1)
107 | - [x] W[3]的维度为 (1, 3)
108 | - [ ] b[3] 的维度为 (3, 1)
109 |
110 | ___
111 | > 10、前面的问题使用了一个特定的网络,一般情况下, 与层l有关的权重矩阵W[l]的维数是多少?
112 | - [x] W[l]的维度是 (n[l], n[l−1])
113 | - [ ] W[l]的维度是 (n[l-1], n[l])
114 | - [ ] W[l]的维度是 (n[l+1], n[l])
115 | - [ ] W[l]的维度是 (n[l], n[l+1])
116 | ___
117 |
118 |
--------------------------------------------------------------------------------
/trials/C2W1_noAnswers.md:
--------------------------------------------------------------------------------
1 | C2W1 深度学习的实践
2 |
3 | ## 测验
4 | ___
5 | > 1、如果你有10,000,000个例子,你会如何划分训练/开发/测试集?
6 | - [ ] 训练集占33%,验证集占33%,测试集占33%.
7 | - [ ] 训练集占60%,验证集占20%,测试集占20%.
8 | - [ ] 训练集占98%,验证集占1%,测试集占1%.
9 | ___
10 | > 2、开发和测试集应该:
11 | - [ ] 来自同一分布
12 | - [ ] 来自不同分布
13 | - [ ] 每对数据(x,y)彼此相同
14 | - [ ] 有相同数量的实例
15 | ___
16 | > 3、
17 | > 如果你的神经网络模型似乎有很高的【偏差】,下列哪个尝试是可能解决问题的?
18 | - [ ] 添加正则化
19 | - [ ] 获取更多的测试数据
20 | - [ ] 增加每个隐藏层中的神经元个数
21 | - [ ] 加深神经网络
22 | - [ ] 获取更多的训练数据
23 | > 如果你的神经网络模型似乎有很高的【方差】,下列哪个尝试是可能解决问题的?
24 | - [ ] 添加正则化
25 | - [ ] 获取更多的测试数据
26 | - [ ] 增加每个隐藏层中的神经元个数
27 | - [ ] 加深神经网络
28 | - [ ] 获取更多的训练数据
29 | ___
30 | > 4、你在一家超市的自动结帐亭工作,正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及验证集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?
31 | - [ ] 增大正则化参数lambda
32 | - [ ] 减小正则化参数lambda
33 | - [ ] 获取更多的训练数据
34 | - [ ] 用一个更大的神经网络
35 | ___
36 | > 5、什么是权重衰减?
37 | - [ ] 一种正则化技术(如L2正则化),使得每次迭代时,权重都缩小。
38 | - [ ] 训练过程中逐渐降低学习率的过程。
39 | - [ ] 权重的逐渐损坏,如果神经网络是在有噪声的数据上训练的。
40 | - [ ] 通过对权重值施加一个上限来避免梯度消失的一种技术。
41 | ___
42 | > 6、当你增加正则化超参数lambda时会发生什么?
43 | - [ ] 权重会变得更小(接近0)
44 | - [ ] 权重会变得更大(远离0)
45 | - [ ] 加倍lambda会粗略地导致权重加倍
46 | - [ ] 梯度下降在每次迭代中采取更大的步距(与lambda成比例)
47 | ___
48 | > 7、利用Inverted-dropout技术,在测试的时候:
49 | - [ ] 使用dropout(随机失活神经元),不保留训练过程计算中使用过的1/keep-prob因子。
50 | - [ ] 使用dropout(随机失活神经元),保留训练过程计算中使用过的1/keep-prob因子。
51 | - [ ] 不使用dropout(不随机失活神经元),保留训练过程计算中使用过的1/keep-prob因子。
52 | - [ ] 不使用dropout(不随机失活神经元),不保留训练过程计算中使用过的1/keep-prob因子。
53 | ___
54 |
55 | > 8、将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况
56 | - [ ] 增强正则化效应。
57 | - [ ] 减弱正则化效应。
58 | - [ ] 使神经网络以较大的训练集误差结束
59 | - [ ] 使神经网络以较小的训练集误差结束
60 | ___
61 | > 9、以下哪些技术可用于减少方差(减少过拟合):
62 | - [ ] Xavier初始化
63 | - [ ] 数据增强
64 | - [ ] 梯度检查
65 | - [ ] 梯度爆炸
66 | - [ ] L2 正则化
67 | - [ ] 梯度消失
68 | - [ ] Dropout
69 | ___
70 | > 10、为什么我们要归一化输入x?
71 | - [ ] 使参数初始化更快
72 | - [ ] 使成本函数更快地进行优化
73 | - [ ] 有助于减少方差,归一化是正则化(regularization)的另一个词
74 | - [ ] 使数据更容易可视化
75 | ___
--------------------------------------------------------------------------------
/trials/C2W1_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C2W1_withAnswers.md:
--------------------------------------------------------------------------------
1 | C2W1 深度学习的实践
2 |
3 | ## 测验
4 | ___
5 | > 1、如果你有10,000,000个例子,你会如何划分训练/开发/测试集?
6 | - [ ] 训练集占33%,验证集占33%,测试集占33%.
7 | - [ ] 训练集占60%,验证集占20%,测试集占20%.
8 | - [x] 训练集占98%,验证集占1%,测试集占1%.
9 | ___
10 | > 2、开发和测试集应该:
11 | - [x] 来自同一分布
12 | - [ ] 来自不同分布
13 | - [ ] 每对数据(x,y)彼此相同
14 | - [ ] 有相同数量的实例
15 | ___
16 | > 3、
17 | > 如果你的神经网络模型似乎有很高的【偏差】,下列哪个尝试是可能解决问题的?
18 | - [ ] 添加正则化
19 | - [ ] 获取更多的测试数据
20 | - [x] 增加每个隐藏层中的神经元个数
21 | - [x] 加深神经网络
22 | - [ ] 获取更多的训练数据
23 | > 如果你的神经网络模型似乎有很高的【方差】,下列哪个尝试是可能解决问题的?
24 | - [x] 添加正则化
25 | - [ ] 获取更多的测试数据
26 | - [ ] 增加每个隐藏层中的神经元个数
27 | - [ ] 加深神经网络
28 | - [x] 获取更多的训练数据
29 | ```diff
30 | 网上两种版本的题目都有,就都写下来。
31 | ```
32 | ___
33 | > 4、你在一家超市的自动结帐亭工作,正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及验证集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?
34 | - [x] 增大正则化参数lambda
35 | - [ ] 减小正则化参数lambda
36 | - [x] 获取更多的训练数据
37 | - [ ] 用一个更大的神经网络
38 | ___
39 | > 5、什么是权重衰减?
40 | - [x] 一种正则化技术(如L2正则化),使得每次迭代时,权重都缩小。
41 | - [ ] 训练过程中逐渐降低学习率的过程。
42 | - [ ] 权重的逐渐损坏,如果神经网络是在有噪声的数据上训练的。
43 | - [ ] 通过对权重值施加一个上限来避免梯度消失的一种技术。
44 | ___
45 | > 6、当你增加正则化超参数lambda时会发生什么?
46 | - [x] 权重会变得更小(接近0)
47 | - [ ] 权重会变得更大(远离0)
48 | - [ ] 加倍lambda会粗略地导致权重加倍
49 | - [ ] 梯度下降在每次迭代中采取更大的步距(与lambda成比例)
50 | ___
51 | > 7、利用Inverted-dropout技术,在测试的时候:
52 | - [ ] 使用dropout(随机失活神经元),不保留训练过程计算中使用过的1/keep-prob因子。
53 | - [ ] 使用dropout(随机失活神经元),保留训练过程计算中使用过的1/keep-prob因子。
54 | - [ ] 不使用dropout(不随机失活神经元),保留训练过程计算中使用过的1/keep-prob因子。
55 | - [x] 不使用dropout(不随机失活神经元),不保留训练过程计算中使用过的1/keep-prob因子。
56 | ___
57 |
58 | > 8、将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况
59 | - [ ] 增强正则化效应。
60 | - [x] 减弱正则化效应。
61 | - [ ] 使神经网络以较大的训练集误差结束
62 | - [x] 使神经网络以较小的训练集误差结束
63 | ___
64 | > 9、以下哪些技术可用于减少方差(减少过拟合):
65 | - [ ] Xavier初始化
66 | - [x] 数据增强
67 | - [ ] 梯度检查
68 | - [ ] 梯度爆炸
69 | - [x] L2 正则化
70 | - [ ] 梯度消失
71 | - [x] Dropout
72 | ___
73 | > 10、为什么我们要归一化输入x?
74 | - [ ] 使参数初始化更快
75 | - [x] 使成本函数更快地进行优化
76 | - [ ] 有助于减少方差,归一化是正则化(regularization)的另一个词
77 | - [ ] 使数据更容易可视化
78 | ___
--------------------------------------------------------------------------------
/trials/C2W2_noAnswers.md:
--------------------------------------------------------------------------------
1 | C2W2 优化算法
2 |
3 | ## 测验
4 | ___
5 | > 1、当输入从第八个mini-batch的第七个的例子的时候,你会用哪种符号表示第三层的激活?
6 |
7 | 注:[i]{j}(k)为上标,分布表示第i层,第j小块,第k个示例。
8 | - [ ] a[8]{3}(7)
9 | - [ ] a[8]{7}(3)
10 | - [ ] a[3]{8}(7)
11 | - [ ] a[3]{7}(8)
12 | ___
13 | > 2、下面关于小批量(mini-batch)梯度下降法的说法,哪个是正确的?
14 | - [ ] 使用小批量(mini-batch)梯度下降训练一次迭代(在单个小批量上计算)比使用批量梯度下降训练一个epoch更快。
15 | - [ ] 实现小批量(mini-batch)梯度下降时,不需要在不同的小批量上使用显式for循环,这样算法才能同时处理所有的小批量(矢量化方法)。
16 | - [ ] 使用小批量(mini-batch)梯度下降训练一个epoch(训练集中的全部样本训练一次)比使用批量梯度下降训练一个epoch更快。
17 | ___
18 | > 3、为什么最好的mini-batch的大小通常不是1也不是m,而是介于两者之间?
19 | - [ ] 如果mini-batch大小为m,那么会出现随机梯度下降,这通常比小批量梯度下降慢。
20 | - [ ] 如果mini-batch大小为m,那么会出现批量梯度下降,这需要在进行训练之前对整个训练集进行处理。
21 | - [ ] 如果mini-batch大小为1,则会失去mini-batch中矢量化带来的的好处。
22 | - [ ] 如果mini-batch大小为1,那么需要在进行训练之前对整个训练集进行处理。
23 | ___
24 | > 4、如果你的模型的成本J随着迭代次数的增加,绘制出来的图如下,那么:
25 | 
26 | - [ ] 无论你使用的是批量梯度下降法还是小批量梯度下降法,模型都有问题。
27 | - [ ] 无论你使用的是批量梯度下降法还是小批量梯度下降法,这看起来都是可以接受的。
28 | - [ ] 如果你使用的是小批量梯度下降法,那么模型就有问题。但是如果你使用的是批量梯度下降法,这看起来是可以接受的。
29 | - [ ] 如果你使用的是小批量梯度下降法,这看起来是可以接受的。但是如果你使用的是批量梯度下降法,那么模型就有问题。
30 | ___
31 | > 5、假设一月的前三天卡萨布兰卡的气温是一样的:
32 |
33 | > 一月的第一天: θ{1} = 10
34 |
35 | > 一月的第二天: θ{2}*10
36 |
37 | > 假设您使用β= 0.5的指数加权平均来跟踪温度:v{0} = 0,v{t} = β*v{t−1} + (1-β) * θ{t}。 如果v{2}是在没有偏差修正的情况下计算第2天后的值,并且v(corrected){2}是你使用偏差修正计算的值。 这些下面的值是正确的是?
38 |
39 | 注:(corrected)为上标,{1}、{2}、{t}、{t−1}为下标
40 | - [ ] v{2} = 7.5, v(corrected){2} = 10
41 | - [ ] v{2} = 10, v(corrected){2} = 7.5
42 | - [ ] v{2} = 7.5, v(corrected){2} = 7.5
43 | - [ ] v{2} = 10, v(corrected){2} = 10
44 | ___
45 | > 6、下面哪一个不是比较好的学习率衰减方法?
46 | - [ ] α = α_0 / (1+2*t)
47 | - [ ] α = e^t * α_0
48 | - [ ] α = 0.95^t * α_0
49 | - [ ] α = α_0 / √t
50 | ___
51 | > 7、您在伦敦温度数据集上使用指数加权平均值, 您可以使用以下公式来追踪温度:v{t} = βv{t-1} +(1 - β)θ{t}。 下面的红线使用的是β= 0.9来计算的。 当你改变β时,你的红色曲线会怎样变化?
52 | 
53 | - [ ] 减小β会使红线稍微向右移动
54 | - [ ] 增加β会使红线稍微向右移动
55 | - [ ] 减少β会在红线内产生更多的振荡
56 | - [ ] 增加β会在红线内产生更多的振荡
57 | ___
58 |
59 | > 8、如图
60 | 
61 | > 这些线条是由梯度下降产生的; 具有动量梯度下降(β= 0.5)和动量梯度下降(β= 0.9)。 哪条曲线对应哪种算法?
62 | - [ ] (1)是动量梯度下降(β比较小)。(2)是梯度下降。(3)是动量梯度下降(β值比较大)。
63 | - [ ] (1)是梯度下降。(2)是动量梯度下降(β值比较小)。(3)是动量梯度下降(β比较大)。
64 | - [ ] (1)是梯度下降。(2)是动量梯度下降(β值比较大)。(3)是动量梯度下降(β比较小)。
65 | - [ ] (1)是动量梯度下降(β比较小)。(2)是动量梯度下降(β比较小)。(3)是梯度下降。
66 | ___
67 | > 9、假设在一个深度学习网络中批处理梯度下降花费了太多的时间来找到一个值的参数值,该值对于成本函数J(W[1],b[1],…,W[L],b[L])来说是很小的值。 以下哪些方法可以帮助找到J值较小的参数值?
68 | - [ ] 尝试调整学习率α
69 | - [ ] 尝试把权值初始化为0
70 | - [ ] 尝试对权重进行更好的随机初始化
71 | - [ ] 尝试使用mini-batch梯度下降法
72 | - [ ] 尝试使用Adam算法
73 | ___
74 | > 10、关于Adam算法,下列哪一个陈述是错误的?
75 | - [ ] Adam结合了RMSProp和Momentum的优势
76 | - [ ] Adam应该用于批量梯度计算,而不是用于mini-batch
77 | - [ ] Adam中的学习速率超参数α通常需要调整。
78 | - [ ] Adam中,超参数β1、β2和ε通常使用“默认”值(β1=0.9,β2=0.999,ε=10−8)
79 | ___
--------------------------------------------------------------------------------
/trials/C2W2_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C2W2_withAnswers.md:
--------------------------------------------------------------------------------
1 | C2W2 优化算法
2 |
3 | ## 测验
4 | ___
5 | > 1、当输入从第八个mini-batch的第七个的例子的时候,你会用哪种符号表示第三层的激活?
6 |
7 | 注:[i]{j}(k)为上标,分布表示第i层,第j小块,第k个示例。
8 | - [ ] a[8]{3}(7)
9 | - [ ] a[8]{7}(3)
10 | - [x] a[3]{8}(7)
11 | - [ ] a[3]{7}(8)
12 | ___
13 | > 2、下面关于小批量(mini-batch)梯度下降法的说法,哪个是正确的?
14 | - [x] 使用小批量(mini-batch)梯度下降训练一次迭代(在单个小批量上计算)比使用批量梯度下降训练一个epoch更快。
15 | - [ ] 实现小批量(mini-batch)梯度下降时,不需要在不同的小批量上使用显式for循环,这样算法才能同时处理所有的小批量(矢量化方法)。
16 | - [ ] 使用小批量(mini-batch)梯度下降训练一个epoch(训练集中的全部样本训练一次)比使用批量梯度下降训练一个epoch更快。
17 | ___
18 | > 3、为什么最好的mini-batch的大小通常不是1也不是m,而是介于两者之间?
19 | - [ ] 如果mini-batch大小为m,那么会出现随机梯度下降,这通常比小批量梯度下降慢。
20 | - [x] 如果mini-batch大小为m,那么会出现批量梯度下降,这需要在进行训练之前对整个训练集进行处理。
21 | - [x] 如果mini-batch大小为1,则会失去mini-batch中矢量化带来的的好处。
22 | - [ ] 如果mini-batch大小为1,那么需要在进行训练之前对整个训练集进行处理。
23 | ___
24 | > 4、如果你的模型的成本J随着迭代次数的增加,绘制出来的图如下,那么:
25 | 
26 | - [ ] 无论你使用的是批量梯度下降法还是小批量梯度下降法,模型都有问题。
27 | - [ ] 无论你使用的是批量梯度下降法还是小批量梯度下降法,这看起来都是可以接受的。
28 | - [ ] 如果你使用的是小批量梯度下降法,那么模型就有问题。但是如果你使用的是批量梯度下降法,这看起来是可以接受的。
29 | - [x] 如果你使用的是小批量梯度下降法,这看起来是可以接受的。但是如果你使用的是批量梯度下降法,那么模型就有问题。
30 | ___
31 | > 5、假设一月的前三天卡萨布兰卡的气温是一样的:
32 |
33 | > 一月的第一天: θ{1} = 10
34 |
35 | > 一月的第二天: θ{2}*10
36 |
37 | > 假设您使用β= 0.5的指数加权平均来跟踪温度:v{0} = 0,v{t} = β*v{t−1} + (1-β) * θ{t}。 如果v{2}是在没有偏差修正的情况下计算第2天后的值,并且v(corrected){2}是你使用偏差修正计算的值。 这些下面的值是正确的是?
38 |
39 | 注:(corrected)为上标,{1}、{2}、{t}、{t−1}为下标
40 | - [x] v{2} = 7.5, v(corrected){2} = 10
41 | - [ ] v{2} = 10, v(corrected){2} = 7.5
42 | - [ ] v{2} = 7.5, v(corrected){2} = 7.5
43 | - [ ] v{2} = 10, v(corrected){2} = 10
44 | ___
45 | > 6、下面哪一个不是比较好的学习率衰减方法?
46 | - [ ] α = α_0 / (1+2*t)
47 | - [x] α = e^t * α_0
48 | - [ ] α = 0.95^t * α_0
49 | - [ ] α = α_0 / √t
50 | ___
51 | > 7、您在伦敦温度数据集上使用指数加权平均值, 您可以使用以下公式来追踪温度:v{t} = βv{t-1} +(1 - β)θ{t}。 下面的红线使用的是β= 0.9来计算的。 当你改变β时,你的红色曲线会怎样变化?
52 | 
53 | - [ ] 减小β会使红线稍微向右移动
54 | - [x] 增加β会使红线稍微向右移动
55 | ```diff
56 | 红线对应β=0.9。吴恩达视频中,有一条β=0.98的绿线,线条稍微向右移动。
57 | ```
58 | - [x] 减少β会在红线内产生更多的振荡
59 | ```diff
60 | 红线对应β=0.9。吴恩达视频中,有一条β=0.5的黄线,线条有很多振荡。
61 | ```
62 | - [ ] 增加β会在红线内产生更多的振荡
63 | ___
64 |
65 | > 8、如图
66 | 
67 | > 这些线条是由梯度下降产生的; 具有动量梯度下降(β= 0.5)和动量梯度下降(β= 0.9)。 哪条曲线对应哪种算法?
68 | - [ ] (1)是动量梯度下降(β比较小)。(2)是梯度下降。(3)是动量梯度下降(β值比较大)。
69 | - [x] (1)是梯度下降。(2)是动量梯度下降(β值比较小)。(3)是动量梯度下降(β比较大)。
70 | - [ ] (1)是梯度下降。(2)是动量梯度下降(β值比较大)。(3)是动量梯度下降(β比较小)。
71 | - [ ] (1)是动量梯度下降(β比较小)。(2)是动量梯度下降(β比较小)。(3)是梯度下降。
72 | ___
73 | > 9、假设在一个深度学习网络中批处理梯度下降花费了太多的时间来找到一个值的参数值,该值对于成本函数J(W[1],b[1],…,W[L],b[L])来说是很小的值。 以下哪些方法可以帮助找到J值较小的参数值?
74 | - [x] 尝试调整学习率α
75 | - [ ] 尝试把权值初始化为0
76 | - [x] 尝试对权重进行更好的随机初始化
77 | - [x] 尝试使用mini-batch梯度下降法
78 | - [x] 尝试使用Adam算法
79 | ___
80 | > 10、关于Adam算法,下列哪一个陈述是错误的?
81 | - [ ] Adam结合了RMSProp和Momentum的优势
82 | - [x] Adam应该用于批量梯度计算,而不是用于mini-batch
83 | - [ ] Adam中的学习速率超参数α通常需要调整。
84 | - [ ] Adam中,超参数β1、β2和ε通常使用“默认”值(β1=0.9,β2=0.999,ε=10−8)
85 | ___
--------------------------------------------------------------------------------
/trials/C2W3_noAnswers.md:
--------------------------------------------------------------------------------
1 | C2W3 超参数调整、批量标准化、编程框架
2 |
3 | ## 测验
4 | ___
5 | > 1、如果在大量的超参数中搜索最佳的参数值,那么应该尝试在网格中搜索而不是使用随机值,以便更系统的搜索,而不是依靠运气,请问这句话是正确的吗?
6 | - [ ] 正确
7 | - [ ] 错误
8 | ___
9 | > 2、每个超参数如果设置得不好,都会对训练产生巨大的负面影响,因此所有的超参数对于调优都同样重要,请问这是正确的吗?
10 | - [ ] 正确
11 | - [ ] 错误
12 | ___
13 | > 3、在超参数搜索过程中,你尝试只照顾一个模型(使用熊猫策略)还是一起训练大量的模型(鱼子酱策略)在很大程度上取决于:
14 | - [ ] 是否使用批量(batch)或小批量优化(mini-batch optimization)
15 | - [ ] 神经网络中局部最小值(鞍点)的存在性
16 | - [ ] 你能获得的计算力
17 | - [ ] 需要调整的超参数的数量
18 | ___
19 | > 4、如果您认为β(动量超参数)介于0.9和0.99之间,那么推荐采用以下哪一种方法来对β值进行取样?
20 |
21 | - [ ] A.
22 |
23 | r = np.random.rand()
24 | beta = r*0.09 + 0.9
25 |
26 | - [ ] B.
27 |
28 | r = np.random.rand()
29 | beta = 1-10**(- r - 1)
30 | - [ ] C.
31 |
32 | r = np.random.rand()
33 | beta = 1-10**(- r + 1)
34 | - [ ] D.
35 |
36 | r = np.random.rand()
37 | beta = r*0.9 + 0.09
38 |
39 | ___
40 | > 5、找到好的超参数的值是非常耗时的,所以通常情况下你应该在项目开始时做一次,并尝试找到非常好的超参数,这样你就不必再次重新调整它们。请问这正确吗?
41 | - [ ] 正确
42 | - [ ] 错误
43 | ___
44 | > 6、在视频中介绍的批量标准化中,如果将其应用于神经网络的第l层,那么需要标准化什么?
45 | - [ ] b[l]
46 | - [ ] a[l]
47 | - [ ] z[l]
48 | - [ ] W[l]
49 | ___
50 | > 7、在标准化公式中,为什么要使用epsilon(ϵ)?
51 |
52 | >
53 | - [ ] 加快收敛速度
54 | - [ ] 避免除零操作
55 | - [ ] 获得更精确的标准化
56 | - [ ] 以防μ太小
57 | ___
58 |
59 | > 8、批处理标准化中关于 γ 和 β 的以下哪些陈述是正确的?
60 | - [ ] 每层有一个γ∈R的全局变量和一个β∈R的全局变量,并适用于该层中的所有隐藏单元。
61 | - [ ] 它们可以在Adam、带有动量的梯度下降 或 RMSprop 使中用,而不仅仅是用梯度下降来学习。
62 | - [ ] 最优值为γ=√(σ^2+ε),β=μ。
63 | - [ ] β和γ是算法的超参数,我们通过随机抽样调整。
64 | - [ ] 它们设定给定层的线性变量 z[l] 的均值和方差。
65 | ___
66 | > 9、训练具有BN(批量标准化)的神经网络之后,测试时间,在新样本上评估神经网络时,你应该:
67 | - [ ] 在训练期间,通过使用μ和σ^2的指数加权平均值估计mini-batches的情况,来执行所需的标准化。
68 | - [ ] 跳过使用μ和σ^2的标准化步骤,因为单个测试样本无法标准化。
69 | - [ ] 使用最新的小批量的μ和σ^2值, 来执行所需的标准化。
70 | - [ ] 如果在256个示例的小批量上实现了批处理标准化,那么在一个测试样本上进行预测时,需要将该样本复制256次,使起拥有与训练时相同大小的小批量。
71 | ___
72 | > 10、关于深度学习编程框架的这些陈述中,哪一个是正确的?
73 | - [ ] 通过编程框架,您可以用比低级语言(如Python)更少的代码来编写深度学习算法。
74 | - [ ] 即使一个项目目前是开源的,项目的良好管理有助于确保它即使在长期内仍然保持开放,而不是仅仅为了一个公司而关闭或修改。
75 | - [ ] 深度学习编程框架的运行需要基于云的机器。
76 | ___
--------------------------------------------------------------------------------
/trials/C2W3_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C2W3_withAnswers.md:
--------------------------------------------------------------------------------
1 | C2W3 超参数调整、批量标准化、编程框架
2 |
3 | ## 测验
4 | ___
5 | > 1、如果在大量的超参数中搜索最佳的参数值,那么应该尝试在网格中搜索而不是使用随机值,以便更系统的搜索,而不是依靠运气,请问这句话是正确的吗?
6 | - [ ] 正确
7 | - [x] 错误
8 | ___
9 | > 2、每个超参数如果设置得不好,都会对训练产生巨大的负面影响,因此所有的超参数对于调优都同样重要,请问这是正确的吗?
10 | - [ ] 正确
11 | - [x] 错误
12 | ```diff
13 | 如学习率,会比其他参数更重要。
14 | ```
15 | ___
16 | > 3、在超参数搜索过程中,你尝试只照顾一个模型(使用熊猫策略)还是一起训练大量的模型(鱼子酱策略)在很大程度上取决于:
17 | - [ ] 是否使用批量(batch)或小批量优化(mini-batch optimization)
18 | - [ ] 神经网络中局部最小值(鞍点)的存在性
19 | - [x] 你能获得的计算力
20 | - [ ] 需要调整的超参数的数量
21 | ___
22 | > 4、如果您认为β(动量超参数)介于0.9和0.99之间,那么推荐采用以下哪一种方法来对β值进行取样?
23 |
24 | - [ ] A.
25 |
26 | r = np.random.rand()
27 | beta = r*0.09 + 0.9
28 |
29 | - [x] B.
30 |
31 | r = np.random.rand()
32 | beta = 1-10**(- r - 1)
33 |
34 | ```diff
35 | r在0-1之间
36 | 当r=0时,β=0.9; 当r=1时,β=0.99。
37 | ```
38 |
39 | - [ ] C.
40 |
41 | r = np.random.rand()
42 | beta = 1-10**(- r + 1)
43 | - [ ] D.
44 |
45 | r = np.random.rand()
46 | beta = r*0.9 + 0.09
47 |
48 | ___
49 | > 5、找到好的超参数的值是非常耗时的,所以通常情况下你应该在项目开始时做一次,并尝试找到非常好的超参数,这样你就不必再次重新调整它们。请问这正确吗?
50 | - [ ] 正确
51 | - [x] 错误
52 | ___
53 | > 6、在视频中介绍的批量标准化中,如果将其应用于神经网络的第l层,那么需要标准化什么?
54 | - [ ] b[l]
55 | - [ ] a[l]
56 | - [x] z[l]
57 | - [ ] W[l]
58 | ___
59 | > 7、在标准化公式中,为什么要使用epsilon(ϵ)?
60 |
61 | >
62 | - [ ] 加快收敛速度
63 | - [x] 避免除零操作
64 | - [ ] 获得更精确的标准化
65 | - [ ] 以防μ太小
66 | ___
67 |
68 | > 8、批处理标准化中关于 γ 和 β 的以下哪些陈述是正确的?
69 | - [ ] 每层有一个γ∈R的全局变量和一个β∈R的全局变量,并适用于该层中的所有隐藏单元。
70 | - [x] 它们可以在Adam、带有动量的梯度下降 或 RMSprop 使中用,而不仅仅是用梯度下降来学习。
71 | - [ ] 最优值为γ=√(σ^2+ε),β=μ。
72 | - [ ] β和γ是算法的超参数,我们通过随机抽样调整。
73 | - [x] 它们设定给定层的线性变量 z[l] 的均值和方差。
74 | ___
75 | > 9、训练具有BN(批量标准化)的神经网络之后,测试时间,在新样本上评估神经网络时,你应该:
76 | - [x] 在训练期间,通过使用μ和σ^2的指数加权平均值估计mini-batches的情况,来执行所需的标准化。
77 | - [ ] 跳过使用μ和σ^2的标准化步骤,因为单个测试样本无法标准化。
78 | - [ ] 使用最新的小批量的μ和σ^2值, 来执行所需的标准化。
79 | - [ ] 如果在256个示例的小批量上实现了批处理标准化,那么在一个测试样本上进行预测时,需要将该样本复制256次,使起拥有与训练时相同大小的小批量。
80 | ___
81 | > 10、关于深度学习编程框架的这些陈述中,哪一个是正确的?
82 | - [x] 通过编程框架,您可以用比低级语言(如Python)更少的代码来编写深度学习算法。
83 | - [x] 即使一个项目目前是开源的,项目的良好管理有助于确保它即使在长期内仍然保持开放,而不是仅仅为了一个公司而关闭或修改。
84 | - [ ] 深度学习编程框架的运行需要基于云的机器。
85 | ___
--------------------------------------------------------------------------------
/trials/C3W1_noAnswers.md:
--------------------------------------------------------------------------------
1 | C3W1 和平之城中的鸟类识别(案例研究)
2 |
3 | ## 测验
4 |
5 | > ## 1.问题陈述
6 |
7 | > 这个例子是根据实际的生产应用改编而来,但是为了保护机密性,对细节进行了伪装。
8 | 
9 | > 现在你是和平之城的著名研究员,和平之城的人有一个共同的特点:他们害怕鸟类。为了保护他们,你必须设计一个算法,来检测`飞越和平之城的任何鸟类`,同时警告人们有鸟类飞过。
10 |
11 | > 地方议会为你提供了10,000,000张图片的数据集,这些都是从城市的安全摄像头拍摄到的。图片的标注为:
12 | > * y = 0: 图片中没有鸟类
13 | > * y = 1: 图片中有鸟类
14 |
15 | > 你的目标是设计一个算法,能够对和平之城安全摄像头拍摄的新图像进行分类。
16 |
17 | > 有很多决定要做:
18 | > * 评估指标是什么?
19 | > * 你如何将你的数据分割为训练/验证/测试集?
20 |
21 | > ## 成功的指标
22 | > 地方议会告诉你,他们想要一个算法:
23 |
24 | > 1. 拥有较高的准确度
25 | > 2. 快速运行,只需要很短的时间来分类一个新的图像。
26 | > 3. 可以适应小内存的设备,这样它就可以运行在一个小的处理器上,它将用于城市的安全摄像头上。
27 |
28 | > `注意`: 有三个评估指标使你很难在两种不同的算法之间进行快速选择,并且会减慢你团队开发迭代的速度。对/错?
29 | - [ ] 正确
30 | - [ ] 错误
31 | ___
32 | > 2、经过进一步讨论,地方议会缩小了它的标准:
33 |
34 | > * “我们需要一种算法,可以让我们尽可能精确地知道一只鸟正在飞过和平之城。”
35 | > * “我们希望经过训练的模型用不超过10s的时间对新图像进行分类”
36 | > * “我们希望这个模型能适应于10MB内存的设备。”
37 |
38 | > 如果你有以下三个模型,你会选择哪一个?
39 | - [ ] A.
40 |
41 | |测试准确度|运行时间|内存大小|
42 | |:------------:|:------------:|:------------:|
43 | |97%|1 sec|3MB|
44 | - [ ] B.
45 |
46 | |测试准确度|运行时间|内存大小|
47 | |:------------:|:------------:|:------------:|
48 | |99%|13 sec|9MB|
49 | - [ ] C.
50 |
51 | |测试准确度|运行时间|内存大小|
52 | |:------------:|:------------:|:------------:|
53 | |97%|3 sec|2MB|
54 | - [ ] D.
55 |
56 | |测试准确度|运行时间|内存大小|
57 | |:------------:|:------------:|:------------:|
58 | |98%|9 sec|9MB|
59 | ___
60 | > 3、根据城市的要求,你认为以下哪一项是正确的?
61 | - [ ] 准确度是优化指标; 运行时间和内存大小是满足指标。
62 | - [ ] 准确度是满足指标; 运行时间和内存大小是优化指标。
63 | - [ ] 准确性、运行时间和内存大小都是优化指标,因为你希望在所有这三方面都做得很好。
64 | - [ ] 准确性、运行时间和内存大小都是满足指标,因为你必须在三项方面做得足够好才能使系统被接受。
65 | ___
66 | > ## 4、结构化你的数据
67 | > 在实现你的算法之前,你需要将你的数据分割成训练/验证/测试集,你认为哪一个是最好的选择?
68 |
69 | - [ ] A.
70 |
71 | |训练集|验证集|测试集|
72 | |:------------:|:------------:|:------------:|
73 | |6,000,000|1,000,000|3,000,000|
74 |
75 | - [ ] B.
76 |
77 | |训练集|验证集|测试集|
78 | |:------------:|:------------:|:------------:|
79 | |6,000,000|3,000,000|1,000,000|
80 |
81 | - [ ] C.
82 |
83 | |训练集|验证集|测试集|
84 | |:------------:|:------------:|:------------:|
85 | |9,500,000|250,000|250,000|
86 |
87 | - [ ] D.
88 |
89 | |训练集|验证集|测试集|
90 | |:------------:|:------------:|:------------:|
91 | |3,333,334|3,333,333|3,333,333|
92 |
93 |
94 | ___
95 | > 5、在设置了训练/验证/测试集之后,地方议会再次给你了1,000,000张图片,称为“公民数据”。 显然,和平之城的公民非常害怕鸟类,他们自愿为天空拍照并贴上标签,从而为这些额外的1,000,000张图像贡献力量。 这些图像与地方议会最初给你的图像分布不同,但你认为它对你的算法有帮助。
96 |
97 | > 你不应该将公民数据添加到训练集中,因为这会导致训练/验证/测试集分布变得不同,从而负面影响模型在验证集和测试集性能表现。对/错?
98 | - [ ] 正确
99 | - [ ] 错误
100 | ___
101 | > 6、地方议会的一名成员对机器学习知之甚少,他认为应该将1,000,000个公民的数据图像添加到测试集中,你反对的原因是:
102 | - [ ] 测试集不再反映你最关心的数据(安全摄像头拍摄的图片)的分布。
103 | - [ ] 1,000,000张公民的数据图像与其他数据没有一致的x- >y映射(类似于纽约/底特律的住房价格例子)。
104 | - [ ] 一个更大的测试集将减慢开发迭代速度,因为测试集上评估模型会有计算开销。
105 | - [ ] 这会导致验证集和测试集分布变得不同。这是一个很糟糕的主意,将达不到想要的效果。
106 | ___
107 | > 7、你训练了一个系统,其误差度如下(误差度 = 100% - 准确度):
108 |
109 | |训练集误差|4.0%|
110 | |:------------:|:------------:|
111 | |__验证集误差__|__4.5%__|
112 |
113 | > 这表明,提高性能的一个很好的途径是训练一个更大的网络,以降低4%的训练误差。你同意吗?
114 |
115 | - [ ] 是的,因为有4%的训练误差表明你有很高的偏差。
116 | - [ ] 是的,因为这表明你的模型的偏差高于方差。
117 | - [ ] 不同意,因为方差高于偏差。
118 | - [ ] 不同意,因为没有足够的信息,这什么也说明不了。
119 | ___
120 |
121 | > 8、你让一些人对数据集进行标记,以便找出人们对它的识别度。你发现准确度如下:
122 |
123 | |鸟类专家1|错误率:0.3%|
124 | |:------------:|:------------:|
125 | |__鸟类专家2__|__错误率:0.5%__|
126 | |__普通人1 (非专家)__|__错误率:1.0%__|
127 | |__普通人2 (非专家)__|__错误率:1.2%__|
128 |
129 | > 如果你的目标是将“人类表现”作为贝叶斯错误的基准线(或估计),那么你如何定义“人类表现”?
130 | - [ ] 0.0% (因为不可能做得比这更好)
131 | - [ ] 0.3% (专家1的错误率)
132 | - [ ] 0.4% (0.3 到 0.5 之间)
133 | - [ ] 0.75% (以上所有四个数字的平均值)
134 | ___
135 | > 9、你同意以下哪项陈述?
136 | - [ ] 学习算法的性能可以优于人类表现,但它永远不会优于贝叶斯错误的基准线。
137 | - [ ] 学习算法的性能不可能优于人类表现,但它可以优于贝叶斯错误的基准线。
138 | - [ ] 学习算法的性能不可能优于人类表现,也不可能优于贝叶斯错误的基准线。
139 | - [ ] 学习算法的性能可以优于人类表现,也可以优于贝叶斯错误的基准线。
140 | ___
141 | > 10、你发现一个由鸟类专家组成的团队在辩论和讨论每张图像后,得到了更好的0.1%的表现,所以你将其定义为“人类表现”。在对算法进行深入研究之后,最终得出以下结论:
142 |
143 | |人类表现|0.1%|
144 | |:------------:|:------------:|
145 | |__训练集误差__|__2.0%__|
146 | |__验证集误差__|__2.1%__|
147 |
148 | > 根据你的资料,以下四个选项中哪两个尝试起来是最有希望的?(两个选项。)
149 | - [ ] 训练一个更大的模型,试图在训练集上做得更好。
150 | - [ ] 尝试减少正则化。
151 | - [ ] 尝试增加正则化。
152 | - [ ] 获得更大的训练集以减少差异。
153 | ___
154 | > 11、你在测试集上评估你的模型,并得到以下内容:
155 |
156 | |人类表现|0.1%|
157 | |:------------:|:------------:|
158 | |__训练集误差__|__2.0%__|
159 | |__验证集误差__|__2.1%__|
160 | |__测试集误差__|__7.0%__|
161 |
162 | > 这意味着什么?(两个最佳选项。)
163 | - [ ] 你对验证集过拟合了。
164 | - [ ] 你需要尝试获得更大的验证集。
165 | - [ ] 你没有拟合验证集
166 | - [ ] 你需要更大的测试集。
167 | ___
168 | > 12、在一年后,你完成了这个项目,你终于实现了:
169 |
170 | |人类表现|0.1%|
171 | |:------------:|:------------:|
172 | |__训练集误差__|__0.05%__|
173 | |__验证集误差__|__0.05%__|
174 |
175 | > 你能得出什么结论? (检查所有选项。)
176 | - [ ] 如果测试集足够大,保证这0.05%的误差估计是准确的,这意味着贝叶斯误差是小于等于0.05的。
177 | - [ ] 只有0.09%的进步空间,你应该很快就能够将剩余的差距缩小到0%
178 | - [ ] 这是统计异常(或者是统计噪声的结果),因为它不可能超过人类表现。
179 | - [ ] 现在很难衡量可避免的偏差,因此今后的进展将会放缓。
180 | ___
181 | > 13、事实证明,和平之城也雇佣了你的竞争对手来设计一个系统。你的系统和竞争对手都被提供了相同的运行时间和内存大小的系统,但你的系统有更高的准确性。然而,当你和你的竞争对手的系统进行测试时,和平之城实际上更喜欢竞争对手的系统,因为即使你的整体准确率更高,你也会有更多的假阴性结果(当鸟在空中时没有发出警报)。你该怎么办?
182 |
183 | - [ ] 查看开发过程中开发的所有模型,找出假阴性错误率最低的模型。
184 | - [ ] 要求你的团队在开发过程中同时考虑准确性和假阴率。
185 | - [ ] 重新思考此任务合适的指标,并要求你的团队调整到新指标。
186 | - [ ] 选择假阴率作为新指标,并以这个新指标来驱动所有进一步的开发。
187 | ___
188 | > 14、你轻易击败了你的竞争对手,你的系统现在被部署在和平之城中,并且保护公民免受鸟类攻击! 但在过去几个月中,一种新的鸟类已经慢慢迁移到该地区,因此你系统的性能会逐渐下降,因为你的系统正在测试一种新类型的数据。
189 | 
190 | > 你只有1000张新鸟类的图像,地方政府希望在未来3个月内你能有一个更好的系统。你应该先做什么?
191 | - [ ] 你必须定义一个新的评估指标(使用新的验证/测试集)在 加了新物种的数据集上,并使用它来驱动你的团队进一步发展。
192 | - [ ] 把1000张图片放进训练集,以便让系统更好地对这些鸟类进行训练。
193 | - [ ] 尝试数据增强/数据合成,以获得更多新型鸟类的图像。
194 | - [ ] 将1,000幅图像添加到你的数据集中,并重新组合成一个新的训练/验证/测试集。
195 | ___
196 | > 15、地方议会认为在城市里养更多的猫会有助于吓跑鸟类,他们对你在鸟类探测器上的工作感到非常满意,他们也雇佣你来设计一个猫探测器。(WoW~猫检测器是非常有用的,不是吗?)由于有多年猫检测器的工作经验,你有一个巨大的数据集,你有100,000,000猫的图像,训练这个数据需要大约两个星期。
197 |
198 | > 你同意下面哪些说法?(检查所有选项。)
199 | - [ ] 建立了一个效果比较好的鸟类检测器后,你应该能够采用相同的模型和超参数,并将其应用于猫数据集,因此无需迭代。
200 | - [ ] 如果100,000,000个样本足以建立一个足够好的猫检测器,那么你最好只用10,000,00个样本训练,以便在运行实验的速度上获得≈10倍的加速。即使每个模型的性能稍差一点,因为所用的数据较少。
201 | - [ ] 需要两周的时间来训练将会限制你开发迭代的速度。
202 | - [ ] 购买更快的计算机可以加快团队的开发迭代速度,从而提高团队的生产力。
203 | ___
--------------------------------------------------------------------------------
/trials/C3W1_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C3W1_withAnswers.md:
--------------------------------------------------------------------------------
1 | C3W1 和平之城中的鸟类识别(案例研究)
2 |
3 | ## 测验
4 |
5 | > ## 1.问题陈述
6 |
7 | > 这个例子是根据实际的生产应用改编而来,但是为了保护机密性,对细节进行了伪装。
8 | 
9 | > 现在你是和平之城的著名研究员,和平之城的人有一个共同的特点:他们害怕鸟类。为了保护他们,你必须设计一个算法,来检测`飞越和平之城的任何鸟类`,同时警告人们有鸟类飞过。
10 |
11 | > 地方议会为你提供了10,000,000张图片的数据集,这些都是从城市的安全摄像头拍摄到的。图片的标注为:
12 | > * y = 0: 图片中没有鸟类
13 | > * y = 1: 图片中有鸟类
14 |
15 | > 你的目标是设计一个算法,能够对和平之城安全摄像头拍摄的新图像进行分类。
16 |
17 | > 有很多决定要做:
18 | > * 评估指标是什么?
19 | > * 你如何将你的数据分割为训练/验证/测试集?
20 |
21 | > ## 成功的指标
22 | > 地方议会告诉你,他们想要一个算法:
23 |
24 | > 1. 拥有较高的准确度
25 | > 2. 快速运行,只需要很短的时间来分类一个新的图像。
26 | > 3. 可以适应小内存的设备,这样它就可以运行在一个小的处理器上,它将用于城市的安全摄像头上。
27 |
28 | > `注意`: 有三个评估指标使你很难在两种不同的算法之间进行快速选择,并且会减慢你团队开发迭代的速度。对/错?
29 | - [x] 正确
30 | - [ ] 错误
31 | ___
32 | > 2、经过进一步讨论,地方议会缩小了它的标准:
33 |
34 | > * “我们需要一种算法,可以让我们尽可能精确地知道一只鸟正在飞过和平之城。”
35 | > * “我们希望经过训练的模型用不超过10s的时间对新图像进行分类”
36 | > * “我们希望这个模型能适应于10MB内存的设备。”
37 |
38 | > 如果你有以下三个模型,你会选择哪一个?
39 | - [ ] A.
40 |
41 | |测试准确度|运行时间|内存大小|
42 | |:------------:|:------------:|:------------:|
43 | |97%|1 sec|3MB|
44 | - [ ] B.
45 |
46 | |测试准确度|运行时间|内存大小|
47 | |:------------:|:------------:|:------------:|
48 | |99%|13 sec|9MB|
49 | - [ ] C.
50 |
51 | |测试准确度|运行时间|内存大小|
52 | |:------------:|:------------:|:------------:|
53 | |97%|3 sec|2MB|
54 | - [x] D.
55 |
56 | |测试准确度|运行时间|内存大小|
57 | |:------------:|:------------:|:------------:|
58 | |98%|9 sec|9MB|
59 |
60 | ```diff
61 | 只要运行时间少于10秒,就很好了。因此,在确保运行时间小于10秒后,只需要尽可能地使测试准确度最高。
62 | ```
63 | ___
64 | > 3、根据城市的要求,你认为以下哪一项是正确的?
65 | - [x] 准确度是优化指标; 运行时间和内存大小是满足指标。
66 | - [ ] 准确度是满足指标; 运行时间和内存大小是优化指标。
67 | - [ ] 准确性、运行时间和内存大小都是优化指标,因为你希望在所有这三方面都做得很好。
68 | - [ ] 准确性、运行时间和内存大小都是满足指标,因为你必须在三项方面做得足够好才能使系统被接受。
69 | ___
70 | > ## 4、结构化你的数据
71 | > 在实现你的算法之前,你需要将你的数据分割成训练/验证/测试集,你认为哪一个是最好的选择?
72 |
73 | - [ ] A.
74 |
75 | |训练集|验证集|测试集|
76 | |:------------:|:------------:|:------------:|
77 | |6,000,000|1,000,000|3,000,000|
78 |
79 | - [ ] B.
80 |
81 | |训练集|验证集|测试集|
82 | |:------------:|:------------:|:------------:|
83 | |6,000,000|3,000,000|1,000,000|
84 |
85 | - [x] C.
86 |
87 | |训练集|验证集|测试集|
88 | |:------------:|:------------:|:------------:|
89 | |9,500,000|250,000|250,000|
90 |
91 | - [ ] D.
92 |
93 | |训练集|验证集|测试集|
94 | |:------------:|:------------:|:------------:|
95 | |3,333,334|3,333,333|3,333,333|
96 |
97 |
98 | ___
99 | > 5、在设置了训练/验证/测试集之后,地方议会再次给你了1,000,000张图片,称为“公民数据”。 显然,和平之城的公民非常害怕鸟类,他们自愿为天空拍照并贴上标签,从而为这些额外的1,000,000张图像贡献力量。 这些图像与地方议会最初给你的图像分布不同,但你认为它对你的算法有帮助。
100 |
101 | > 你不应该将公民数据添加到训练集中,因为这会导致训练/验证/测试集分布变得不同,从而负面影响模型在验证集和测试集性能表现。对/错?
102 | - [ ] 正确
103 | - [x] 错误
104 |
105 | ```diff
106 | 将此数据添加到训练集将改变训练集的分布。然而,训练集和验证集的分布不同并不是问题。
107 | 相反,验证集和测试集的分布不同,将造成非常多的问题。
108 | ```
109 | ___
110 | > 6、地方议会的一名成员对机器学习知之甚少,他认为应该将1,000,000个公民的数据图像添加到测试集中,你反对的原因是:
111 | - [x] 测试集不再反映你最关心的数据(安全摄像头拍摄的图片)的分布。
112 | - [ ] 1,000,000张公民的数据图像与其他数据没有一致的x- >y映射(类似于纽约/底特律的住房价格例子)。
113 | - [ ] 一个更大的测试集将减慢开发迭代速度,因为测试集上评估模型会有计算开销。
114 | - [x] 这会导致验证集和测试集分布变得不同。这是一个很糟糕的主意,将达不到想要的效果。
115 | ___
116 | > 7、你训练了一个系统,其误差度如下(误差度 = 100% - 准确度):
117 |
118 | |训练集误差|4.0%|
119 | |:------------:|:------------:|
120 | |__验证集误差__|__4.5%__|
121 |
122 | > 这表明,提高性能的一个很好的途径是训练一个更大的网络,以降低4%的训练误差。你同意吗?
123 |
124 | - [ ] 是的,因为有4%的训练误差表明你有很高的偏差。
125 | - [ ] 是的,因为这表明你的模型的偏差高于方差。
126 | - [ ] 不同意,因为方差高于偏差。
127 | - [x] 不同意,因为没有足够的信息,这什么也说明不了。
128 | ___
129 |
130 | > 8、你让一些人对数据集进行标记,以便找出人们对它的识别度。你发现准确度如下:
131 |
132 | |鸟类专家1|错误率:0.3%|
133 | |:------------:|:------------:|
134 | |__鸟类专家2__|__错误率:0.5%__|
135 | |__普通人1 (非专家)__|__错误率:1.0%__|
136 | |__普通人2 (非专家)__|__错误率:1.2%__|
137 |
138 | > 如果你的目标是将“人类表现”作为贝叶斯错误的基准线(或估计),那么你如何定义“人类表现”?
139 | - [ ] 0.0% (因为不可能做得比这更好)
140 | - [x] 0.3% (专家1的错误率)
141 | - [ ] 0.4% (0.3 到 0.5 之间)
142 | - [ ] 0.75% (以上所有四个数字的平均值)
143 | ___
144 | > 9、你同意以下哪项陈述?
145 | - [x] 学习算法的性能可以优于人类表现,但它永远不会优于贝叶斯错误的基准线。
146 | - [ ] 学习算法的性能不可能优于人类表现,但它可以优于贝叶斯错误的基准线。
147 | - [ ] 学习算法的性能不可能优于人类表现,也不可能优于贝叶斯错误的基准线。
148 | - [ ] 学习算法的性能可以优于人类表现,也可以优于贝叶斯错误的基准线。
149 | ___
150 | > 10、你发现一个由鸟类专家组成的团队在辩论和讨论每张图像后,得到了更好的0.1%的表现,所以你将其定义为“人类表现”。在对算法进行深入研究之后,最终得出以下结论:
151 |
152 | |人类表现|0.1%|
153 | |:------------:|:------------:|
154 | |__训练集误差__|__2.0%__|
155 | |__验证集误差__|__2.1%__|
156 |
157 | > 根据你的资料,以下四个选项中哪两个尝试起来是最有希望的?(两个选项。)
158 | - [x] 训练一个更大的模型,试图在训练集上做得更好。
159 | - [x] 尝试减少正则化。
160 | - [ ] 尝试增加正则化。
161 | - [ ] 获得更大的训练集以减少差异。
162 | ___
163 | > 11、你在测试集上评估你的模型,并得到以下内容:
164 |
165 | |人类表现|0.1%|
166 | |:------------:|:------------:|
167 | |__训练集误差__|__2.0%__|
168 | |__验证集误差__|__2.1%__|
169 | |__测试集误差__|__7.0%__|
170 |
171 | > 这意味着什么?(两个最佳选项。)
172 | - [x] 你对验证集过拟合了。
173 | - [x] 你需要尝试获得更大的验证集。
174 | - [ ] 你没有拟合验证集
175 | - [ ] 你需要更大的测试集。
176 | ___
177 | > 12、在一年后,你完成了这个项目,你终于实现了:
178 |
179 | |人类表现|0.1%|
180 | |:------------:|:------------:|
181 | |__训练集误差__|__0.05%__|
182 | |__验证集误差__|__0.05%__|
183 |
184 | > 你能得出什么结论? (检查所有选项。)
185 | - [x] 如果测试集足够大,保证这0.05%的误差估计是准确的,这意味着贝叶斯误差是小于等于0.05的。
186 | - [ ] 只有0.09%的进步空间,你应该很快就能够将剩余的差距缩小到0%
187 | - [ ] 这是统计异常(或者是统计噪声的结果),因为它不可能超过人类表现。
188 | - [x] 现在很难衡量可避免的偏差,因此今后的进展将会放缓。
189 | ___
190 | > 13、事实证明,和平之城也雇佣了你的竞争对手来设计一个系统。你的系统和竞争对手都被提供了相同的运行时间和内存大小的系统,但你的系统有更高的准确性。然而,当你和你的竞争对手的系统进行测试时,和平之城实际上更喜欢竞争对手的系统,因为即使你的整体准确率更高,你也会有更多的假阴性结果(当鸟在空中时没有发出警报)。你该怎么办?
191 |
192 | - [ ] 查看开发过程中开发的所有模型,找出假阴性错误率最低的模型。
193 | - [ ] 要求你的团队在开发过程中同时考虑准确性和假阴率。
194 | - [x] 重新思考此任务合适的指标,并要求你的团队调整到新指标。
195 | - [ ] 选择假阴率作为新指标,并以这个新指标来驱动所有进一步的开发。
196 | ___
197 | > 14、你轻易击败了你的竞争对手,你的系统现在被部署在和平之城中,并且保护公民免受鸟类攻击! 但在过去几个月中,一种新的鸟类已经慢慢迁移到该地区,因此你系统的性能会逐渐下降,因为你的系统正在测试一种新类型的数据。
198 | 
199 | > 你只有1000张新鸟类的图像,地方政府希望在未来3个月内你能有一个更好的系统。你应该先做什么?
200 | - [x] 你必须定义一个新的评估指标(使用新的验证/测试集)在 加了新物种的数据集上,并使用它来驱动你的团队进一步发展。
201 | - [ ] 把1000张图片放进训练集,以便让系统更好地对这些鸟类进行训练。
202 | - [ ] 尝试数据增强/数据合成,以获得更多新型鸟类的图像。
203 | - [ ] 将1,000幅图像添加到你的数据集中,并重新组合成一个新的训练/验证/测试集。
204 | ___
205 | > 15、地方议会认为在城市里养更多的猫会有助于吓跑鸟类,他们对你在鸟类探测器上的工作感到非常满意,他们也雇佣你来设计一个猫探测器。(WoW~猫检测器是非常有用的,不是吗?)由于有多年猫检测器的工作经验,你有一个巨大的数据集,你有100,000,000猫的图像,训练这个数据需要大约两个星期。
206 |
207 | > 你同意下面哪些说法?(检查所有选项。)
208 | - [ ] 建立了一个效果比较好的鸟类检测器后,你应该能够采用相同的模型和超参数,并将其应用于猫数据集,因此无需迭代。
209 | - [x] 如果100,000,000个样本足以建立一个足够好的猫检测器,那么你最好只用10,000,00个样本训练,以便在运行实验的速度上获得≈10倍的加速。即使每个模型的性能稍差一点,因为所用的数据较少。
210 | - [x] 需要两周的时间来训练将会限制你开发迭代的速度。
211 | - [x] 购买更快的计算机可以加快团队的开发迭代速度,从而提高团队的生产力。
212 | ___
--------------------------------------------------------------------------------
/trials/C3W2_noAnswers.md:
--------------------------------------------------------------------------------
1 | C3W2 自动驾驶(案例研究)
2 |
3 | ## 测验
4 |
5 | > 1、为了帮助你练习机器学习策略,本周我们将介绍另一种场景并询问你将如何做。我们认为这个机器学习项目"模拟器",可以帮助我们明确是什么在主导机器学习项目进展的。
6 |
7 | > 你受雇于一家生产自动驾驶汽车的初创公司。你负责检测图片中的路标(停车标志,行人过路标志,前方施工标志)和交通信号标志(红灯和绿灯),目标是识别哪些对象出现在每个图片中。
8 | 例如,上面的图片包含一个行人过路标志和红色交通信号灯标志。
9 | 
10 |
11 | > 有100,000张带标签的图片是使用你汽车的前置摄像头拍摄的。这也是你最关心的数据分布,你认为可以从互联网上获得更大的数据集,即使互联网数据的分布不相同,但也可能对训练有所帮助。
12 |
13 | > 你刚刚开始着手这个项目,你该做的第一件事是什么?假设下面的每个步骤将花费大约相等的时间(大约几天)。
14 | - [ ] 花几天的时间检测这些任务的人类表现,以便能够得到贝叶斯误差的准确估计。
15 | - [ ] 花几天时间训练一个基本模型,看看它会犯什么错误。
16 | - [ ] 花几天的时间使用汽车前置摄像头采集更多数据,以便更好地了解每单位时间可收集多少数据。
17 | - [ ] 花几天时间去获取互联网的数据,这样你就能更好地了解哪些数据是可用的。
18 | ___
19 | > 2、你的目标是检测图片中的道路标志(停车标志、行人过路标志、前方施工标志)和交通信号(红灯和绿灯),目标是识别这些对象中的哪一个出现在每个图像中。你计划使用一个深层的神经网络,在隐藏层中使用relu单元。
20 |
21 | > 对于输出层,softmax对于输出层是一个很好的选择,因为这是一个多任务学习问题。对/错?
22 | - [ ] 正确
23 | - [ ] 错误
24 | ___
25 | > 3、你正在做误差分析并计算错误率,在这些数据集中,你认为你应该手动仔细地检查哪些图片?
26 | - [ ] 随机选择500图片
27 | - [ ] 10,000张算法分类错误的图片
28 | - [ ] 随机选择10,000图片
29 | - [ ] 500张算法分类错误的图片
30 | ___
31 | > 4.在处理了数据几周后,你的团队得到以下数据:
32 | > * 100,000 张使用汽车前摄像头拍摄的标记了的图片
33 | > * 900,000 张从互联网下载的标记了道路的图片
34 | > * 每张图片的标签都精确地表示任何的特定路标和交通信号的组合
35 |
36 | > 例如,y(i)= [1, 0, 0, 1, 0] 表示图片包含了停车标志和红色交通信号灯。
37 |
38 | > 因为这是一个多任务学习问题,你需要让所有y(i)向量被完全标记。
39 | > 如果一个样本等于 y(i)= [0, 1, ?, ?, 1],那么学习算法将无法使用该样本,是正确的吗?
40 | - [ ] 正确
41 | - [ ] 错误
42 | ___
43 | > 5、你所关心的数据的分布包含了你汽车的前置摄像头的图片,这与你在网上找到并下载的图片不同。如何将数据集分割为训练/验证/测试集?
44 | - [ ] 选择从互联网上的90万张图片和汽车前置摄像头的2万张图片作为训练集,剩余的8万张图片在验证集和测试集中平均分配。
45 | - [ ] 将10万张前摄像头的图片与在网上找到的90万张图片随机混合,使得所有数据都随机分布。 将有100万张图片的数据集分割为:有60万张图片的训练集、有20万张图片的验证集和有20万张图片的测试集。
46 | - [ ] 选择从互联网上的90万张图片和汽车前置摄像头的8万张图片作为训练集,剩余的2万张图片在验证集和测试集中平均分配。
47 | - [ ] 将10万张前摄像头的图片与在网上找到的90万张图片随机混合,使得所有数据都随机分布。将有100万张图片的数据集分割为:有98万张图片的训练集、有1万张图片的验证集和有1万张图片的测试集。
48 | ___
49 | > 6、你训练了一个系统,其误差度如下(误差度 = 100% - 准确度):
50 |
51 | |数据集|图片数量|算法产生的错误|
52 | |:------------:|:------------:|:------------:|
53 | |训练集|随机抽取94万张图片(从90万张互联网图片 + 6万张汽车前摄像头拍摄的图片中抽取)|8.8%|
54 | |训练-验证集|随机抽取2万张图片(从90万张互联网图片 + 6万张汽车前摄像头拍摄的图片中抽取)|9.1%|
55 | |验证集|2万张汽车前摄像头拍摄的图片|14.3%|
56 | |测试集|2万张汽车前摄像头拍摄的图片|14.8%|
57 |
58 | > 你还知道道路标志和交通信号分类的人为错误率大约为0.5%。以下哪项是正确的(检查所有选项)?
59 | - [ ] 你有很大的方差问题,因为你的模型不能很好地适应来自同一训练集上的分布的数据,即使是它从来没有见过的数据。
60 | - [ ] 你有一个很大的数据不匹配问题,因为你的模型在训练-验证集上比在验证集上做得好得多。
61 | - [ ] 你有一个很大的可避免偏差问题,因为你的训练集上的错误率比人为错误率高很多。
62 | - [ ] 你有很大的方差的问题,因为你的训练集上的错误率比人类错误率要高得多。
63 | - [ ] 由于验证集和测试集的错误率非常接近,所以你的算法过拟合了验证集。
64 | ___
65 | > 7、根据上一个问题的表格,一位朋友认为 训练数据分布 比 验证/测试分布 的图片要容易识别得多。你怎么看?
66 | - [ ] 你的朋友是对的。 (即训练数据分布的贝叶斯误差可能低于 验证/测试分布)。
67 | - [ ] 你的朋友错了。(即训练数据分布的贝叶斯误差可能比 验证/测试分布 更高)。
68 | - [ ] 没有足够的信息来判断你的朋友是对还是错。
69 | - [ ] 无论你的朋友是对还是错,这些信息都对你没有用。
70 | ___
71 |
72 | > 8、你决定将重点放在验证集上, 并手动检查是什么原因导致的错误。下面是一个表, 总结了你的发现:
73 |
74 | |验证集总误差|14.3%|
75 | |:------------:|:------------:|
76 | |由于数据标记不正确而导致的错误|4.1%|
77 | |由于雾天的图片引起的错误|8.0%|
78 | |由于雨滴落在汽车前摄像头上造成的错误|2.2%|
79 | |其他原因引起的错误|1.0%|
80 | > 在这个表格中,4.1%、8.0%等误差的比例是总验证集(不仅仅是算法预测错误的样本)的一小部分,即大约 8.0 / 14.3 = 56%的错误是由于雾天的图片造成的。
81 |
82 | > 从这个分析的结果意味着团队最先做的应该是把更多雾天的图片纳入训练集,以便解决该类别中的8%的错误,对吗?
83 | - [ ] 是的,因为它是错误率最大的类别。正如视频中所讨论的,我们应该对错误率进行按大小排序,以避免浪费团队的时间。
84 | - [ ] 是的,因为它比其他的错误类别错误率加在一起都大(8.0 > 4.1+2.2+1.0)。
85 | - [ ] 错误,因为这取决于添加这些数据的容易程度以及你要考虑团队认为它会有多大帮助。
86 | - [ ] 错误,因为数据增强(通过清晰的图像+雾的效果合成雾天的图像)更有效。
87 | ___
88 | > 9、你可以买一个专门设计的雨刮,帮助擦掉正面相机上的一些雨滴。 根据上一个问题的表格,你同意以下哪些陈述?
89 | - [ ] 对于挡风玻璃雨刷可以改善模型的性能而言,2.2%是改善的最大值。
90 | - [ ] 对于挡风玻璃雨刷可以改善模型的性能而言,2.2%是改善最小值。
91 | - [ ] 对于挡风玻璃雨刷可以改善模型的性能而言,改善的性能就是2.2%。
92 | - [ ] 在最坏的情况下,2.2%将是一个合理的估计,因为挡风玻璃刮水器会损坏模型的性能。
93 | ___
94 | > 10、你决定使用数据增强来解决雾天的图像,你可以在互联网上找到1,000张雾的照片,然后拿清晰的图片和雾来合成雾天图片,如下所示:
95 | 
96 |
97 | > 你同意下列哪种说法?(检查所有选项)
98 | - [ ] 只要合成的雾对人眼来说是真实的,你就可以确信合成的数据和真实的雾天图像差不多,因为人类视觉的精准性有助于你正在解决的问题。
99 | - [ ] 只要将1000张雾图与更多的(>>1000)干净/无雾图像组合,就不会有过匹配的风险。
100 | - [ ] 在训练数据集中添加,看上去像是从汽车正面摄像头拍摄的真实雾状照片的合成图像,不会帮助模型改进,因为它会引入可避免的偏差。
101 | ___
102 | > 11、在进一步处理问题之后,你已决定更正验证集上错误标记的数据。 你同意以下哪些陈述? (检查所有选项)。
103 | - [ ] 你还应该更正测试集中错误标记的数据,使验证和测试集来自同一分布。
104 | - [ ] 你应该更正训练集中的错误标记数据, 以免你现在的训练集与验证集更不同。
105 | - [ ] 你不应该更正测试集中错误标记的数据,使验证和测试集来自同一分布。
106 | - [ ] 你不应更正训练集中的错误标记的数据, 以免现在的训练集与验证集更不同。
107 |
108 | ___
109 | > 12、到目前为止,你的算法仅能识别红色和绿色交通灯,该公司的一位同事开始着手识别黄色交通灯(一些国家称之为橙色光而不是黄色光,我们将使用美国的黄色标准),含有黄色灯的图像非常罕见,而且她没有足够的数据来建立一个好的模型,她希望你能利用迁移学习帮助她。
110 |
111 | > 你将告诉你同事什么?
112 | - [ ] 她应该尝试使用在你的数据集上预先训练过的权重,并用黄光数据集进行进一步的微调。
113 | - [ ] 如果她有10,000个黄光图像,从你的数据集中随机抽取10,000张图像,并将你和她的数据放在一起,这可以防止你的数据集“淹没”她的黄灯数据集。
114 | - [ ] 你没办法帮助她,因为你的数据分布与她的不同,而且缺乏黄灯标签的数据。
115 | - [ ] 建议她尝试多任务学习,而不是使用所有数据进行迁移学习。
116 | ___
117 | > 13、另一位同事想要使用放置在车外的麦克风来更好地听清你周围是否有其他车辆。 例如,如果你身后有警车,你就可以听到警笛声。 但是,他们没有太多的训练这个音频系统,你能帮忙吗?
118 |
119 | - [ ] 从视觉数据集迁移学习可以帮助你的同事加速进展,多任务学习似乎不太有希望。
120 | - [ ] 从你的视觉数据集中进行多任务学习可以帮助你的同事加速进展,迁移学习似乎不太有希望。
121 | - [ ] 迁移学习或多任务学习都可以帮助我们的同事加速进展。
122 | - [ ] 迁移学习和多任务学习都不是很有希望。
123 | ___
124 | > 14、为了识别红灯和绿灯,你一直在使用这种方法
125 | > * (A): 将图像(x)输入到神经网络,并直接学习映射以预测是否存在红光和/或绿光(y)。
126 |
127 | > 一个队友提出了另一种两步走的方法:
128 | > * (B):在这个两步法中,你首先要检测图像中的交通灯(如果有),然后确定交通信号灯中照明灯的颜色。
129 |
130 | > 在这两者之间,方法B更多的是端到端的方法,因为它在输入端和输出端有不同的步骤,这种说法正确吗?
131 | - [ ] 正确
132 | - [ ] 错误
133 | ___
134 | > 15、如果你有一个____,在上面的问题中方法A往往比B方法更有效,
135 |
136 | > 你同意下面哪些说法?(检查所有选项。)
137 | - [ ] 大训练集
138 | - [ ] 多任务学习的问题
139 | - [ ] 偏差比较大的问题
140 | - [ ] 高贝叶斯误差的问题
141 | ___
--------------------------------------------------------------------------------
/trials/C3W2_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C3W2_withAnswers.md:
--------------------------------------------------------------------------------
1 | C3W2 自动驾驶(案例研究)
2 |
3 | ## 测验
4 |
5 | > 1、为了帮助你练习机器学习策略,本周我们将介绍另一种场景并询问你将如何做。我们认为这个机器学习项目"模拟器",可以帮助我们明确是什么在主导机器学习项目进展的。
6 |
7 | > 你受雇于一家生产自动驾驶汽车的初创公司。你负责检测图片中的路标(停车标志,行人过路标志,前方施工标志)和交通信号标志(红灯和绿灯),目标是识别哪些对象出现在每个图片中。
8 | 例如,上面的图片包含一个行人过路标志和红色交通信号灯标志。
9 | 
10 |
11 | > 有100,000张带标签的图片是使用你汽车的前置摄像头拍摄的。这也是你最关心的数据分布,你认为可以从互联网上获得更大的数据集,即使互联网数据的分布不相同,但也可能对训练有所帮助。
12 |
13 | > 你刚刚开始着手这个项目,你该做的第一件事是什么?假设下面的每个步骤将花费大约相等的时间(大约几天)。
14 | - [ ] 花几天的时间检测这些任务的人类表现,以便能够得到贝叶斯误差的准确估计。
15 | - [x] 花几天时间训练一个基本模型,看看它会犯什么错误。
16 |
17 | ```diff
18 | 机器学习是一个高度迭代的过程,如果你训练一个基本模型并进行误差分析(看看它会犯什么错误)
19 | 这将有助于你找到更有帮助的方向
20 | ```
21 | - [ ] 花几天的时间使用汽车前置摄像头采集更多数据,以便更好地了解每单位时间可收集多少数据。
22 | - [ ] 花几天时间去获取互联网的数据,这样你就能更好地了解哪些数据是可用的。
23 | ___
24 | > 2、你的目标是检测图片中的道路标志(停车标志、行人过路标志、前方施工标志)和交通信号(红灯和绿灯),目标是识别这些对象中的哪一个出现在每个图像中。你计划使用一个深层的神经网络,在隐藏层中使用relu单元。
25 |
26 | > 对于输出层,softmax对于输出层是一个很好的选择,因为这是一个多任务学习问题。对/错?
27 | - [ ] 正确
28 | - [x] 错误
29 | ```diff
30 | 如果每个图片中只有一个可能性:停止标志、减速带、人行横道、红绿灯, 那么SoftMax将是一个很好的选择。
31 | ```
32 | ___
33 | > 3、你正在做误差分析并计算错误率,在这些数据集中,你认为你应该手动仔细地检查哪些图片?
34 | - [ ] 随机选择500图片
35 | - [ ] 10,000张算法分类错误的图片
36 | - [ ] 随机选择10,000图片
37 | - [x] 500张算法分类错误的图片
38 | ```diff
39 | 查看算法分类出错的那些图片是非常重要的,由于查看每张分类出错的图片不太实际
40 | 所以我们需要随机选择500个这样的图片并分析出现这种错误的原因
41 | ```
42 | ___
43 | > 4.在处理了数据几周后,你的团队得到以下数据:
44 | > * 100,000 张使用汽车前摄像头拍摄的标记了的图片
45 | > * 900,000 张从互联网下载的标记了道路的图片
46 | > * 每张图片的标签都精确地表示任何的特定路标和交通信号的组合
47 |
48 | > 例如,y(i)= [1, 0, 0, 1, 0] 表示图片包含了停车标志和红色交通信号灯。
49 |
50 | > 因为这是一个多任务学习问题,你需要让所有y(i)向量被完全标记。
51 | > 如果一个样本等于 y(i)= [0, 1, ?, ?, 1],那么学习算法将无法使用该样本,是正确的吗?
52 | - [ ] 正确
53 | - [x] 错误
54 | ___
55 | > 5、你所关心的数据的分布包含了你汽车的前置摄像头的图片,这与你在网上找到并下载的图片不同。如何将数据集分割为训练/验证/测试集?
56 | - [ ] 选择从互联网上的90万张图片和汽车前置摄像头的2万张图片作为训练集,剩余的8万张图片在验证集和测试集中平均分配。
57 | - [ ] 将10万张前摄像头的图片与在网上找到的90万张图片随机混合,使得所有数据都随机分布。 将有100万张图片的数据集分割为:有60万张图片的训练集、有20万张图片的验证集和有20万张图片的测试集。
58 | - [x] 选择从互联网上的90万张图片和汽车前置摄像头的8万张图片作为训练集,剩余的2万张图片在验证集和测试集中平均分配。
59 | ```diff
60 | 正如在课堂上看到的那样,分配数据的方式非常重要
61 | 你的训练和验证集的分布类似于“现实生活”数据。此外,测试集应包含你实际关心的足够数量的“现实生活”数据。
62 | ```
63 | - [ ] 将10万张前摄像头的图片与在网上找到的90万张图片随机混合,使得所有数据都随机分布。将有100万张图片的数据集分割为:有98万张图片的训练集、有1万张图片的验证集和有1万张图片的测试集。
64 | ___
65 | > 6、你训练了一个系统,其误差度如下(误差度 = 100% - 准确度):
66 |
67 | |数据集|图片数量|算法产生的错误|
68 | |:------------:|:------------:|:------------:|
69 | |训练集|随机抽取94万张图片(从90万张互联网图片 + 6万张汽车前摄像头拍摄的图片中抽取)|8.8%|
70 | |训练-验证集|随机抽取2万张图片(从90万张互联网图片 + 6万张汽车前摄像头拍摄的图片中抽取)|9.1%|
71 | |验证集|2万张汽车前摄像头拍摄的图片|14.3%|
72 | |测试集|2万张汽车前摄像头拍摄的图片|14.8%|
73 |
74 | > 你还知道道路标志和交通信号分类的人为错误率大约为0.5%。以下哪项是正确的(检查所有选项)?
75 | - [ ] 你有很大的方差问题,因为你的模型不能很好地适应来自同一训练集上的分布的数据,即使是它从来没有见过的数据。
76 | - [x] 你有一个很大的数据不匹配问题,因为你的模型在训练-验证集上比在验证集上做得好得多。
77 | - [x] 你有一个很大的可避免偏差问题,因为你的训练集上的错误率比人为错误率高很多。
78 | - [ ] 你有很大的方差的问题,因为你的训练集上的错误率比人类错误率要高得多。
79 | - [ ] 由于验证集和测试集的错误率非常接近,所以你的算法过拟合了验证集。
80 | ___
81 | > 7、根据上一个问题的表格,一位朋友认为 训练数据分布 比 验证/测试分布 的图片要容易识别得多。你怎么看?
82 | - [ ] 你的朋友是对的。 (即训练数据分布的贝叶斯误差可能低于 验证/测试分布)。
83 | - [ ] 你的朋友错了。(即训练数据分布的贝叶斯误差可能比 验证/测试分布 更高)。
84 | - [x] 没有足够的信息来判断你的朋友是对还是错。
85 | ```diff
86 | 为了了解这一点,我们必须在两个分布上分别测量人的水平误差
87 | 该算法对训练的分布数据有更好的效果。但我们不确定这是因为它被训练在数据上,或者它比验证/测试分布更容易。
88 | ```
89 | - [ ] 无论你的朋友是对还是错,这些信息都对你没有用。
90 | ___
91 |
92 | > 8、你决定将重点放在验证集上, 并手动检查是什么原因导致的错误。下面是一个表, 总结了你的发现:
93 |
94 | |验证集总误差|14.3%|
95 | |:------------:|:------------:|
96 | |由于数据标记不正确而导致的错误|4.1%|
97 | |由于雾天的图片引起的错误|8.0%|
98 | |由于雨滴落在汽车前摄像头上造成的错误|2.2%|
99 | |其他原因引起的错误|1.0%|
100 | > 在这个表格中,4.1%、8.0%等误差的比例是总验证集(不仅仅是算法预测错误的样本)的一小部分,即大约 8.0 / 14.3 = 56%的错误是由于雾天的图片造成的。
101 |
102 | > 从这个分析的结果意味着团队最先做的应该是把更多雾天的图片纳入训练集,以便解决该类别中的8%的错误,对吗?
103 | - [ ] 是的,因为它是错误率最大的类别。正如视频中所讨论的,我们应该对错误率进行按大小排序,以避免浪费团队的时间。
104 | - [ ] 是的,因为它比其他的错误类别错误率加在一起都大(8.0 > 4.1+2.2+1.0)。
105 | - [x] 错误,因为这取决于添加这些数据的容易程度以及你要考虑团队认为它会有多大帮助。
106 | - [ ] 错误,因为数据增强(通过清晰的图像+雾的效果合成雾天的图像)更有效。
107 | ___
108 | > 9、你可以买一个专门设计的雨刮,帮助擦掉正面相机上的一些雨滴。 根据上一个问题的表格,你同意以下哪些陈述?
109 | - [x] 对于挡风玻璃雨刷可以改善模型的性能而言,2.2%是改善的最大值。
110 | ```diff
111 | 一般而言,解决了雨滴的问题你的错误率可能不会完全降低2.2%
112 | 如果你的数据集是无限大的, 改善2.2% 将是一个理想的估计, 买一个雨刮是应该可以改善性能的。
113 | ```
114 | - [ ] 对于挡风玻璃雨刷可以改善模型的性能而言,2.2%是改善最小值。
115 | - [ ] 对于挡风玻璃雨刷可以改善模型的性能而言,改善的性能就是2.2%。
116 | - [ ] 在最坏的情况下,2.2%将是一个合理的估计,因为挡风玻璃刮水器会损坏模型的性能。
117 | ___
118 | > 10、你决定使用数据增强来解决雾天的图像,你可以在互联网上找到1,000张雾的照片,然后拿清晰的图片和雾来合成雾天图片,如下所示:
119 | 
120 |
121 | > 你同意下列哪种说法?(检查所有选项)
122 | - [x] 只要合成的雾对人眼来说是真实的,你就可以确信合成的数据和真实的雾天图像差不多,因为人类视觉的精准性有助于你正在解决的问题。
123 | ```diff
124 | 如果合成的图像看起来逼真, 就如同添加了雾天的有用数据来识别道路标志和交通信号一样。
125 | ```
126 | - [ ] 只要将1000张雾图与更多的(>>1000)干净/无雾图像组合,就不会有过匹配的风险。
127 | - [ ] 在训练数据集中添加,看上去像是从汽车正面摄像头拍摄的真实雾状照片的合成图像,不会帮助模型改进,因为它会引入可避免的偏差。
128 | ___
129 | > 11、在进一步处理问题之后,你已决定更正验证集上错误标记的数据。 你同意以下哪些陈述? (检查所有选项)。
130 | - [x] 你还应该更正测试集中错误标记的数据,使验证和测试集来自同一分布。
131 | ```diff
132 | 因为你需要确保你的验证和测试数据来自相同的分布,使你的团队的迭代验证过程高效。
133 | ```
134 | - [ ] 你应该更正训练集中的错误标记数据, 以免你现在的训练集与验证集更不同。
135 | - [ ] 你不应该更正测试集中错误标记的数据,使验证和测试集来自同一分布。
136 | - [x] 你不应更正训练集中的错误标记的数据, 以免现在的训练集与验证集更不同。
137 | ```diff
138 | 深度学习算法有较强的鲁棒性,就算具有稍微不同的训练和验证分布也没关系。
139 | ```
140 | ___
141 | > 12、到目前为止,你的算法仅能识别红色和绿色交通灯,该公司的一位同事开始着手识别黄色交通灯(一些国家称之为橙色光而不是黄色光,我们将使用美国的黄色标准),含有黄色灯的图像非常罕见,而且她没有足够的数据来建立一个好的模型,她希望你能利用迁移学习帮助她。
142 |
143 | > 你将告诉你同事什么?
144 | - [x] 她应该尝试使用在你的数据集上预先训练过的权重,并用黄光数据集进行进一步的微调。
145 | ```diff
146 | 你已经在一个庞大的数据集上训练了你的模型,并且她只有一个小数据集。
147 |
148 | 尽管标签不同,但你的模型参数已经过训练,
149 | 可以识别道路和交通图像的许多特征,这些特征对于她的问题很有用。
150 |
151 | 这对于迁移学习来说是一个完美的例子,她可以从一个与你的架构相同的模型开始,
152 | 改变最后一个隐藏层之后的内容,并使用你的训练参数对其进行初始化。
153 | ```
154 | - [ ] 如果她有10,000个黄光图像,从你的数据集中随机抽取10,000张图像,并将你和她的数据放在一起,这可以防止你的数据集“淹没”她的黄灯数据集。
155 | - [ ] 你没办法帮助她,因为你的数据分布与她的不同,而且缺乏黄灯标签的数据。
156 | - [ ] 建议她尝试多任务学习,而不是使用所有数据进行迁移学习。
157 | ___
158 | > 13、另一位同事想要使用放置在车外的麦克风来更好地听清你周围是否有其他车辆。 例如,如果你身后有警车,你就可以听到警笛声。 但是,他们没有太多的训练这个音频系统,你能帮忙吗?
159 |
160 | - [ ] 从视觉数据集迁移学习可以帮助你的同事加速进展,多任务学习似乎不太有希望。
161 | - [ ] 从你的视觉数据集中进行多任务学习可以帮助你的同事加速进展,迁移学习似乎不太有希望。
162 | - [ ] 迁移学习或多任务学习都可以帮助我们的同事加速进展。
163 | - [x] 迁移学习和多任务学习都不是很有希望。
164 | ```diff
165 | 他试图解决的问题与你的问题完全不同,不同的数据集结构可能无法使用迁移学习或多任务学习。
166 | ```
167 | ___
168 | > 14、为了识别红灯和绿灯,你一直在使用这种方法
169 | > * (A): 将图像(x)输入到神经网络,并直接学习映射以预测是否存在红光和/或绿光(y)。
170 |
171 | > 一个队友提出了另一种两步走的方法:
172 | > * (B):在这个两步法中,你首先要检测图像中的交通灯(如果有),然后确定交通信号灯中照明灯的颜色。
173 |
174 | > 在这两者之间,方法B更多的是端到端的方法,因为它在输入端和输出端有不同的步骤,这种说法正确吗?
175 | - [ ] 正确
176 | - [x] 错误
177 | ```diff
178 | (A)是一种端到端的方法,因为它直接将输入(x)映射到输出(y)
179 | ```
180 | ___
181 | > 15、如果你有一个____,在上面的问题中方法A往往比B方法更有效,
182 |
183 | > 你同意下面哪些说法?(检查所有选项。)
184 | - [x] 大训练集
185 | ```diff
186 | 在许多领域,据观察,端到端学习在实践中效果更好,但需要大量数据。 如果没有大量的数据,端到端深度学习的应用是效果比较差的。
187 | ```
188 | - [ ] 多任务学习的问题
189 | - [ ] 偏差比较大的问题
190 | - [ ] 高贝叶斯误差的问题
191 | ___
--------------------------------------------------------------------------------
/trials/C4W1_noAnswers.md:
--------------------------------------------------------------------------------
1 | C4W1 卷积神经网络的基本知识
2 |
3 | ## 测验
4 |
5 | > 1、你认为把下面这个过滤器应用到灰度图像会怎么样?
6 |
7 | 
8 | - [ ] 会检测图像对比度
9 | - [ ] 会检测45度边缘
10 | - [ ] 会检测垂直边缘
11 | - [ ] 会检测水平边缘
12 | ___
13 | > 2、假设你的输入是一个300×300的彩色(RGB)图像,而你没有使用卷积神经网络。 如果第一个隐藏层有100个神经元,每个神经元与输入层进行全连接,那么这个隐藏层有多少个参数(包括偏置参数)?
14 | - [ ] 9,000,001
15 | - [ ] 9,000,100
16 | - [ ] 27,000,001
17 | - [ ] 27,000,100
18 | ___
19 | > 3、假设你的输入是300×300彩色(RGB)图像,并且你使用卷积层和100个过滤器,每个过滤器都是5×5的大小,请问这个隐藏层有多少个参数(包括偏置参数)?
20 | - [ ] 2501
21 | - [ ] 2600
22 | - [ ] 7500
23 | - [ ] 7600
24 | ___
25 | > 4、你有一个63x63x16的输入,并使用大小为7x7的32个过滤器进行卷积,使用步幅为2和无填充,请问输出是多少?
26 |
27 | - [ ] 29x29x32
28 | - [ ] 16x16x16
29 | - [ ] 16x16x32
30 | - [ ] 29x29x16
31 | ___
32 | > 5、你有一个15x15x8的输入,并使用“pad = 2”进行填充,填充后的尺寸是多少?
33 | - [ ] 17x17x10
34 | - [ ] 19x19x8
35 | - [ ] 19x19x12
36 | - [ ] 17x17x8
37 | ___
38 | > 6、你有一个63x63x16的输入,有32个过滤器进行卷积,每个过滤器的大小为7x7,步幅为1,你想要使用“same”的卷积方式,请问pad的值是多少?
39 | - [ ] 1
40 | - [ ] 2
41 | - [ ] 3
42 | - [ ] 7
43 | ___
44 | > 7、你有一个32x32x16的输入,并使用步幅为2、过滤器大小为2的最大化池,请问输出是多少?
45 | - [ ] 16x16x16
46 | - [ ] 32x32x8
47 | - [ ] 15x15x16
48 | - [ ] 16x16x8
49 | ___
50 | > 8、因为池化层不具有参数,所以它们不影响反向传播的计算。
51 | - [ ] 正确
52 | - [ ] 错误
53 | ___
54 | > 9、在视频中,我们谈到了“参数共享”是使用卷积网络的好处。关于参数共享的下列哪个陈述是正确的?(检查所有选项。)
55 | - [ ] 它减少了参数的总数,从而减少过拟合。
56 | - [ ] 它允许为一项任务学习而来的参数,即使针对不同的任务也可以共享(迁移学习)。
57 | - [ ] 它允许梯度下降将许多参数设置为零,从而使得连接变得稀疏。
58 | - [ ] 它允许在整个输入图片或输入三维特征图的多个位置使用特征检测器。
59 | ___
60 | > 10、在课堂上,我们讨论了“稀疏连接”是使用卷积层的好处。这是什么意思?
61 | - [ ] 正则化导致梯度下降将许多参数设置为零
62 | - [ ] 卷积网络中的每一层只连接到另外两层
63 | - [ ] 下一层中的每个激活只依赖于前一层的少量激活
64 | - [ ] 每个过滤器都连接到上一层的每个通道
65 | ___
--------------------------------------------------------------------------------
/trials/C4W1_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C4W1_withAnswers.md:
--------------------------------------------------------------------------------
1 | C4W1 卷积神经网络的基本知识
2 |
3 | ## 测验
4 |
5 | > 1、你认为把下面这个过滤器应用到灰度图像会怎么样?
6 |
7 | 
8 | - [ ] 会检测图像对比度
9 | - [ ] 会检测45度边缘
10 | - [x] 会检测垂直边缘
11 | ```diff
12 | 因为左边的部分是正的,右边的部分是负的。
13 | ```
14 | - [ ] 会检测水平边缘
15 | ___
16 | > 2、假设你的输入是一个300×300的彩色(RGB)图像,而你没有使用卷积神经网络。 如果第一个隐藏层有100个神经元,每个神经元与输入层进行全连接,那么这个隐藏层有多少个参数(包括偏置参数)?
17 | - [ ] 9,000,001
18 | - [ ] 9,000,100
19 | - [ ] 27,000,001
20 | - [x] 27,000,100
21 | ```diff
22 | 100 * 300 * 300 * 3 + 100 = 27,000,100
23 | ```
24 | ___
25 | > 3、假设你的输入是300×300彩色(RGB)图像,并且你使用卷积层和100个过滤器,每个过滤器都是5×5的大小,请问这个隐藏层有多少个参数(包括偏置参数)?
26 | - [ ] 2501
27 | - [ ] 2600
28 | - [ ] 7500
29 | - [x] 7600
30 | ```diff
31 | 因为是RGB图片,故过滤器的shape为(5, 5, 3)
32 | 每个过滤器对应一个偏置b, 则一个完整的过滤器参数个数为:5 * 5 * 3 + 1 = 76
33 | 则100个过滤器的参数个数为:76 * 100 = 7600
34 | ```
35 | ___
36 | > 4、你有一个63x63x16的输入,并使用大小为7x7的32个过滤器进行卷积,使用步幅为2和无填充,请问输出是多少?
37 |
38 | - [x] 29x29x32
39 |
40 |
41 |
42 | ```diff
43 | 代入公式,可得:
44 | nx = nw = (63 - 7 + 2 * 0)/2 + 1 = 29
45 | 又因为有32个过滤器,故输出尺寸为: (29, 29, 32)
46 | ```
47 |
48 | - [ ] 16x16x16
49 | - [ ] 16x16x32
50 | - [ ] 29x29x16
51 | ___
52 | > 5、你有一个15x15x8的输入,并使用“pad = 2”进行填充,填充后的尺寸是多少?
53 | - [ ] 17x17x10
54 | - [x] 19x19x8
55 | - [ ] 19x19x12
56 | - [ ] 17x17x8
57 | ___
58 | > 6、你有一个63x63x16的输入,有32个过滤器进行卷积,每个过滤器的大小为7x7,步幅为1,你想要使用“same”的卷积方式,请问pad的值是多少?
59 | - [ ] 1
60 | - [ ] 2
61 | - [x] 3
62 |
63 |
64 |
65 | ```diff
66 | “same”的卷积方式表示卷积前后尺寸大小不变
67 | 由公式可得 p = (s * n - n - s + f)/2 = (1 * 63 - 63 - 1 + 7)/2 = 6/2 = 3
68 | ```
69 |
70 | - [ ] 7
71 | ___
72 | > 7、你有一个32x32x16的输入,并使用步幅为2、过滤器大小为2的最大化池,请问输出是多少?
73 | - [x] 16x16x16
74 | - [ ] 32x32x8
75 | - [ ] 15x15x16
76 | - [ ] 16x16x8
77 | ___
78 | > 8、因为池化层不具有参数,所以它们不影响反向传播的计算。
79 | - [ ] 正确
80 | - [x] 错误
81 | ___
82 | > 9、在视频中,我们谈到了“参数共享”是使用卷积网络的好处。关于参数共享的下列哪个陈述是正确的?(检查所有选项。)
83 | - [x] 它减少了参数的总数,从而减少过拟合。
84 | - [ ] 它允许为一项任务学习而来的参数,即使针对不同的任务也可以共享(迁移学习)。
85 | - [ ] 它允许梯度下降将许多参数设置为零,从而使得连接变得稀疏。
86 | - [x] 它允许在整个输入图片或输入三维特征图的多个位置使用特征检测器。
87 | ___
88 | > 10、在课堂上,我们讨论了“稀疏连接”是使用卷积层的好处。这是什么意思?
89 | - [ ] 正则化导致梯度下降将许多参数设置为零
90 | - [ ] 卷积网络中的每一层只连接到另外两层
91 | - [x] 下一层中的每个激活只依赖于前一层的少量激活
92 | - [ ] 每个过滤器都连接到上一层的每个通道
93 | ___
--------------------------------------------------------------------------------
/trials/C4W2_noAnswers.md:
--------------------------------------------------------------------------------
1 | C4W2 深度卷积网络模型
2 |
3 | ## 测验
4 |
5 | > 1、在典型的卷积神经网络中,随着网络深度增加,你能看到的现象是?
6 |
7 | > 备注:n[h]和n[w]是特征图的高度和宽度,n[c]是特征图的通道数。
8 | - [ ] n[h] 和 n[w] 减少,同时n[c] 减少。
9 | - [ ] n[h] 和 n[w] 增加,同时n[c] 增加。
10 | - [ ] n[h] 和 n[w] 增加,同时n[c] 减少。
11 | - [ ] n[h] 和 n[w] 减少,同时n[c] 增加。
12 | ___
13 | > 2、在典型的卷积神经网络中,你能看到的是?
14 | - [ ] 多个卷积层后面跟着的是一个池化层。
15 | - [ ] 多个池化层后面跟着的是一个卷积层。
16 | - [ ] 全连接层位于最后的几层。
17 | - [ ] 全连接层位于开始的几层。
18 | ___
19 | > 3、为了构建一个非常深的网络,我们经常在卷积层使用“valid”填充,只使用池化层来缩小激活值的宽/高度,否则的话就会使得输入迅速的变小
20 | - [ ] True
21 | - [ ] False
22 | ___
23 | > 4、我们使用普通的网络结构来训练一个很深的网络,要使得网络适应一个很复杂的功能(比如增加层数),总会有更低的训练误差。
24 |
25 | - [ ] True
26 | - [ ] False
27 | ```diff
28 | 理论上,随着网络的加深,普通网络的训练误差应越来越少,但实际上却是先减后增;
29 | 而ResNet网络可以改善这个缺点。
30 | ```
31 | 
32 | ___
33 | > 5、下面计算残差(ResNet)块的公式中,横线上应该分别填什么?
34 | 
35 | - [ ] 分别是 0 与 a[l] 。
36 | - [ ] 分别是 z[l] 与 a[l] 。
37 | - [ ] 分别是 0 与 z[l+1] 。
38 | - [ ] 分别是 a[l] 与 0 。
39 | ```diff
40 | a[l+2] = g(z[l+2] + a[l])
41 | = g(W[l+2]a[l+1] + b[l+2] + a[l])
42 | = g(W[l+2]g(z[l+1]) + b[l+2] + a[l])
43 | = g(W[l+2]g(W[l+1]a[l] + b[l+1]) + b[l+2] + a[l])
44 | ```
45 | ___
46 | > 6、关于残差网络下面哪个(些)说法是正确的?
47 | - [ ] 使用跳越连接能够对反向传播的梯度下降有益,且能够帮你对更深的网络进行训练。
48 | - [ ] 跳跃连接能够使得网络轻松地学习残差块中输入输出之间的恒等映射。
49 | - [ ] 有L层的残差网络一共有L^2种跳跃连接的顺序。
50 | - [ ] 跳跃连接用一个复杂的非线性函数去计算输入在网络深层中的传递关系。
51 | ___
52 | > 7、假设你的输入的维度为64x64x16,单个1x1的卷积过滤器含有多少个参数(包括偏差)?
53 | - [ ] 2
54 | - [ ] 1
55 | - [ ] 4097
56 | - [ ] 17
57 | ___
58 | > 8、假设你有一个维度为n[h]×n[w]×n[c]的卷积输入,下面哪个说法是正确的(假设卷积层为1x1,步伐为1,padding为0)?
59 | - [ ] 你可以使用池化层减少 n[h]、n[w],但是不能减少 n[c]
60 | - [ ] 你可以使用池化层减少 n[h]、 n[w]和n[c]
61 | - [ ] 你可以使用一个1x1的卷积层来减少n[h]、n[w]和n[c]
62 | - [ ] 你能够使用1x1的卷积层来减少n[c],但是不能减少 n[h]、n[w]
63 | ___
64 | > 9、关于 Inception 网络下面哪些说法是正确的
65 | - [ ] 一个 Inception 块允许网络使用1x1, 3x3, 5x5 的组合来实现卷积和池化。
66 | - [ ] Inception 块通常使用1x1的卷积来减少输入特征图的大小,然后再使用3x3和5x5的卷积。
67 | - [ ] Inception 网络包含了各种网络的体系结构(类似于随机删除节点模式,它会在每一步中随机选择网络的结构),因此它具有随机删除节点的正则化效应。
68 | - [ ] 通过叠加 Inception 块的方式让 Inception 网络更深不会损害训练集的表现。
69 | ___
70 | > 10、下面哪些是使用卷积网络的开源实现(包含模型/权值)的常见原因?
71 | - [ ] 通过一个计算机视觉任务训练而来的模型通常可以用来作数据扩充,即使对于不同的计算机视觉任务也是如此。
72 | - [ ] 赢得计算机视觉比赛的技术(如在测试时使用多个multiple crops),被广泛使用在卷积网络相关的实际部署(或生产系统部署)中。
73 | - [ ] 通过一个计算机视觉任务训练而来的参数通常对其他计算机视觉任务的预训练是有帮助的。
74 | - [ ] 这是一种快捷方法去实现一个复杂的卷积网络结构。
75 | ___
--------------------------------------------------------------------------------
/trials/C4W2_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C4W2_withAnswers.md:
--------------------------------------------------------------------------------
1 | C4W2 深度卷积网络模型
2 |
3 | ## 测验
4 |
5 | > 1、在典型的卷积神经网络中,随着网络深度增加,你能看到的现象是?
6 |
7 | > 备注:n[h]和n[w]是特征图的高度和宽度,n[c]是特征图的通道数。
8 | - [ ] n[h] 和 n[w] 减少,同时n[c] 减少。
9 | - [ ] n[h] 和 n[w] 增加,同时n[c] 增加。
10 | - [ ] n[h] 和 n[w] 增加,同时n[c] 减少。
11 | - [x] n[h] 和 n[w] 减少,同时n[c] 增加。
12 | ___
13 | > 2、在典型的卷积神经网络中,你能看到的是?
14 | - [x] 多个卷积层后面跟着的是一个池化层。
15 | - [ ] 多个池化层后面跟着的是一个卷积层。
16 | - [x] 全连接层位于最后的几层。
17 | - [ ] 全连接层位于开始的几层。
18 | ___
19 | > 3、为了构建一个非常深的网络,我们经常在卷积层使用“valid”填充,只使用池化层来缩小激活值的宽/高度,否则的话就会使得输入迅速的变小
20 | - [ ] True
21 | - [x] False
22 | ___
23 | > 4、我们使用普通的网络结构来训练一个很深的网络,要使得网络适应一个很复杂的功能(比如增加层数),总会有更低的训练误差。
24 |
25 | - [ ] True
26 | - [x] False
27 | ```diff
28 | 理论上,随着网络的加深,普通网络的训练误差应越来越少,但实际上却是先减后增;
29 | 而ResNet网络可以改善这个缺点。
30 | ```
31 | 
32 | ___
33 | > 5、下面计算残差(ResNet)块的公式中,横线上应该分别填什么?
34 | 
35 | - [ ] 分别是 0 与 a[l] 。
36 | - [ ] 分别是 z[l] 与 a[l] 。
37 | - [ ] 分别是 0 与 z[l+1] 。
38 | - [x] 分别是 a[l] 与 0 。
39 | ```diff
40 | a[l+2] = g(z[l+2] + a[l])
41 | = g(W[l+2]a[l+1] + b[l+2] + a[l])
42 | = g(W[l+2]g(z[l+1]) + b[l+2] + a[l])
43 | = g(W[l+2]g(W[l+1]a[l] + b[l+1]) + b[l+2] + a[l])
44 | ```
45 | ___
46 | > 6、关于残差网络下面哪个(些)说法是正确的?
47 | - [x] 使用跳越连接能够对反向传播的梯度下降有益,且能够帮你对更深的网络进行训练。
48 | - [x] 跳跃连接能够使得网络轻松地学习残差块中输入输出之间的恒等映射。
49 | - [ ] 有L层的残差网络一共有L^2种跳跃连接的顺序。
50 | - [ ] 跳跃连接用一个复杂的非线性函数去计算输入在网络深层中的传递关系。
51 | ___
52 | > 7、假设你的输入的维度为64x64x16,单个1x1的卷积过滤器含有多少个参数(包括偏差)?
53 | - [ ] 2
54 | - [ ] 1
55 | - [ ] 4097
56 | - [x] 17
57 | ___
58 | > 8、假设你有一个维度为n[h]×n[w]×n[c]的卷积输入,下面哪个说法是正确的(假设卷积层为1x1,步伐为1,padding为0)?
59 | - [x] 你可以使用池化层减少 n[h]、n[w],但是不能减少 n[c]
60 | - [ ] 你可以使用池化层减少 n[h]、 n[w]和n[c]
61 | - [ ] 你可以使用一个1x1的卷积层来减少n[h]、n[w]和n[c]
62 | - [x] 你能够使用1x1的卷积层来减少n[c],但是不能减少 n[h]、n[w]
63 | ___
64 | > 9、关于 Inception 网络下面哪些说法是正确的
65 | - [x] 一个 Inception 块允许网络使用1x1, 3x3, 5x5 的组合来实现卷积和池化。
66 | - [x] Inception 块通常使用1x1的卷积来减少输入特征图的大小,然后再使用3x3和5x5的卷积。
67 | - [ ] Inception 网络包含了各种网络的体系结构(类似于随机删除节点模式,它会在每一步中随机选择网络的结构),因此它具有随机删除节点的正则化效应。
68 | - [ ] 通过叠加 Inception 块的方式让 Inception 网络更深不会损害训练集的表现。
69 | ___
70 | > 10、下面哪些是使用卷积网络的开源实现(包含模型/权值)的常见原因?
71 | - [ ] 通过一个计算机视觉任务训练而来的模型通常可以用来作数据扩充,即使对于不同的计算机视觉任务也是如此。
72 | - [ ] 赢得计算机视觉比赛的技术(如在测试时使用多个multiple crops),被广泛使用在卷积网络相关的实际部署(或生产系统部署)中。
73 | - [x] 通过一个计算机视觉任务训练而来的参数通常对其他计算机视觉任务的预训练是有帮助的。
74 | - [x] 这是一种快捷方法去实现一个复杂的卷积网络结构。
75 | ___
--------------------------------------------------------------------------------
/trials/C4W3_noAnswers.md:
--------------------------------------------------------------------------------
1 | C4W3 目标检测算法
2 |
3 | ## 测验
4 |
5 | > 1、现在你要构建一个能够识别三个对象并定位位置的算法,这些对象分别是:行人(c=1),汽车(c=2),摩托车(c=3)。 下图对应的标签哪个是正确的?
6 |
7 | > 注:y=[p_c, b_x, b_y, b_h, b_w, c1, c2, c3]
8 | 
9 | - [ ] y=[1, 0.3, 0.7, 0.3, 0.3, 0, 1, 0]
10 | - [ ] y=[1, 0.7, 0.5, 0.3, 0.3, 0, 1, 0]
11 | - [ ] y=[1, 0.3, 0.7, 0.5, 0.5, 0, 1, 0]
12 | - [ ] y=[1, 0.3, 0.7, 0.5, 0.5, 1, 0, 0]
13 | - [ ] y=[0, 0.2, 0.4, 0.5, 0.5, 0, 1, 0]
14 | ___
15 | > 2、继续上一个问题,下图中y的值是多少?注:“?”是指“不关心这个值”,这意味着神经网络的损失函数不会关心神经网络对输出的结果,和上面一样,y=[p_c, b_x, b_y, b_h, b_w, c1, c2, c3]。
16 | 
17 | - [ ] y=[1, ?, ?, ?, ?, 0, 0, 0]
18 | - [ ] y=[0, ?, ?, ?, ?, ?, ?, ?]
19 | - [ ] y=[?, ?, ?, ?, ?, ?, ?, ?]
20 | - [ ] y=[0, ?, ?, ?, ?, 0, 0, 0]
21 | - [ ] y=[1, ?, ?, ?, ?, ?, ?, ?]
22 | ___
23 | > 3、你现在任职于自动化工厂中,你的系统会看到一罐饮料从传送带上下来,你想要对其进行拍照,
24 | 然后确定照片中是否有饮料罐,如果有的话就对其进行包装。饮料罐头是圆的,而包装盒是方的,
25 | 每一罐饮料的大小是一样的,每个图像中最多只有一罐饮料,现在你有下面的方案可供选择,这里有一些训练集图像:
26 | 
27 | - [ ] Logistic unit (用于分类图像中是否有罐头)
28 | - [ ] Logistic unit,b_x 和 b_y
29 | - [ ] Logistic unit,b_x,b_y,b_h (因为b_w =b_h,所以只需要一个就行了)
30 | - [ ] Logistic unit,b_x,b_y,b_h,b_w
31 | ___
32 | > 4、如果你想要构建一个能够输入人脸图片,输出N个人脸关键点的神经网络(假设图像只包含一张脸),那么你的神经网络有多少个输出节点?
33 |
34 | - [ ] N
35 | - [ ] 2N
36 | - [ ] 3N
37 | - [ ] N^2
38 | ___
39 | > 5、当你训练一个视频中描述的对象检测系统时,里需要一个包含了检测对象的许多图片的训练集,然而边界框不需要在训练集中提供,因为算法可以自己学习检测对象,这个说法对吗?
40 | - [ ] 正确
41 | - [ ] 错误
42 | ___
43 | > 6、假如你正在应用一个滑动窗口分类器(非卷积实现),增加步伐不仅会提高准确性,也会降低成本。
44 | - [ ] 正确
45 | - [ ] 错误
46 | ___
47 | > 7、在YOLO算法训练的时候,只有一个包含对象的中心/中点的一个单元负责检测这个对象。
48 | - [ ] 正确
49 | - [ ] 错误
50 | ___
51 | > 8、这两个框中IoU大小是多少?左上角的框是2x2大小,右下角的框是2x3大小,重叠部分是1x1。
52 | 
53 | - [ ] 1/6
54 | - [ ] 1/9
55 | - [ ] 1/10
56 | - [ ] 以上都不是
57 | ```diff
58 | 1 * 1 / (2 * 2 + 2 * 3 − 1 * 1) = 1/9
59 | ```
60 | ___
61 | > 9、假如你在下图中的预测框中使用非最大值抑制,其参数是放弃概率≤ 0.4的框,并决定两个框IoU的阈值为0.5,使用非最大值抑制后会保留多少个预测框?
62 | 
63 | - [ ] 3
64 | - [ ] 4
65 | - [ ] 5
66 | - [ ] 6
67 | - [ ] 7
68 | ___
69 | > 10、假如你使用YOLO算法,使用19x19格子来检测20个分类,使用5个锚框(anchor box)。
70 | 在训练的过程中,对于每个图像你需要输出卷积后的结果y作为神经网络目标值(这是最后一层),y可能包括一些“?”或者“不关心的值”。请问最后的输出维度是多少?
71 | - [ ] 19x19x(25x20)
72 | - [ ] 19x19x(5x20)
73 | - [ ] 19x19x(20x25)
74 | - [ ] 19x19x(5x25)
75 | ___
--------------------------------------------------------------------------------
/trials/C4W3_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C4W3_withAnswers.md:
--------------------------------------------------------------------------------
1 | C4W3 目标检测算法
2 |
3 | ## 测验
4 |
5 | > 1、现在你要构建一个能够识别三个对象并定位位置的算法,这些对象分别是:行人(c=1),汽车(c=2),摩托车(c=3)。 下图对应的标签哪个是正确的?
6 |
7 | > 注:y=[p_c, b_x, b_y, b_h, b_w, c1, c2, c3]
8 | 
9 | - [x] y=[1, 0.3, 0.7, 0.3, 0.3, 0, 1, 0]
10 | - [ ] y=[1, 0.7, 0.5, 0.3, 0.3, 0, 1, 0]
11 | - [ ] y=[1, 0.3, 0.7, 0.5, 0.5, 0, 1, 0]
12 | - [ ] y=[1, 0.3, 0.7, 0.5, 0.5, 1, 0, 0]
13 | - [ ] y=[0, 0.2, 0.4, 0.5, 0.5, 0, 1, 0]
14 | ___
15 | > 2、继续上一个问题,下图中y的值是多少?注:“?”是指“不关心这个值”,这意味着神经网络的损失函数不会关心神经网络对输出的结果,和上面一样,y=[p_c, b_x, b_y, b_h, b_w, c1, c2, c3]。
16 | 
17 | - [ ] y=[1, ?, ?, ?, ?, 0, 0, 0]
18 | - [x] y=[0, ?, ?, ?, ?, ?, ?, ?]
19 | - [ ] y=[?, ?, ?, ?, ?, ?, ?, ?]
20 | - [ ] y=[0, ?, ?, ?, ?, 0, 0, 0]
21 | - [ ] y=[1, ?, ?, ?, ?, ?, ?, ?]
22 | ___
23 | > 3、你现在任职于自动化工厂中,你的系统会看到一罐饮料从传送带上下来,你想要对其进行拍照,
24 | 然后确定照片中是否有饮料罐,如果有的话就对其进行包装。饮料罐头是圆的,而包装盒是方的,
25 | 每一罐饮料的大小是一样的,每个图像中最多只有一罐饮料,现在你有下面的方案可供选择,这里有一些训练集图像:
26 | 
27 | - [ ] Logistic unit (用于分类图像中是否有罐头)
28 | - [x] Logistic unit,b_x 和 b_y
29 | - [ ] Logistic unit,b_x,b_y,b_h (因为b_w =b_h,所以只需要一个就行了)
30 | - [ ] Logistic unit,b_x,b_y,b_h,b_w
31 | ___
32 | > 4、如果你想要构建一个能够输入人脸图片,输出N个人脸关键点的神经网络(假设图像只包含一张脸),那么你的神经网络有多少个输出节点?
33 |
34 | - [ ] N
35 | - [x] 2N
36 | - [ ] 3N
37 | - [ ] N^2
38 | ___
39 | > 5、当你训练一个视频中描述的对象检测系统时,里需要一个包含了检测对象的许多图片的训练集,然而边界框不需要在训练集中提供,因为算法可以自己学习检测对象,这个说法对吗?
40 | - [ ] 正确
41 | - [x] 错误
42 | ___
43 | > 6、假如你正在应用一个滑动窗口分类器(非卷积实现),增加步伐不仅会提高准确性,也会降低成本。
44 | - [ ] 正确
45 | - [x] 错误
46 | ___
47 | > 7、在YOLO算法训练的时候,只有一个包含对象的中心/中点的一个单元负责检测这个对象。
48 | - [x] 正确
49 | - [ ] 错误
50 | ___
51 | > 8、这两个框中IoU大小是多少?左上角的框是2x2大小,右下角的框是2x3大小,重叠部分是1x1。
52 | 
53 | - [ ] 1/6
54 | - [x] 1/9
55 | - [ ] 1/10
56 | - [ ] 以上都不是
57 | ```diff
58 | 1 * 1 / (2 * 2 + 2 * 3 − 1 * 1) = 1/9
59 | ```
60 | ___
61 | > 9、假如你在下图中的预测框中使用非最大值抑制,其参数是放弃概率≤ 0.4的框,并决定两个框IoU的阈值为0.5,使用非最大值抑制后会保留多少个预测框?
62 | 
63 | - [ ] 3
64 | - [ ] 4
65 | - [x] 5
66 | - [ ] 6
67 | - [ ] 7
68 | ___
69 | > 10、假如你使用YOLO算法,使用19x19格子来检测20个分类,使用5个锚框(anchor box)。
70 | 在训练的过程中,对于每个图像你需要输出卷积后的结果y作为神经网络目标值(这是最后一层),y可能包括一些“?”或者“不关心的值”。请问最后的输出维度是多少?
71 | - [ ] 19x19x(25x20)
72 | - [ ] 19x19x(5x20)
73 | - [ ] 19x19x(20x25)
74 | - [x] 19x19x(5x25)
75 | ___
--------------------------------------------------------------------------------
/trials/C4W4_noAnswers.md:
--------------------------------------------------------------------------------
1 | C4W4 人脸识别和神经风格迁移
2 |
3 | ## 测验
4 |
5 | > 1、面部验证只需要将新图片与1个人的面部进行比较,而面部识别则需要将新图片与K个人的面部进行比较。
6 | - [ ] 正确
7 | - [ ] 错误
8 | ___
9 | > 2、在人脸验证中函数d(img1,img2)起什么作用?
10 | - [ ] 只需要给出一个人的图片就可以让网络认识这个人。
11 | - [ ] 为了解决一次学习的问题。
12 | - [ ] 这可以让我们使用softmax函数来学习预测一个人的身份,在这个单元中分类的数量等于数据库中的人的数量加1。
13 | - [ ] 鉴于我们拥有的照片很少,我们需要将它运用到迁移学习中。
14 | ___
15 | > 3、为了训练人脸识别系统的参数,使用包含了10万个不同的人的10万张图片的数据集进行训练是合理的。
16 | - [ ] 正确
17 | - [ ] 错误
18 | ___
19 | > 4、下面哪个是三元组损失的正确定义(把α也考虑进去)?
20 |
21 | - [ ] max( || f(A) − f(P) ||^2 − || f(A) − f(N) ||^2 + α, 0 )
22 | - [ ] max( || f(A) − f(N) ||^2 − || f(A) − f(P) ||^2 + α, 0 )
23 | - [ ] max( || f(A) − f(N) ||^2 − || f(A) − f(P) ||^2 - α, 0 )
24 | - [ ] max( || f(A) − f(P) ||^2 − || f(A) − f(N) ||^2 - α, 0 )
25 |
26 | ___
27 | > 5、在下图中的孪生卷积网络(Siamese network)结构图中,上下两个神经网络拥有不同的输入图像,但是其中的网络参数是完全相同的。
28 | 
29 | - [ ] 正确
30 | - [ ] 错误
31 | ___
32 | > 6、你在一个拥有100种不同的分类的数据集上训练一个卷积神经网络,你想要知道是否能够找到一个对猫的图片很敏感的隐藏节点(即在能够强烈激活该节点的图像大多数都是猫的图片的节点),你更有可能在第4层找到该节点而不是在第1层更有可能找到。
33 | - [ ] 正确
34 | - [ ] 错误
35 | ___
36 | > 7、神经风格转换被训练为有监督的学习任务,其中的目标是输入两个图像 (x),并训练一个能够输出一个新的合成图像(y)的网络。
37 | - [ ] 正确
38 | - [ ] 错误
39 | ___
40 | > 8、在一个卷积网络的深层,每个通道对应一个不同的特征检测器,风格矩阵G[l]度量了l层中不同的特征探测器的激活(或相关)程度。
41 | - [ ] 正确
42 | - [ ] 错误
43 | ___
44 | > 9、在神经风格转换中,在优化算法的每次迭代中更新的是什么?
45 | - [ ] 生成图像G的像素值
46 | - [ ] 神经网络的参数
47 | - [ ] 内容图像C的像素值
48 | - [ ] 正则化参数
49 | ___
50 | > 10、你现在用拥有的是3D的数据,现在构建一个网络层,其输入的卷积是32×32×32×16(此卷积有16个通道),对其使用32个3×3×3的过滤器(无填充,步伐为1)进行卷积操作,请问输出的卷积是多少?
51 | - [ ] 不能操作,因为指定的维度不匹配,所以这个卷积步骤是不可能执行的。
52 | - [ ] 30×30×30×16
53 | - [ ] 30×30×30×32
54 | ___
--------------------------------------------------------------------------------
/trials/C4W4_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C4W4_withAnswers.md:
--------------------------------------------------------------------------------
1 | C4W4 人脸识别和神经风格迁移
2 |
3 | ## 测验
4 |
5 | > 1、面部验证只需要将新图片与1个人的面部进行比较,而面部识别则需要将新图片与K个人的面部进行比较。
6 | - [x] 正确
7 | - [ ] 错误
8 | ___
9 | > 2、在人脸验证中函数d(img1,img2)起什么作用?
10 | - [x] 只需要给出一个人的图片就可以让网络认识这个人。
11 | - [x] 为了解决一次学习的问题。
12 | - [ ] 这可以让我们使用softmax函数来学习预测一个人的身份,在这个单元中分类的数量等于数据库中的人的数量加1。
13 | - [ ] 鉴于我们拥有的照片很少,我们需要将它运用到迁移学习中。
14 | ___
15 | > 3、为了训练人脸识别系统的参数,使用包含了10万个不同的人的10万张图片的数据集进行训练是合理的。
16 | - [ ] 正确
17 | - [x] 错误
18 | ```diff
19 | 每个人需要多张照片的。
20 | ```
21 | ___
22 | > 4、下面哪个是三元组损失的正确定义(把α也考虑进去)?
23 |
24 | - [x] max( || f(A) − f(P) ||^2 − || f(A) − f(N) ||^2 + α, 0 )
25 | - [ ] max( || f(A) − f(N) ||^2 − || f(A) − f(P) ||^2 + α, 0 )
26 | - [ ] max( || f(A) − f(N) ||^2 − || f(A) − f(P) ||^2 - α, 0 )
27 | - [ ] max( || f(A) − f(P) ||^2 − || f(A) − f(N) ||^2 - α, 0 )
28 |
29 | ___
30 | > 5、在下图中的孪生卷积网络(Siamese network)结构图中,上下两个神经网络拥有不同的输入图像,但是其中的网络参数是完全相同的。
31 | 
32 | - [x] 正确
33 | - [ ] 错误
34 | ___
35 | > 6、你在一个拥有100种不同的分类的数据集上训练一个卷积神经网络,你想要知道是否能够找到一个对猫的图片很敏感的隐藏节点(即在能够强烈激活该节点的图像大多数都是猫的图片的节点),你更有可能在第4层找到该节点而不是在第1层更有可能找到。
36 | - [x] 正确
37 | - [ ] 错误
38 | ___
39 | > 7、神经风格转换被训练为有监督的学习任务,其中的目标是输入两个图像 (x),并训练一个能够输出一个新的合成图像(y)的网络。
40 | - [ ] 正确
41 | - [x] 错误
42 | ___
43 | > 8、在一个卷积网络的深层,每个通道对应一个不同的特征检测器,风格矩阵G[l]度量了l层中不同的特征探测器的激活(或相关)程度。
44 | - [x] 正确
45 | - [ ] 错误
46 | ___
47 | > 9、在神经风格转换中,在优化算法的每次迭代中更新的是什么?
48 | - [x] 生成图像G的像素值
49 | - [ ] 神经网络的参数
50 | - [ ] 内容图像C的像素值
51 | - [ ] 正则化参数
52 | ___
53 | > 10、你现在用拥有的是3D的数据,现在构建一个网络层,其输入的卷积是32×32×32×16(此卷积有16个通道),对其使用32个3×3×3的过滤器(无填充,步伐为1)进行卷积操作,请问输出的卷积是多少?
54 | - [ ] 不能操作,因为指定的维度不匹配,所以这个卷积步骤是不可能执行的。
55 | - [ ] 30×30×30×16
56 | - [x] 30×30×30×32
57 | ___
--------------------------------------------------------------------------------
/trials/C5W1_noAnswers.md:
--------------------------------------------------------------------------------
1 | C5W1 循环神经网络
2 |
3 | ## 测验
4 |
5 | > 1、假设你的训练样本是句子(单词序列),下面哪个选项指的是第i个训练样本中的第j个词?
6 | - [ ] x(i)< j>
7 | - [ ] x< i>(j)
8 | - [ ] x(j)< i>
9 | - [ ] x< j>(i)
10 |
11 | ___
12 | > 2、看一下下面的这个循环神经网络:
13 | 
14 | >在下面的条件中,满足上图中的网络结构的参数是:
15 |
16 | - [ ] T_x = T_y
17 | - [ ] T_x < T_y
18 | - [ ] T_x > T_y
19 | - [ ] T_x = 1
20 | ___
21 | > 3、这些任务中的哪一个会使用多对一的RNN体系结构?
22 | 
23 | - [ ] 语音识别(输入语音,输出文本)。
24 | - [ ] 情感分类(输入一段文字,输出0或1表示正面或者负面的情绪)。
25 | - [ ] 图像分类(输入一张图片,输出对应的标签)。
26 | - [ ] 人声性别识别(输入语音,输出说话人的性别)。
27 | ___
28 | > 4、假设你现在正在训练下面这个RNN的语言模型:
29 | 
30 | > 在t时刻,这个RNN在做什么?
31 |
32 | - [ ] 计算 P(y<1>,y<2>,…,y)
33 | - [ ] 计算 P(y)
34 | - [ ] 计算 P(y< t > ∣ y<1>,y<2>,…,y)
35 | - [ ] 计算 P(y< t > ∣ y<1>,y<2>,…,y< t >)
36 |
37 | ___
38 | > 5、你已经完成了一个语言模型RNN的训练,并用它来对句子进行随机取样,如下图:
39 | 
40 | > 在每个时间步t都在做什么?
41 | - [ ] (1)使用由RNN输出的概率来选择该时间步的最高概率词作为 ŷ < t>,(2) 然后将训练集中的实际单词传递到下一个时间步。
42 | - [ ] (1)使用由RNN输出的概率来随机抽取该时间步的所选单词作为 ŷ < t> ,(2)然后将训练集中的实际单词传递到下一个时间步。
43 | - [ ] (1)使用由RNN输出的概率来选择该时间步的最高概率词作为 ŷ < t>,(2)然后将该选定单词传递给下一个时间步。
44 | - [ ] (1)使用由RNN输出的概率来随机抽取该时间步的所选单词作为ŷ < t> ,(2)然后将该选定单词传递给下一个时间步。
45 | ___
46 | > 6、你正在训练一个RNN网络,你发现你的权重与激活值都是“NaN”,下列选项中,哪一个是导致这个问题的最有可能的原因?
47 | - [ ] 梯度消失。
48 | - [ ] 梯度爆炸。
49 | - [ ] ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了。
50 | - [ ] Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了。
51 | ___
52 | > 7、假设你正在训练一个 LSTM 网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的 LSTM 块,在每一个时间步中,Γ_u的维度是多少?
53 | - [ ] 1
54 | - [ ] 100
55 | - [ ] 300
56 | - [ ] 10000
57 | ___
58 | > 8、这里有一些GRU的更新方程:
59 | 
60 |
61 | > Alice建议通过移除 Γ_u来简化GRU,即设置Γ_u=1。Betty提出通过移除 Γ_r来简化GRU,即设置 Γ_r=1。哪种模型更容易在梯度不消失问题的情况下训练,即使在很长的输入序列上也可以进行训练?
62 | - [ ] Alice的模型(即移除Γ_u),因为对于一个时间步而言,如果Γ_r≈0,梯度可以通过时间步反向传播而不会衰减。
63 | - [ ] Alice的模型(即移除Γ_u),因为对于一个时间步而言,如果Γ_r≈1,梯度可以通过时间步反向传播而不会衰减。
64 | - [ ] Betty的模型(即移除Γ_r),因为对于一个时间步而言,如果Γ_u≈0,梯度可以通过时间步反向传播而不会衰减。
65 | - [ ] Betty的模型(即移除Γ_r),因为对于一个时间步而言,如果Γ_u≈1,梯度可以通过时间步反向传播而不会衰减。
66 | ___
67 | > 9、这里有一些GRU和LSTM的方程:
68 | 
69 |
70 | > 从这些我们可以看到,在LSTM中的更新门和遗忘门在GRU中扮演类似 _____ 与 _____ 的角色,空白处应该填什么?
71 | - [ ] Γ_u 与 1 − Γ_u
72 | - [ ] Γ_u 与 Γ_r
73 | - [ ] 1 − Γ_u 与 Γ_u
74 | - [ ] Γ_r 与 Γ_u
75 | ___
76 | > 10、你有一只宠物狗,它的心情很大程度上取决于当前和过去几天的天气。你已经收集了过去365天的天气数据x<1>,…,x<365>x<1>,…,x<365>,这些数据是一个序列,你还收集了你的狗心情的数据y<1>,…,y<365>y<1>,…,y<365>,你想建立一个模型来从x到y进行映射,你应该使用单向RNN还是双向RNN来解决这个问题?
77 |
78 | - [ ] 双向RNN,因为在第 t 天的情绪预测中可以考虑到更多的信息。
79 | - [ ] 双向RNN,因为这允许反向传播计算中有更精确的梯度。
80 | - [ ] 单向RNN,因为y< t >的值仅依赖于x<1>,…,x< t >,而不依赖于x,…,x<365>。
81 | - [ ] 单向RNN,因为y< t >的值只取决于x< t >,而不是其他天的天气。
82 | ___
--------------------------------------------------------------------------------
/trials/C5W1_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C5W1_withAnswers.md:
--------------------------------------------------------------------------------
1 | C5W1 循环神经网络
2 |
3 | ## 测验
4 |
5 | > 1、假设你的训练样本是句子(单词序列),下面哪个选项指的是第i个训练样本中的第j个词?
6 | - [x] x(i)< j>
7 | ```diff
8 | 我们首先对第i行进行索引,得到第i个训练示例(用括号表示),然后对j列进行索引,得到第j个单词(用尖括号表示)。
9 | ```
10 | - [ ] x< i>(j)
11 | - [ ] x(j)< i>
12 | - [ ] x< j>(i)
13 |
14 | ___
15 | > 2、看一下下面的这个循环神经网络:
16 | 
17 | >在下面的条件中,满足上图中的网络结构的参数是:
18 |
19 | - [x] T_x = T_y
20 | - [ ] T_x < T_y
21 | - [ ] T_x > T_y
22 | - [ ] T_x = 1
23 | ___
24 | > 3、这些任务中的哪一个会使用多对一的RNN体系结构?
25 | 
26 | - [ ] 语音识别(输入语音,输出文本)。
27 | - [x] 情感分类(输入一段文字,输出0或1表示正面或者负面的情绪)。
28 | - [ ] 图像分类(输入一张图片,输出对应的标签)。
29 | - [x] 人声性别识别(输入语音,输出说话人的性别)。
30 | ___
31 | > 4、假设你现在正在训练下面这个RNN的语言模型:
32 | 
33 | > 在t时刻,这个RNN在做什么?
34 |
35 | - [ ] 计算 P(y<1>,y<2>,…,y)
36 | - [ ] 计算 P(y)
37 | - [x] 计算 P(y< t > ∣ y<1>,y<2>,…,y)
38 | ```diff
39 | 在这个语言模型中,我们试图根据之前所有步骤信息来预测下一步。
40 | ```
41 | - [ ] 计算 P(y< t > ∣ y<1>,y<2>,…,y< t >)
42 |
43 | ___
44 | > 5、你已经完成了一个语言模型RNN的训练,并用它来对句子进行随机取样,如下图:
45 | 
46 | > 在每个时间步t都在做什么?
47 | - [ ] (1)使用由RNN输出的概率来选择该时间步的最高概率词作为 ŷ < t>,(2) 然后将训练集中的实际单词传递到下一个时间步。
48 | - [ ] (1)使用由RNN输出的概率来随机抽取该时间步的所选单词作为 ŷ < t> ,(2)然后将训练集中的实际单词传递到下一个时间步。
49 | - [ ] (1)使用由RNN输出的概率来选择该时间步的最高概率词作为 ŷ < t>,(2)然后将该选定单词传递给下一个时间步。
50 | - [x] (1)使用由RNN输出的概率来随机抽取该时间步的所选单词作为ŷ < t> ,(2)然后将该选定单词传递给下一个时间步。
51 | ___
52 | > 6、你正在训练一个RNN网络,你发现你的权重与激活值都是“NaN”,下列选项中,哪一个是导致这个问题的最有可能的原因?
53 | - [ ] 梯度消失。
54 | - [x] 梯度爆炸。
55 | - [ ] ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了。
56 | - [ ] Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了。
57 | ___
58 | > 7、假设你正在训练一个 LSTM 网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的 LSTM 块,在每一个时间步中,Γ_u的维度是多少?
59 | - [ ] 1
60 | - [x] 100
61 | - [ ] 300
62 | - [ ] 10000
63 | ```diff
64 | Γ_u的向量维度等于LSTM中隐藏单元的数量。
65 | ```
66 | ___
67 | > 8、这里有一些GRU的更新方程:
68 | 
69 |
70 | > Alice建议通过移除 Γ_u来简化GRU,即设置Γ_u=1。Betty提出通过移除 Γ_r来简化GRU,即设置 Γ_r=1。哪种模型更容易在梯度不消失问题的情况下训练,即使在很长的输入序列上也可以进行训练?
71 | - [ ] Alice的模型(即移除Γ_u),因为对于一个时间步而言,如果Γ_r≈0,梯度可以通过时间步反向传播而不会衰减。
72 | - [ ] Alice的模型(即移除Γ_u),因为对于一个时间步而言,如果Γ_r≈1,梯度可以通过时间步反向传播而不会衰减。
73 | - [x] Betty的模型(即移除Γ_r),因为对于一个时间步而言,如果Γ_u≈0,梯度可以通过时间步反向传播而不会衰减。
74 | - [ ] Betty的模型(即移除Γ_r),因为对于一个时间步而言,如果Γ_u≈1,梯度可以通过时间步反向传播而不会衰减。
75 | ```diff
76 | 要使信号反向传播而不消失,我们需要 c 高度依赖于 c
77 | ```
78 | ___
79 | > 9、这里有一些GRU和LSTM的方程:
80 | 
81 |
82 | > 从这些我们可以看到,在LSTM中的更新门和遗忘门在GRU中扮演类似 _____ 与 _____ 的角色,空白处应该填什么?
83 | - [x] Γ_u 与 1 − Γ_u
84 | - [ ] Γ_u 与 Γ_r
85 | - [ ] 1 − Γ_u 与 Γ_u
86 | - [ ] Γ_r 与 Γ_u
87 | ___
88 | > 10、你有一只宠物狗,它的心情很大程度上取决于当前和过去几天的天气。你已经收集了过去365天的天气数据x<1>,…,x<365>x<1>,…,x<365>,这些数据是一个序列,你还收集了你的狗心情的数据y<1>,…,y<365>y<1>,…,y<365>,你想建立一个模型来从x到y进行映射,你应该使用单向RNN还是双向RNN来解决这个问题?
89 |
90 | - [ ] 双向RNN,因为在第 t 天的情绪预测中可以考虑到更多的信息。
91 | - [ ] 双向RNN,因为这允许反向传播计算中有更精确的梯度。
92 | - [x] 单向RNN,因为y< t >的值仅依赖于x<1>,…,x< t >,而不依赖于x,…,x<365>。
93 | - [ ] 单向RNN,因为y< t >的值只取决于x< t >,而不是其他天的天气。
94 | ___
--------------------------------------------------------------------------------
/trials/C5W2_noAnswers.md:
--------------------------------------------------------------------------------
1 | C5W2 自然语言处理与词嵌入
2 |
3 | ## 测验
4 |
5 | > 1、假设你为10000个单词学习词嵌入,为了捕获全部范围的单词的变化以及意义,那么词嵌入向量应该是10000维的。
6 | - [ ] 正确
7 | - [ ] 错误
8 | ___
9 | > 2、什么是t-SNE?
10 | - [ ] 一种能够解决词向量上的类比的线性变换。
11 | - [ ] 一种非线性降维算法。
12 | - [ ] 一种用于学习词嵌入的监督学习算法。
13 | - [ ] 一个开源序列模型库。
14 | ___
15 | > 3、假设你下载了一个已经在一个很大的文本语料库上训练过的词嵌入的数据,然后你要用这个词嵌入来训练RNN并用于识别一段文字中的情感,判断这段文字的内容是否表达了“快乐”。
16 |
17 | |x(输入文本)|y (是否快乐)|
18 | |:------------:|:------------:|
19 | |我今天感觉很好!|1|
20 | |我觉得很沮丧,因为我的猫生病了。|0|
21 | |真的很享受这个!|1|
22 |
23 | > 那么即使“欣喜若狂”这个词没有出现在你的小训练集中,你的RNN也会认为“我欣喜若狂”应该被贴上 y = 1 的标签。
24 | - [ ] 正确
25 | - [ ] 错误
26 | ___
27 | > 4、对于词嵌入而言,下面哪一个(些)方程是成立的?
28 |
29 | - [ ] e_boy − e_girl ≈ e_brother − e_sister
30 | - [ ] e_boy − e_girl ≈ e_sister − e_brother
31 | - [ ] e_boy − e_brother ≈ e_girl − e_sister
32 | - [ ] e_boy − e_brother ≈ e_sister − e_girl
33 | ___
34 | > 5、设EE为嵌入矩阵,e_1234对应的是词“1234”的独热向量,为了获得1234的词嵌入,为什么不直接在Python中使用代码 E * e_1234 呢?
35 |
36 | - [ ] 因为这个操作是在浪费计算资源。
37 | - [ ] 因为正确的计算方式是 E^T * e_1234
38 | - [ ] 因为它没有办法处理未知的单词()。
39 | - [ ] 以上全都不对,因为直接调用 E * e_1234 是最好的方案。
40 | ___
41 | > 6、在学习词嵌入时,我们创建了一个预测 P(target∣context) 的任务,如果这个预测做的不是很好那也是没有关系的,因为这个任务更重要的是学习了一组有用的嵌入词。
42 | - [ ] 正确
43 | - [ ] 错误
44 | ___
45 | > 7、在word2vec算法中,你要预测P(t∣c),其中 t 是目标词(target word),c 是语境词(context word)。你应当在训练集中怎样选择 t 与 c 呢?
46 | - [ ] c 与 t 应当在附近词中。
47 | - [ ] c 是 t 之前句子中所有单词的序列。
48 | - [ ] c 是 t 之前句子中几个单词的序列。
49 | - [ ] c 是在 t 前面的一个词。
50 | ___
51 | > 8、假设你有1000个单词词汇,并且正在学习500维的词嵌入,word2vec模型使用下面的softmax函数:
52 | 
53 |
54 | > 以下说法中哪一个(些)是正确的?
55 | - [ ] θ_t 与 e_c 都是500维的向量。
56 | - [ ] θ_t 与 e_c 都是10000维的向量。
57 | - [ ] θ_t 与 e_c 都是通过Adam或梯度下降等优化算法进行训练的。
58 | - [ ] 训练之后,θ_t 应该非常接近 e_c,因为 t 和 c 是一个词。
59 | ___
60 | > 9、这里有一些GRU和LSTM的方程:
61 | 
62 |
63 | > 以下说法中哪一个(些)是正确的?
64 | - [ ] θ_i 与 e_j 应当初始化为0。
65 | - [ ] θ_i 与 e_j 应当使用随机数进行初始化。
66 | - [ ] X_ij 是单词 i 在 j 中出现的次数。
67 | - [ ] 加权函数 f(.) 必须满足 f(0)=0 。
68 | ___
69 | > 10、你已经在文本数据集 m1 上训练了词嵌入,现在准备将它用于一个语言任务中,对于这个任务,你有一个单独标记的数据集 m2,请记住,使用词嵌入是一种迁移学习的形式,在这种情况下,你认为词嵌入会有帮助吗?
70 |
71 | - [ ] m1 >> m2
72 | - [ ] m1 << m2
73 | ___
--------------------------------------------------------------------------------
/trials/C5W2_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C5W2_withAnswers.md:
--------------------------------------------------------------------------------
1 | C5W2 自然语言处理与词嵌入
2 |
3 | ## 测验
4 |
5 | > 1、假设你为10000个单词学习词嵌入,为了捕获全部范围的单词的变化以及意义,那么词嵌入向量应该是10000维的。
6 | - [ ] 正确
7 | - [x] 错误
8 | ___
9 | > 2、什么是t-SNE?
10 | - [ ] 一种能够解决词向量上的类比的线性变换。
11 | - [x] 一种非线性降维算法。
12 | - [ ] 一种用于学习词嵌入的监督学习算法。
13 | - [ ] 一个开源序列模型库。
14 | ___
15 | > 3、假设你下载了一个已经在一个很大的文本语料库上训练过的词嵌入的数据,然后你要用这个词嵌入来训练RNN并用于识别一段文字中的情感,判断这段文字的内容是否表达了“快乐”。
16 |
17 | |x(输入文本)|y (是否快乐)|
18 | |:------------:|:------------:|
19 | |我今天感觉很好!|1|
20 | |我觉得很沮丧,因为我的猫生病了。|0|
21 | |真的很享受这个!|1|
22 |
23 | > 那么即使“欣喜若狂”这个词没有出现在你的小训练集中,你的RNN也会认为“我欣喜若狂”应该被贴上 y = 1 的标签。
24 | - [x] 正确
25 | - [ ] 错误
26 | ___
27 | > 4、对于词嵌入而言,下面哪一个(些)方程是成立的?
28 |
29 | - [x] e_boy − e_girl ≈ e_brother − e_sister
30 | - [ ] e_boy − e_girl ≈ e_sister − e_brother
31 | - [x] e_boy − e_brother ≈ e_girl − e_sister
32 | - [ ] e_boy − e_brother ≈ e_sister − e_girl
33 | ___
34 | > 5、设EE为嵌入矩阵,e_1234对应的是词“1234”的独热向量,为了获得1234的词嵌入,为什么不直接在Python中使用代码 E * e_1234 呢?
35 |
36 | - [x] 因为这个操作是在浪费计算资源。
37 | - [ ] 因为正确的计算方式是 E^T * e_1234
38 | - [ ] 因为它没有办法处理未知的单词()。
39 | - [ ] 以上全都不对,因为直接调用 E * e_1234 是最好的方案。
40 | ___
41 | > 6、在学习词嵌入时,我们创建了一个预测 P(target∣context) 的任务,如果这个预测做的不是很好那也是没有关系的,因为这个任务更重要的是学习了一组有用的嵌入词。
42 | - [ ] 正确
43 | - [x] 错误
44 | ___
45 | > 7、在word2vec算法中,你要预测P(t∣c),其中 t 是目标词(target word),c 是语境词(context word)。你应当在训练集中怎样选择 t 与 c 呢?
46 | - [x] c 与 t 应当在附近词中。
47 | - [ ] c 是 t 之前句子中所有单词的序列。
48 | - [ ] c 是 t 之前句子中几个单词的序列。
49 | - [ ] c 是在 t 前面的一个词。
50 | ___
51 | > 8、假设你有1000个单词词汇,并且正在学习500维的词嵌入,word2vec模型使用下面的softmax函数:
52 | 
53 |
54 | > 以下说法中哪一个(些)是正确的?
55 | - [x] θ_t 与 e_c 都是500维的向量。
56 | - [ ] θ_t 与 e_c 都是10000维的向量。
57 | - [x] θ_t 与 e_c 都是通过Adam或梯度下降等优化算法进行训练的。
58 | - [ ] 训练之后,θ_t 应该非常接近 e_c,因为 t 和 c 是一个词。
59 | ___
60 | > 9、这里有一些GRU和LSTM的方程:
61 | 
62 |
63 | > 以下说法中哪一个(些)是正确的?
64 | - [ ] θ_i 与 e_j 应当初始化为0。
65 | - [x] θ_i 与 e_j 应当使用随机数进行初始化。
66 | - [x] X_ij 是单词 i 在 j 中出现的次数。
67 | - [x] 加权函数 f(.) 必须满足 f(0)=0 。
68 | ___
69 | > 10、你已经在文本数据集 m1 上训练了词嵌入,现在准备将它用于一个语言任务中,对于这个任务,你有一个单独标记的数据集 m2,请记住,使用词嵌入是一种迁移学习的形式,在这种情况下,你认为词嵌入会有帮助吗?
70 |
71 | - [x] m1 >> m2
72 | - [ ] m1 << m2
73 | ___
--------------------------------------------------------------------------------
/trials/C5W3_noAnswers.md:
--------------------------------------------------------------------------------
1 | C5W3 序列模型与注意力机制
2 |
3 | ## 测验
4 |
5 | > 1、想一想使用如下的编码-解码模型来进行机器翻译:
6 | 
7 | > 这个模型是“条件语言模型”,编码器部分(绿色显示)的意义是建模中输入句子x的概率
8 | - [ ] 正确
9 | - [ ] 错误
10 | ___
11 | > 2、在集束搜索中,如果增加集束宽度b,以下哪一项是正确的?
12 | - [ ] 集束搜索将运行的更慢。
13 | - [ ] 集束搜索将使用更多的内存。
14 | - [ ] 集束搜索通常将找到更好地解决方案(比如:在最大化概率 P(y∣x)上做的更好)。
15 | - [ ] 集束搜索将在更少的步骤后收敛。
16 | ___
17 | > 3、在机器翻译中,如果我们在不使用句子归一化的情况下使用集束搜索,那么算法会输出过短的译文。
18 |
19 | - [ ] 正确
20 | - [ ] 错误
21 | ___
22 | > 4、假设你正在构建一个能够让语音片段 x 转为译文 y 的基于RNN模型的语音识别系统,你的程序使用了集束搜索来试着找寻最大的 P( y | x ) 的值 y 。
23 | 在开发集样本中,给定一个输入音频,你的程序会输出译文 y_hat = “I’m building an A Eye system in Silly con Valley.”,
24 | 人工翻译为 y* = “I’m building an AI system in Silicon Valley.”
25 |
26 | > 在你的模型中,
27 | P( y_hat ∣ x ) = 1.09e-7
28 | P( y* ∣ x ) = 7.21e-8
29 |
30 | > 那么,你会增加 集束宽度B 来帮助修正这个样本吗?
31 |
32 | - [ ] 不会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于RNN而不是搜索算法。
33 | - [ ] 不会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于搜索算法而不是RNN。
34 | - [ ] 会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于RNN而不是搜索算法。
35 | - [ ] 会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于搜索算法而不是RNN。
36 | ___
37 | > 5、接着使用第4题那里的样本,假设你花了几周的时间来研究你的算法,现在你发现,对于绝大多数让算法出错的例子而言,P( y* ∣ x ) > P( y_hat ∣ x )),
38 | 这表明你应该将注意力集中在改进搜索算法上,对吗?
39 |
40 | - [ ] 正确
41 | - [ ] 错误
42 | ___
43 | > 6、回想一下机器翻译的注意力模型:
44 | 
45 |
46 | > 以及α^的公式
47 |
48 | > 下面关于 α^ 的选项那个(些)是正确的?
49 |
50 | - [ ] 对于网络中与输出y^ 高度相关的α^< t’ >而言,我们通常希望 α^ 的值更大。(请注意上标)
51 | - [ ] 对于网络中与输出y^ 高度相关的α^< t >而言,我们通常希望 α^ 的值更大。(请注意上标)
52 | - [ ] 
53 | - [ ] 
54 | ___
55 | > 7、网络通过学习的值 e^ 来学习在哪里关注“关注点”,这个值是用一个小的神经网络的计算出来的:
56 | 这个神经网络的输入中,我们不能将s^< t >替换为s^< t-1 >。
57 | 这是因为s^< t >依赖于α^, 而α^又依赖于 e^;
58 | 所以在我们需要评估这个网络时,我们还没有计算出s^< t >。
59 | - [ ] 正确
60 | - [ ] 错误
61 | ___
62 | > 8、与题1中的编码-解码模型(没有使用注意力机制)相比,我们希望有注意力机制的模型在下面的情况下有着最大的优势:
63 | - [ ] 输入序列的长度Tx比较大。
64 | - [ ] 输入序列的长度Tx比较小。
65 | ___
66 | > 9、在CTC模型下,不使用"空白"字符(_)分割的相同字符串将会被折叠。那么在CTC模型下,以下字符串将会被折叠成什么样子?
67 |
68 | > __c_oo_o_kk___b_ooooo__oo__kkk
69 |
70 | - [ ] cokbok
71 | - [ ] cookbook
72 | - [ ] cook book
73 | - [ ] coookkboooooookkk
74 | ___
75 | > 10、在触发词检测中,x^< t >是:
76 |
77 | - [ ] 时间 t 的音频特征(与频谱特征一样)。
78 | - [ ] 第 t 个输入字,其被表示为一个独热向量或者一个字嵌入。
79 | - [ ] 是否在第 t 时刻说出了触发词。
80 | - [ ] 是否有人在第 t 时刻说完了触发词。
81 | ___
--------------------------------------------------------------------------------
/trials/C5W3_noAnswers_EnVer.md:
--------------------------------------------------------------------------------
1 | 
--------------------------------------------------------------------------------
/trials/C5W3_withAnswers.md:
--------------------------------------------------------------------------------
1 | C5W3 序列模型与注意力机制
2 |
3 | ## 测验
4 |
5 | > 1、想一想使用如下的编码-解码模型来进行机器翻译:
6 | 
7 | > 这个模型是“条件语言模型”,编码器部分(绿色显示)的意义是建模中输入句子x的概率
8 | - [ ] 正确
9 | - [x] 错误
10 | ___
11 | > 2、在集束搜索中,如果增加集束宽度b,以下哪一项是正确的?
12 | - [x] 集束搜索将运行的更慢。
13 | - [x] 集束搜索将使用更多的内存。
14 | - [x] 集束搜索通常将找到更好地解决方案(比如:在最大化概率 P(y∣x)上做的更好)。
15 | - [ ] 集束搜索将在更少的步骤后收敛。
16 | ___
17 | > 3、在机器翻译中,如果我们在不使用句子归一化的情况下使用集束搜索,那么算法会输出过短的译文。
18 |
19 | - [x] 正确
20 | - [ ] 错误
21 | ___
22 | > 4、假设你正在构建一个能够让语音片段 x 转为译文 y 的基于RNN模型的语音识别系统,你的程序使用了集束搜索来试着找寻最大的 P( y | x ) 的值 y 。
23 | 在开发集样本中,给定一个输入音频,你的程序会输出译文 y_hat = “I’m building an A Eye system in Silly con Valley.”,
24 | 人工翻译为 y* = “I’m building an AI system in Silicon Valley.”
25 |
26 | > 在你的模型中,
27 | P( y_hat ∣ x ) = 1.09e-7
28 | P( y* ∣ x ) = 7.21e-8
29 |
30 | > 那么,你会增加 集束宽度B 来帮助修正这个样本吗?
31 |
32 | - [x] 不会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于RNN而不是搜索算法。
33 | - [ ] 不会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于搜索算法而不是RNN。
34 | - [ ] 会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于RNN而不是搜索算法。
35 | - [ ] 会,因为 P( y* ∣ x ) ≤ P( y_hat ∣ x ))表示错误应归因于搜索算法而不是RNN。
36 | ___
37 | > 5、接着使用第4题那里的样本,假设你花了几周的时间来研究你的算法,现在你发现,对于绝大多数让算法出错的例子而言,P( y* ∣ x ) > P( y_hat ∣ x )),
38 | 这表明你应该将注意力集中在改进搜索算法上,对吗?
39 |
40 | - [x] 正确
41 | - [ ] 错误
42 | ___
43 | > 6、回想一下机器翻译的注意力模型:
44 | 
45 |
46 | > 以及α^的公式
47 |
48 | > 下面关于 α^ 的选项那个(些)是正确的?
49 |
50 | - [x] 对于网络中与输出y^ 高度相关的α^< t’ >而言,我们通常希望 α^ 的值更大。(请注意上标)
51 | - [ ] 对于网络中与输出y^ 高度相关的α^< t >而言,我们通常希望 α^ 的值更大。(请注意上标)
52 | - [ ] 
53 | - [x] 
54 | ___
55 | > 7、网络通过学习的值 e^ 来学习在哪里关注“关注点”,这个值是用一个小的神经网络的计算出来的:
56 | 这个神经网络的输入中,我们不能将s^< t >替换为s^< t-1 >。
57 | 这是因为s^< t >依赖于α^, 而α^又依赖于 e^;
58 | 所以在我们需要评估这个网络时,我们还没有计算出s^< t >。
59 | - [x] 正确
60 | - [ ] 错误
61 | ___
62 | > 8、与题1中的编码-解码模型(没有使用注意力机制)相比,我们希望有注意力机制的模型在下面的情况下有着最大的优势:
63 | - [x] 输入序列的长度Tx比较大。
64 | - [ ] 输入序列的长度Tx比较小。
65 | ___
66 | > 9、在CTC模型下,不使用"空白"字符(_)分割的相同字符串将会被折叠。那么在CTC模型下,以下字符串将会被折叠成什么样子?
67 |
68 | > __c_oo_o_kk___b_ooooo__oo__kkk
69 |
70 | - [ ] cokbok
71 | - [x] cookbook
72 | - [ ] cook book
73 | - [ ] coookkboooooookkk
74 | ___
75 | > 10、在触发词检测中,x^< t >是:
76 |
77 | - [x] 时间 t 的音频特征(与频谱特征一样)。
78 | - [ ] 第 t 个输入字,其被表示为一个独热向量或者一个字嵌入。
79 | - [ ] 是否在第 t 时刻说出了触发词。
80 | - [ ] 是否有人在第 t 时刻说完了触发词。
81 | ___
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/handDrewDiagram.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/handDrewDiagram.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/iterateDiagram.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/iterateDiagram.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/leakyRelu.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/leakyRelu.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/relu.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/relu.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/sigmoid.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/sigmoid.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/tanh.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/tanh.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W1/trialC1W1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W1/trialC1W1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/X.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/X.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/computationGraph.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/computationGraph.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/lossFunction1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/lossFunction1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/lossFunction2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/lossFunction2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/lossFunction3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/lossFunction3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/lossFunction4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/lossFunction4.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W2/trialC1W2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W2/trialC1W2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/a2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/a2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/a212.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/a212.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/a24.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/a24.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/formula1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/formula1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/formula2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/formula2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/formula3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/formula3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/formula4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/formula4.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/oneHiddenLaynerNN.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/oneHiddenLaynerNN.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W3/trialC1W3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W3/trialC1W3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W4/neuralNetworkGraph.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W4/neuralNetworkGraph.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W4/trialC1W4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W4/trialC1W4.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C1W4/twoHiddenLayersNN.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C1W4/twoHiddenLayersNN.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W1/trialC2W1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W1/trialC2W1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W2/cost.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W2/cost.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W2/gradientDescent.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W2/gradientDescent.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W2/temperature.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W2/temperature.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W2/trialC2W2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W2/trialC2W2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W3/normalizationFormula.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W3/normalizationFormula.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C2W3/trialC2W3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C2W3/trialC2W3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C3W1/cityOverlook.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C3W1/cityOverlook.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C3W1/newBirds.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C3W1/newBirds.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C3W1/trialC3W1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C3W1/trialC3W1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C3W2/foggy.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C3W2/foggy.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C3W2/trafficSignal.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C3W2/trafficSignal.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C3W2/trialC3W2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C3W2/trialC3W2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W1/filter.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W1/filter.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W1/formula1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W1/formula1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W1/trialC4W1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W1/trialC4W1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W2/equation.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W2/equation.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W2/errorCompare.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W2/errorCompare.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W2/trialC4W2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W2/trialC4W2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/CNN_3.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/CNN_3.png
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/IoU.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/IoU.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/can.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/can.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/car.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/car.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/load.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/load.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/predicted_boxes.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/predicted_boxes.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W3/trialC4W3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W3/trialC4W3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W4/siameseNetwork.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W4/siameseNetwork.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C4W4/trialC4W4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C4W4/trialC4W4.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/4.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/5.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/5.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/8.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/8.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/9.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/9.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W1/trialC5W1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W1/trialC5W1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W2/GloVeFunction.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W2/GloVeFunction.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W2/trialC5W2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W2/trialC5W2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W2/word2vecSoftmax.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W2/word2vecSoftmax.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W3/1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W3/1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W3/6-1.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W3/6-1.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W3/6-2.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W3/6-2.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W3/6-3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W3/6-3.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W3/6-4.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W3/6-4.jpg
--------------------------------------------------------------------------------
/trials/testAssests/C5W3/trialC5W3.jpg:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/trials/testAssests/C5W3/trialC5W3.jpg
--------------------------------------------------------------------------------
/xmind/AIAndFinance/AIAndFinance.png:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/AIAndFinance/AIAndFinance.png
--------------------------------------------------------------------------------
/xmind/AIAndFinance/AIAndFinance.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/AIAndFinance/AIAndFinance.xmind
--------------------------------------------------------------------------------
/xmind/AIAndFinance/README.md:
--------------------------------------------------------------------------------
1 | 原视频地址:https://www.bilibili.com/video/av62935637
2 | 建议下载svg与xmind,比较高清。
--------------------------------------------------------------------------------
/xmind/C1W2/C1W2 神经网络的编程基础A.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C1W2/C1W2 神经网络的编程基础A.xmind
--------------------------------------------------------------------------------
/xmind/C1W2/C1W2 神经网络的编程基础B.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C1W2/C1W2 神经网络的编程基础B.xmind
--------------------------------------------------------------------------------
/xmind/C1W3/C1W3 浅层神经网络A.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C1W3/C1W3 浅层神经网络A.xmind
--------------------------------------------------------------------------------
/xmind/C1W3/C1W3 浅层神经网络B.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C1W3/C1W3 浅层神经网络B.xmind
--------------------------------------------------------------------------------
/xmind/C1W4/C1W4 深度神经网络A.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C1W4/C1W4 深度神经网络A.xmind
--------------------------------------------------------------------------------
/xmind/C1W4/C1W4 深度神经网络B.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C1W4/C1W4 深度神经网络B.xmind
--------------------------------------------------------------------------------
/xmind/C2W1/C2W1深度学习的实践A.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C2W1/C2W1深度学习的实践A.xmind
--------------------------------------------------------------------------------
/xmind/C2W1/C2W1深度学习的实践B.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C2W1/C2W1深度学习的实践B.xmind
--------------------------------------------------------------------------------
/xmind/C2W2/C2W2 优化算法.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C2W2/C2W2 优化算法.xmind
--------------------------------------------------------------------------------
/xmind/C2W3/C2W3 超参数调试、正则化以及优化.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C2W3/C2W3 超参数调试、正则化以及优化.xmind
--------------------------------------------------------------------------------
/xmind/C3W1/C3W1 机器学习(ML)策略(1).xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C3W1/C3W1 机器学习(ML)策略(1).xmind
--------------------------------------------------------------------------------
/xmind/C3W2/C3W2 机器学习(ML)策略(2).xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C3W2/C3W2 机器学习(ML)策略(2).xmind
--------------------------------------------------------------------------------
/xmind/C4W1/C4W1 卷积神经网络.xmind:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/xmind/C4W1/C4W1 卷积神经网络.xmind
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L01 Welcome.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L01 Welcome.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L02 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L02 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L03.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L03.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L04.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L04.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L05 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L05 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 1/C1W1L06 CourseResources.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 1/C1W1L06 CourseResources.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L01 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L01 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L01 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L01 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L02 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L02 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L04 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L04 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L05 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L05 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L07 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L07 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L09 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L09 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L11 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L11 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L13 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L13 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L15 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L15 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 2/C1W2L16 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 2/C1W2L16 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L01 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L01 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L010 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L010 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L011 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L011 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L02 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L02 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L04 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L04 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L06 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L06 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L07 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L07 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L08 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L08 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 3/C1W3L09 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 3/C1W3L09 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L01 DeepLLayerNN_annotated.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L01 DeepLLayerNN_annotated.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L02 ForwardPropInDN_annotated.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L02 ForwardPropInDN_annotated.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L05 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L05 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L06 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L06 slides.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L07 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L07 notes.pdf
--------------------------------------------------------------------------------
/课件/C1 Week 4/C1W4L08 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C1 Week 4/C1W4L08 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L01 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L01 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L03 pdf.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L03 pdf.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L05 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L05 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L06 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L06 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L08 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L08 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L09 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L09 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L10 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L10 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L12 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L12 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 1/C2W1L13 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 1/C2W1L13 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L01 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L01 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L05 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L05 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L06 lecture.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L06 lecture.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L07 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L07 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L08 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L08 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L09 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L09 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 2/C2W2L10 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 2/C2W2L10 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L01 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L01 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L05 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L05 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L06 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L06 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L07 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L07 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L08 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L08 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L09 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L09 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L10 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L10 notes.pdf
--------------------------------------------------------------------------------
/课件/C2 Week 3/C2W3L11 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C2 Week 3/C2W3L11 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L01 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L01 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L02 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L02 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L03 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L03 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L04 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L04 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L05 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L05 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L05 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L05 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L06 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L06 slides.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L06 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L06 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L07 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L07 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L07 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L07 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L08 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L08 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L08 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L08 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L09 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L09 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L09 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L09 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L10 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L10 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L10 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L10 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L11 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L11 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L11 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L11 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L12 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L12 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 1/C3W1L12 supplemental notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 1/C3W1L12 supplemental notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L01 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L01 slides.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L02 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L02 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L03 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L03 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L04 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L04 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L05 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L05 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L06 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L06 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L07 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L07 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L08 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L08 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L09 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L09 notes.pdf
--------------------------------------------------------------------------------
/课件/C3 Week 2/C3W2L10 notes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C3 Week 2/C3W2L10 notes.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L01 slides.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L01 slides.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L02-EdgeDetectionExample.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L02-EdgeDetectionExample.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L03-MoreEdgeDetection.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L03-MoreEdgeDetection.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L04-Padding.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L04-Padding.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L05-StridedConv.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L05-StridedConv.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L06-ConvolutionsOverVolumes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L06-ConvolutionsOverVolumes.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L08-SimpleCNNExample.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L08-SimpleCNNExample.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L09-PoolingLayers.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L09-PoolingLayers.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L10-CNNExample.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L10-CNNExample.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 1/C4W1L11-WhyConvs.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 1/C4W1L11-WhyConvs.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 2/C4W2L01-WhyLookAtCaseStudies.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 2/C4W2L01-WhyLookAtCaseStudies.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 2/C4W2L02-ClassicNetworks.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 2/C4W2L02-ClassicNetworks.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 2/C4W2L03-ResNets.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 2/C4W2L03-ResNets.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 2/C4W2L05-NetworkinNetworkand1x1.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 2/C4W2L05-NetworkinNetworkand1x1.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 2/C4W2L06-InceptionNetworkMotivation.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 2/C4W2L06-InceptionNetworkMotivation.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 2/C4W2L07-InceptionNetwork.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 2/C4W2L07-InceptionNetwork.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L01-ObjectLocalization.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L01-ObjectLocalization.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L02-LandmarkDetection.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L02-LandmarkDetection.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L03-ObjectDetection.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L03-ObjectDetection.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L04-ConvImpSlidingWindows.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L04-ConvImpSlidingWindows.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L06-InstersecOverUnion.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L06-InstersecOverUnion.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L07-NonmaxSuppression.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L07-NonmaxSuppression.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L08-AnchorBoxes.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L08-AnchorBoxes.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L09-YOLOAlgorithm.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L09-YOLOAlgorithm.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 3/C4W3L10-RegionProposals.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 3/C4W3L10-RegionProposals.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L01-WhatIsFaceRecog.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L01-WhatIsFaceRecog.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L02-OneShotLearning.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L02-OneShotLearning.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L03-SiameseNetwork.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L03-SiameseNetwork.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L04-TripletLoss.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L04-TripletLoss.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L05-FaceVerifABinaryClass.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L05-FaceVerifABinaryClass.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L06-WhatIsNeuralTransferStyle.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L06-WhatIsNeuralTransferStyle.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L07-WhatAreDeepCNsLearning.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L07-WhatAreDeepCNsLearning.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L08-CostFunction.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L08-CostFunction.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L09-ContentCostFunction.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L09-ContentCostFunction.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L10-StyleCostFunction.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L10-StyleCostFunction.pdf
--------------------------------------------------------------------------------
/课件/C4 Week 4/C4W4L11-1D3DGeneralizations.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C4 Week 4/C4W4L11-1D3DGeneralizations.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L01.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L01.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L02.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L02.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L03.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L03.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L04.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L04.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L05.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L05.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L06.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L06.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L07.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L07.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L08.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L08.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L09.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L09.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L10.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L10.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 1/C5W1L11.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 1/C5W1L11.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L01.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L01.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L02.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L02.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L03.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L03.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L04.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L04.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L05.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L05.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L06.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L06.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L07.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L07.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L08.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L08.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L09.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L09.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L10.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L10.pdf
--------------------------------------------------------------------------------
/课件/C5 Week 3/C5W3L11.pdf:
--------------------------------------------------------------------------------
https://raw.githubusercontent.com/greebear/deeplearning.ai-notes/b2c61710c3263df4088dcc647c4f2c3277dc5445/课件/C5 Week 3/C5W3L11.pdf
--------------------------------------------------------------------------------