diff --git "a/docs/1.\346\234\272\345\231\250\345\255\246\344\271\240\346\246\202\350\247\210.md" "b/docs/1.\346\234\272\345\231\250\345\255\246\344\271\240\346\246\202\350\247\210.md" index 3962238d6a498f09b38baac96065edefc243d02e..78b76dfe90435b72fe280274d0ed783acefdd115 100644 --- "a/docs/1.\346\234\272\345\231\250\345\255\246\344\271\240\346\246\202\350\247\210.md" +++ "b/docs/1.\346\234\272\345\231\250\345\255\246\344\271\240\346\246\202\350\247\210.md" @@ -444,7 +444,7 @@ print(lin_reg_model.predict(X_new)) # outputs [[ 5.96242338]] > * 收集更多的训练数据 > * 减小训练数据的噪声(比如,修改数据错误和去除异常值) -限定一个模型以让它更简单,降低过拟合的风险被称作正则化(regularization)。例如,我们之前定义的线性模型有两个参数,`θ0`和`θ1`。它给了学习算法两个自由度以让模型适应训练数据:可以调整截距`θ0`和斜率`θ1`。如果强制`θ1=0`,算法就只剩一个自由度,拟合数据就会更为困难:能做的只是将在线下移动,尽可能地靠近训练实例,结果会在平均值附近。这就是一个非常简单的模型!如果我们允许算法可以修改`θ1`,但是只能在一个很小的范围内修改,算法的自由度就会介于 1 和 2 之间。它要比两个自由度的模型简单,比 1 个自由度的模型要复杂。你的目标是在完美拟合数据和保持模型简单性上找到平衡,确保算法的推广效果。 +限定一个模型以让它更简单,降低过拟合的风险被称作正则化(regularization)。例如,我们之前定义的线性模型有两个参数,`θ0`和`θ1`。它给了学习算法两个自由度以让模型适应训练数据:可以调整截距`θ0`和斜率`θ1`。如果强制`θ1=0`,算法就只剩一个自由度,拟合数据就会更为困难:它所能做的只是将拟合曲线上下移动去尽可能地靠近训练实例,结果会在平均值附近。这就是一个非常简单的模型!如果我们允许算法可以修改`θ1`,但是只能在一个很小的范围内修改,算法的自由度就会介于 1 和 2 之间。它要比两个自由度的模型简单,比 1 个自由度的模型要复杂。你的目标是在完美拟合数据和保持模型简单性上找到平衡,确保算法的推广效果。 图 1-23 展示了三个模型:虚线表示用缺失部分国家的数据训练的原始模型,短划线是我们的第二个用所有国家训练的模型,实线模型的训练数据和第一个相同,但进行了正则化限制。你可以看到正则化强制模型有一个小的斜率,它对训练数据的拟合不是那么好,但是对新样本的推广效果好。