• / 90
  • 下载费用:16 金币  

第二章 最小二乘法与线性回归

关 键 词:
最小二乘法和线性回归 最小二乘法与线性回归 最小二乘法和 第二章最小二乘法 和最小二乘法
资源描述:
第二章 最小二乘法(OLS) 和线性回归模型 1 本章要点 § 最小二乘法的基本原理和计算方法 § 经典线性回归模型的基本假定 § BLUE统计量的性质 § t检验和置信区间检验的原理及步骤 § 多变量模型的回归系数的F检验 § 预测的类型及评判预测的标准 § 好模型具有的特征 2 第一节 最小二乘法的基本属性 § 一、有关回归的基本介绍 金融、经济变量之间的关系,大体上可以 分为两种: (1)函数关系:Y=f(X1,X2,….,XP),其中 Y的值是由Xi(i=1,2….p)所唯一确定的。 (2)相关关系: Y=f(X1,X2,….,XP) ,这里 Y的值不能由Xi(i=1,2….p)精确的唯一确定 。 3 图2-1 货币供应量和GDP散点图 4 § 图2-1表示的是我国货币供应量M2(y)与 经过季节调整的GDP(x)之间的关系(数 据为1995年第一季度到2004年第二季度的 季度数据)。 5 § 但有时候我们想知道当x变化一单位时,y平 均变化多少,可以看到,由于图中所有的点 都相对的集中在图中直线周围,因此我们可 以以这条直线大致代表x与y之间的关系。如 果我们能够确定这条直线,我们就可以用直 线的斜率来表示当x变化一单位时y的变化程 度,由图中的点确定线的过程就是回归。 6 § 对于变量间的相关关系,我们可以根据大量 的统计资料,找出它们在数量变化方面的规 律(即“平均”的规律),这种统计规律所揭 示的关系就是回归关系(regressive relationship),所表示的数学方程就是回归 方程(regression equation)或回归模型( regression model)。 7 § 图2-1中的直线可表示为 (2.1) 根据上式,在确定α、β的情况下,给定一个x 值,我们就能够得到一个确定的y值,然而根 据式(2.1)得到的y值与实际的y值存在一个 误差(即图2-1中点到直线的距离)。 8 § 如果我们以u表示误差,则方程(2.1)变 为: 即: 其中t(=1,2,3,…,T)表示观测数。 (2.2) (2.3) 式(2.3)即为一个简单的双变量回归模型(因其仅 具有两个变量x, y)的基本形式。 9 § 其中yt被称作因变量 (dependent variable)、 被解释变量 (explained variable)、 结果变量 (effect variable); § xt被称作自变量 (independent variable) 、解释变量 (explanatory variable) 、 原因变量 (causal variable) 10 § α、β为参数(parameters),或称回归系数 (regression coefficients); § ut通常被称为随机误差项(stochastic error term),或随机扰动项(random disturbance term),简称误差项, § 在回归模型中它是不确定的,服从随机分 布(相应的,yt也是不确定的,服从随机 分布)。 11 § 为什么将ut 包含在模型中? § (1)有些变量是观测不到的或者是无法 度量的,又或者影响因变量yt的因素太多 ; § (2)在yt的度量过程中会发生偏误,这些 偏误在模型中是表示不出来的; § (3)外界随机因素对yt的影响也很难模型 化,比如:恐怖事件、自然灾害、设备故 障等。 12 § 二、参数的最小二乘估计 § (一) 方法介绍 § 本章所介绍的是普通最小二乘法(ordinary least squares,简记OLS); § 最小二乘法的基本原则是:最优拟合直线应 该使各点到直线的距离的和最小,也可表述 为距离的平方和最小。 § 假定根据这一原理得到的α、β估计值为 、 ,则直线可表示为 。 13 § 直线上的yt值,记为 ,称为拟合值( fitted value),实际值与拟合值的差,记 为 ,称为残差(residual) ,可以看作 是随机误差项 的估计值。 § 根据OLS的基本原则,使直线与各散点 的距离的平方和最小,实际上是使残差 平方和(residual sum of squares, 简记 RSS) 最小,即最小化: RSS= = (2.4) 14 § 根据最小化的一阶条件,将式2.4分别对、 求偏导,并令其为零,即可求得结果如下 : (2.5) (2.6) 15 § (二)一些基本概念 § 1.总体(the population)和样本(the sample) § 总体是指待研究变量的所有数据集合,可以 是有限的,也可以是无限的;而样本是总体 的一个子集。 § 2、总体回归方程(the population regression function,简记PRF),样本回 归方程(the sample regression function, 简记SRF)。 16 § 总体回归方程(PRF)表示变量之间的真 实关系,有时也被称为数据生成过程( DGP),PRF中的α、β值是真实值,方程 为: + (2. 7) § 样本回归方程(SRF)是根据所选样本估算的 变量之间的关系函数,方程为: 注意:SRF中没有误差项,根据这一方程得到 的是总体因变量的期望值 (2.8) 17 于是方程(2.7)可以写为: (2.9) § 总体y值被分解为两部分:模型拟合值( )和残差项( )。 18 § 3.线性关系 § 对线性的第一种解释是指:y是x的线性函数 ,比如,y= 。 § 对线性的第二种解释是指:y是参数的一个 线性函数,它可以不是变量x的线性函数。 比如,y= 就是一个线性回归模型, 但 则不是。 § 在本课程中,线性回归一词总是对指参数β 为线性的一种回归(即参数只以一次方出现 ),对解释变量x则可以是或不是线性的。 19 § 有些模型看起来不是线性回归,但经过一些 基本代数变换可以转换成线性回归模型。例 如, (2.10 ) 可以进行如下变换: (2.11) § 令 、 、 ,则方程 (2. 11)变为: (2.12) 可以看到,模型2.12即为一线性模型。 20 § 4.估计量(estimator)和估计值(estimate ) § 估计量是指计算系数的方程;而估计值是指 估计出来的系数的数值。 21 § 三、最小二乘估计量的性质和分 布 § (一) 经典线性回归模型的基本假设 § (1) ,即残差具有零均值; § (2)var ∞,即残差具有常数方差, 且对于所有x值是有限的; § (3)cov ,即残差项之间在统计意 义上是相互独立的; § (4)cov ,即残差项与变量x无关 ; § (5)ut~N ,即残差项服从正态分布 22 § (二)最小二乘估计量的性质 § 如果满足假设(1)-(4),由最小二乘法得到的 估计量 、 具有一些特性,它们是最优线 性无偏估计量(Best Linear Unbiased Estimators,简记BLUE)。 23 § 估计量(estimator):意味着 、 是包含 着真实α、β值的估计量; § 线性(linear):意味着 、 与随机变量y 之间是线性函数关系; § 无偏(unbiased):意味着平均而言,实际 得到的 、 值与其真实值是一致的; § 最优(best):意味着在所有线性无偏估计 量里,OLS估计量 具有最小方差。 24 § (三) OLS估计量的方差、标准差和其概率分 布 § 1.OLS估计量的方差、标准差。 给定假设(1)-(4),估计量的标准差计算方 程如下 : 其中, 是残差的估计标准差。 (2.21) (2.22) 25 § 参数估计量的标准差具有如下的性质: § (1)样本容量T越大,参数估计值的标准 差越小; § (2) 和 都取决于s2。 s2是残差的方 差估计量。 s2越大,残差的分布就越分散 ,这样模型的不确定性也就越大。如果s2很 大,这意味着估计直线不能很好地拟合散点 ; 26 § (3)参数估计值的方差与 成反比 。 其值越小,散点越集中,这样就越 难准确地估计拟合直线;相反,如果 越大,散点越分散,这样就可以容易地估计 出拟合直线,并且可信度也大得多。 § 比较图2-2就可以清楚地看到这点。 27 图2-2 直线拟合和散点集中度的关系 28 § (4) 项只影响截距的标准差,不影响斜 率的标准差。理由是: 衡量的是散点与 y轴的距离。 越大,散点离y轴越远,就 越难准确地估计出拟合直线与y轴的交点( 即截距);反之,则相反。 29 § 2.OLS估计量的概率分布 § 给定假设条件(5),即 ~ ,则 也 服从正态分布 § 系数估计量也是服从正态分布的: (2.30) (2.31) 30 § 需要注意的是:如果残差不服从正态分布, 即假设(5)不成立,但只要CLRM的其他假设 条件还成立,且样本容量足够大,则通常认 为系数估计量还是服从正态分布的。 § 其标准正态分布为: (2.32) (2.33) 31 § 但是,总体回归方程中的系数的真实标准差 是得不到的,只能得到样本的系数标准差( 、 )。用样本的标准差去替代总体标准 差会产生不确定性,并且 、 将不再服从正态分布,而 服从自由度为T-2的t分布,其中T为样本容量 即: ~ (2.34) ~ (2.35 ) 32 3.正态分布和t分布的关系 图2-3 正态分布和t分布形状比较 33 从图形上来看,t分布的尾比较厚,均值 处的最大值小于正态分布。 随着t分布自由度的增大,其对应临界值 显著减小,当自由度趋向于无穷时,t分布 就服从标准正态分布了。 所以正态分布可以看作是t分布的一个特 例。 34 第二节 一元线性回归模型的统计 检验 一、拟合优度(goodness of fit statistics) 检验 拟合优度可用R2 表示:模型所要解释的 是y相对于其均值的波动性,即 (总平方和,the total sum of squares, 简记TSS),这一平方和可以分成两部分 : 35 = + (2.36) 是被模型所解释的部分,称为回归平方 和(the explained sum of squares,简记ESS) ; 是不能被模型所解释的残差平方和(RSS) ,即 = 36 § TSS、ESS、RSS的关系以下图来表示更加 直观一些: 图2-4 TSS、ESS、RSS的关系 37 § 拟合优度 = § 因为 TSS=ESS+RSS § 所以 R2= (2.39) (2.37) (2.38) § R2越大,说明回归线拟合程度越好;R2越小,说 明回归线拟合程度越差。由上可知,通过考察R2 的大小,我们就能粗略地看出回归线的优劣。 38 § 但是,R2作为拟合优度的一个衡量标准也 存在一些问题: (1)如果模型被重新组合,被解释变量发 生了变化,那么R2也将随之改变,因此具 有不同被解释变量的模型之间是无法来比较 R2的大小的。 39 (2)增加了一个解释变量以后, R2只会增 大而不会减小,除非增加的那个解释变量之 前的系数为零,但在通常情况下该系数是不 为零的,因此只要增加解释变量, R2就会 不断的增大,这样我们就无法判断出这些解 释变量是否应该包含在模型中。 (3)R2的值经常会很高,达到0.9或更高, 所以我们无法判断模型之间到底孰优孰劣。 40 § 为了解决上面第二个问题,我们通常用调整 过的R2来代替未调整过的R2 。对R2进行调整 主要是考虑到在引进一个解释变量时,会失 去相应的自由度。调整过的R2用 来表示 ,公式为: § 其中T为样本容量 ,K为自变量个数 (2.40) 41 § 二、假设检验 § 假设检验的基本任务是根据样本所提供的信 息,对未知总体分布某些方面的假设做出合 理解释 § 假设检验的程序是,先根据实际问题的要求 提出一个论断,称为零假设(null hypothesis)或原假设,记为H0(一般并列 的有一个备择假设(alternative hypothesis ),记为H1 ) § 然后根据样本的有关信息,对H0的真伪进 行判断,做出拒绝H0或不能拒绝H0的决策 。 42 § 假设检验的基本思想是概率性质的反证法。 § 概率性质的反证法的根据是小概率事件原理 。该原理认为“小概率事件在一次实验中几乎 是不可能发生的”。在原假设H0下构造一个事 件(即检验统计量),这个事件在“原假设H0 是正确的”的条件下是一个小概率事件,如果 该事件发生了,说明“原假设H0是正确的”是 错误的,因为不应该出现的小概率事件出现 了,应该拒绝原假设H0 。 43 § 假设检验有两种方法: § 置信区间检验法(confidence interval approach)和显著性检验法(test of significance approach)。 § 显著性检验法中最常用的是t检验和F检验, 前者是对单个变量系数的显著性检验,后者 是对多个变量系数的联合显著性检验。 44 § (一)t检验 § 下面我们具体介绍对方程(2.3)的系数进 行t检验的主要步骤。 (1)用OLS方法回归方程(2.3),得到β 的估计值 及其标准差 。 (2)假定我们建立的零假设是: ,备则假设是 (这是一个双侧检 验)。 45 § 则我们建立的统计量 服从自由度为T-2的t分布。 (3)选择一个显著性水平(通常是5%),我们 就可以在t分布中确定拒绝区域和非拒绝区域, 如图2-5。如果选择显著性水平为5%,则表明有 5%的分布将落在拒绝区域 46 图2-5 双侧检验拒绝区域和非拒绝区域分布 47 § (4)选定显著性水平后,我们就可以根据t 分布表求得自由度为T-2的临界值,当检验统 计值的绝对值大于临界值时,它就落在拒绝 区域,因此我们拒绝的原假设,而接受备则 假设。反之则相反。 § 可以看到,t检验的基本原理是如果参数的假 设值与估计值差别很大,就会导致小概率事 件的发生,从而导致我们拒绝参数的假设值 。 48 (二)置信区间法 § 仍以方程2.3的系数β为例,置信区间法的基 本思想是建立围绕估计值 的一定的限制 范围,推断总体参数β是否在一定的置信度 下落在此区间范围内。 置信区间检验的主要步骤(所建立的零假设同 t检验)。 49 § (1)用OLS法回归方程(2.3),得到β的 估计值 及其标准差 。 § (2)选择一个显著性水平(通常为5%), 这相当于选择95%的置信度。查t分布表, 获得自由度为T-2的临界值 。 § (3)所建立的置信区间为( , ) (2.41) 50 § (4)如果零假设值 落在置信区间外,我们 就拒绝 的原假设;反之,则不能 拒绝。 § 需要注意的是,置信区间检验都是双侧检验, 尽管在理论上建立单侧检验也是可行的。 51 (三)t检验与置信区间检验的关系 § 在显著性检验法下,当 的绝对值小于临界 值时,即: (2.42) 时,我们不能拒绝原假设。 § 对式(2.41)变形,我们可以得到: § (2.43) § 可以看到,式(2.43)恰好是置信区间法的置 信区间式(2.41),因此,实际上t检验法与 置信区间法提供的结果是完全一样的。 52 (四)第一类错误和第二类错误 § 如果有一个零假设在5%的显著性水平下被 拒绝了,有可能这个拒绝是不正确的,这种 错误被称为第一类错误,它发生的概率为5 %。 § 另外一种情况是,我们得到95%的一个置 信区间,落在这个区间的零假设我们都不能 拒绝,当我们接受一个零假设的时候也可能 犯错误,因为回归系数的真实值可能是该区 间内的另外一个值,这一错误被称为第二类 错误。 § 在选择显著性水平时人们面临抉择:降低犯 第一类错误的概率就会增加犯第二类错误的 概率。 53 § (五)P值 § P值是计量经济结果对应的精确的显著性水 平。 § P值度量的是犯第一类错误的概率,即拒绝 正确的零假设的概率。P值越大,错误地拒 绝零假设的可能性就越大;p值越小,拒绝 零假设时就越放心。现在许多统计软件都能 计算各种统计量的p值,如Eviews、Stata等 。 54 第三节 多变量线性回归模型的统计 检验 § 一、多变量模型的简单介绍 § 考察下面这个方程: § t=1,2,3….T (2.44) § 对y产生影响的解释变量共有k-1(x2t,x3t…,xkt )个,系数(β1’β2’…βk)分别衡量了解释变 量对因变量y的边际影响的程度。 55 § 方程(2.44)的矩阵形式为 § § 这里:y是T×1矩阵,X是T×k矩阵,β是 k×1矩阵,u是T×1矩阵 (2.46) 56 § 在多变量回归中残差向量为: (2.47) 残差平方和为: (2.48) 57 § 可以得到多变量回归系数的估计表达 式 (2.49) 同样我们可以得到多变量回归模型残差的样本方差 (2.50) § 参数的协方差矩阵 (2.51 ) 58 § 二、拟合优度检验 § 在多变量模型中,我们想知道解释变量一 起对因变量y变动的解释程度。我们将度量 这个信息的量称为多元判定系数R2。 § 在多变量模型中,下面这个等式也成立: § TSS=ESS+RSS (2.52) § 其中,TSS为总离差平方和;ESS为回归 平方和;RSS为残差平方和。 59 § 与双变量模型类似,定义如下: § 即,R2是回归平方和与总离差平方和的比 值;与双变量模型唯一不同的是,ESS值 与多个解释变量有关。 § R2的值在0与1之间,越接近于1,说明估计 的回归直线拟合得越好。 (2.53) 60 § 可以证明: ( 2.54) § 因此, ( 2.55) 61 三、假设检验 § (一)、t检验 § 在多元回归模型中,t统计量为: ……(2.56) 均服从自由度为(n-k)的t分布。下面的检验 过程跟双变量线性回归模型的检验过程一样。 62 § (二)、F检验 § F检验的第一个用途是对所有的回归系数全 为0的零假设的检验。第二个用途是用来检 验有关部分回归系数的联合检验,就方法而 言,两种用途是完全没有差别的,下面我们 将以第二个用途为例,对F检验进行介绍。 63 § 为了解联合检验是如何进行的,考虑如下多 元回归模型: (2.57) 这个模型称为无约束回归模型(unrestricted regression),因为关于回归系数没有任何限 制。 64 § 假设我们想检验其中q个回归系数是否同时 为零,为此改写公式(2.57),将所有变量 分为两组,第一组包含k-q个变量(包括常 项),第二组包含q个变量: (2.58) 65 § 如果假定所有后q个系数都为零,即建立零 假设: ,则修正的模型将变为有 约束回归模型(restricted regression)(零 系数条件): (2.59) 66 § 关于上述零假设的检验很简单。若从模型中 去掉这q个变量,对有约束回归方程(2.59 )进行估计的话,得到的误差平方和 肯 定会比相应的无约束回归方程的误差平方和 大。如果零假设正确,去掉这q个变量对方 程的解释能力影响不大。当然,零假设的检 验依赖于限制条件的数目,即被设定为零的 系数个数,以及无约束回归模型的自由度。 67 § 检验的统计量为: (2.60) 在这里,分子是误差平方和的增加与零假设所 隐含的参数限制条件的个数之比;分母是模型 的误差平方和与无条件模型的自由度之比。如 果零假设为真,式(2.60)中的统计量将服从 分子自由度为q,分母自由度为N-K的F分布。 68 § 对回归系数的子集的F检验与对整个回归方 程的F检验做法一样。选定显著性水平,比 如1%或5%,然后将检验统计量的值与F分 布的临界值进行比较。如果统计量的值大于 临界值,我们拒绝零假设,认为这组变量在 统计上是显著的。一般的原则是,必须对两 个方程分别进行估计,以便正确地运用这种 F检验。 69 § F检验与R2有密切的联系。回想 ,则 § , (2.61 ) § 两个统计量具有相同的因变量,因此 将上面的两个方程代入(2.60),检验的统 计量可以写成: (2.62) 70 第四节 预测 § 一、预测的概念和类型 § (一)预测的概念 § 金融计量学中,所谓预测就是根据金融经 济变量的过去和现在的发展规律,借助计量 模型对其未来的发展趋势和状况进行描述、 分析,形成科学的假设和判断。 71 § (二)预测原理 § 条件期望(conditional expectations),在t 期Y的t+1期的条件期望值记作 ,它 表示的是在所有已知的t期的信息的条件下 ,Y在t+1期的期望值。 § 假定在t期,我们要对因变量Y的下一期( 即t+1期)值进行预测,则记作 。 72 在t期对Y的下一期的所有预测值中,Y 的条件期望值是最优的(即具有最小方差 ),因此,我们有: (2.65) 73 § (三)预测的类型: § (1)无条件预测和有条件预测 § 所谓无条件预测,是指预测模型中所有的解 释变量的值都是已知的,在此条件下所进行 的预测。 § 所谓有条件预测,是指预测模型中某些解释 变量的值是未知的,因此想要对被解释变量 进行预测,必须首先预测解释变量的值。 74 § (2)样本内(in-sample)预测和样本外( out-of-sample)预测 § 所谓样本内预测是指用全部观测值来估计模 型,然后用估计得到的模型对其中的一部分 观测值进行预测。 § 样本外预测是指将全部观测值分为两部分, 一部分用来估计模型,然后用估计得到的模 型对另一部分数据进行预测。 75 § (3)事前预测和事后模拟 § 顾名思义,事后模拟就是我们已经获得要预 测的值的实际值,进行预测是为了评价预测 模型的好坏。 § 事前预测是我们在不知道因变量真实值的情 况下对其的预测。 76 § (4)一步向前(one-step-ahead)预测和 多步向前(multi-step-ahead)预测 § 所谓一步向前预测,是指仅对下一期的变量 值进行预测,例如在t期对t+1期的值进行预 测,在t+1期对t+2期的值进行的预测等。 § 多步向前预测则不仅是对下一期的值进行预 测,也对更下期值进行预测,例如在t期对 t+1期、t+2期、…t+r期的值进行预测。 77 § 二、预测的评价标准 § 1、平均预测误差平方和(mean squared error,简记MSE)平均预测误差绝对值( mean absolute error,简记MAE)。 § 变量的MSE定义为: § MSE= (2.66) § 其中 ― 的预测值, ―实际值,T― 时段数 78 § 变量的MAE定义如下: MAE= ,变量的定义同前 (2.67) § 可以看到,MSE和MAE度量的是误差的绝 对大小,只能通过与该变量平均值的比较来 判断误差的大小,误差越大,说明模型的预 测效果越不理想。 79 § 2、Theil不相等系数 § 其定义为: (2.68) § 注意,U的分子就是MSE的平方根,而分母使 得U总在0与1之间。如果U=0,则对所有的t, 完全拟合;如果U=1,则模型的预测能力最差。因 此,Theil不等系数度量的是误差的相对大小。 80 § Theil不等系数可以分解成如下有用的形式: § 其中 分别是序列 和 的平均值 和标准差, 是它们的相关系数,即: (2.69) 81 § 定义不相等比例如下: (2.70) (2.71) (2.72) 82 § 偏误比例 表示系统误差,因为它度量的是 模拟序列与实际序列之间的偏离程度。 § 方差比例 表示的是模型中的变量重复其实 际变化程度的能力。 § 协方差比例 度量的是非系统误差,即反映 的是考虑了与平均值的离差之后剩下的误差。 § 理想的不相等比例的分布是 。 比例 分别称为U的偏误比例,方差比 例,协方差比例。它们是将模型误差按特征来源 分解的有效方法( )。 83 第五节:模型选择 § 一、“好”模型具有的特性 § 1、节省性(parsimony) 一个好的模型应在相对精确反应现实的基础 上尽可能的简单。 § 2、可识别性(identifiability) 对于给定的一组数据,估计的参数要有唯一 确定值。 84 § 3、高拟合性(goodness of fit) 回归分析的基本思想是用模型中包含的变量 来解释被解释变量的变化,因此解释能力的 高低就成为衡量模型好坏的重要的标准。 § 4、理论一致性(theoretical consistency) 即使模型的拟合性很高,但是如果模型中某 一变量系数的估计值符号与经济理论不符, 那么这个模型就是失败的。 85 § 5、预测能力(predictive power) 著名经济学家弗里德曼(M.Friedman)认 为:“对假设(模型)的真实性唯一有效的 检验就是将预测值与经验值相比较”。因此 一个好的模型必须有对未来的较强的预测能 力。 86 § 二、用于预测的模型的选择 § 因为R2将随着模型解释变量的增多而不断增 加,按照此标准我们将不会得到最佳的预测 模型。 § 因此必须对由于解释变量增多而造成自由度 丢失施加一个惩罚项,其中的一个标准就是 : 87 § 对自由度丢失惩罚更为严格的标准: Akaike的信息准则(Akaike information criterion,简记为AIC)和Schwarz的信息准 则(Schwarz information criterion,简记为 SC) 88 § 其中 是方程随机误差项方差的估计值,k 是解释变量的个数,T是样本容量。 § 可以看到,AIC和SC 的惩罚项 、 比 更为严厉,而且相对来说SC标准对自 由度的惩罚比AIC更为严厉。无论是AIC标 准还是SC标准,从预测的角度来看,度量 值越低,模型的预测会更好。 89 本章小节 本章内容在计量经济学中是最基础也是 最重要的部分。在这一章中,我们首先介绍了 最小二乘法及其估计量的性质和分布。在此基 础上我们对一元线性回归模型的统计检验进行 了详细讨论,接着将模型扩展,讨论了多元线 性回归模型。在用模型进行预测时,主要有两 种情况:即有条件预测和无条件预测。最后一 小节我们简单介绍了模型的选择。 90
展开阅读全文
  麦档网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
0条评论

还可以输入200字符

暂无评论,赶快抢占沙发吧。

关于本文
本文标题:第二章 最小二乘法与线性回归
链接地址:https://www.maidoc.com/p-15475569.html

当前资源信息

0****

编号: 20180818145307182716

类型: 共享资源

格式: PPT

大小: 699.50KB

上传时间: 2019-10-09

关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

[email protected] 2018-2020 maidoc.com版权所有  文库上传用户QQ群:3303921 

麦档网为“文档C2C模式”,即用户上传的文档所得金币直接给(下载)用户,本站只是中间服务平台,本站所有文档下载所得的金币归上传人(含作者)所有。
备案号:蜀ICP备17040478号-3  
川公网安备:51019002001290号 

本站提供办公文档学习资料考试资料文档下载


收起
展开