利用广义部分线性回归模型进行预测,需要先估计出广义部分线性回归模型的参数,再代入解释变量,最后对因变量的值进行预测。因此,广义部分线性回归预测法的核心在于建立广义部分线性回归模型,然后进行参数估计。
T.J.黑斯蒂(T.J.Hastie)等最早在1986年将部分线性模型和可加模型推广到带有连接函数的广义回归模型中。标记,
,
,
为连接函数。其中,
表示
维的解释变量,一般
中的变量为非连续性变量或已知与因变量
存在线性关系;
为
维的连续性解释变量,与
关系为非线性;
为单调函数。广义部分线性回归模型可由以下公式表示:
表示
在
和
下的条件期望,
为要估计的线性参数,
为要估计的非线性光滑函数。在实际应用中,某一个解释变量归类在
还是
中,一般根据经济理论、直觉或数据预分析的结果进行选择。
主要有两大类方法对广义部分线性回归模型进行估计。一种是基于倒退拟合法(backfitting);另一种是基于边侧似然函数(profile likelihood function)。倒退拟合法最早是为了估计可加模型和广义可加模型而提出的,由于广义部分线性回归模型中的可以视为两个可加的部分,因此可用倒退拟合法进行估计。基于边侧似然函数的方法有两种,一种是边侧似然法,另一种是广义Speckman方法。边侧似然法通过极大化似然函数得到参数的估计量;广义Speckman方法是Speckman方法的广义线性扩展,其结合了广义线性模型的迭代更新最小二乘算法(iteratively reweighted least squares algorithm)。
针对的非参估计方法中,若使用 Nadaraya-Watson类型的核,可根据以下情况对3种估计方法进行选择。①若解释变量之间相互独立,倒退拟合法优于基于边侧似然的方法;反之,两种基于边侧似然的方法都能更好地提高拟合效果。②对于小的样本量,广义Speckman方法表现最佳,同时该方法在估计精确性和计算复杂度上达到良好平衡。对于大的样本量,广义Speckman方法和边侧似然法表现基本相同。有两种方法对广义部分线性回归模型的非参部分
估计结果进行检验:一种是似然比检验法,另一种是对修正的检验统计量导出渐进正态分布。