赵俊龙
- 作品数:8 被引量:11H指数:2
- 供职机构:北京航空航天大学数学与系统科学学院数学、信息与行为教育部重点实验室更多>>
- 发文基金:国家自然科学基金中国人民大学科学研究基金教育部人文社会科学研究基金更多>>
- 相关领域:理学自动化与计算机技术水利工程更多>>
- 结合降维思想的BinomialBoosting方法
- 2009年
- 文章利用充分降维的思想,对分类问题的BinomialBoosting(BBoosting)算法进行了改进,提出了一种新的方法——Dimension Reduction BinomialBoosting(DRBBoosting)。这种算法在每次迭代中,结合充分降维方法,充分提取X与Y之间的信息,得到X的线性组合βTX,用βTX进行boosting迭代,避免了BBoosting对所有变量逐个分析。与BBoosting相比,收敛速度快,预测精度高;模拟比较也表明了DRBBoosting的优点。
- 赵秀丽赵俊龙吴喜之
- 关键词:FGDBINOMIALBOOSTING
- 利用样条函数建立季节性时间序列的预测模型被引量:3
- 2007年
- 用B样条函数最小二乘法的非参数回归与时间序列相结合的方法建立了季节性时间序列预测模型.利用滑动平均估计季节项,再利用B样条函数非参数回归估计长期项和周期波动,对于随机项建立ARMA模型,最后对某产品需求量进行了实例分析.结果表明该方法有较高的预测精度.
- 赵俊龙赵秀丽
- 关键词:时间序列
- 正态模型下单边假设检验问题中频率与贝叶斯证据的一致性被引量:1
- 2011年
- 假设检验问题中的频率与贝叶斯证据的一致性或和谐性是频率学派和贝叶斯学派所共同关心的问题.研究正态模型下单边假设检验问题中广义p-值以及Jeffreys无信息先验下的贝叶斯证据,证明了各种检验问题中两类证据的一致性.
- 尹玉良赵俊龙徐兴忠
- 关键词:先验分布后验概率广义P-值
- 已有降维方法的推广被引量:1
- 2008年
- SAVE,PHD和SIR_(Ⅱ)已被证明是有效的降维方法,这些方法基于下面的两个假设:线性条件和常数方差条件.但是,常数方差条件非常强.当常数方差不成立时,即使线性条件成立,SAVE,PHD和SIR_(Ⅱ)经常会找到中心空间之外的方向.通过去掉了常数方差条件,在较弱条件下推广了SAVE,PHD和SIR_(Ⅱ).从而使得在较弱的条件下,能得到中心空间的正确估计.
- 赵俊龙徐兴忠
- 关键词:CSCMSSAVEPHD
- 基于样条函数的时间序列预测模型被引量:4
- 2007年
- 本文基于B样条函数最小二乘法的非参数回归与时间序列方法相结合,建立了时间序列的预测模型。该方法有较高的预测精确度,可以描述复杂模型,并且用实例进行了分析。
- 赵秀丽赵俊龙
- 关键词:时间序列
- 位置参数分布族中Fiducial分布与后验分布的关系
- 2006年
- 本文考虑本质位置参数分布族中,参数的Fiducial分布与后验分布的等同问题.首先讨论了如何给出Fiducial分布,分析结果表明以分布函数形式给出Fiducial分布要比密度函数形式合理,同时,证明了所给的Fiducial分布具有频率性质.然后,研究在参数受到单侧限制时,Fiducial分布与后验分布等同的问题,给出的充要条件是分布族为指数分布族,此时,先验分布是一个广义先验分布,它不能被Lebesgue测度控制.最后,证明了在参数限制在一个有限区间内时,Fiducial分布与任何先验(包括广义先验分布)下的后验分布不等同.
- 赵俊龙徐兴忠
- 关键词:先验分布后验分布LEBESGUE测度
- 基于加权方差估计的降维被引量:2
- 2008年
- 提出一种新的降维方法,加权方差估计(WVE),它包含了切片平均方差估计(SAVE)作为特例.并且利用Bootstrap方法从WVE中选择出最优估计,给出了维数的选择方法.该最优估计通常远好于已有方法,比如切片逆回归(SIR)等.已有的许多方法,如SIR,SAVE等,通常对每个观测给予相同的权来估计中心子空间(CS).通过引入权函数,WVE根据观测样本距中心子空间的距离,对不同观测给予不同权重.权函数使得WVE在很一般或复杂的情形下有很好的表现,比如,回归变量的分布严重偏离椭圆对称分布.而椭圆对称分布假设是许多方法的基本假定,如SIR,SAVE等.和已有方法相比,WVE对自变量的分布不敏感.本文建立了WVE的相合性.与其他方法的模拟比较表明了WVE的优点.
- 赵俊龙徐兴忠
- 关键词:SAVE
- 基于局部相关性的L2Boosting算法被引量:1
- 2010年
- 利用充分降维的思想对L2Boosting算法进行改进,提出基于局部相关性的L2Boosting(LCBoosting)算法。在每次迭代中,该算法根据响应变量与协变量的局部相关性充分提取信息,得到响应变量的线性组合来参与Boosting迭代,无须逐个分析所有变量。模拟结果表明,与L2Boosting算法相比,LCBoosting算法收敛速度快、预测精度高。
- 赵秀丽赵俊龙