声明
摘要
第一章 绪论
1.1 引言
1.2 单一多元校正方法
1.2.1 多元线性回归(MLR)
1.2.2 主成分回归(PCR)
1.2.3 偏最小二乘(PLS)
1.2.4 人工神经网络(ANN)
1.2.5 支持向量回归(SVR)
1.2.6 极限学习机(ELM)
1.3 稳健多元校正方法
1.3.1 稳健主成分回归(robust PCR)
1.3.2 稳健偏最小二乘(robust PLS)
1.3.3 稳健极限学习机(robust ELM)
1.4 集成多元校正建模方法
1.4.1 Bagging集成建模方法
1.4.2 Subagging集成建模方法
1.4.3 Boosting集成建模方法
1.5 课题的研究思路及内容
2.1 引言
2.2 原理与算法
2.2.1 Subagging策略
2.2.2 Subagging极限学习机
2.3 实验
2.4 结果与讨论
2.4.1 子模型数的确定
2.4.2 训练子集样本数的确定
2.4.3 模型的稳定性
2.4.4 不同方法预测结果的比较
2.5 小结
3.1 引言
3.2 原理与算法
3.3 实验
3.4 结果与讨论
3.4.1 极限学习机参数的优化
3.4.2 迭代次数的确定
3.4.3 训练子集样本数的确定
3.4.4 不同方法预测结果的比较
3.5 小结
4.1 引言
4.2 原理与算法
4.3 实验
4.4 结果与讨论
4.4.1 子模型数的确定
4.4.2 训练子集样本数的确定
4.4.3 模型的稳健性
4.4.4 不同方法预测结果的比较
4.5 小结
第五章 结论
参考文献
学术论文及专利
致谢
天津工业大学;