首页> 中文学位 >二氧化硫和氮氧化物吸收光谱分析与在线监测方法
【6h】

二氧化硫和氮氧化物吸收光谱分析与在线监测方法

代理获取

目录

二氧化硫和氮氧化物吸收光谱分析与在线监测方法

ABSORPTION SPECTROSCOPIC ANALYSIS AND ON-LINE MONITORING METHOD OF SULFUR DIOXIDE AND NITROGEN OXIDE

摘要

Abstract

Contents

第1章 绪 论

1.1 课题背景及研究的目的和意义

1.2 二氧化硫和氮氧化物监测方法

1.3 差分吸收光谱国内外研究现状

1.4 课题研究的主要内容

第2章 二氧化硫吸收光谱分析和在线监测方法

2.1 引言

2.2 吸收光谱的基本原理

2.3 二氧化硫吸收光谱分析方案设计

2.4 二氧化硫吸收光谱分析的实验研究

2.5 二氧化硫在线监测实验研究

2.6 本章小结

第3章 温度对二氧化硫吸收光谱分析影响研究

3.1 引言

3.2 温度对吸收光谱分析影响分析

3.3 温度对二氧化硫测量影响实验系统建立

3.4 温度对二氧化硫测量影响实验研究

3.5 本章小结

第4章 一氧化氮吸收光谱分析和在线监测方法研究

4.1 引言

4.2 一氧化氮吸收光谱分析方案设计

4.3 一氧化氮吸收光谱分析的实验研究

4.4 一氧化氮在线监测实验研究

4.5 本章小结

第5章 二氧化氮吸收光谱分析方法研究

5.1 引言

5.2 二氧化氮吸收光谱分析方法方案设计

5.3 二氧化氮吸收光谱分析方法的实验研究

5.4 本章小结

结 论

参考文献

攻读博士学位期间发表的论文及专利

哈尔滨工业大学博士学位论文原创性声明

哈尔滨工业大学博士学位论文使用授权书

致 谢

个人简历

展开▼

摘要

随着现代化进程的加快,能源需求不断增加。在我国能源结构中,燃煤发电仍是主要能源获取方式。煤炭的燃烧会带来污染问题,特别是气体污染,主要是二氧化硫、一氧化氮和二氧化氮。为减少污染排放,我国实施了污染排放总量控制法规,该法规的有效实施取决于污染物的监测水平。目前,在我国使用的污染监测产品技术主要由国外控制。发展具有自主知识产权的污染监测技术和产品具有重要意义。本论文在此背景下开展了针对SO2、NO和NO2三种气体吸收光谱分析和在线监测方法研究。
  开展了SO2气体监测的光谱分析方法研究。通过对二氧化硫气体吸收光谱的研究,确定了研究光谱波段(270-310 nm);针对二氧化硫吸收光谱特征:连续和周期震荡光谱结合,利用Beer-Lambert定律,建立了改进的差分吸收光谱分析方法对二氧化硫测量,使二氧化硫的浓度测量有更好的线性度和抗干扰能力;设计并建立了实验研究装置;研究结果表明:该方法对二氧化硫监测指标如下:在信噪比为2时的探测限为0.1 ppm·m,零点漂移小于0.2 ppm,测量误差和量程飘移小于1%;在此基础上研制了样机,基于自己开的软件实现了自动测量、自动数据处理、自动存储等功能;现场应用表明,开发的二氧化硫分析仪适合用于在线现场测量。
  研究了温度对SO2气体测量吸收光谱分析的影响,研究发现:在SO2气体测量中,温度会对测量产生影响;温度对气体测量影响可分为两方面,一方面是温度对于吸收光谱性质的影响,另一方面是温度对于光谱仪性质的影响;在30-130℃范围内,二氧化硫测量的光谱参量与温度成线性关系;在15-40℃范围内光谱参量与温度间成二次函数关系;通过修正,在24-42℃范围内,二氧化硫气体测量精度为小于1%。
  开展了NO气体浓度测量光谱分析方法的研究。由于NO气体的特征吸收波长与SO2气体的特征吸收重叠,研究的重点放在分解重叠的SO2和NO气体吸收光谱,论文提出了分解关联光谱的方法,排除了二氧化硫对一氧化氮气体测量的干扰;研究发现:利用在300 nm波段获得的SO2气体浓度可准确的推导出SO2气体在226 nm波段的吸收光谱,通过几何相减可以得到NO气体的吸收光谱;基于理论分析,建立了NO气体浓度测量的实验装置;研究表明:该系统测量NO的最低探测限小于0.8 ppm·m,零点漂移小于1 ppm,测量误差和量程飘移都小于1%,直到1000 ppm的SO2气体干扰情况下,NO测量结果波动小于1%;开发了NO气体分析仪,通过软件,实现了自动测量、自动数据处理、自动存储等功能;现场应用表明,开发的一氧化氮分析仪适合用于在线现场测量。
  开展了NO2气体检测吸收光谱分析研究。NO2气体的吸收特点,与SO2气体的吸收特点相似,其吸收截面谱都可分为连续谱和震荡谱,因此利用我们改进的差分吸收光谱技术可以实施NO2气体浓度的测量;建立了实验装置;研究表明:该系统检测NO2气体浓度的指标如下:最低探测限小于1 ppm·m,零点漂移小于1 ppm,量程飘移和测量误差都在1%之内。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号