多人数インタラクションの円滑化において対話者の内面を推定することは重要な課題である.対話者の内面推定を実現するには言葉などの言語情報だけでなく,話者の表情や姿勢,ジエスチヤといった非言語情報も重要な役割を果たす.我々は非言語情報の1つである姿勢に着目し,話者の姿勢から内面を推定する手法を検討している.本論文では,その前処理として深度センサーを用いた姿勢推定の手法を提案する.提案手法では頭上方向から撮影した人物画像より得られた深度情報を基に抽出した(1)深度ヒストグラム,(2)人物の面積,(3)人物の体型,(4)人物領域の中心座標,(5)頭部領域の中心座標,(6)身体の傾き度合い,(7)身体の向きの計7種類の特徴量を用いる.抽出した特徴量を学習アルゴリズムの1つであるAdaboostに適用することで姿勢推定に最適な分類器を作成する.実験の結果,提案手法が姿勢推定において有効であることを示す.%The goal of our study is to understand a user's state in multi-party conversation. To realize the task, we need to estimate the state of user's mind. There are many approaches to estimate the state: use of verbal information and non-varbal information such as posture and gesture. In this paper, we propose a method for posture estimation. Characteristics of our method are (1)use of a top-view image and (2) use of depth information. Using top-view images solves a problem of occlusion. Using depth information reduces mistakes for detection of a person area and is effective for extracting features. We apply seven features, such as depth histogram and body information to the Adaboost algorithm. Experimental results show the effectiveness of our method.
展开▼