首页> 中国专利> 车辆用信息呈现设备和车辆用信息呈现方法

车辆用信息呈现设备和车辆用信息呈现方法

摘要

本发明涉及一种车辆用信息呈现设备和车辆用信息呈现方法。该车辆用的信息呈现设备包括安装在所述车辆上的用于指示对象方向的指示器和用于控制该指示器的控制单元。该控制单元包括:用于获取车辆的当前位置和车辆的基准方向的功能;用于指定对象并获取对象位置的功能;用于基于对象位置、当前位置和基准方向计算指示相对于所述基准方向的对象方向的对象角度的功能;以及用于基于计算出的对象角度生成呈现命令以由指示器指示对象方向的功能。根据该设备,可以提供用于指定对象位置的信息。

著录项

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2018-09-18

    未缴年费专利权终止 IPC(主分类):G01C21/36 授权公告日:20120919 终止日期:20170929 申请日:20090929

    专利权的终止

  • 2012-09-19

    授权

    授权

  • 2010-08-04

    实质审查的生效 IPC(主分类):G01C21/36 申请日:20090929

    实质审查的生效

  • 2010-05-26

    公开

    公开

说明书

技术领域

本发明涉及一种使用机器人等三维指示器向车辆的乘员指示朝向设施等对象的方向的车辆用信息呈现设备和方法。

背景技术

已知存在以下导航装置的辅助显示装置:该辅助显示装置联合导航装置的路线引导从交叉点之前的预定位置处开始保持面向路线引导方向以向乘员通知引导方向,然后在完成向引导方向的转动(右转/左转)之后面向前方(参见日本特开2001-304899)。

然而,这种传统的辅助显示装置在尝试向乘员提供对象的位置信息时保持面向车辆的引导方向。因此,存在以下问题:在车辆行驶期间与对象的相对位置变化时,车辆的乘员仅能够知晓朝向对象的大致方向而不能够指定该对象的位置。

发明内容

本发明的目的在于提供一种能够根据指示相对于车辆的基准方向的对象方向的对象角度使用三维指示器来显示对象方向的信息的信息呈现设备和方法。这里,根据对象位置、车辆的当前位置和车辆的基准方向来计算该对象角度。

根据本发明,显示相对于车辆的基准方向的相对对象方向。因此,即使车辆的基准方向随着车辆行驶一起变化,乘员也能够指定对象位置。

根据本发明的一个方面,一种车辆用信息呈现设备,包括:指示器,其安装在所述车辆上,并用于呈现指示方向的信息;以及控制单元,用于控制由所述指示器进行的信息呈现,其中,所述控制单元包括:车辆信息获取单元,用于获取所述车辆的当前位置和所述车辆的基准方向;对象指定单元,用于指定要呈现给所述车辆的乘员的对象;对象信息获取单元,用于获取对象位置,所述对象位置是所述对象存在的位置;对象角度计算单元,用于基于所述对象位置、所述当前位置和所述基准方向,计算指示相对于所述基准方向的对象方向的对象角度,所述对象方向是所述对象存在的方向;以及呈现命令生成单元,用于基于计算出的对象角度生成呈现命令,其中,根据所述呈现命令,所述指示器呈现指示所述对象方向的信息。

根据本发明的另一个方面,一种车辆用信息呈现方法,包括:指定要呈现给车辆的乘员的对象;基于所指定的对象的位置、所述车辆的当前位置和所述车辆的基准方向来计算指示对象方向的对象角度,其中,所述对象角度指示相对于所述基准方向的对象方向;以及基于计算出的对象角度呈现指示所述对象方向的信息。

附图说明

图1示出第一实施例的信息呈现设备的概要结构;

图2示出第一实施例的信息呈现设备的典型配置;

图3示出第一实施例的信息呈现设备的另一典型配置;

图4是第一实施例的信息呈现设备的框图;

图5A和5B示出安装在车辆上的机器人100的示例;

图6是用于说明用于计算对象的绝对角度的方法的例子的图;

图7是用于说明用于计算对象的绝对角度的方法的另一例子的图;

图8是用于说明对象相对于本车辆的基准方向的对象角度的计算方法的图;

图9是用于说明预定时间之后的对象角度的计算方法的图;

图10是用于说明预定时间之后对象的对象角度的计算方法的图;

图11是用于说明第一实施例的信息呈现设备的处理的流程图;

图12是用于说明要呈现的对象的搜索处理的第二典型处理的流程图;

图13是用于说明要呈现的对象的搜索处理的第三典型处理的流程图;

图14是用于说明要呈现的对象的搜索处理的第四典型处理的流程图;

图15是用于说明图11所示的对象角度的计算处理的子例程的流程图;

图16是用于说明图11所示的对象角度的计算处理的另一典型子例程的流程图;

图17A~17C是用于说明在随时间连续追踪对象的位置的同时指示对象方向的机器人100的运动的图;

图18是用于说明第二实施例的信息呈现设备的处理的流程图;

图19是用于说明图18所示的对象角度的计算处理的子例程的流程图;

图20是用于说明第二实施例中预定时间之后的对象角度的计算处理的图;

图21A~21C是用于说明第二实施例中的机器人100的运动的图;

图22是用于说明当采用车辆的行进方向作为基准方向时重新计算对象角度的必要性的图;

图23是用于说明当采用方位作为基准方向时重新计算对象角度的必要性的图;

图24是用于说明用于确定当采用车辆的行进方向作为基准方向时重新计算对象角度的必要性的处理的图;

图25是用于说明用于确定当采用方位作为基准方向时重新计算对象角度的必要性的处理的图;

图26是用于说明当采用车辆的行进方向作为基准方向时重新计算角速度的处理的图;

图27是用于说明当采用方位作为基准方向时重新计算角速度的处理的图;

图28A是三维显示器3100的结构的示意图;

图28B是三维显示器3100的平面图;以及

图29是用于说明全息照相显示装置的概要结构的框图。

具体实施方式

第一实施例

将参考附图说明根据第一实施例的信息呈现设备1000。

如图1所示,根据本实施例的信息呈现设备1000包括用于呈现指示预定方向的信息的呈现装置Q和用于控制由呈现装置Q进行的信息呈现的控制装置R。另外,信息呈现设备1000通过有线或无线通信单元与本车辆的车载装置M相连接,以彼此交换信息。

本实施例的呈现装置Q是用于通过其朝向来显示“指示预定方向的信息”的指示器100。指示器100是模拟动物的三维物体、模拟人类或拟人雕像的三维物体、模拟手或手指等人体的部位的三维物体或者箭头形的三维物体等。指示器100通过旋转运动指示方向,以向乘员呈现“指示预定方向的信息”。

例如,指示器100可以通过将其正面转向对象方向来指示对象方向。可选地,指示器100可以通过将其手、脚、手指或尾等转向对象方向来指示该对象方向。注意,对象方向是对象存在的方向。

如图2和3所示,将根据本实施例的信息呈现设备1000安装在车辆上。将作为呈现装置Q的指示器(机器人)100安装在车辆的仪表板的顶面上,并且将机器人控制装置200容纳于该仪表板内部。

图2和3所示的指示器100通过绕旋转轴G旋转并将正面f转向预定方向来显示指示该预定方向的信息。这里,可以将指示器100安装在任意位置,只要指示器100位于乘员的视野范围内即可。例如,可以将指示器100安装在立柱上。

将参考图4具体说明信息呈现设备1000中所包括的组件。

首先,将说明指示器(机器人)100。如图4所示,本实施例的指示器100包括运动控制器110、机器人旋转驱动单元120和扬声器130。

运动控制器110根据来自机器人控制装置200的控制命令,控制机器人旋转驱动单元120和扬声器130。机器人旋转驱动单元120在运动控制器110的控制下根据从机器人控制装置200获取到的呈现命令使机器人100旋转,从而使得机器人100的正面(或者机器人100的手、脚、手指或尾的朝向)面向预定方向。

如图5A和5B所示,本实施例的指示器(机器人)100是像动物或人类一样具有面部的三维物体。在下文,也将指示器100称为机器人100。机器人100的面部在其正面f处具有眼睛e1和e2。

机器人旋转驱动单元120包括:基部121,用于固定或接合机器人100;机器人100的旋转轴G;以及马达机构122,用于使机器人主体101沿任意方向且以任意旋转速度绕旋转轴G旋转。如图5B所示,通过马达机构122使机器人100绕旋转轴G旋转。通过使机器人100绕旋转轴G旋转预定角度,机器人旋转驱动单元120可以将机器人100的正面f转向任意方向。另外,机器人旋转驱动单元120可以使机器人100以预定角速度绕旋转轴G旋转。没有特别限定机器人旋转驱动单元120的具体结构,并且可以采用任何已知的部件。

另外,如图5A所示,机器人100可以具有用于模拟人类的手的手构件H1、以及用于根据来自机器人控制装置200的呈现命令使手构件H1的前端垂直和水平运动的手驱动机构HK1。可以与手构件H1一起,在机器人100的头部设置角部,或者可以代替手构件H1,在机器人100的头部设置角部。可选地,可以与手构件H1一起,在机器人100的背面设置尾部,或者可以代替手构件H1,在机器人100的背面设置尾部。

此外,在运动控制器110的控制下,包括在机器人100中的扬声器130根据来自机器人控制装置200的呈现命令,提供(输出)与特定对象(例如,设施)有关的引导信息。本实施例中的扬声器130具有用于朗读与对象有关的信息的文本转语音(Text-To-Speech,TTS)功能131。与对象有关的信息包括与对象(设施、观光点等)有关的引导信息、与对象(左/右转向点、行人和其它车辆)有关的警告信息等。扬声器130可以通过其重放功能来播放预先存储的与对象有关的引导信息的音频信息。

接着,将说明机器人控制装置200。机器人控制装置200控制由机器人100进行的信息呈现操作。

如图4所示,机器人控制装置200包括:ROM(只读存储器)201,用于存储用于执行机器人100的控制处理的程序;CPU(中央处理单元)202,其作为通过执行ROM 201中所存储的程序用作机器人控制装置的工作电路;以及作为可存取的存储装置的RAM(随机存取存储器)203。这里,可以将MPU(微处理单元)、DSP(数字信号处理器)、ASIC(专用集成电路)和/或FPGA(现场可编程门阵列)连同CPU一起用作工作电路,或者代替CPU,将MPU、DSP、ASIC和/或FPGA用作工作电路。

如图4所示,机器人控制装置200与导航装置300、车辆控制器400、道路-车辆通信装置500和车载摄像装置600等车载装置M相连接。这些装置安装在本车辆上,并且经由CAN(ControllerArea Network,控制器局域网)或其它车载LAN与机器人控制装置200相连接以交换信息。

将说明机器人控制装置200的功能。机器人控制装置200至少包括车辆信息获取功能、对象指定功能、对象信息获取功能、对象角度计算功能和呈现命令生成功能。通过车辆信息获取功能,执行用于获取车辆的信息的处理。通过对象指定功能,执行用于指定要呈现给乘员的对象的处理。通过对象信息获取功能,执行用于获取包括所指定的对象的位置的信息的处理。通过对象角度计算功能,执行用于计算指示相对于基准方向的对象方向的对象角度的处理。通过呈现命令生成功能,执行用于生成用于由机器人100显示指示对象方向的信息的呈现命令的处理。

以下将说明机器人控制装置200的各个功能。

首先,将说明机器人控制装置200的车辆信息获取功能。机器人控制装置200从导航装置300获取车辆的当前位置和车辆的基准方向。由导航装置300的GPS(全球定位系统)301来检测车辆的当前位置和车辆的基准方向(包括行进方向、诸如北方位的预定的方位:该预定的方位不限于北方位,也可以以南方位、东方位、西方位等作为预定的方位)。GPS 301通过GPS天线接收从全球定位卫星发送来的无线电波,并且指定本车辆的当前位置。GPS 301基于根据定位数据的定位结果和地图匹配结果进一步指定车辆的当前位置。这里,从车辆控制器400的陀螺仪传感器401和地磁传感器402以及里程表输入定位数据。机器人控制装置200基于GPS 301等的定位结果和定位数据来获取车辆的当前位置和车辆的基准方向。注意,该基准方向包括作为车辆的当前位置的移动方向的行进方向和基于该车辆所观测到的方位(例如,北方位)。

机器人控制装置200从车辆控制器400的车辆速度传感器403获取车辆速度。

接着,将说明机器人控制装置200的对象指定功能。机器人控制装置200指定要呈现给车辆的乘员的对象。对于该对象指定功能,通过以下四种方法指定对象。第一,基于车辆的当前位置、基准方向和对象位置指定对象。第二,将乘员在使用路线引导等时所设置的目的地指定为对象。第三,将满足乘员在使用信息提供系统等时所设置的搜索条件的设施或场所指定为对象。具体的搜索条件可以是针对杂货店、公共停车场、加油站和餐馆等设施的类别(属性)的条件,针对观光、游玩或用餐等乘员的目的的条件等。第四,将与乘员的喜好一致的设施(场所)指定为对象。

以下将说明对象指定功能的各指定处理。

在第一方法中,机器人控制装置200参考导航装置300的地图信息303,将对象位置与车辆的当前位置和沿行进方向的路线上的预定行驶位置进行比较。然后,机器人控制装置200将存在于自本车辆的当前位置起预定距离内或沿本车辆的行进方向的区域内的场所、行人、路上障碍物或其它车辆指定为“对象”。导航装置300的地图信息303包括与各个场所的位置以及同该场所(位置)相关联的设施有关的信息。另外,如以下将详细说明的,从安装在路边上的检测装置获取行人或车辆等运动对象。

机器人控制装置200可以基于由用户预先指定的场所或根据用户的使用历史推测出的场所,进一步缩小“对象”的范围。因此,代替呈现与仅位于车辆附近的全部场所有关的信息,可以选择并呈现与乘员感兴趣的场所有关的信息。

在第二方法中,机器人控制装置200将乘员通过导航装置300的路线搜索系统302所输入的目的地(例如,路标建筑)指定为对象。具体地,机器人控制装置200获取通过路线搜索系统302的目的地设置功能3021所输入的目的地信息。然后,机器人控制装置200将该目的地信息设置为对象的指定信息。机器人控制装置200从导航装置300的地图信息303获取该目的地的位置。在这种情况下,机器人控制装置200还可以从导航装置300获取关于与目的地(位置)相关联的设施的信息。

在第三方法中,机器人控制装置200将满足乘员通过路线搜索系统302所输入的搜索条件(例如,所选择的类别)的设施或场所指定为对象。这里,搜索条件是杂货店、公共停车场、加油站和餐馆等设施类别或者用餐或游玩等目的类别。具体地,机器人控制装置200获取通过还实现了信息提供功能的路线搜索系统302的搜索功能3022所输入的搜索条件。然后,机器人控制装置200将满足所设置的搜索条件的设施或场所的信息设置为对象指定信息。机器人控制装置200从导航装置300的地图信息303获取满足该搜索条件的场所的位置。在这种情况下,机器人控制装置200还可以从导航装置300获取关于与该场所(位置)相关联的设施的信息。

机器人控制装置200可以基于车辆的当前位置和车辆的基准方向之间的关系进一步缩小“对象”的范围。因此,代替呈现与满足乘员的搜索条件的全部场所有关的信息,可以选择并呈现与位于车辆附近的场所有关的信息。

在第四方法中,机器人控制装置200基于路线搜索系统302的信息请求输入和信息选择结果,将与乘员的喜好一致的设施(场所)指定为对象。这里,当使用导航装置300的路线引导或信息提供系统时,基于用户的输入历史和/或输出历史来判断乘员的喜好。机器人控制装置200从导航装置300的地图信息303获取与乘员的喜好一致的场所的位置。具体地,机器人控制装置200从地图信息303获取过去的访问次数或频率(频率=访问次数/时间段)超过预定值的场所以及过去设置为目的地的次数超过预定值的场所。

机器人控制装置200可以基于车辆的当前位置和车辆的基准方向之间的关系进一步缩小“对象”的范围。因此,代替呈现关于与乘员的喜好一致的全部场所的信息,可以选择并呈现与位于车辆附近的场所有关的信息。

随后,将说明机器人控制装置200的对象信息获取功能。机器人控制装置200获取指示对象存在的位置的对象位置。

这里,“对象”(其信息要呈现给乘员)包括路标、POI(PointOf Interest,关注点)或设施等“要作为引导对象的场所”,以及路上障碍物(电线杆、电话亭、公交车站)、左/右转向点(在离交叉点的中心预定距离处定义的用于右转/左转的点)、行人或其它车辆等“要作为警告对象的物体”。

这里,将说明以下两种方法:一种方法用于获取不移动的对象位置,以及另一种方法用于获取移动的对象位置。

首先,将说明用于获取不移动的对象位置的方法。从定义了对象的地图信息303获取不移动的静止对象位置(要提供相关信息的场所、设施和路上障碍物等)。

另一方面,通过道路-车辆通信装置500从安装在路边上的检测装置获取移动对象位置(行人和其它车辆等)。在检测行人或其它车辆等对象时,检测到对象的检测装置向道路-车辆通信装置500通知检测到对象、检测时间和该检测装置的位置。由于各检测装置检测自身附近的对象,因此可以将安装检测装置的位置看作为对象位置。因此,机器人控制装置200可以基于从道路-车辆通信装置500获取到的检测到存在、检测时间和检测位置(检测装置的位置)来指定移动对象位置。

另外,机器人控制装置200获取对象的相关信息。该对象的相关信息包括用于引导或警告该对象的文本信息、音频信息或图像信息。由于静止对象的相关信息与位置信息相关联地存储在设施信息304或POI信息305中,因此从导航装置300获取该相关信息。可以通过通信网络从外部服务器获取对象的位置信息和对象的引导信息。由于针对对象的各类别(行人、其它车辆等)将行人或其它车辆等对象的引导信息(警告信息)预先存储在机器人控制装置200中,因此可以从机器人控制装置200获取引导信息。

随后,将说明机器人控制装置200的对象角度计算功能。机器人控制装置200基于对象位置、车辆的当前位置和车辆的基准方向(行进方向、方位),计算指示相对于车辆的基准方向的对象方向的对象角度。

首先,将参考图6说明相对于本车辆的行进方向的绝对角度θ(基于预定的方位(例如,北方位)的角度)的计算方法。该绝对角度θ用于计算对象角度。图6示出车辆的行进方向是北方向的情况,本车辆的当前位置是位置1(经度A=AAA度AA.AAAAAA分,纬度B=BB度BB.BBBBBB分),并且对象位置是位置2(经度C=CCC度CC.CCCCCC分,纬度D=DD度DD.DDDDDD分)。可以通过下面的等式3来计算本车辆的当前位置和对象(POI)之间的距离(矢量)。

(X方向):XX=(A-C)×LO

(Y方向):YY=(B-D)×LA    ...3

上面的等式3中的“LA”和“LO”是用于基于经度/纬度计算距离的常量。LA等于各预定纬度上1秒的长度,LO等于各预定经度上1秒的长度,其中,纬度1秒的长度(纬度35度)为约30.8米,经度1秒的长度(经度35度)为约25米。基于等式3中计算出的本车辆的当前位置和对象位置之间的距离,使用下面的等式4计算基于本车辆的当前位置的对象(POI)的绝对角度θ。

θ=arctan(XX/YY)   :YY>0

θ=arctan(XX/YY)+π:YY<0

θ=π/2            :YY=0,XX>0

θ=-π/2           :YY=0,XX<0    ...4

另外,图7示出计算对象相对于预定的方位(例如,北方位)的绝对角度θ的情况。绝对角度θ用于计算对象角度。

本车辆的当前位置是位置11(经度A=AAA度AA.AAAAAA分,纬度B=BB度BB.BBBBBB分),对象位置是位置12(经度C=CCC度CC.CCCCCC分,纬度D=DD度DD.DDDDDD分)。与上面说明的情况相类似地,可以通过下面的等式13来计算本车辆的当前位置和对象(POI)之间的距离(矢量)。

(东方向):XX=(A-C)×LO

(北方向):YY=(B-D)×LA    ...13

上面的等式13中的“LA”和“LO”是用于基于经度/纬度计算距离的常量。LA等于各预定纬度上1秒的长度,LO等于各预定经度上1秒的长度,其中,纬度1秒的长度(纬度35度)为约30.8米,经度1秒的长度(经度35度)为约25米。基于等式13中计算出的本车辆的当前位置和对象位置之间的距离,使用下面的等式14来计算基于本车辆的当前位置的对象(POI)的绝对角度θ。

θ=arctan(XX/YY)   :YY>0

θ=arctan(XX/YY)+π:YY<0

θ=π/2            :YY=0,XX>0

θ=-π/2           :YY=0,XX<0    ...14

如上所述,当通过位置11给出当前位置并且通过位置12给出对象位置时,可以通过等式13计算当前位置和对象位置之间的距离(矢量)。

与图6所示的情况类似地,可以使用等式14来计算对象的绝对角度θ。注意,如图6所示,在行进方向和预定的方位一致的情况下,可以基于行进方向和预定的方位中的任何一个计算绝对角度。

接着,将参考图8说明对象相对于本车辆的行进方向的对象角度的计算方法。从车辆控制器400的陀螺仪传感器401和地磁传感器402获取本车辆的行进方向θ’。根据基于本车辆的当前位置的对象(POI)的绝对角度θ和本车辆的行进方向θ’,使用下面的等式5计算要作为机器人100的面向角度(机器人的方位角)的对象角度α。

α=θ-θ’    ...等式5

注意,在车辆的行进方向是预定的方位即如图6所示的绝对角度θ的基准的情况下,由于θ’为零,因而,绝对角度θ和对象角度α一致。

机器人控制装置200以预定的时间间隔计算对象角度α。尽管可以任意设置该预定的时间间隔,但优选根据控制机器人100的旋转所需要的处理时间来设置该时间间隔。通过以等于或小于处理时间的时间间隔计算对象角度,可以使由机器人100所指示的方向和对象(POI)存在的方向之间的偏差最小化。

另外,本实施例的机器人控制装置200基于车辆信息中所包括的车辆的当前位置和速度,估计预定时间之后该车辆的位置和该车辆的基准方向(行进方向、方位等)。然后,机器人控制装置200基于估计出的车辆的位置、估计出的车辆的基准方向和对象信息中所包括的对象位置,计算相对于车辆的基准方向的对象角度。该对象角度指示对象方向。

具体地,如图9所示,机器人控制装置200基于当前时间t1时车辆的当前位置、行进方向和速度f1,估计在从当前时间t1起预定时间Δt之后的时间t2时该车辆的位置和行进方向。优选该预定时间Δt是控制机器人100的显示功能所需要的时间,即计算对象角度所需要的时间和控制机器人100的旋转所需要的时间的和。因此,在基于当前位置由机器人100指示对象方向时,可以防止由于时滞所引起的追踪延迟。注意,在预定时间Δt是微小时间间隔的情况下,可以将预定时间Δt之后车辆的行进方向估计为与在时间t1时的初始行进方向相同。还可以基于时间t1时的初始行进方向以及陀螺仪传感器401和/或地磁传感器402的信息来估计预定时间Δt之后该车辆的行进方向。

可选地,本实施例的机器人控制装置200基于车辆信息中所包括的车辆的当前位置和速度来估计预定时间之后该车辆的位置和对象方向。然后,机器人控制装置200基于估计出的车辆的位置和估计出的对象方向来计算指示相对于基准方向(方位)的对象方向的对象角度。

具体地,如图10所示,机器人控制装置200基于当前时间t1时车辆的当前位置、基准方向(方位)和速度f1,估计从当前时间t1起预定时间Δt之后的时间t2时该车辆的位置。通过以上方法定义该预定时间Δt。图10示出在基准方向=方位(北)的条件下计算指示时间Δt之后的对象方向的对象角度的情况。将车辆的行进方向定义为θ’,并将车辆速度定义为V。通过陀螺仪传感器401和地磁传感器402检测θ’和V。通过如下等式21给出各速度分量。基于等式21中计算出的速度分量,通过如下等式22计算时间Δt之后的车辆位置和对象位置之间的相对距离(矢量)。以下,利用图7中所述的同一方法(通过等式14)来计算绝对角度,并且使用所计算出的绝对角度计算指示相对于基准方向(方位)的对象方向的对象角度。

北方向上的速度:Vn=V×cosθ’

东方向上的速度:Ve=V×sinθ’            等式21

(东方向):XX(Δt)=((A-C)×LO)-(Ve×Δt)

(北方向):YY(Δt)=((B-D)×LA)-(Vn×Δt)  等式22

基于以上述方式计算出的对象角度计算机器人100的动作角度。

随后,将说明机器人控制装置200的呈现命令生成功能。机器人控制装置200在呈现与所指定的对象相关的信息时,基于计算出的对象角度,生成用于显示指示对象方向的信息的呈现命令。该呈现命令是用于在呈现与对象相关的信息时基于所计算出的对象角度使机器人100旋转以指示对象方向的命令。具体地,机器人旋转驱动单元120的马达机构122根据呈现命令使机器人100的主体旋转以指示对象方向。

响应于该命令,机器人旋转驱动单元120使机器人100绕预定的旋转轴旋转。机器人100将其正面(面部)转向对象方向,以向乘员通知对象位置。乘员可以基于机器人100旋转之后指示的方向,精确地指定该对象位置。

另外,在以预定的时间间隔计算对象的对象角度的情况下,机器人控制装置200基于在各时间间隔处计算出的对象角度,在各时间间隔处生成用于由机器人100显示指示对象方向的信息的呈现命令。机器人100根据呈现命令,在各时间间隔期间连续显示指示对象方向的信息。

如上所述,机器人100连续执行基于在各预定的时间间隔处计算出的对象角度所生成的呈现命令。这里,基于本车辆的当前位置来相继计算随着车辆行驶连续变化的对象角度。因此,尽管对象的相对位置变化,机器人100可以随着车辆行驶连续指示对象方向。

此外,除用于由机器人100显示对象方向的上述呈现命令以外,机器人控制装置200生成用于通过机器人100的扬声器130输出与所指定的对象有关的引导信息以呈现给乘员的其它呈现命令。其它呈现命令是用于朗读引导信息的文本数据的命令或用于播放引导信息的音频数据的命令。可以将用于朗读文本数据或播放音频数据的信息存储在机器人控制装置200中所包括的存储装置中,或者将它们作为设施信息304或POI信息305存储在导航装置300的存储装置中。

此外,机器人控制装置200生成用于控制执行呈现命令的开始时刻的开始命令。在下文,将说明两种类型的开始命令。

在车载摄像装置600所拍摄的图像包括所指定的对象的特征的第一情况下,机器人控制装置200生成用于使机器人100开始执行呈现命令的开始命令,并将该开始命令输出至机器人100。

车载摄像装置600以预定的时间间隔朝车辆的行进方向拍摄图像,并将拍摄的图像发送至机器人控制装置200。

例如,上述特征是对象的预定外观特征。对象的预定外观特征是与设施或建筑物等对象的外部形状有关的特征。即,对象的外观特征包括该对象的轮廓形状(塔形、拱形等)、平均高度、最高点、高/宽比或颜色等。将这些外观特征存储在导航装置300中作为设施形状信息306。另外,可以将对象的外观特征定义为从预定场所观看到的设施主图像307。由于将外观特征与各对象相关联地存储,因此机器人控制装置200可以获取要呈现给乘员的对象(所指定的对象)的特征。

机器人控制装置200判断所指定的对象的特征是否包括在车载摄像装置600在车辆行驶时所拍摄的图像中。例如,机器人控制装置200从各拍摄的图像中裁切高于地面预定高度的区域作为建筑物相应区域。然后,机器人控制装置200将裁切区域的高/宽比与所指定的对象的高/宽比进行比较。如果它们的差异等于或小于预定值,则判断为拍摄的图像包括所指定的对象。另外,机器人控制装置200将该裁切区域的特征与从当前位置附近的观测场所观看到的所指定的对象(建筑物)的设施主图像307的特征进行比较。注意,设施主图像307的特征是建筑物的轮廓形状等。如果它们的一致度等于或高于预定值,则判断为拍摄的图像包括了所指定的对象。

如果判断为所指定的对象的特征包括在车载摄像装置600在车辆行驶时所拍摄的图像中,则机器人控制装置200判断为该车辆正在通过可以看见所指定的对象的场所或正经过所指定的对象。然后,机器人控制装置200生成开始命令,以开始执行用于由机器人100指示对象方向的呈现命令和用于输出对象的引导信息或警告信息(相关信息)的其它呈现命令。

在从车载导航装置300提供的路线引导图像包括所指定的对象的预定外观特征的第二情况下,机器人控制装置200生成用于使机器人100开始执行呈现命令的开始命令,并将该开始命令输出至机器人100。

本实施例的导航装置300包括基于当前位置和目的地来寻找适当的路线的路线搜索系统302。本实施例的路线搜索系统302显示包括路线和沿该路线的建筑物的俯瞰图像,以向乘员提供路线引导。

机器人控制装置200判断所指定的对象的外观特征是否包括在导航装置300所提供的路线引导图像中。用于定义对象的特征并判断图像是否包括该特征的方法等同于如上所述的利用由车载摄像装置600拍摄的图像的方法。

如果导航装置300所提供的路线引导图像包括所指定的对象的特征,则机器人控制装置200判断为车辆正在通过可以看见所指定的对象的场所。然后,机器人控制装置200生成开始命令,以开始执行用于由机器人100指示对象方向的呈现命令以及用于输出对象的引导信息的其它呈现命令。

如上所述,当所指定的对象的特征包括在车载摄像装置600所拍摄的图像中或者包括在导航装置300所提供的路线引导图像中时,可以判断为车辆正接近对象并且乘员能够看见该对象。在该时刻,机器人控制装置200控制机器人100以指示对象方向。因此,乘员可以沿由机器人100所指示的方向实际看见该对象。如果在乘员不能实际看见对象的时刻指示对象方向,则乘员不能识别机器人100正在指示何物。由于根据本实施例,机器人100在乘员能够实际看见对象时指示对象方向,因此该乘员可以通过实际看见对象来指定由机器人100所指示的对象方向。

随后,将参考图11~16所示的流程图说明机器人控制装置200进行的控制过程。图11是示出由根据本实施例的信息呈现设备1000进行的一般控制处理流程的流程图。

在启动信息呈现设备1000时,机器人控制装置200从导航装置300获取本车辆的当前位置(S100)。

在下一步骤S101中,机器人控制装置200搜索要呈现给乘员的对象(设施、POI、路上障碍物、行人和其它车辆)(S101)。在该搜索处理中,本实施例的机器人控制装置200从导航装置300的地图信息303获取静止对象(场所、设施等)的位置。可选地,机器人控制装置200从道路-车辆通信装置500获取由路边检测装置所检测到的移动对象(行人、其它车辆)的位置。

尽管没有特别限定对象的搜索方法,但在本实施例中,基于本车辆的位置、本车辆的行进方向、如方位等基准方向和对象位置来搜索对象。具体地,机器人控制装置200搜索位于由导航装置300的路线搜索系统302基于车辆的当前位置和目的地搜索到的路线上的且还沿该车辆的行进方向布置的预定区域内的对象。通过使用该方法指定对象,可以向乘员提供与存在于本车辆将沿其行驶的路线附近的对象有关的信息。

后面将说明其它搜索方法。

在下一步骤S102中,机器人控制装置200判断是否存在满足在各搜索方法中定义的条件的对象(POI)。如果存在要呈现给乘员的对象,则指定该对象并且处理流程进入步骤S103。另一方面,如果不存在要呈现给乘员的对象,则判断为尚未指定对象,并且处理流程进入步骤S120。如果在步骤S120中检测到熄火信号,则处理流程终止(S121)。

在步骤S103中,机器人控制装置200判断执行用于呈现信息的处理(用于指示对象方向的处理、用于呈现与对象有关的引导信息的处理)的时刻。具体地,如果车载摄像装置600所拍摄的图像中包括具有在步骤S102中所指定的对象的特征的图像,则机器人控制装置200判断为乘员处于可以看见对象的位置处。在这种情况下,机器人控制装置200还判断为到机器人100执行信息呈现处理(用于由机器人100指示对象方向的处理、用于输出音频引导信息的处理)的时间了[生成开始命令的时刻]。可选地,如果从路线引导系统302提供的、用以进行路线引导的行驶车辆前方的图像中的特征与在步骤S102中指定的对象的图像的特征之间的一致度等于或大于预定阈值,则机器人控制装置200判断为乘员处于可以看见对象的位置处。在这种情况下,机器人控制装置200还判断为到机器人100执行信息呈现处理(用于由机器人100指示对象方向的处理、用于输出音频引导信息的处理)的时间了[生成开始命令的时刻]。

如果判断为是用于呈现对象方向或与对象有关的信息的时刻,则处理流程进入步骤S104。在步骤S104中,机器人控制装置200获取与所指定的对象有关的信息(引导信息)。可以在步骤S101或S102之后执行对要输出的引导信息的获取。

在下一步骤S105中,机器人控制装置200通过安装在机器人100中的扬声器130开始朗读与所指定的对象有关的引导信息(引导语句的文本)。如果该引导信息是音频数据,则机器人控制装置200可以播放该引导信息。

在步骤S106中,机器人控制装置200基于车辆的当前位置、车辆的基准方向和对象位置,计算相对于车辆的基准方向的对象角度(朝向对象角度存在对象)。后面将详细说明该对象角度的计算处理。

在下一步骤S107中,机器人控制装置200基于计算出的对象角度,生成用于使机器人100旋转从而使其正面f面向对象方向的呈现命令,并将该呈现命令发送至机器人100。

在步骤S108中,机器人100的动作控制器110根据呈现命令使机器人100绕旋转轴G旋转,以使机器人100的正面f面向对象。

在步骤S109中,判断S105中已经开始的对象的相关信息(引导信息或警告信息)的音频输出是否完成。如果完成了音频输出,则处理流程进入步骤S110。注意,可以在步骤S108中使机器人100旋转之后开始对象的相关信息的音频输出。

最后,在步骤S110中,机器人控制装置200向机器人100发送用于使机器人100旋转从而使其正面f面向基准方向的复位命令,然后,处理流程返回步骤S100。

接着,将参考图12~14说明在图11所示的步骤S101中进行的对象的其它搜索方法。由于上面已经说明了用于基于车辆的当前位置、车辆的行进方向和对象位置来指定对象的方法,因此在下文将说明第二~第四方法。这些方法是用于基于乘员所设置的目的地指定对象的方法、用于将满足乘员所设置的搜索条件的设施或场所指定为对象的方法以及用于将与乘员的喜好一致的设施或场所指定为对象的方法。

图12示出用于将乘员在使用路线引导时所设置的目的地指定为对象的处理的部分流程图。如图12所示,机器人控制装置200判断是否通过导航装置300的目的地设置功能3021输入了目的地(S1011)。如果输入了目的地,则处理流程进入步骤S1012。机器人控制装置200将所输入的目的地确定为要呈现给乘员的对象(S1012)。随后,执行步骤S102之后的处理。

注意,可以从所输入的目的地中选择基于车辆的当前位置和基准方向所定义的区域内所包括的设施或场所(POI),以设置为对象。

图13示出用于将满足乘员在使用信息提供系统等时所设置的搜索条件的设施或场所指定为对象的处理的部分流程图。如图13所示,机器人控制装置200判断是否通过导航装置300的搜索功能3022输入了搜索类别等搜索条件(S1015)。如果输入了搜索条件,则处理流程进入步骤S1016。机器人控制装置200将属于所输入的搜索类别的设施或场所(POI)确定为要呈现给乘员的对象(S1016)。随后,执行步骤S102之后的处理。具体的搜索条件可以包括针对杂货店、公共停车场、加油站和餐馆等设施的类别(属性)的条件,针对观光、游玩或用餐等乘员的目的的条件等。

注意,可以从属于所输入的搜索类别的设施和场所(POI)中选择基于车辆的当前位置和基准方向所定义的区域内包括的设施或场所(POI),以设置为对象。

图14示出用于将与乘员的喜好一致的设施或场所指定为对象的处理的部分流程图。

导航装置300连续累积乘员所输入的信息(与乘员所设置的目的地有关的信息、与乘员所设置的搜索条件有关的信息)(步骤SQ)。将该输入历史构建为数据库。接受机器人控制装置200根据输入历史进行存取,并且允许机器人控制装置200获取输入历史的结果。

在步骤S1101,机器人控制装置200参考由乘员输入的搜索条件和目的地的输入历史。

在下一步骤S1102中,机器人控制装置200参考输入历史判断是否存在被设置了预定次数以上的搜索条件(类别)或目的地。由于搜索条件或目的地的输入次数与乘员的喜好正相关,因此判断为被设置了预定次数以上的搜索条件或目的地趋于适合乘员的喜好。

如果不存在被设置了预定次数以上的搜索条件或目的地,则判断为乘员无特定喜好,并且处理流程进入步骤S102。另一方面,如果存在被设置了预定次数以上的搜索条件或目的地,则判断为乘员具有特定喜好,并且处理流程进入步骤S1103。

在步骤S1103中,机器人控制装置200将搜索条件被设置了预定次数以上的POI(设施等)设置为候选对象。可以任意定义用于被判断为乘员的喜好的阈值、即设置为搜索条件的次数(=预定次数)。可以基于过去的全部时间段或者基于最近的一个、三个或六个月等有限时间段来设置该阈值。

在下一步骤S1104中,机器人控制装置200获取本车辆的当前位置和基准方向。在步骤S1105中,机器人控制装置200将候选对象(POI)缩小到属于与当前位置和基准方向具有预定的位置关系的区域的对象(POI)。没有特别限定该区域的设置方法。可以将该区域定义为其中心线从车辆的当前位置朝向基准方向延伸的扇形区域。可选地,可以将该区域定义为沿车辆正在行驶的道路的预定范围内的区域。可选地,在设置了目的地并由此设置了路线的情况下,可以将该区域定义为沿该路线的预定范围内的区域。

随后,在步骤S1106中,机器人控制装置200判断已被设置了预定次数以上的POI是否包括在与车辆具有预定位置关系的区域中。如果POI没有包括在该区域中,则处理流程进入步骤S102。另一方面,如果POI包括在该区域中,则处理流程进入步骤S1107。

最后,在步骤S1107中,机器人控制装置200将在步骤S1105的处理中被缩小了范围的POI设置为对象。随后,执行步骤S102之后的处理。

接着,将参考图15和16说明图11所示的步骤S106中的对象角度的计算处理。

图15示出图11所示的步骤S106中的对象角度的计算处理的子例程的部分流程图。

如图15所示,在步骤S1061中,机器人控制装置200从地图信息303获取所指定的对象位置。可以在图11所示的S104中获取对象的引导信息的同时执行位置信息的获取。

随后,在步骤S1062中,机器人控制装置200从车辆控制器400获取本车辆的当前位置和基准方向。尽管在该步骤中可以使用在图11所示的步骤S100中获取到的当前位置,但为了精确地计算对象角度,优选紧挨计算对象角度之前获取车辆的当前位置和基准方向。可以与步骤S103之后的处理同时执行车辆信息的获取。

在下一步骤S1063中,机器人控制装置200使用参考图6或7所述的方法,计算相对于本车辆的当前位置在绝对坐标中的对象方向。

在步骤S1064中,机器人控制装置200使用参考图8~10所述的方法,计算相对于本车辆的基准方向的对象方向(即,对象角度)。

图16示出对象角度的计算处理的其它示例。该计算处理基于用于计算预定时间之后、即在车辆的基准方向上的该车辆前方的场所处的对象角度的方法。该计算处理的大体处理与图15所示的处理相同。

如图16所示,在步骤S1061中,机器人控制装置200获取所指定的对象位置。然后,在步骤S1062中,机器人控制装置200获取本车辆的当前位置和基准方向。

随后,在步骤S1065中,机器人控制装置200从车辆控制器400获取本车辆的速度。可以与步骤S1062中的基准方向一起获取车辆速度。

在步骤S1066中,机器人控制装置200基于本车辆的当前位置、基准方向和速度,计算预定时间之后本车辆的估计位置。基于计算对象角度所需要的时间和/或控制机器人100的旋转所需要的时间而预先定义该预定时间。

在步骤S1067中,机器人控制装置200基于预定时间之后本车辆的估计位置,计算绝对坐标中的对象方向。

在下一步骤S1068中,机器人控制装置200基于在步骤S1067中计算出的绝对坐标中的对象方向,计算对象相对于车辆的基准方向的对象角度。

根据以上对象角度的计算方法,可以紧挨使机器人100旋转以指示对象方向之前计算出对象的对象角度。因此,可以消除由于处理时间而引起的所指示的方向与对象位置之间的偏差(延迟)。注意,在控制机器人100的旋转需要一些时间的情况下,优选将控制机器人100的旋转所需要的时间段包括在上述预定时间中。

此外,以预定的时间间隔执行对象角度的计算(图11所示的步骤S106、图15和图16)。然后,基于以预定的时间间隔计算出的对象角度相继生成呈现命令。换言之,每次(以预定的时间间隔)计算对象角度时,执行图11所示的步骤S107、S108和S110。通过以预定的时间间隔呈现对象方向,可以追踪随着车辆行驶而连续变化的对象位置,以连续呈现对象方向。

图17A~17C是示出机器人100在连续追踪对象位置时指示对象方向的示意图。图17A~17C分别示出安装在行驶车辆上的机器人100在T1时刻、TM时刻和TN时刻(T1<TM<TN)指示对象方向。由于车辆和安装在该车辆上的机器人100正在移动,因此对象(POI)相对于机器人100的对象方向随着时间而变化。机器人100以预定的时间间隔重复计算对象的对象角度,以连续指示对象方向。

如上所述,为了追踪对象,机器人100在旋转的同时连续指示对象方向。注意,预定的时间间隔越短,则机器人100的运动变得越平滑。结果,可以无误地且精确地向乘员呈现对象位置相对于行驶车辆的转变。

如上所述配置和操作的本实施例的信息呈现设备1000可以带来以下效果。

由于机器人100等呈现装置Q可以指示相对于车辆的基准方向的对象方向,因此即使在车辆正在行驶并且基准方向由此而变化时,车辆乘员也可以指定对象位置。当车辆的基准方向是车辆的行进方向或方位时可以类似地带来该效果。

另外,由于使机器人100绕预定轴G旋转以使其正面(面部)面向对象方向从而向乘员通知对象位置,因此乘员可以基于机器人100正面向的方向精确地指定对象(设施等)的位置。

此外,由于基于以预定的时间间隔计算出的对象角度以预定的时间间隔生成呈现命令从而利用机器人100执行所生成的呈现命令,因此可以追踪到随着车辆行驶而变化的对象位置,并且可以连续地显示对象方向。

此外,由于估计出预定时间之后的车辆位置并由此计算出在所估计出的位置处的对象角度,因此可以消除由机器人100所指示的对象方向与实际的对象位置之间的偏差(延迟)。由于基于计算对象角度所需要的时间和用于对使机器人100旋转等机器人100的呈现处理进行控制的时间来设置预定时间,因此可以消除由于处理时间而引起的由机器人100所指示的对象方向和实际的对象位置之间的偏差(延迟)。

由于在所指定的对象的特征包括在由车载摄像装置600所拍摄的图像中或者导航装置300所提供的用于引导路线的俯瞰图像中时,执行呈现命令以指示对象方向,因此可以在乘员能够看到该对象的情况下向该乘员显示对象方向。换言之,乘员可以亲眼看见由机器人100所指示的对象,并且根据引导来确认对象位置。

此外,由于通过机器人100中的扬声器130来输出与对象有关的信息(例如,引导信息),因此机器人100在实际指示对象时可以朗读引导信息或者播放该引导信息的音频数据。

机器人100可被配置为:在机器人100提供相关信息时,通过使用红外线传感器等传感器检测到存在乘员,以各自的工作时间间隔使机器人100的面部转向乘员。这里,可以采用以下:通过导航装置300计算出车辆和对象之间的距离,以根据该距离使机器人100的工作时间间隔变化。如果距离变得越接近使工作时间间隔变得越短,则转动机器人100的面部的频率可以直观地提供车辆离对象多远的信息。

第二实施例

随后,将说明第二实施例。第二实施例的主要特征是显示以一定角速度移动的对象的方向。根据第二典型实施例的信息呈现设备的结构及由其进行的处理与第一实施例中的结构和处理基本等同。因此,在下文,避免了冗余的说明,并且将主要说明二者之间的不同之处。

第二实施例的信息呈现设备1000的结构与图4所示的第一实施例的信息处理设备的结构等同。

本实施例的机器人控制装置200的对象角度计算功能基于车辆的当前位置、车辆的基准方向(包括行进方向和方位)和速度,来估计预定时间之后该车辆的位置和该车辆的基准方向。然后,机器人控制装置200基于估计出的车辆的位置、估计出的车辆的基准方向和对象位置,计算相对于车辆的基准方向的对象角度。

本实施例中,“预定时间”是直到呈现与对象有关的信息(例如,引导信息或警告信息)完成为止的时间段。换言之,“预定时间”是用于朗读与对象有关的引导信息或警告信息所需要的时间段。可选地,“预定时间”是用于播放与对象有关的信息(例如,引导信息或警告信息)的音频数据所需要的时间段。

如果已经开始了朗读或播放信息,则“预定时间”是朗读或播放尚未输出的信息所需要的时间。可以通过从朗读全体信息的时间(或从信息的全体记录时间)中减去朗读(或播放)已经输出的信息的时间,计算出朗读(或播放)尚未输出的信息所需要的时间。可以基于要朗读的文本数据中的文本的数量来计算朗读所需要的时间。可以基于信息的记录时间来计算播放音频数据所需要的时间。

第二实施例的机器人控制装置200的呈现命令生成功能基于计算出的对象角度和预定时间进一步计算角速度,以生成呈现命令,从而由机器人100显示指示以角速度移动的对象方向的信息。

机器人控制装置200计算在该处理的开始时间时由机器人100所指示的方向和与所计算出的对象角度相对应的方向之间的角度,然后通过将该角度除以预定时间来计算角速度。可以任意定义该处理的开始时间,如指定对象的时间、开始朗读与对象有关的引导信息的时间或者计算出当前位置处的对象角度的时间等。机器人控制装置200计算在开始时间时由机器人100所指示的方向和从开始时间起的预定时间之后的对象方向之间的差(角度)。随后,通过将该差(角度)除以预定时间来计算角速度。

机器人控制装置200以按上述方式计算出的角速度移动对象方向。换言之,机器人控制装置200使机器人100以计算出的角速度旋转,直到对信息的朗读完成为止。

这样,由机器人100所指示的方向(即,对象方向)以恒定的角速度移动。本实施例的机器人控制装置200使机器人100在预定时间内以计算出的角速度旋转。随后,对引导信息的朗读完成,并且机器人100指示预定时间之后的对象方向。

图18是示出由本实施例的信息呈现设备进行的控制过程的流程图。本实施例的步骤S100~S108中的处理与第一实施例的步骤S100~S108中的处理基本等同。步骤S108之后执行的步骤S201~S203中的处理与第一实施例中的处理不同。

在步骤S108中,动作控制器110使机器人100旋转,以使其正面面向在步骤S106中计算出的对象角度的方向。

在下一步骤S201中,机器人控制装置200计算在呈现与所指定的对象有关的引导信息将完成时相对于本车辆的基准方向的对象角度(对象方向)。

将参考图19所示的流程图说明对象角度计算处理的控制过程。如图19所示,在步骤S2111中,机器人控制装置200获取朗读引导信息完成所需要的时间。如果在朗读期间,则可以通过从根据引导信息的全部文本的数量所计算出的全体朗读时间中减去根据已朗读的文本的数量所计算出的时间,来计算朗读完成所需要的时间。

在下一步骤S2112中,机器人控制装置200从车辆控制器400获取本车辆的速度和基准方向。这里可以使用在步骤S106中所使用的车辆信息。

在步骤S2113中,机器人控制装置200基于朗读完成所需要的时间、车辆的车辆速度和基准方向,估计在朗读完成时的车辆位置。在该估计时,可以使用导航装置300的路线搜索系统302和地图信息303。

在步骤S2114中,机器人控制装置200利用在第一实施例中参考图6和7所述的方法,计算估计出的预定时间之后的车辆位置在绝对坐标中的对象方向。

在步骤S2115中,机器人控制装置200利用参考图8所述的方法,计算在估计出的位置处相对于本车辆的基准方向的对象方向。

在下一步骤S2116中,机器人控制装置200基于预定时间之后的对象角度(相对于本车辆的基准方向的对象方向)和预定时间来计算角速度。具体地,机器人控制装置200计算在本处理的开始时间时由机器人100所指示的方向和与计算出的对象角度相对应的方向之间的角度,然后通过将该角度除以预定时间来计算角速度。

在步骤S2116之后,处理流程进入图18的步骤S202。机器人控制装置200生成呈现命令,以显示指示以在步骤S201中计算出的角速度移动的方向的信息。具体地,该呈现命令是用于使机器人100以恒定的角速度旋转的命令。将所生成的呈现命令发送至机器人100的运动控制器110。

将参考图20和图21A~21C说明机器人100以角速度的旋转。图20示出在处理开始时间T1、后续时间TM和时间TN时车辆和对象之间的位置关系。时间TN是当对引导信息的呈现完成时的时间(自时间T1起预定时间之后的时间)。在初始T1,相对于本车辆的基准方向的对象方向(对象角度)是αT1。在预定时间之后的时间TN,相对于基准方向的对象方向(对象角度)是αTN。

本实施例的机器人控制装置200基于计算出的对象角度控制机器人100的运动。具体地,机器人控制装置200如图21A~21C所示控制机器人100的运动。具体地,机器人控制装置200使机器人100以角速度从角度αT1的方向(图21A)连续旋转到角度αTN的方向(图21C)。因此,由机器人100所指示的方向以恒定的角速度移动,以跟随对象位置的变化。在本实施例中,在经过预定时间之后终止以恒定的角速度的旋转。

返回图18,将说明步骤S203的处理。在步骤S203中,重新计算预定时间之后的对象方向。

如果车辆的基准方向和/或速度的变化等于或大于各自的预定阈值,则机器人控制装置200基于对象位置、车辆的当前位置、基准方向和车辆速度来重新计算预定时间之后的对象角度(相对于车辆的基准方向的对象方向)。

注意,在步骤S201中,基于朗读所需要的时间和车辆速度来估计朗读完成之后的车辆的当前位置。然而,如果如图22或23所示,本车辆的速度和/或基准方向(包括行进方向和方位)极大变化,则预定时间之后的实际车辆位置可能不同于估计出的位置。换言之,预定时间之后相对于实际车辆位置的对象方向和相对于估计出的车辆位置的对象方向可能变得不同。图22示出基于车辆的行进方向的经过预定时间之前/之后的对象方向的变化。图23示出基于在车辆上观测到的方位的经过预定时间之前/之后的对象方向的变化。

因此,在如图24或25所示车辆的基准方向(包括行进方向和方位)的变化Δα超过预定值的情况下或者在车辆的速度变化Δf超过预定值的情况下,机器人控制装置200将再次执行步骤S201和S202中的处理,以计算对象的对象角度。图24示出基于车辆的行进方向的经过预定时间之前/之后的对象方向的变化。图25示出基于在车辆上观测到的方位的经过预定时间之前/之后的对象方向的变化。

在这种情况下,机器人控制装置200基于重新计算出的对象角度生成新的呈现命令。该呈现命令的生成处理等同于图19所示的处理。

由于在要重新生成呈现命令时已开始了对引导信息的朗读,因此还需要重新计算角速度计算所使用的预定时间。没有特别限定用于计算自开始重新生成呈现命令的时间至对引导信息的呈现将完成的时间为止的时间段的方法。可以基于所准备的引导信息的文本的数量和已朗读的文本的数量来计算该时间段。可选地,可以基于从车辆控制器400的计时器403获取到的当前时间,根据所准备的引导信息的播放时间与播放完成时间之间的时间差来计算该时间段。

图26和27示出在基准方向(包括行进方向和方位)的变化超过预定值时的时间TM和在对引导信息的呈现完成时的(自时刻T1开始的预定时间之后的)时间TN处车辆和对象之间的位置关系。

如图26所示,在时间TM重新计算对象角度。在时间TM时相对于本车辆的行进方向的对象方向(对象角度)是αTM’。另外,在时间TN时相对于基准方向的对象方向(对象角度)是αTN’。

在重新计算对象角度之后,机器人控制装置200使机器人100以恒定的角速度从角度αTM’的方向旋转至角度αTN’的方向。因此,由机器人100所指示的方向以恒定的角速度移动,以跟随变化的对象位置。在对引导信息的呈现完成时,以计算出的角速度旋转的机器人100指示对象方向。可以通过在预定时间之后终止机器人100的旋转或者通过使机器人100面向基准方向(默认设置方向),在对引导信息的呈现完成时指示对象方向。

图27示出基于在本车辆上观测到的方位来计算对象角度的情况。在时间TM时重新计算对象角度。在时间TM时基于方位的对象方向(对象角度)是βTM’。在时间TN时基于方位的对象方向(对象角度)是βTN’。在重新计算对象角度之后,机器人控制装置200使机器人100以恒定的角速度从角度βTM’的方向旋转至角度βTN’的方向。

由于第二实施例的信息呈现设备1000如上所述配置和工作,因此可以带来与由上述第一实施例所带来的效果相同的效果。

具体地,本实施例的信息呈现设备1000带来以下效果。

与第一实施例类似,由于机器人100等呈现装置Q可以指示相对于车辆的基准方向的对象方向的变化,因此即使当车辆正在行驶并由此基准方向变化时,车辆乘员也可以指定对象位置。

另外,由于使机器人100以恒定的角速度绕预定轴G旋转以将机器人100的正面(面部)连续面向对象方向从而向乘员通知对象位置,因此乘员可以基于机器人100连续面向的方向精确地指定对象(设施等)的位置。

根据本实施例,由于基于预定时间之后的对象角度计算出角速度,并且由机器人100来呈现与以计算出的角速度移动的对象的方向有关的信息,因此可以在无需以预定的时间间隔重复冗余处理的情况下指示相对移动的对象位置。因此,能够以降低了的处理成本追踪并指示相对移动的对象位置。

另外,由于将预定时间设置为完成对与对象有关的相关信息的呈现所需要的时间,因此可以在对信息的呈现完成时指示对象方向。

此外,在车辆的基准方向(包括行进方向和方位)和/或速度的变化超过各自的预定值的情况下,重新计算对象角度,然后基于重新计算出的对象角度由机器人100来呈现与对象方向有关的信息。因此,即使车辆的基准方向变化,也可以追踪并指示对象方向。

此外,在车辆的基准方向(包括行进方向和方位)和/或速度的变化超过各自的预定值的情况下,重新计算对象角度,然后生成用于根据重新计算出的对象角度呈现以角速度移动的对象的方向的呈现命令。因此,即使车辆正在行驶时也能够精确地追踪对象方向。

随后,针对第一和第二实施例的信息呈现设备1000,将说明三个典型变形例。在各个变形例中,利用三维显示器、全息照相显示装置或二维显示器来替换作为呈现装置Q的机器人100。

第一典型变形例

根据第一典型变形例的信息呈现设备1300包括作为用于呈现与对象方向有关的信息的呈现装置Q的三维显示器3100、以及作为控制装置R的三维显示器控制器3200。

三维显示器3100通过显示在三维显示器3100上的指示器所指示的方向来呈现指示预定方向的信息。

图28A和28B示出三维显示器3100的示例。图28A示意性示出三维显示器3100的结构。图28B示出三维显示器3100的平面图。

如图28A所示,三维显示器3100包括半球形投影拱顶3102、用于投影指示器的动画的投影仪3103、光源3104和用于使投影仪3103旋转的旋转驱动单元3105。另外,支撑上述组件的基部3106包括扬声器、CPU和存储器。CPU用作三维显示器控制器3200。

投影拱顶3102是光学透射型的。从投影拱顶3102外部可以看见由投影仪3103所投影的指示器的动画。

投影仪3103在被旋转驱动单元3105驱动的情况下绕旋转轴G旋转。旋转轴G沿与三维显示器3100的安装平面近似垂直的方向延伸。在投影仪3103旋转时,投影在投影面3102上的指示器的动画旋转。

由于投影仪3103的旋转,可以将指示器投影在投影面3102上以指示任意方向。另外,投影仪3103具有用于切换要投影的动画的动画切换功能。投影仪3103可以根据三维显示器控制器3200的控制命令来投影不同类型的指示器的动画。

没有特别限定指示器的类型。图28B示出了这些类型中的一种类型,并且该类型具有眼睛e1和e2。可以由眼睛e1和e2的存在来定义该指示器的正面。可以通过使指示器的正面面向对象方向来指示该对象方向。

当呈现与对象相关的信息时,三维显示器控制器3200基于计算出的对象角度,生成用于将指示器的动画(例如,用于使指示器的正面面向对象方向的动画)投影在投影拱顶3102上从而指示对象方向的呈现命令。

信息呈现设备1300可以通过投影在三维显示器3100上的指示器(模拟动物的三维物体、模拟人类或拟人雕像的三维物体、模拟手或手指等人体的部位的三维物体或者箭形的三维物体等),来指示相对于车辆的基准方向的对象方向。因此,在基准方向在车辆行驶期间变化时车辆乘员可以指定对象位置。

由于本变形例的三维显示器控制器3200具有与第一和第二实施例的机器人控制装置200的功能等同的功能以执行等同处理,因此本变形例可以带来与由第一和第二实施例所带来的效果等同的效果。

第二典型变形例

根据第二典型变形例的信息呈现设备1400包括作为用于利用三维虚拟图像来呈现对象方向的信息的呈现装置Q的全息照相显示装置4100、以及作为控制装置R的全息照相显示器控制器4200。

全息照相显示装置4100通过由作为三维虚拟图像而显示的指示器所指示的方向来呈现指示预定方向的信息。

图29是本变形例的信息呈现设备1400的框图。如图29所示,信息呈现设备1400包括全息照相显示装置4100和全息照相显示器控制器4200。

另外,全息照相显示装置4100包括再现光照射装置4110、全息图设置装置4120和主全息图4130。

在下文将说明这些组件。再现光照射装置4110基于来自全息照相显示控制器4200的控制命令对所准备的主全息图4130照射重构光,以重构主全息图4130。可以使用卤素灯或氙气灯等灯、发光二极管或半导体激光器作为重构光的光源。

另外,主全息图4130是作为用于传输信息的介质的一系列的一个或多个全息图。该一系列的一个或多个全息图以预定的间隔记录指示器的运动处理。该指示器可以是在第一和第二实施例中所述的机器人100。全息照相显示装置4100可以将机器人100作为三维虚拟图像而显示。主全息图4130包括以预定的间隔记录正面面向预定方向的机器人100的运动处理的一系列全息图。

没有特别限定全息图的生成方法,并且可以使用任何已知的方法。例如,由分束器将相干激光束分割成照明光束和参考光束,并将照明光束照射至运动指示器以获得被指示器散射了的物体光束。将参考光束照原样照射在记录介质上。将由于物体光束和参考光束所引起的干涉条纹记录在记录介质上。

主全息图4130包括以预定间隔从指示器的运动处理分割成的静止全息照相图像。将指示器的各静止全息照相图像作为主全息图4130而记录。通过相继显示主全息图4130的静止全息照相图像将运动指示器作为动画而呈现。静止全息照相图像的数量越多(即,时间间隔越短),则呈现的指示器的运动越平滑。

注意,可以使用聚乙烯咔唑、丙烯酸和其它感光聚合物、重铬酸盐明胶和光致抗蚀材料等感光材料等作为主全息图4130的记录介质。

全息图设置装置4120沿着与进行记录的时间轴等同的时间轴将一个或多个所准备的主全息图4130顺次设置在照射重构光的位置。通过对由全息图设置装置4120顺次设置的主全息图4130顺次照射重构光,重构指示器的运动并且可以显示进行运动的指示器的三维虚拟图像。可以将该三维虚拟图像显示在挡风玻璃上。另外,可以在仪表板上设置单独的全息照相显示器。

没有特别限定三维虚拟图像的显示方法,并且可以使用任何已知的技术。例如,可以使用在日本特开平9-113845中所述的三维图像显示器来显示指示预定方向的指示器的三维虚拟图像。

当呈现与对象相关的信息时,全息照相显示器控制器4200基于计算出的对象角度重构指示器的主全息图4130,以在全息照相显示装置4100的虚拟图像显示装置上显示面向对象方向的指示器的三维虚拟图像。

由于本变形例的信息呈现设备1400可以由全息照相显示装置4100来投影指示相对于车辆的基准方向的对象方向的指示器,因此在基准方向在车辆行驶期间变化时,车辆乘员可以指定对象位置。

第三典型变形例

根据第三典型变形例的信息呈现设备包括作为用于利用二维图像来呈现与对象方向有关的信息的呈现装置Q的二维显示器、以及作为控制装置R的图像显示器控制器。该二维显示器通过作为二维图像而显示的指示器所指示的方向来显示指示预定方向的信息。在本变形例中,使用图29所示的导航装置300的显示器308作为二维显示器。

图像显示器控制器存储指示预定方向的指示器的动画数据,并基于呈现命令显示指示对象方向的指示器。没有特别限定二维图像的输出控制方法,并且可以使用常用方法。

当呈现与对象有关的信息时,显示器308基于计算出的对象角度再现面向对象方向的指示器的动画,以在显示器308上显示该动画。

由于显示器308显示指示相对于车辆的基准方向的对象方向的指示器的动画,因此在基准方向在车辆行驶期间变化时车辆乘员可以指定对象位置。

尽管在本变形例中将指示器的二维图像显示在导航装置300的显示器308上,但不限于此。例如,可以利用安装于仪表板中的平视显示器(head-up display)将该指示器的二维图像投影到挡风玻璃上。

呈现了上述实施例以便于理解本发明,但并未意图限制本发明。因此,在以上实施例中所公开的各个元件意图包括属于本发明的技术范围内的全部的设计变形例和等同物。

换言之,尽管已经例示了包括呈现装置Q和控制装置R的设备作为根据本发明的信息呈现设备的方面,但本发明不限于该例子。

指示器与呈现装置Q相对应。使用机器人100作为三维物体(指示器)。使用三维显示器3100作为三维显示装置(指示器)。使用全息照相显示装置4100作为用于显示三维虚拟图像的虚拟图像显示装置(指示器)。使用二维显示器或导航装置300的显示器308作为用于显示指示器的平面型显示装置。然而,根据本发明的指示器不限于此。

根据本发明的控制单元与控制装置R相对应。机器人控制装置200控制机器人100的运动。三维显示器控制器控制三维显示器3100。全息照相显示器控制器4200控制全息照相显示装置4100。二维显示器控制器控制二维显示器。使用这些作为与控制单元相对应的控制装置R。然而,根据本发明的控制器根据要控制的指示器而控制处理,因而不限于此。

尽管使用具有ROM 201、CPU 202和RAM 203的控制装置R作为控制单元,但不限于此。

尽管使用具有车辆信息获取功能、对象信息获取功能、对象指定功能、对象角度计算功能和呈现命令生成功能的控制装置R(机器人控制装置200等)作为根据本发明的控制单元,但不限于此。

尽管使用扬声器130作为包括于指示器中的输出单元,但不限于此。

(2008年9月29日提交的)日本专利申请2008-250220、(2009年5月29日提交的)日本专利申请2009-129958和(2009年9月16日提交的)日本专利申请2009-214063的全部内容通过引用包含于此。

尽管以上通过参考本发明的特定实施例已经说明了本发明,但本发明不限于上述实施例。根据以上教导,本领域的技术人员将想到实施例的变形例和变化。参考以下权利要求书来限定本发明的范围。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号