首页> 中国专利> 显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法

显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法

摘要

配置为与移动设备进行通信以用于视频呼叫的显示设备。显示设备配置为基于从移动设备接收到的视频呼叫请求来激活相机,通过通信接口获得配对移动设备的图像数据,并且控制显示器显示视频呼叫屏幕图像,该视频呼叫屏幕图像包括基于图像数据生成的配对移动设备的第一图像和由相机获得的第二图像。

著录项

  • 公开/公告号CN113132668A

    专利类型发明专利

  • 公开/公告日2021-07-16

    原文格式PDF

  • 申请/专利权人 三星电子株式会社;

    申请/专利号CN202011620570.2

  • 申请日2020-12-30

  • 分类号H04N7/14(20060101);H04N21/4788(20110101);

  • 代理机构11204 北京英赛嘉华知识产权代理有限责任公司;

  • 代理人王达佐;杨莘

  • 地址 韩国京畿道水原市灵通区三星路129号

  • 入库时间 2023-06-19 11:50:46

说明书

相关申请的交叉引用

本申请基于于2019年12月31日提交至韩国知识产权局的第10-2019-0179808号韩国专利申请,并根据35U.S.C.§119要求其优先权,该韩国专利申请的公开内容通过引用整体地并入本文。

技术领域

本公开涉及能够执行视频呼叫的显示设备和移动设备、由显示设备执行的视频呼叫方法和由移动设备执行的视频呼叫方法。

背景技术

随着有线和无线通信网络的发展,显示屏幕图像并输出用户可视觉识别的数据的电子设备可以经由有线和无线通信网络彼此连接。

电子设备可以通过有线和无线通信网络彼此发送数据和接收各种数据段。此外,电子设备可以远程控制另一电子设备,或者可以经由另一电子设备利用电子设备来执行操作或服务。

可经由有线或无线通信网络彼此连接的电子设备的示例可以包括便携式计算机(例如,笔记本、上网本或平板个人计算机(PC))、便携式终端(例如,智能电话或个人数字助理(PDA))和TV。

当电子设备经由通信网络彼此连接时,可以更方便地为电子设备的用户提供期望的服务或功能。

因此,需要这样的设备和方法,其使得电子设备能够根据用户的需求和期望的服务而彼此连接和利用,以提高用户的满意度水平和方便性。

发明内容

提供了显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法,通过该显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法,用户可以在观看视频呼叫屏幕图像的同时更方便地执行视频呼叫。

具体地,提供了显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法,与移动设备相比,用户在通过具有大尺寸屏幕的显示设备观看视频呼叫屏幕图像的同时通过该显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法执行视频呼叫,从而增加了用户的便利性和用户的满意度水平。

附加的方面将在随后的描述中部分地阐述,并且部分地将从描述中显而易见,或者可以通过本公开的所呈现的实施方式的实践来获知。

根据本公开的实施方式,提供了显示设备,该显示设备包括显示器、相机、配置为与移动设备进行通信的通信接口以及配置为执行至少一个指令的处理器。处理器可以配置为执行至少一个指令以:基于从移动设备接收的视频呼叫请求来激活相机,通过通信接口获得用于视频呼叫的配对移动设备的图像数据,以及控制显示器显示视频呼叫屏幕图像,该视频呼叫屏幕图像包括基于图像数据生成的配对移动设备的第一图像和由相机获得的第二图像。

根据本公开的另一实施方式,提供了移动设备,该移动设备包括显示器、相机、用户接口、配置为与显示设备进行通信的通信接口以及配置为执行至少一个指令的处理器。处理器配置为执行至少一个指令,以:响应于用户接口接收到请求通过显示设备输出视频呼叫屏幕图像的用户输入,控制通信接口向显示设备发送与用户输入对应的视频呼叫请求,以及控制显示器输出用于控制视频呼叫的执行的用户接口屏幕图像。

根据本公开的另一实施方式,提供了由显示设备执行的视频呼叫方法,该方法包括:基于从移动设备接收到视频呼叫请求,激活显示设备的相机;由显示设备获得用于配对移动设备的图像数据;以及通过显示设备输出待输出的视频呼叫屏幕图像,视频呼叫屏幕图像包括基于图像数据生成的配对移动设备的第一图像和由相机获得的移动设备的用户的第二图像。

根据本公开的另一实施方式,提供了由移动设备执行的视频呼叫方法,该方法包括:由移动设备接收请求通过显示设备输出视频呼叫屏幕图像的用户输入;将与用户输入对应的视频呼叫请求从移动设备发送到显示设备;以及通过移动设备的显示器输出用于控制视频呼叫的执行的用户接口屏幕图像。

附图说明

根据以下结合附图的描述中,本公开的某些实施方式的上述和其它方面、特征和优点将更加显而易见,在附图中:

图1示出了根据本公开的实施方式的通过通信网络彼此连接的移动设备和显示设备;

图2是根据本公开的实施方式的视频呼叫方法的流程图;

图3是根据本公开的实施方式的显示设备的框图;

图4是根据本公开的实施方式的显示设备的框图;

图5是根据本公开的实施方式的移动设备的框图;

图6是根据本公开实施方式的由移动设备执行的视频呼叫方法的流程图;

图7示出了根据本公开的实施方式的由移动设备输出的用户接口(UI)屏幕图像;

图8示出了根据本公开的实施方式的由移动设备输出的UI屏幕图像;

图9示出了根据本公开的实施方式的由移动设备输出的UI屏幕图像;

图10是根据本公开实施方式的由显示设备执行的视频呼叫方法的流程图;

图11示出了根据本公开的实施方式的由显示设备输出的视频呼叫屏幕图像;

图12是根据本公开的实施方式的图像呼叫方法的流程图;

图13是根据本公开的实施方式的由移动设备执行的视频呼叫方法的流程图;

图14是根据本公开的实施方式的由显示设备执行的视频呼叫方法的流程图;

图15是根据本公开的实施方式的图像呼叫方法的流程图;

图16是根据本公开的实施方式的由显示设备执行的视频呼叫方法的流程图;

图17是根据本公开的实施方式的图像呼叫方法的流程图;

图18是根据本公开的实施方式的由显示设备执行的视频呼叫方法的流程图;

图19是根据本公开的实施方式的用于解释由显示设备执行的视角检测操作的视图;

图20是根据本公开的实施方式的用于解释由显示设备执行的视角检测操作的视图;

图21是根据本公开的实施方式的由显示设备执行的视频呼叫方法的流程图;

图22是根据本公开的实施方式的用于解释由显示设备执行的屏幕图像切换操作的流程图;

图23是根据本公开的实施方式的由显示设备执行的视频呼叫方法的流程图;

图24是根据本公开的实施方式的用于解释由显示设备执行的屏幕图像切换操作的流程图;

图25是根据本公开的实施方式的用于解释由显示设备执行的屏幕图像切换操作的流程图;

图26是根据本公开的实施方式的用于解释由显示设备执行的显示器的位置改变操作的视图;

图27是根据本公开的实施方式的显示设备的框图;以及

图28是根据本公开实施方式的移动设备的框图。

具体实施方式

本文参考附图详细描述了本公开的实施方式,使得本公开可以由本公开所属领域的普通技术人员容易地理解。然而,本公开可以以许多不同的形式来体现,并且不应被解释为限于本文中阐述的实施方式。在附图中,为了解释的简单起见,省略了与描述无关的部分,并且在全文中类似的附图标记指代类似的元件。

在整个说明书中,当元件被称为“连接”或“联接”到另一元件时,该元件可以直接连接或联接到另一元件,或者可以在其间插入有介入中间的元件的情况下电连接或电联接到另一元件。此外,当在本说明书中使用术语“包含”和/或“包含有”或“包括”和/或“包括有”时,指定所陈述的元件的存在,但不排除一个或多个其它元件的存在或添加。

因此,在整个公开中使用的表述“根据一些实施方式”或“根据实施方式”不一定表示相同的实施方式。

可以根据功能块组件和各种处理步骤来描述一些实施方式。这些功能块中的一些或全部可以通过配置为执行和实现指定功能的任意数量的硬件组件和/或软件模块来实现。例如,可以通过一个或多个处理器或微处理器或通过为期望的功能专门编程或通常执行软件以执行期望的功能的电路组件来实现根据本公开的功能块。此外,例如,根据本公开的功能块可以利用任何编程或脚本语言来实现。功能块可以利用在一个或多个处理器的控制下执行的编程算法来实现。此外,本文中所描述的公开内容可以采用用于电子配置、信号处理和/或控制、数据处理等的任意数目的传统技术。词语“模块”、“组件”和“配置”被宽泛地使用,并且不限于机械或物理实施方式。

此外,在各个附图中示出的组件之间的连接线或连接器旨在表示组件之间的示例性功能关系和/或物理或逻辑联接。组件之间的连接可以由实际设备中的许多替代或附加功能关系、物理连接或逻辑连接来表示。

此外,“A、B或C中的至少一个”的描述可以指“A”、“B”、“C”、“A和B”、“A和C”、“B和C”以及“A、B和C”中的一个。

根据本公开的实施方式,提供了显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法,通过该显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法,用户可以在观看视频呼叫屏幕图像的同时更方便地执行视频呼叫。

根据本公开的实施方式,便携式类型的电子设备被称为移动设备、用户设备或用户装备。在下文中,能够通过比移动设备更大的显示器提供大屏幕图像的电子设备将被称为“显示设备”。

具体地,移动设备是指用户的便携式电子设备,并且可以是可穿戴设备、智能电话、平板PC、PDA、膝上型计算机、媒体播放器等。显示设备是指包括具有比上述移动设备更大的尺寸的显示器并且能够向用户提供具有比移动设备的屏幕图像更大的尺寸的屏幕图像的电子设备。例如,显示设备可以是TV、数字TV、智能TV、数字标牌或数字公告。

在附图中,类似的元件使用类似的附图标记。此外,在整个具体实施方式中,使用相同的术语描述相同的组件。

现在将参考附图详细描述根据本公开的实施方式的显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法。

图1示出了根据本公开的实施方式的通过通信网络彼此连接的移动设备和显示设备。

移动设备110和显示设备120可以通过有线或无线通信网络彼此连接。根据本公开的实施方式,可以使用移动设备110和显示设备120来提供视频呼叫功能或视频呼叫服务。

将移动设备110连接到显示设备120的通信网络103是指能够在与特定数据对应的设备之间发送或接收信号的有线和/或无线通信网络。例如,可以根据诸如局域网(LAN)、广域网(WAN)、无线LAN(WLAN)(Wi-Fi)、无线宽带(Wibro)、CDMA、WCDMA、近场通信(NFC)或蓝牙等的无线网络标准来形成通信网络103。通信网络103可以是诸如通过使用有线电缆将移动设备110连接到显示设备120的HDMI电缆或MHL电缆的有线网络,或者有线以太网或光纤网络。

图1示出了移动设备110是用户的智能电话并且显示设备120是TV(具体地为智能TV)的配置。为了清楚起见,图1没有示出与移动设备110执行视频呼叫的配对设备(例如,配对用户的移动设备)。

视频呼叫是指在通过显示器观看配对方的图像时的视频呼叫,具体地为配对方的实时图像。通常,当执行视频呼叫时,执行视频呼叫的电子设备(例如,移动设备110)通过显示器输出包括配对方的图像的视频呼叫屏幕图像111。现在将执行视频呼叫的操作模式称为“视频呼叫模式”。

参考图1,视频呼叫屏幕图像111可以包括由配对装置提供的配对用户的图像112以及移动设备110的用户的至少一个图像104。

为了便于解释,现在将配对装置的图像称为第一图像,并且将移动设备110的用户的图像称为第二图像。换句话说,第一图像可以是包括视频呼叫的配对用户、配对方所在的周围环境或配对用户想要向移动设备110的用户显示的对象或环境中的至少一个的图像。第二图像可以是包括视频呼叫的用户(例如,移动设备110的用户)、用户所在的周围环境或用户想要向视频呼叫的配对用户显示的对象或环境中的至少一个的图像。

还将示出和描述与移动设备110进行视频呼叫的配对设备是具有与图1的移动设备110相同类型的电子设备的配置。换句话说,视频呼叫屏幕图像111可以包括第一图像112和第二图像104。

具体地,第一图像可以是由通过配对设备的前侧相机(具体地,对应于移动设备110的前侧相机106)拍摄视频呼叫的配对用户的面部而获得的图像。第二图像可以是通过拍摄用户的面部获得的图像。根据本公开的实施方式,当通过显示设备120输出视频呼叫屏幕图像时,包括在视频呼叫屏幕图像中的第二图像可以是通过布置在显示设备120的前侧上的相机130获得的图像。当通过移动设备110而不是显示设备120输出视频呼叫屏幕图像时,包括在视频呼叫屏幕图像中的第二图像可以是通过移动设备110的前侧相机106获得的图像。

视频呼叫屏幕图像111可以具有与图1的配置不同的各种配置。

根据本公开的实施方式,当移动设备110和配对设备执行视频呼叫时,能够通过有线或无线通信网络连接到移动设备110的显示设备120可以显示或复制由移动设备110输出或预定为要输出的视频呼叫屏幕图像。可以通过移动设备110执行对视频呼叫操作的控制。

参照图1,当移动设备110发起视频呼叫时,显示设备120的屏幕121可以显示与由移动设备110输出或预定为要输出的视频呼叫屏幕图像111相对应的视频呼叫屏幕图像140。

具体地,由显示设备120显示的视频呼叫屏幕图像140可以包括第二图像143和第一图像142,第二图像143是用户的至少一个图像,第一图像142是配对用户的至少一个图像。例如,第一图像142和第二图像143可以分别与第一图像112和第二图像104对应。尽管图1示出了第一图像142和第二图像143分别输出为视频呼叫屏幕图像140的主屏幕图像和子屏幕图像的配置,但是第二图像143和第一图像142可以分别输出为视频呼叫屏幕图像140的主屏幕图像和子屏幕图像。

在执行视频呼叫的同时,移动设备110可以输出用于控制视频呼叫操作的用户接口(UI)屏幕图像。为了便于解释,用于控制视频呼叫操作的UI屏幕图像将被称为控制UI屏幕图像。

控制UI屏幕图像可以包括用于控制图1中所示的视频呼叫操作的一个或多个菜单(例如,113)。一个或多个菜单113可以包括菜单114、菜单115、菜单116、菜单117以及菜单118,其中,菜单114用于在移动设备110和显示设备120之间改变视频呼叫屏幕图像的输出,菜单115用于在前侧相机和后侧相机之间改变用于拍摄用户的相机,菜单116用于终止视频呼叫,菜单117用于在视频呼叫期间使用户的语音静音,菜单118用于在视频呼叫期间将用户的语音改变为扬声器和/或耳机输出。可以显示其它菜单项。

通过使用字符、图标、图形或符号中的至少一个,可以在控制UI屏幕图像上显示用于控制视频呼叫的一个或多个菜单。图1示出并描述了用于控制视频呼叫的菜单以图标的形式显示在控制UI屏幕图像上的配置。

显示设备120的屏幕121具有比移动设备110的屏幕111更大的尺寸。通常,与移动设备110相比,显示设备120具有高清晰度性能。因此,由于与移动设备110相比显示设备120具有大屏幕和高清晰度性能的优点,当用户通过显示设备120输出由移动设备110输出或预定为要输出的视频呼叫屏幕图像时,用户可以通过大的高清晰度屏幕更方便地观看用户期望观看的视频呼叫屏幕图像。

通过触摸屏接收用户输入的移动设备110比通过遥控器等接收用户输入的显示设备120更容易和更方便地进行操作。因此,根据本公开的实施方式,可以基于由移动设备110接收到的用户输入来控制视频呼叫操作,并且因此可以提高用户在视频呼叫期间的操作便利性。

现在将参考图2至图28更详细地描述根据本公开的实施方式的显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法。

图2是根据本公开的实施方式的视频呼叫方法的流程图。图2是根据本公开的实施方式的用于解释由移动设备或显示设备执行的操作的流程图。图2的与图1的组件相同的组件由相同的附图标记或字符来表示。因此,在图2中所示的视频呼叫方法的描述中省略了对其的冗余描述。

参照图2,移动设备110和显示设备120可以经由有线或无线通信网络(例如,图1的103)彼此连接。具体地,移动设备110和显示设备120可以通过有线或无线通信网络(例如,图1的103)发送或接收信号和/或数据。

移动设备110和显示设备120之间的通信连接可以在执行视频呼叫之前执行或者与执行视频呼叫的请求同时执行。

换句话说,为了根据本公开的实施方式执行视频呼叫操作,移动设备110和显示设备120需要经由有线或无线通信网络彼此连接。当使用电缆等实现移动设备110和显示设备120之间的有线通信连接时,视频呼叫服务可以在移动设备110和显示设备120之间没有特殊配对操作(例如,操作S210)的情况下开始。

当移动设备110和显示设备120经由无线通信网络彼此连接时,移动设备110和显示设备120可以执行用于形成执行无线通信的配对操作。具体地,当根据本公开的实施方式的视频呼叫操作开始时,移动设备110和显示设备120可以执行配对操作。

配对操作可以指在发送或接收移动设备110和显示设备120之间的无线通信连接所必需的数据段的同时形成无线通信网络,从而通过显示设备120输出与由移动设备110发起的视频呼叫相对应的视频呼叫屏幕图像的操作。当完成配对时,移动设备110和显示设备120可以发送或接收执行视频呼叫所必需的数据段。

图2示出了移动设备110和显示设备120通过配对操作经由无线通信网络彼此连接的配置,以及在视频呼叫开始之前执行配对操作S210的配置。

当已经执行了移动设备110和显示设备120之间的无线通信网络时,可以省略上述配对操作。

当移动设备110和显示设备120在之前已经执行了镜像服务时,在先前的时间点的移动设备和显示设备120之间的配对在上述先前的时间点执行。当在随后的时间点请求视频呼叫时,移动设备110和显示设备120之间的通信连接可以使用在先前配对操作期间获得的并且对于无线通信连接是必需的数据段来形成。

根据本公开的实施方式,移动设备110接收请求经由显示设备120输出视频呼叫屏幕图像的用户输入(S220)。

具体地,移动设备110可以显示UI屏幕图像,该UI屏幕图像包括请求通过显示设备120输出视频呼叫屏幕图像的菜单。然后,用户可以通过使用诸如触摸的方法来选择所显示的菜单,并且移动设备110可以识别用户的输入,并且因此可以识别请求通过显示设备120输出视频呼叫屏幕图像的用户输入。

将参考图7和图8详细描述操作S220。

根据本公开的实施方式,移动设备110基于在操作S220中接收到的用户输入向显示设备120发送视频呼叫请求(S230)。具体地,移动设备110可以与在操作S220中接收到的用户输入一致地向显示设备120发送视频呼叫请求。因此,显示设备120可以接收视频呼叫请求。

视频呼叫请求可以是移动设备110的用户在观看显示设备120的屏幕时执行与配对用户的视频呼叫的请求。具体地,视频呼叫请求可以是显示设备120接管并代替执行由移动设备110发起的视频呼叫的请求。换句话说,视频呼叫请求可以是为与由移动设备110发起的视频呼叫对应的视频呼叫屏幕图像经由显示设备120的显示器输出而做出的请求。因此,当视频呼叫的执行对象从移动设备110改变到显示设备120时,视频呼叫屏幕图像可以连续地没有中断地从移动设备110输出到显示设备120。

具体地,视频呼叫请求可以是为显示设备120捕获用户的图像和视频呼叫屏幕图像而做出的请求,其中视频呼叫屏幕图像包括所捕获的图像和要经由显示设备120输出的配对方的图像。具体地,当执行视频呼叫时,用户的图像和配对方的图像可以变成在执行视频呼叫的同时实时捕获的图像。

替代地,视频呼叫请求可以是为由移动设备110发起的视频呼叫通过显示设备120来代替执行而做出的请求。当显示设备120代替执行视频呼叫时,由显示设备120执行视频呼叫可能伴随着生成和输出视频呼叫屏幕图像的显示的操作。

移动设备110可以通过显示器输出控制UI屏幕图像,该控制UI屏幕图像是用于控制视频呼叫的执行的UI屏幕图像(S250)。将参考图9详细描述控制UI屏幕图像。

显示设备120基于从移动设备110接收到的视频呼叫请求来激活包括在显示设备120中的相机(S240)。此时,显示设备120可以从包括在显示设备120中的、通过导线连接到显示设备120或者无线连接到显示设备120的相机之中选择可用于由显示设备120执行视频呼叫的相机。显示设备120可以显示可用于视频呼叫的相机列表,并且可以根据用户的选择来选择一个相机。

包括在显示设备120中的相机可以布置在显示设备120的前表面上的一个位置处,以拍摄显示设备120的屏幕的前侧。参照图1,如图1中所示,显示设备120的相机130可以布置在显示设备120的前侧上的上中心处。具体地,显示设备120的相机130可以布置在显示设备120的前侧上的一个位置处,以获得观看由显示设备120在显示设备120的前侧上输出的屏幕图像的用户的图像。图1示出了显示设备120中包括一个相机的配置。然而,显示设备120可以包括布置在不同位置上的多个相机。当显示设备120包括多个相机时,用户可以选择多个相机中的一个,以便显示设备120基于自身设置或用户输入执行视频呼叫。

用于获得用户的图像的相机可以是与显示设备120分开包括而不是集成在显示设备120中的外部相机。例如,相机可以是布置在显示设备120的一个侧面上以拍摄显示设备120的前侧的外部相机。在该配置中,外部相机和显示设备120可以通过有线或无线通信彼此连接,并且外部相机可以在显示设备120的控制下获得视频呼叫的用户的图像。

激活相机可以指将相机的操作状态设置为通过相机执行图像捕获的状态。因此,当相机被激活时,可以通过激活的相机执行图像捕获,并且可以从激活的相机接收通过相机获得的图像的信号。

具体地,当显示设备120的操作模式是视频呼叫模式或拍摄模式时,可以激活相机以获得图像,从而执行图像捕获。

根据本公开的实施方式,显示设备120可以基于视频呼叫请求(S230)通过激活相机(例如,图1的相机130)来通过相机获得用户的图像。

随后,显示设备120可以获得视频呼叫的配对方的图像数据(S260)。具体地,显示设备120可以通过显示设备120的通信接口接收视频呼叫的配对方的图像数据。配对方的图像数据可以是用于生成包括在视频呼叫屏幕图像(例如,图1的140)中的配对方的图像(例如,图1的142)的数据。将参考图12至图16详细描述操作S260。

显示设备120可以通过显示器(例如,图1的121)显示视频呼叫屏幕图像(例如,图1的140),该视频呼叫屏幕图像包括基于在操作S260中获得的图像数据生成的配对方的第一图像和由显示设备120的相机获得的用户的第二图像(S270)。

已经参考图1和图2简要描述了本公开的实施方式。

现在将参考图3至图28详细描述根据本公开的实施方式的移动设备110、显示设备120、通过移动设备110执行的视频呼叫方法以及通过显示设备120执行的视频呼叫方法。

图3是根据本公开的实施方式的显示设备300的框图。

在附图中,相同的附图标记表示相同的组件。因此,图3所示的移动设备110可以与上面参考图1描述的移动设备110对应。图3所示的显示设备300可以与上面参考图1和图2描述的显示设备120对应。因此,与参考图1和图2所作的那些描述相同的显示设备300的描述在这里不再重复。

参照图3,显示设备300包括处理器310、显示器320、通信接口330和相机340。

处理器310执行至少一个指令以控制待执行的期望操作。这里,至少一个指令可以存储在包括在处理器310中的内部存储器中,或者存储在包括在与处理器310分离的显示设备300中的存储器中。

具体地,处理器310可以执行至少一个指令以控制包括在显示设备300中的至少一个组件来执行期望的操作。因此,即使示出并描述了处理器310在其中执行特定操作的配置,但是上述配置也可以表示处理器310控制包括在显示设备300中的至少一个组件来执行这些操作。

尽管已经示出并描述了处理器310仅包括一个处理器的配置,但是处理器310也可以被实现为包括多个处理器。

具体地,显示设备300可以包括RAM、ROM和至少一个处理器,其中,RAM存储由显示设备300的外部源输入的信号或数据,或者用作由显示设备300执行的各种操作的存储区域,ROM存储用于控制显示设备300的控制程序和/或多个指令。显示设备300可以包括用于执行视频图形处理的图形处理单元(GPU)。处理器310可以实现为包括核和GPU的片上系统(SoC)。处理器310可以包括多核而不是单核。例如,处理器310可以包括双核、三核、四核、六核、八核、十核、十二核、十六核等。

显示器320在屏幕上输出图像。具体地,显示器320可以通过包括在显示器320中的显示面板输出与视频数据相对应的图像,以便用户可以在视觉上识别视频数据。

根据所公开的实施方式,在执行视频呼叫的同时,显示器320可以输出用于视频呼叫的视频呼叫屏幕图像。

通信接口330通过至少一个有线或无线通信网络与另一电子设备进行通信。根据本公开的实施方式,通信接口330与移动设备110进行通信。

通信接口330可以经由有线和/或无线通信网络与移动设备110进行通信。具体地,通信接口330可以包括至少一个通信模块、通信电路、天线等,并且可以通过通信模块和/或通信电路向外部电子设备或服务器发送数据或从外部电子设备或服务器接收数据。

具体地,通信接口330可以包括根据通信标准执行通信的至少一个短距离无线通信模块,诸如蓝牙、Wifi、蓝牙低能量(BLE)、近场通信(NFC)/射频识别(RFID)、Wifi直连、超宽带(UWB)或Zigbee。这里,短距离无线通信模块也可以被称为短距离无线通信接口。

通信接口330还可以包括根据远程通信标准来与用于支持远程通信的服务器进行通信的远程通信模块。具体地,通信接口330可以包括通过用于互联网通信的网络来执行通信的远程通信模块。通信接口330可以包括遵循通信标准(诸如3G、4G和/或5G)的通信网络。远程通信模块也可以被称为远程通信接口。

通信接口330可以包括至少一个端口,通信接口330可以通过该端口通过使用有线电缆连接到移动设备110,使得通信接口330可以基于有线通信方法与移动设备110进行通信。例如,通信接口330可以包括电缆连接端口,诸如HDMI端口或以太网端口。

相机340可以与图1的相机130对应。相机340可以包括图像传感器(诸如电荷耦合器件(CCD)传感器),并且可以在视频呼叫模式或拍摄模式下经由图像传感器获得图像帧(诸如静止图像或运动图像)。

图3示出了显示设备300中包括一个相机的配置。然而,显示设备300可以包括布置在不同位置上的多个相机。当显示设备300包括多个相机时,用户可以选择多个相机中的一个,使得显示设备300基于自身设置或用户输入执行视频呼叫。

用于获得用户的图像的相机可以在显示设备300的外部,而不是集成在显示设备300中。例如,相机可以是布置在显示设备120的横向表面上或邻近显示设备120的横向表面布置以拍摄显示设备120的前侧的外部相机。在该配置中,外部相机和显示设备300可以通过有线或无线通信彼此连接,并且外部相机可以在显示设备300的控制下获得视频呼叫的用户的图像。

为了便于解释,现在将描述用于获得用户的图像以实现视频呼叫的相机包括在显示设备300中的配置。

根据本公开的实施方式,处理器310可以基于从移动设备110接收的视频呼叫请求来激活相机340。处理器310可以通过激活的相机340获得用户的图像数据。连续地,处理器310可以控制包括基于配对方的图像数据生成的配对方的第一图像和由相机340获得的第二图像的视频呼叫屏幕图像,以便通过显示器320输出。

在下文中,随后将参考图4更详细地描述显示设备300的组件。

图4是根据本公开的实施方式的显示设备400的框图。

图4中所示的显示设备400可以与图1至图3中所示的显示设备120和300对应。参照图4,与显示设备300相比,显示设备400还可以包括存储器470、用户接口450或音频输入/输出接口465中的至少一个。

存储器470可以存储一个或多个指令,这些指令可以包括数据以及一个或多个软件和应用程序。存储器470可以存储由处理器310执行的一个或多个指令。存储器470可以存储由处理器310执行的一个或多个程序。

具体地,存储器470可以包括从闪存类型、硬盘类型、微型多媒体卡类型、卡类型存储器(例如,安全数字(SD)或极端数字(XD)存储器)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、可编程ROM(PROM)、磁存储器、磁盘和光盘之中选择的至少一种类型的存储介质。

用户接口450可以接收用于控制显示设备400的用户输入。用户接口450可以包括但不限于用户输入设备,该用户输入设备包括感测用户的触摸的触摸板、接收用户的按压操作的硬件按钮或开关、接收用户的旋转操作的轮、键盘以及圆顶开关。

用户接口450还可以包括语音识别设备。例如,语音识别设备可以包括麦克风和用于将语音转换为文本的语音识别引擎。语音识别设备可以接收用户的语音命令或语音请求。因此,处理器310可以控制与要执行的语音命令或语音请求相对应的操作。

用户接口450还可以包括运动检测传感器。例如,运动检测传感器可以检测显示设备400的运动并接收所检测的运动作为用户输入。上述语音识别设备和运动检测传感器可以不包括在用户接口450中。相反,语音识别设备和运动检测传感器可以作为与用户接口450分离的模块包括在显示设备400中。

音频输入/输出接口465可以可听地输出用户可识别的音频数据,或者可以检测和/或接收音频数据。具体地,音频输入/输出接口465可以包括音频输出接口460和音频输入接口467。

音频输出接口460可以是在处理器310的控制下输出音频的扬声器。

具体地,音频输出接口460可以输出经由通信接口330输入的音频(例如,语音或声音)。

根据本公开的实施方式,处理器310可以控制在视频呼叫模式期间待通过音频输出接口460输出的、从视频呼叫的配对设备接收的音频。

音频输出接口460还可以在处理器310的控制下输出存储在存储器470中的音频。音频输出接口460可以包括从扬声器、耳机输出端口或索尼/飞利浦数字接口(S/PDIF)输出端口中选择的至少一个。音频输出接口460可以包括扬声器、耳机输出端口和S/PDIF输出端口的组合。

音频输入接口467接收音频。具体地,音频输入接口467可以包括麦克风,其接收为外部声音信号的音频,并将所接收的音频处理成电音频数据。例如,包括在音频输入接口467中的麦克风可以接收来自外部设备或扬声器的声音信号,例如,正在进行视频呼叫的用户。包括在音频输入接口467中的麦克风可以采用各种噪声消除算法以去除在接收外部音频信号时产生噪声。

根据本公开的实施方式,在处理器310的控制下,音频输入接口467可以接收包括用户的语音的声音信号,并且可以在视频呼叫模式中从所接收的声音信号中去除噪声,以便识别用户的语音。

图5是根据本公开的实施方式的移动设备500的框图。

图5中所示的移动设备500可以与上面参考图1至图4描述的移动设备110对应。因此,当描述移动设备500时,将不对与参考图1至图4描述的移动设备110的操作相同的操作进行冗余描述。

参照图5,移动设备500包括处理器505、用户接口510、显示器520、通信接口530和相机540。

处理器505可执行至少一个指令以控制要执行的期望操作。这里,至少一个指令可以存储在包括在处理器505中的内部存储器中,或者存储在移动设备500中的与处理器505分开的存储器中。

具体地,处理器505可以执行至少一个指令以控制包括在移动设备500中的至少一个组件来执行期望操作。因此,即使当示出并描述了处理器505执行特定操作的配置时,上述配置也可以表示处理器505控制包括在移动设备500中的至少一个组件来执行操作。

显示器520在屏幕上输出图像。具体地,显示器520可以通过包括在显示器520中的显示面板输出与视频数据对应的图像,使得用户可以在视觉上识别视频数据。

显示器520还可以包括与显示面板联接的触摸板。当显示器520形成为与触摸板联接的显示面板时,显示器520可以输出用于接收触摸输入的用户接口屏幕。当在用户接口屏幕上检测到与某个命令对应的用户操作(例如,触摸操作)时,显示器520可以将检测到的触摸输入发送到处理器505。然后,处理器505对检测到的触摸输入进行解译,从而识别并执行用户输入的命令。

现在将描述显示器520具有组合的显示面板和触摸板的形状的配置。根据本公开的实施方式,显示器520可以在通过显示设备(例如300)(该显示设备通过有线或无线通信网络连接到移动设备500)输出视频呼叫屏幕图像的同时输出控制UI屏幕图像,该控制UI屏幕图像是用于在处理器505的控制下控制视频呼叫操作的UI屏幕图像。

通信接口530通过至少一个有线或无线通信网络与另一电子设备或服务器通信。

根据本公开的实施方式,处理器505可以控制通信接口530以连接到用于支持视频呼叫的服务器,使得可以在视频呼叫模式中实现移动设备500和配对设备之间的视频呼叫。因此,通信接口530可以发送或接收执行视频呼叫所必需的数据。

根据本公开的实施方式,通信接口530通过有线或无线通信与显示设备(例如120、300或400)通信。具体地,处理器505可以经由有线或无线通信网络通过通信接口530连接到显示设备(例如120、300或400),使得经由显示设备(例如120、300或400)输出视频呼叫屏幕图像。

具体地,通信接口530可以包括根据诸如蓝牙、Wifi、蓝牙低能量(BLE)、近场通信(NFC)/射频识别(RFID)、Wifi直连、超宽带(UWB)或Zigbee的通信标准来执行通信的至少一个短距离无线通信模块。

通信接口530还可以包括根据远程通信标准来与用于支持远程通信的服务器进行通信的远程通信模块。具体地,通信接口530可以包括通过用于互联网通信的网络来执行通信的远程通信模块。通信接口530可以包括遵循通信标准(诸如3G、4G和/或5G)的通信网络。远程通信模块也可以被称为移动通信模块。

例如,通信接口530可以通过遵循5G通信标准的通信网络连接到用于支持视频呼叫的服务器。因此,移动设备500可以提供与配对设备的视频呼叫服务。

通信接口530可以包括至少一个端口,通信接口530可以通过该端口通过使用有线电缆连接到显示设备(例如120、300或400),使得通信接口530可以基于有线通信方法与显示设备(例如120、300或400)通信。例如,通信接口530可以包括电缆连接端口,例如HDMI端口、以太网或光纤端口或USB连接端口。

用户接口510可以接收用于控制移动设备500的用户输入。用户接口510可以包括但不限于用户输入设备,该用户输入设备包括检测用户的触摸的触摸板、接收用户的按压操作的按钮、接收用户的旋转操作的轮、键盘和圆顶开关。按钮、轮和圆顶开关可以形成有分别与不同功能对应的键。

用户接口510还可以包括语音识别设备。例如,语音识别设备可以包括麦克风。语音识别设备可以接收用户的语音命令或语音请求。因此,处理器505可以控制与待执行的语音命令或语音请求相对应的操作。

用户接口510还可以包括运动检测传感器。例如,运动检测传感器可以检测用户在车辆内的运动,并接收所检测的运动作为用户输入。上述语音识别设备和运动检测传感器可以不包括在用户接口510中。相反,语音识别设备和运动检测传感器可以作为与用户接口510分离的组件或模块而包括在移动设备500中。

相机540可以包括图像传感器,并且可以在视频呼叫模式或拍摄模式下经由图像传感器获得图像帧(诸如,静止图像或运动图像)。

相机540可以包括在不同位置处形成的一个或多个相机。例如,相机540可以包括前侧相机和后侧相机。前侧相机与图1的前侧相机106相同,以及因此将省略对其的冗余描述。后侧相机可以具有与前侧相机106的视场相对的视场,并且可以拍摄移动设备500的后侧。例如,后侧相机可以具有其方向与前侧相机106的视场具有180度不同的视场。

例如,当请求视频呼叫时,处理器505激活相机540(具体地为前侧相机)。处理器505可以通过前侧相机获得用户的图像数据。

根据本公开的实施方式,当处理器505控制视频呼叫屏幕图像由移动设备500而不是显示设备(例如120、300或400)输出时,处理器505可以控制相机540被激活,使得相机540执行图像捕获操作。

现在将参考图6至图26详细描述根据本公开的实施方式的由移动设备(例如,110或500)和显示设备(例如,120、300或400)执行的视频呼叫操作以及控制视频呼叫的操作。

图6是根据本公开实施方式的由移动设备执行的视频呼叫方法600的流程图。

图6至图26的与包括在图2的视频呼叫方法中的操作或步骤相同的操作或步骤使用与图2中相同的附图标记或符号示出。例如,图6的操作S230与图2的操作S230对应。因此,将在对参考图6至图26的本公开的实施方式中执行的操作或步骤的描述中省略以上参考图2给出的冗余描述。

将在以下参考图6至图26的本公开的实施方式的描述中参考图5的移动设备500和图4的显示设备400。

参照图6,通过根据本公开的实施方式的移动设备(例如,移动设备500)来执行视频呼叫方法600。图6可以是示出由根据本公开的实施方式的移动设备(例如,移动设备500)执行的操作的流程图。

参照图6,移动设备500接收请求通过显示设备400来输出视频呼叫屏幕图像的用户输入(S220)。具体地,移动设备500的处理器505可以经由用户接口510接收用户输入。具体地,处理器505可以基于通过用户接口510检测到的用户操作(例如,用户用于选择某个菜单的触摸)来识别与由用户接口510检测到的内容对应的请求。现在将参考图7和图8详细描述操作S220。

图7示出了由根据本公开的实施方式的移动设备输出的UI屏幕图像。

参照图7,移动设备500可以显示UI屏幕图像710。具体地,移动设备500的处理器505可以控制包括请求视频呼叫显示在显示器520上的菜单724的UI屏幕图像710。

具体地,UI屏幕图像710可以是表示配对方的联系号码或配对设备的屏幕图像。UI屏幕图像710可以包括配对方的姓名740、配对方的社交网络的联系信息730或配对方的移动电话号码720中的至少一个。移动电话号码720示出为用于与配对设备连接以与配对方通话的通信联系信息的示例。除了移动电话号码720之外,UI屏幕图像710可以包括用于与配对设备连接以发送或接收呼叫或视频呼叫所必需的数据的信息。

除了图7的信息段之外,UI屏幕图像710可以包括与配对方对应的图像、用于配对方的附加信息、与配对方相关联的备忘录等。

参照图7,除了请求视频呼叫的菜单724之外,UI屏幕图像710还可以包括请求有线呼叫的菜单721或用于发送或接收文本消息的菜单723中的至少一个。可以使用字符、图标、图形和符号中的至少一个来显示与特定请求对应的菜单721、723和724。图7示出了其中与特定请求对应的菜单721、723和724以图标的形式显示在UI屏幕图像710内的配置。

用户可以触摸显示在UI屏幕图像710上的请求视频呼叫的菜单724。然后,处理器505可以基于用户的触摸来识别用户的请求是对视频呼叫的请求,并且可以执行与所识别的请求对应的操作。

响应于对菜单724的用户输入,处理器505可以执行视频呼叫并且可以控制用于待显示的视频呼叫的界面屏幕图像750。换句话说,响应于对菜单724的用户输入,处理器505可以控制UI屏幕图像710改变为待显示的界面屏幕图像750和界面屏幕图像750。

例如,用于视频呼叫的界面屏幕图像750可以包括配对方的图像761,使得用户可以在观看配对方的图像的同时执行呼叫。界面屏幕图像750还可以包括用户的图像762。

根据本公开的实施方式,界面屏幕图像750还可以包括菜单771,该菜单771请求通过连接到移动设备500的显示设备400输出视频呼叫屏幕图像。

为了便于解释,为通过连接到移动设备500的显示设备400输出视频呼叫屏幕图像做出的请求现在将被称为“通过TV进行呼叫的请求”。换句话说,菜单771是指用于通过TV进行呼叫的请求的菜单。

当接收到与通过TV进行呼叫的请求对应的用户输入时(S220),可以通过显示设备400输出视频呼叫屏幕图像,使得用户可以在观看TV的同时与配对方进行视频呼叫。当接收到与通过TV进行呼叫的请求对应的用户输入时(S220),用户在观看TV的同时与配对用户进行视频呼叫,并且因此可以激活包括在显示设备400中的相机340以为视频呼叫开始进行拍摄。由相机340捕获的图像可以是视频呼叫屏幕图像内的用户的图像。在操作S220中,可以通过用户触摸菜单771来实现接收与通过TV进行呼叫的请求对应的用户输入。

具体地,通过TV进行呼叫的请求可以指这样做出的请求:使得移动设备500和配对设备发送或接收视频呼叫所需要的呼叫数据,并且假定通过显示设备400输出的视频呼叫屏幕图像通过移动设备500输出。在该配置中,将参考图12至图14描述由移动设备500或显示设备400中的至少一个执行的详细操作。

替代地,通过TV进行呼叫的请求可以指这样做出的请求:使得在发起移动设备500和配对设备之间的视频呼叫之后,当配对设备和显示设备400彼此发送或接收视频呼叫所需要的呼叫数据时,在显示设备400上显示视频呼叫屏幕图像。将参考图15和图16描述在上述配置中由移动设备500或显示设备400中的至少一个执行的详细操作。

图8示出了根据本公开的实施方式的由移动设备输出的UI屏幕图像800。图8的UI屏幕图像800的与图7的组件相同的组件由相同的附图标记或符号表示。

参照图8,与UI屏幕图像710相比,UI屏幕图像800还可以包括与通过TV进行呼叫的请求对应的菜单725。菜单725与图7的菜单771对应但以与菜单771不同的形式显示的配置作为示例示出。

当UI屏幕图像800包括菜单725时,用户可以选择(例如,通过触摸)菜单725,并且因此移动设备500可以接收与通过TV进行呼叫的请求对应的用户输入。

响应于接收到与通过TV进行呼叫的请求对应的用户输入(S220),移动设备500的处理器505将视频呼叫请求发送到显示设备400(S230)。操作S230可以在移动设备500的处理器505的控制下由通信接口530执行。换句话说,通信接口530在处理器505的控制下发送视频呼叫请求。

然后,在视频呼叫方法600中,移动设备500显示控制UI屏幕图像(S250)。具体地,移动设备500可以控制控制UI屏幕图像(其是用于控制视频呼叫的执行的UI屏幕图像)通过显示器520进行显示(S250)。操作S250可以由在处理器505的控制下输出控制UI屏幕图像的显示器520来执行。现在将参考图9详细描述控制UI屏幕图像。

图9示出了根据本公开的实施方式的由移动设备输出的UI屏幕图像。

参照图9,移动设备500可以输出控制UI屏幕图像900(S250)。控制UI屏幕图像900可以包括用于控制图1中所示的视频呼叫操作的一个或多个菜单(例如,113)。

图9的菜单951、菜单952、菜单953和菜单954分别对应于用于改变移动设备110和显示设备120之间的视频呼叫屏幕图像的输出的菜单114、用于终止视频呼叫的菜单116、用于在视频呼叫期间取消用户的语音(静音)的菜单117以及用于在视频呼叫期间将用户的语音改变为扬声器输出和/或耳机输出的菜单113,以上内容已经参照图1进行了描述,以及因此将省略对其的冗余描述。

除了菜单951、952、953和954之外,控制UI屏幕图像900还可以包括用于控制视频呼叫的启动、执行或终止中的至少一个的菜单。

控制UI屏幕图像900可以包括状态消息920,其通过连接到移动设备500的显示设备400(例如,通过TV)通知正在进行视频呼叫。状态消息920可以包括关于执行视频呼叫的情况的信息。

控制UI屏幕图像900还可以包括菜单930,菜单930请求在控制UI屏幕图像900内显示包括用户的图像和配对方的图像的视频呼叫屏幕图像。响应于与菜单930对应的用户输入,处理器505可以控制将视频呼叫屏幕图像显示在控制UI屏幕图像900的部分区域(例如,940)内。

控制UI屏幕图像900可以控制将包括用户的图像和配对方的图像的视频呼叫屏幕图像显示在控制UI屏幕图像900的部分区域(例如,940)内。换句话说,即使当没有用于选择菜单930的用户输入时,控制UI屏幕图像900也可以控制视频呼叫屏幕图像显示在控制UI屏幕图像900的部分区域(例如,940)上。

图10是根据本公开实施方式的由显示设备执行的视频呼叫方法1000的流程图。

参照图10,视频呼叫方法1000通过根据本公开的实施方式的显示设备(例如,显示设备400)来执行。图10可以是示出根据本公开实施方式的由显示设备(例如,显示设备400)执行的操作的流程图。

参照图10,视频呼叫方法1000包括由显示设备400执行的接收视频呼叫请求的操作(S230)。具体地,通信接口330可以在处理器310的控制下从移动设备500接收视频呼叫请求。

响应于视频呼叫请求,激活包括在显示设备400中的相机340(S240)。具体地,响应于在操作S230中接收到的视频呼叫请求,处理器310可以控制相机340以被激活,并且因此,相机340可以启动视频捕获。具体地,处理器310可以控制相机340和前侧相机以被激活,使得相机340可以获得用户的图像。换句话说,响应于视频呼叫请求,可以确定用户想要在观看显示设备400的同时执行视频呼叫,并且处理器310可以激活相机340以获得视频呼叫所需要的用户的图像,使得用户可以在观看显示设备400上显示的视频呼叫屏幕图像的同时执行视频呼叫。

在视频呼叫方法1000中,可以将与由激活的相机340获得的用户的图像对应的数据从显示设备400发送到移动设备500。在这种配置中,移动设备500可以将从显示设备400接收的与用户的图像对应的数据发送到配对设备。

替代地,在视频呼叫方法1000中,与由激活的相机340获得的用户的图像对应的数据可以从显示设备400发送到用于支持视频呼叫的服务器。

视频呼叫方法1000还可以包括这样的操作:将与由显示设备400获得的用户的图像对应的数据从配对设备发送到移动设备500和/或用于支持视频呼叫的服务器中的至少一个,使得配对设备可以显示包括用户的第二图像的视频呼叫屏幕图像。

然后,在视频呼叫方法1000中,可以获得视频呼叫的配对方的图像数据(S260)。具体地,显示设备120可以获得视频呼叫的配对用户的图像数据(S260)。操作S260可以在处理器310的控制下由通信接口330执行。

具体地,操作S260可以由通过通信接口330联系用于支持视频呼叫的服务器并从配对设备接收配对设备的图像数据的显示设备400来执行。

替代地,操作S260可以通过从移动设备500接收配对方的图像数据的显示设备400来实现。在这种配置中,移动设备500可以通过通信接口530联系用于支持视频呼叫的服务器,并从配对设备接收用户的图像数据。移动设备500可以将从服务器接收到的配对方的图像数据发送到显示设备400。替代地,移动设备500可以基于从服务器接收到的配对方的图像数据生成配对方的图像(“第一图像”)。移动设备500可以生成与第一图像对应的镜像数据,并且可以将所生成的镜像数据发送到显示设备400,使得将第一图像镜像在显示设备400上。

然后,在视频呼叫方法1000中,显示设备400显示视频呼叫屏幕图像(S270)。操作S270可以在处理器310的控制下由显示器320执行。

具体地,显示设备400可以通过显示器320显示视频呼叫屏幕图像(例如,图1的140),该视频呼叫屏幕图像包括基于在操作S260中获得的图像数据生成的配对用户的第一图像和由显示设备400的相机获得的用户的第二图像(S270)。

图11示出了根据本公开的实施方式的由显示设备输出的视频呼叫屏幕图像。图11的与图1和图4的组件相同的组件由相同的附图标记或字符来表示。

参照图11,根据本公开的实施方式,用户1101可以在观看连接到移动设备500的显示设备400的显示器320的同时执行视频呼叫。具体地,显示设备400的显示器320可以在观看包括第一图像142和第二图像143的视频呼叫屏幕图像140的同时执行视频呼叫,其中第一图像142是配对方的图像,第二图像143是用户1101的图像。显示设备400的相机340可以通过拍摄显示设备400的前侧131来获得生成视频呼叫屏幕图像所必需的用户的图像。

根据本公开的实施方式,与移动设备500相比,用户1101可以通过在观看提供大屏幕的显示设备400的屏幕的同时执行视频呼叫来更逼真地执行视频呼叫。因为用户不需要移动他或她的手臂来抬起移动设备500来使得移动设备500可以拍摄用户的面部,所以用户可以更方便地执行视频呼叫。

图12是根据本公开实施方式的图像呼叫方法的流程图。

图12是根据本公开的实施方式的用于解释由移动设备(例如,110或500)或显示设备(例如,120、300或400)执行的操作的流程图。图12的与图1至图11的组件相同的组件由相同的附图标记或字符来表示。因此,在对图12中所示的视频呼叫方法的描述中省略了对其的冗余描述。

图5的移动设备500是执行图12的操作的移动设备的示例。图4的显示设备400是执行图12的操作的显示设备的示例。

参照图12,与上面参照图2描述的移动设备110相比,移动设备500还可以执行操作S245、S255和S257中的至少一个。

参照图12,移动设备500可以基于在操作S220中接收到的用户输入来停用相机540(S245)。具体地,移动设备500的处理器505可以响应于在操作S220中接收到的用户输入而控制相机540处于不执行图像捕获的停用状态。在操作S220中接收的用户输入可以是请求显示设备400输出视频呼叫屏幕图像并获得用户的图像,具体地,请求显示设备400的相机340通过拍摄用户来获得用户的图像。因此,当显示设备400根据在操作S220中接收的用户输入执行输出视频呼叫屏幕图像和拍摄用户时,移动设备500不需要执行视频呼叫所需要的用户的拍摄。因此,移动设备500可以控制相机540处于非激活状态,以防止相机540进行不必要的操作,从而减少激活相机540的不必要的功耗。

在操作S220中接收的用户输入是用于请求通过显示设备400输出视频呼叫屏幕图像的输入。具体地,用户输入可以是用于在由移动设备500执行视频呼叫时请求通过显示设备400输出视频呼叫屏幕图像的输入。因为视频呼叫屏幕图像的输出可以伴随对于用户的图像捕获操作,所以显示设备400可以通过相机340执行对用户的图像的捕获,并且通过显示器320显示视频呼叫屏幕图像。

具体地,基于在操作S220中接收到的用户输入,移动设备500可以接收配对方的图像数据(S255)。操作S255可以在处理器505的控制下由通信接口530执行。

具体地,基于在操作S220中接收的用户输入,移动设备500可以通过连接到用于支持视频呼叫的服务器来向配对设备发送或从配对设备接收用于视频呼叫的数据(S255)。具体地,移动设备500可以从显示设备400接收与在操作S240中由激活的相机获得的用户的图像的对应的图像数据(S257)。在该配置中,操作S255还可以包括将与接收的用户的图像对应的图像数据发送到用于支持视频呼叫的服务器的操作。换句话说,操作S255可以包括在移动设备500和用于支持视频呼叫的服务器之间的图像数据的发送或接收。

在操作S257中,移动设备500可以向显示设备400发送与从用于支持视频呼叫的服务器接收到的配对方的图像对应的图像数据。操作S257可以在处理器505的控制下由通信接口530执行。操作S257还可以包括将与由显示设备400的相机340获得的用户的图像对应的图像数据发送至移动设备500的操作。换句话说,操作S257可以指移动设备500和显示设备400之间的图像数据的发送或接收。

因此,显示设备400可以通过从移动设备500接收与配对方的图像对应的图像数据(S257),来获得与配对方的图像对应的图像数据(S260)。操作S260可以在处理器310的控制下由通信接口330执行。

根据本公开的实施方式,移动设备500可以将与从用于支持视频呼叫的服务器接收的配对方的图像对应的图像数据不进行改变地发送到显示设备400。

根据本公开的实施方式,移动设备500的处理器505可以向显示设备400发送包括配对方的图像的镜像数据,使得由移动设备500生成的配对方的图像可以由显示设备400镜像和显示。

替代地,在操作S257中,由移动设备500发送至显示设备400的配对方的图像数据可以是镜像数据。具体地,移动设备500的处理器505可以基于从用于支持视频呼叫的服务器接收的配对方的图像数据,生成用于在视频呼叫中使用的配对方的图像。处理器505可以生成用于镜像配对方的图像的镜像数据,使得生成的配对方的图像由显示设备400镜像并输出。所生成的镜像数据可以发送到显示设备400。因此,显示设备400的处理器310可以镜像由移动设备500生成的配对方的图像,以控制待从移动设备500接收的关于配对方的图像数据。

图13是根据本公开实施方式的由移动设备执行的视频呼叫方法1300的流程图。图13的操作可以根据本公开的实施方式由移动设备(例如,110或500)执行。图13的与图6和图12的组件相同的组件由相同的附图标记或字符表示。因此,在对图13的组件的描述中将省略对其的冗余描述。

参照图13,视频呼叫方法1300可以由移动设备(例如,110或500)执行。现在将描述由移动设备500执行视频呼叫方法1300的配置。通过参考图4的示为连接到移动设备500的显示设备的显示设备400来描述视频呼叫方法1300。

参照图13,与图6的视频呼叫方法600相比,视频呼叫方法1300还可以包括操作S210、S245、S255和S257中的至少一个。

具体地,在视频呼叫方法1300中,可以执行移动设备500和显示设备400之间的配对(S210)。尽管配对操作S210在图13中在操作S220之前执行,但是配对操作S210可以响应于请求视频呼叫的用户输入来执行,或者可以与操作S220同时执行,或者可以在操作S220之前或之后执行。

在视频呼叫方法1300中,相机540可以基于在操作S220中接收到的用户输入而不激活(S245)。尽管在图13中操作S245在操作S230之后执行,但是操作S245可以仅与操作S220同时执行或者在操作S220之后执行。

在视频呼叫方法1300中,可以从显示设备400接收用户的图像数据(S255),并且可以将其发送到用于支持视频呼叫的服务器(S257)。

图14是根据本公开实施方式的由显示设备执行的视频呼叫方法1400的流程图。图14的操作可以根据本公开的实施方式由显示设备(例如,120、300或400)来执行。图14的与图10和图12的组件相同的组件由相同的附图标记或字符表示。因此,在对图14的组件的描述中将省略对其的冗余描述。

参照图14,视频呼叫方法1400可以由显示设备(例如,120、300或400)执行。现在将描述由图4的显示设备400执行视频呼叫方法1400的配置。通过参考图5的示为连接到显示设备400的移动设备的移动设备500来描述视频呼叫方法1400。

参照图14,视频呼叫方法1400的操作S260可以包括从移动设备500接收配对方的图像数据。具体地,在操作S270中,显示设备400可以通过从移动设备500接收配对方的图像数据来获得配对方的图像数据并显示视频呼叫屏幕图像。

图15是根据本公开实施方式的图像呼叫方法的流程图。图15是根据本公开的实施方式的用于解释由移动设备(例如,110或500)或显示设备(例如,120、300或400)执行的操作的流程图。图15的与图1至图14的组件相同的组件由相同的附图标记或字符表示。因此,在图15所示的组件的描述中省略了对其的冗余描述。

图5的移动设备500是执行图15的操作的移动设备的示例。图4的显示设备400是执行图15的操作的显示设备的示例。

参照图15,与图2的显示设备120相比,显示设备400还可以执行操作S1545。

图15的操作S1525可以与图2的操作S230对应。

根据本公开的实施方式,移动设备500可以向显示设备400发送包括与配对方对应的配对设备的连接信息的视频呼叫请求。

参照图15,移动设备500可以向显示设备400发送包括与视频呼叫的配对方对应的配对设备的连接信息的视频呼叫请求。因此,显示设备400可以接收包括配对设备的连接信息的视频呼叫请求。操作S1525可以在移动设备500的处理器505的控制下由通信接口530发送包括配对设备的连接信息的视频呼叫请求来执行。操作S1525可以在显示设备400的处理器310的控制下由通信接口330接收包括配对设备的连接信息的视频呼叫请求来执行。

用于配对设备的连接信息可以是用于与配对设备连接以与配对方通话的通信连接信息。例如,连接信息可以是配对设备的移动电话号码(例如,图7的720)。

在操作S1525中接收到的视频呼叫请求可以是为通过移动设备500发起的通过显示设备120执行的视频呼叫做出的请求。具体地,当通过移动设备500发起的视频呼叫由显示设备120执行时,显示设备120可以通过连接到用于支持视频呼叫的服务器而不经由移动设备500来发送或接收视频呼叫所需要的图像数据。

显示设备400可以基于在操作S1525中接收到的连接信息,通过用于支持视频呼叫的服务器与配对设备执行视频呼叫(S1545)。操作S1545可以在处理器310的控制下执行。具体地,处理器310可以基于在操作S1525中接收到的连接信息,控制通信接口330从配对设备(具体地,通过用于支持视频呼叫的服务器从配对设备)接收配对方的图像数据。

因此,显示设备400可以通过直接从用于支持视频呼叫的服务器接收配对用户的图像数据来获得视频呼叫所需要的配对用户的图像数据(S260)。

图16是根据本公开实施方式的由显示设备执行的视频呼叫方法1600的流程图。图16的操作可以根据本公开的实施方式由显示设备(例如,120、300或400)来执行。图16的与图10和图15的组件相同的组件由相同的附图标记或字符表示。因此,在对图16的组件的描述中将省略对其的冗余描述。

参照图16,视频呼叫方法1600可以由显示设备(例如,120、300或400)执行。现在将描述由图4的显示设备400执行视频呼叫方法1600的配置。通过参考图5的示出为连接到显示设备400的移动设备的移动设备500来描述视频呼叫方法1600。

参照图16,与图10的显示设备400的操作相比,显示设备400还可以包括操作S1545。图16的操作S1525可与图2的操作S230对应。

显示设备400可以接收包括配对设备的连接信息的视频呼叫请求(S1525)。

然后,显示设备400可以基于在操作S1525中接收到的连接信息,通过用于支持视频呼叫的服务器与配对设备执行视频呼叫(S1545)。具体地,处理器310可以基于在操作S1525中接收到的连接信息,控制通信接口330从配对设备(具体地,通过用于支持视频呼叫的服务器从配对设备)接收配对方的图像数据。

尽管在图16中操作S1545是在操作S240之后执行的,但是操作S1545是基于在操作S1525中接收到的视频呼叫请求来执行。因此,操作S1545可以仅在操作S1525之后执行。

当视频呼叫方法1600包括操作S1545时,显示设备400可以通过直接从用于支持视频呼叫的服务器接收配对方的图像数据来获得视频呼叫所需要的配对方的图像数据(S260)。

图17是根据本公开的实施方式的图像呼叫方法的流程图。图17是根据本公开的实施方式的用于解释由移动设备(例如,110或500)或显示设备(例如,120、300或400)执行的操作的流程图。图17的与图1至图16的组件相同的组件由相同的附图标记或字符表示。因此,在对图17所示的视频呼叫方法的描述中省略了对其的冗余描述。

图5的移动设备500是执行图17的操作的移动设备的示例。图4的显示设备400是执行图12的操作的显示设备的示例。

参照图17,与图2的显示设备120相比,显示设备400还可以执行操作S1710、S1720和S1740。

根据本公开的实施方式,显示设备400的处理器310可以检测用户的视角(S1710)。具体地,显示设备400的处理器310可以基于用户的图像来检测用户的视角(S1710)。当在操作S1710中检测到的用户的视角从显示设备400改变到移动设备500时,显示设备400的处理器310可以根据视角的改变来控制显示设备400或移动设备500中的至少一个的屏幕图像。

在操作S1710中,可以通过分析经由视频呼叫获得的用户的图像来检测用户的视角。具体地,处理器310可以通过分析用户的图像来识别用户的眼球、用户的面部、用户的整个姿势或用户的头部的移动(或旋转)中的至少一个是否存在改变,来确定用户的视角是否已经从显示设备400改变到移动设备500。具体地,通过图像分析的视角检测可以使用凝视检测技术、眼睛跟踪技术、头部姿势估计技术等。

在操作S1710中,可以使用专用传感器(例如,NIR传感器、飞行时间(ToF)传感器或结构化光(SL)传感器)来检测用户的视角。在这种配置中,显示设备400还可以包括用于检测用户的视角的传感器。

在操作S1710中,可以基于用户的语音来检测用户的视角。

根据本公开的实施方式,显示设备400还可以包括用于检测用户的语音的传感器。用于检测语音的传感器可以是图4的音频输入接口467。处理器310可以基于检测用户的语音的结果来确定用户的视角是否已经从显示设备400改变到移动设备500。当用户的视角改变时,处理器310可以终止视频呼叫屏幕图像的输出,并且可以控制由移动设备500执行视频呼叫。具体地,处理器310可以通过向移动设备500发送用于请求由移动设备500执行视频呼叫的控制信号来控制由移动设备500执行视频呼叫。

具体地,包括在显示设备400中的音频输入/输出接口465可以检测用户的语音,并且可以识别用户的语音是指向显示设备400还是指向移动设备500。

替代地,在检测用户的语音时,识别出用户的视角存在于从显示设备400和移动设备500之中选择的、检测到用户的语音音量比另一个更大的设备上。

显示设备400可以根据视角的改变向移动设备500发送请求由移动设备500输出视频呼叫屏幕图像的屏幕图像切换请求(S1720)。显示设备400可以根据视角的改变将在操作S270中显示的视频呼叫屏幕图像切换为不同类型的屏幕图像(S1740)。具体地,显示设备400可以在视频呼叫开始之前将经由显示器320输出的屏幕图像从视频呼叫屏幕图像改变为屏幕图像输出。例如,显示设备400可以显示与在输出视频呼叫屏幕图像之前再现的内容相对应的屏幕图像。例如,显示设备400可以接收操作S220的视频呼叫请求,同时再现通过频道1广播的内容。然后,当在操作S1710中用户的视角已经改变时,显示设备400可以终止视频呼叫屏幕图像的输出,并且可以执行屏幕图像切换,以便再现通过频道1广播的内容。

具体地,当在操作S1710中检测到用户的视角从显示设备400改变到移动设备500时,处理器310可以在操作S270中终止视频呼叫屏幕图像的输出,并且可以控制视频呼叫屏幕图像由移动设备500输出。

基于操作S1720中的屏幕图像切换请求,移动设备500可以控制通过显示器520输出视频呼叫屏幕图像。具体地,因为用户的视角位于移动设备500处,所以移动设备500可以通过激活包括在移动设备500中的相机540来获得用户的图像。移动设备500可以生成包括获得的用户的图像和配对方的图像的视频呼叫屏幕图像,并且可以控制显示器520以显示生成的视频呼叫屏幕图像。

现在将参考图19和图20详细描述通过分析用户的图像来检测用户的视角和视角中的改变的实施方式。

图19是根据本公开的实施方式的用于解释由显示设备执行的视角检测操作的视图。图20是根据本公开的实施方式的用于解释由显示设备执行的视角检测操作的视图。图19和图20的与图11的组件相同的组件由相同的附图标记或字符表示。

参照图19,用户1101可以在观看由显示设备400输出的视频呼叫屏幕图像140的同时与配对用户执行视频呼叫。在执行视频呼叫的同时,显示设备400可以检测用户的视角。例如,显示设备400可以通过使用激活的相机340获得在视频呼叫中使用的用户的图像。显示设备400可以通过分析获得的用户的图像来识别用户的视角1905是否对应于显示设备400。

参照图20,用户1101可以在观看由显示设备400输出的视频呼叫屏幕图像140的同时执行视频呼叫的同时,将姿势从姿势2010改变到姿势2020以查看移动设备500的屏幕图像501。

在该配置中,显示设备400可以通过基于用户的图像分析用户的姿势、眼球、面部等来检测用户的视角已经从显示设备400改变到移动设备500。

参照图20,用户1101的显示设备400的视角1905可以被改变为移动设备500的视角1920。然后,显示设备400可以检测该视角改变,并且可以向移动设备500发送与该视角改变对应的屏幕图像改变请求(S1720)。移动设备500可以控制显示器520以自动输出在S1720中接收的视频呼叫屏幕图像。

根据本公开的实施方式,当用户1101的视角从显示设备400改变到移动设备500时,移动设备500可以输出视频呼叫屏幕图像并执行视频呼叫所需要的对于用户的图像捕获(具体地,相机拍摄)。因此,可以改变根据用户的意图动态地提供视频呼叫屏幕图像的设备,并且可以提高用户的满意度和方便性。

根据本公开的实施方式,检测用户的视角的操作可以由执行输出当前视频呼叫屏幕图像的操作和获得用户的图像的操作的设备来执行。当用户的视角已经如图19中那样改变时,移动设备500可以开始视频呼叫所需要的对于用户的图像捕获,并且通过移动设备500的显示器520输出视频呼叫屏幕图像。因此,移动设备500可以通过分析经由用户的图像捕获获得的用户的图像来执行检测用户的视角的操作。当移动设备500检测到用户的视角改变回到显示设备400时,移动设备500可以将视频呼叫请求发送回显示设备400。然后,显示设备400可以基于视频呼叫请求执行输出视频呼叫屏幕图像所需要的操作(例如,S240、S260和S270)。

图18是根据本公开实施方式的由显示设备执行的视频呼叫方法1800的流程图。图18的视频呼叫方法1800可以是示出根据本公开的实施方式的由显示设备(例如,120、300或400)执行的操作的流程图。图18的与图17的组件相同的组件由相同的附图标记或字符表示。因此,在对图18的组件的描述中将省略对其的冗余描述。

现在将描述由图4的显示设备400执行视频呼叫方法1800的配置。通过参考图5的示为连接到显示设备400的移动设备的移动设备500来描述视频呼叫方法1800。

参照图18,与图10的视频呼叫方法1000相比,视频呼叫方法1800还可以包括操作S210、S1710和S1740中的至少一个。已经参照图17、图19和图20详细描述了图18的操作S1710和S1740,以及因此将省略对其的冗余描述。

图21是根据本公开的实施方式的由显示设备执行的视频呼叫方法2100的流程图。图21的视频呼叫方法2100可以是示出根据本公开的实施方式的由显示设备(例如,120、300或400)执行的操作的流程图。图21的与图10或图18的组件相同的组件由相同的附图标记或字符表示。因此,在对图21的组件的描述中将省略对其的冗余描述。

参照图21,与图10的视频呼叫方法1000相比,视频呼叫方法2100还可以包括操作S210、S2110和S2120中的至少一个。已经参照图17、图19和图20详细描述了图18的操作S1710和S1740,并且因此将省略对其的冗余描述。

当在操作S270中输出视频呼叫屏幕图像之后,显示设备400可以接收切换视频呼叫的请求(S2110)。切换视频呼叫的请求可以包括:i)通过移动设备500再次执行视频呼叫的请求,具体地,执行视频呼叫屏幕图像的输出和对于用户的图像捕获以用于移动设备500中的视频呼叫的请求,ii)用于回放(再现)内容的请求,或者iii)用于输出视频呼叫屏幕图像的终止请求。

具体地,当用户通过操纵用于控制显示设备400的遥控器向显示设备400发送用于选择CH1的用户输入时,显示设备400可以基于用户输入终止视频呼叫屏幕图像的输出,并且可以控制显示器320显示与通过CH1发送的内容相对应的屏幕图像。

具体地,显示设备400可以经由显示设备400的用户接口450接收与切换视频呼叫的请求相对应的用户输入。为了便于解释,与切换视频呼叫的请求对应的用户输入可以称为“第一输入”。

当通过显示设备400接收到第一输入时,处理器310可以基于接收到第一输入来终止输出视频呼叫屏幕图像,并且可以控制由移动设备500执行视频呼叫。

具体地,操作S2110还可以包括向移动设备500发送包括用于切换视频呼叫的请求的控制信号的操作。然后,响应于控制信号,移动设备500使得能够通过显示器520输出视频呼叫屏幕图像,从而不通过显示设备400而是通过移动设备500实现视频呼叫。

然后,在视频呼叫方法2100中,可以基于在操作S2110中接收到的请求来切换由显示器320输出屏幕图像(S2120)。下面将参考图22更详细地描述操作S2120。

图22是根据本公开的实施方式的用于解释由显示设备执行的屏幕图像切换操作的流程图。

参照图22,移动设备500可以首先输出与图8的UI屏幕图像800相同的屏幕图像。与移动设备500进行配对但是为配对目标的显示设备400可以显示由CH1提供的内容的回放屏幕图像2210。

用户可以通过使用UI屏幕图像来请求通过显示设备400输出视频呼叫屏幕图像(S230)。

然后,移动设备500可以显示在操作S250中描述的控制UI屏幕图像2210。显示设备400可以输出视频呼叫屏幕图像2220(S270)。

然后,当接收到切换视频呼叫的请求时(S2110),显示设备400可以终止视频呼叫屏幕图像2220的输出,并且可以执行屏幕图像切换,使得再次显示通过CH1广播的内容。因此,显示设备400可以显示与再次通过CH1发送的内容相对应的屏幕图像2270。

当接收到切换视频呼叫的请求时(S2110),可以将通知切换视频呼叫的控制信号发送到移动设备500。然后,移动设备500可以输出视频呼叫屏幕图像2230。

图23是根据本公开实施方式的由显示设备执行的视频呼叫方法2300的流程图。图23的视频呼叫方法2300可以是示出根据本公开的实施方式的由显示设备(例如,120、300或400)执行的操作的流程图。图23的与图10或图18的组件相同的组件由相同的附图标记或字符表示。因此,在对图23的组件的描述中将省略对其的冗余描述。

参照图23,与图10的视频呼叫方法1000相比,视频呼叫方法2300还可以包括操作S210、S2310和S2320中的至少一个。

具体地,当在操作S270中输出视频呼叫屏幕图像之后,显示设备400可以接收回放内容的请求(S2310)。操作S2310可以通过用户接口450执行。具体地,用户可以操纵用于控制显示设备400的遥控器,使得通过用户接口450发送请求回放用户所期望的内容的用户输入。

显示设备400可以基于在操作S2310中接收到的内容回放请求来切换所显示的屏幕图像(S2320)。操作S2320可以在处理器310的控制下执行。

当选择CH1的用户输入发送到显示设备400时,与通过CH1发送的内容对应的屏幕图像可以被控制为通过显示器320显示。基于内容回放请求的显示的屏幕图像中的切换可以被称为“屏幕图像切换”。下面将参考图24更详细地描述屏幕图像切换。

图24是根据本公开的实施方式的用于解释由显示设备执行的屏幕图像切换操作的流程图。图24的与图22的组件相同的组件由相同的附图标记或字符表示。

参照图24,在显示设备400输出视频呼叫屏幕图像2220之后,可以接收内容回放请求(S2310)。参照图23,内容回放请求2310不仅可以包括回放特定内容的请求,还可以包括内容回放的搜索请求(例如,与频道操作键对应的输入)。

具体地,当用户操纵包括在遥控器中的向上频道键或向下频道键以观看内容时,显示设备400可以接收与用户的操纵或用户输入相对应的内容回放请求。

然后,显示设备400可以控制包括与回放请求的内容对应的图像2201的屏幕2410。

具体地,显示设备400的处理器310可以基于内容回放请求将所显示的屏幕图像分割成第一区域和第二区域,并且可以控制通过第一区域输出视频呼叫屏幕图像,并且控制通过第二区域输出包括内容的屏幕图像。

参照图24,显示设备400的处理器310可以控制包括与内容对应的图像2201和待显示的视频呼叫屏幕图像2411两者的屏幕图像2410。

当由显示设备400输出的屏幕图像2410包括与内容对应的图像2201和视频呼叫屏幕图像2411时,显示设备400可以选择性地输出与内容对应的音频和与视频呼叫对应的音频。例如,当在操作S2310中接收到的内容回放请求是与用于搜索内容的向上频道键或向下频道键的操作对应的请求时,显示设备400可以控制不输出与内容对应的音频,并且控制输出与视频呼叫对应的音频。作为另一示例,当在操作S2310中接收的内容回放请求是与直接选择特定内容或特定频道的操作对应的请求时,显示设备400可以控制输出与内容对应的音频。

图25是根据本公开的实施方式的用于解释由显示设备执行的屏幕图像切换操作的流程图。

根据本公开的实施方式,可以通过移动设备500接收切换视频呼叫的请求(S2510)。具体地,在移动设备500输出控制UI屏幕图像2210之后,用户可以选择作为所包括的用于请求视频呼叫切换的菜单的

因此,移动设备500可以再次显示视频呼叫屏幕图像2520,并且显示设备400可以终止视频呼叫屏幕图像2220的输出。显示设备400可以控制再次输出与执行视频呼叫之前输出的内容相对应的屏幕图像2201。

图26是根据本公开的实施方式的用于解释由显示设备执行的显示器的位置改变操作的视图。

根据本公开的实施方式,显示设备400的处理器310可以基于视频呼叫请求来控制显示器320的位置移动以与在操作S220中接收到的视频呼叫屏幕图像对应。

具体地,显示设备400可以是能够进行移动使得显示器320旋转90度并且沿水平方向或垂直方向布置的显示设备。显示设备可以被称为垂直TV。

参考图26,显示设备2600可以根据本公开的实施方式与显示设备120、300或400对应。

参照图26,显示设备2600可以包括在接收操作S220的视频呼叫请求之前沿水平方向布置的显示器2601。因为显示器2601在接收到视频呼叫请求之前水平布置,所以显示设备2600可以显示内容回放屏幕图像2630。

响应于操作S220的视频呼叫请求,显示设备2600可以基于视频呼叫请求来调整其显示器的位置,使得显示器2601的位置改变为显示器2620的位置。

显示设备2600可以控制沿垂直方向布置的显示器2620以显示视频呼叫屏幕图像2650。

如上参考图26所描述的,根据本公开的实施方式,根据是否输出视频呼叫屏幕图像来调整包括在显示设备2600中的显示器的布置方向,并且因此可以输出更符合视频呼叫的屏幕图像。

图27是根据本公开实施方式的显示设备2700的框图。显示设备2700可以与根据以上参考图1至图26描述的实施方式的任何显示设备(例如,120、300、400或2600)对应。因此,显示设备2700的描述与参照图1至图26所作的描述相同,并且这里不再重复。

具体地,包括在图27的显示设备2700中的处理器2780、显示器2715、通信接口2750、存储器2790、相机2762和音频输出接口2725可以分别对应于包括在图4的显示设备400中的处理器310、显示器320、通信接口330、存储器470、相机340和音频输出接口460。

视频处理器2710处理由显示设备2700接收的视频数据。视频处理器2710可对接收到的视频数据执行各种图像处理,例如解码、缩放、噪声滤波、帧速率变换和分辨率变换。

处理器2780可接收对由视频处理器2710处理的视频数据的写入请求,并且可以控制对视频数据进行加密并将其写入到包括在处理器2780中的存储器设备或存储器2790(例如,RAM)。

显示器2715在处理器2780的控制下在其屏幕上显示包括在经由调谐器2740接收的广播信号中的视频。显示器2715还可以显示经由通信接口2750或输入/输出(I/O)接口2770输入的内容(例如,运动图画)。

显示器2715还可以在处理器2780的控制下输出存储在存储器2790中的图像。显示器2715可以包括用于执行与语音识别相对应的语音识别任务的语音UI(例如,包括语音指令指南)或者用于执行与运动识别相对应的运动识别任务的运动UI(例如,包括用于运动识别的用户运动指南)。

音频处理器2720处理音频数据。音频处理器2720可对音频数据执行各种处理,例如解码、放大或噪声滤波。音频处理器2720可以包括多个音频处理模块,以处理与多个内容段相对应的音频。

音频输出接口2725在处理器2780的控制下输出包括在经由调谐器2740接收的广播信号中的音频。音频输出接口2725还可以输出经由通信接口2750或I/O接口2770输入的音频(例如,语音或声音)。音频输出接口2725还可以在处理器2780的控制下输出存储在存储器2790中的音频。音频输出接口2725可以包括扬声器2726、耳机输出端口2727或索尼/飞利浦数字接口(S/PDIF)输出端口2728中的至少一个。音频输出接口2725可以包括扬声器2726、耳机输出端口2727和S/PDIF输出端口2728的组合。

电源2730在处理器2780的控制下向显示设备2700的内部组件2710至2790供应从外部电源输入的电力。电源2730还可以在处理器2780的控制下向显示设备2700的内部组件2710至2790供应由位于显示设备2700中的一个或多个电池输出的电力。

调谐器2740可以进行调谐,并从经由有线或无线广播信号的放大、混合、谐振等获得的许多无线电波分量之中仅选择图像显示设备2700想要接收的频道的频率。广播信号包括音频、视频和附加信息(例如,电子节目指南(EPG))。

调谐器2740可以根据用户输入(例如,从外部控制设备(例如,遥控器)接收的控制信号,例如,频道号输入、频道上下输入和在EPG屏幕图像上的频道输入)在与频道号(例如,有线广播第506号)对应的频带中接收广播信号。

调谐器2740可以从各种源接收广播信号,例如地面广播、有线广播、卫星广播和互联网广播。调谐器2740还可以从诸如模拟广播或数字广播的源接收广播信号。经由调谐器2740接收的广播信号被解码(例如,音频解码、视频解码或附加信息解码),并因此被划分为音频、视频和/或附加信息。音频、视频和/或附加信息可以在处理器2780的控制下存储在存储器2790中。

显示设备2700可以包括单个调谐器2740或多个调谐器2740。根据实施方式,当包括多个调谐器2740时,多个调谐器2740可以将多个广播信号输出到包括在提供给显示器2715的多视图屏幕图像中的多个局部屏幕图像。

调谐器2740可以与显示设备2700是一体的,或者实现为具有电连接到显示设备2700的调谐器的单独的设备(例如,连接到机顶盒和I/O接口2770的调谐器)。

通信接口2750可以在处理器2780的控制下将显示设备2700连接到外部设备(例如,音频设备)。处理器2780可以向经由通信接口2750连接的外部设备发送内容或者从经由通信接口2750连接的外部设备接收内容、从外部设备下载应用程序或执行web浏览。具体地,通信接口2750可以连接到网络以从外部设备接收内容。

如上所述,通信接口2750可以包括从短距离无线通信模块、有线通信模块和移动通信模块中选择的至少一个。

根据本公开的实施方式,通信接口2750可以通过移动通信模块与用于支持视频呼叫的服务器执行通信。通信接口2750可以通过短距离无线通信模块或有线通信模块与移动设备(例如,移动设备500)执行通信。

图27示出了通信接口2750包括无线局域网(LAN)2751、用于蓝牙网络2752的接口和用于有线以太网2753的接口中的一个的配置。

通信接口2750可以包括无线LAN 2751、蓝牙网络2752和有线以太网2753中的一个或多个的组合。通信接口2750可以在处理器2780的控制下接收控制设备的控制信号。控制信号可以实现为蓝牙信号、射频(RF)信号或Wi-Fi信号。

除了蓝牙接口2752之外,通信接口2750还可以包括短距离通信(例如,近场通信(NFC)或蓝牙低能量(BLE))。

传感器2760检测用户的语音、用户的图像或与用户的交互。

麦克风2761接收用户发出的语音。麦克风2761可以将接收到的语音转换为电信号,并将该电信号输出到处理器2780。用户的语音可以包括例如与显示设备2700的菜单或功能对应的语音。例如,麦克风2761的识别范围可以被推荐为在从麦克风2761到用户的位置的4m范围内,并且可以根据用户的语音的大小和周围环境(例如,扬声器声音或环境噪声)而变化。

麦克风2761可以与显示设备2700集成或分离。分离的麦克风2761可以经由通信接口2750或I/O接口2770电连接到显示设备2700。

本领域普通技术人员将容易理解的是,可以根据显示设备2700的性能和结构来排除麦克风2761。

相机2762接收与包括相机2762的识别范围内的手势的用户的运动对应的图像(例如,连续帧)。例如,相机2762的识别范围可以是从相机2762到用户的0.1到5m内的距离。用户的运动可以包括用户身体的一部分或用户的部分的运动等,例如用户的面部、面部表情、手、拳头和手指。相机2762可以在处理器2780的控制下将接收到的图像转换为电信号,并将该电信号输出到处理器2780。

根据本公开的实施方式,传感器2760还可以包括用于检测用户的视角的至少一个传感器。例如,至少一个传感器可以包括NIR传感器、ToF传感器、SL传感器等。

处理器2780可以通过使用接收到的运动的识别的结果来选择显示在显示设备2700上的菜单,或者执行与运动识别的结果对应的控制。例如,控制可以是频道调整、音量调整或指示器移动。

相机2762可以包括透镜和图像传感器。相机2762可以通过使用多个透镜和图像处理来支持光学变焦或数字变焦。相机2762的识别范围可以根据相机2762的角度和周围环境条件而不同地设置。当相机2762由多个相机组成时,可以由多个相机来接收三维(3D)静止图像或3D运动。

相机2762可以与显示设备2700集成在一起或与显示设备2700分离。包括独立相机2762的独立设备可以经由通信接口2750或I/O接口2770电连接到显示设备2700。

本领域普通技术人员将容易理解的是,相机2762可以根据显示设备2700的性能和结构而被排除。

光接收器2763经由显示器2715的边框的光窗从外部控制设备接收光信号(包括控制信号)。光接收器2763可以从控制设备接收与用户输入(例如、触摸、按压、触摸手势、语音或运动)对应的光信号。在处理器2780的控制下,可以从接收到的光信号中提取控制信号。

例如,光接收器2763可以接收与控制装置的指向位置对应的信号,并将接收到的信号发送到处理器2780。例如,当用于从用户接收数据或命令的UI屏幕图像已经经由显示器2715输出并且用户想要经由控制装置向显示设备2700输入数据或命令时,用户在触摸设置在控制装置中的触摸板的同时移动控制设备,并且此时,光接收器2763可以接收与控制装置的运动对应的信号并且将接收到的信号发送到处理器2780。光接收器2763可以接收指示设置在控制装置上的某个按钮已经被按下的信号,并且将接收到的信号发送到处理器2780。例如,当用户用他或她的手指按下设置在控制装置中的按钮型触摸板时,光接收器2763可以接收指示按钮型触摸板已经被按下的信号,并将接收到的信号发送到处理器2780。例如,指示按钮型触摸板已经被按下的信号可以用作从项目之中选择一个的信号。

I/O接口2770在处理器2780的控制下从显示设备2700外部接收视频(例如,运动图像)、音频(例如,语音或音乐)和附加信息(例如,EPG)。I/O接口2770可以包括高清晰度多媒体接口(HDMI)端口2771、组件插孔2772、PC端口2773或USB端口2774。I/O接口2770可以包括HDMI端口2771、组件插孔2772、PC端口2773和USB端口2774的组合。

本领域的普通技术人员将理解的是,I/O接口2770的结构和操作可以根据实施方式来不同地实现。

处理器2780控制显示设备2700的整体操作和在显示设备2700的内部组件之间的信号传送并处理数据。当存在用户的输入或满足所存储的预设条件时,处理器2780可以执行存储在存储器2790中的操作系统(OS)和各种应用。

处理器2780可以包括存储由显示设备2700的外部源输入的信号或数据或者用作由显示设备2700执行的各种操作的存储区的RAM、存储用于控制显示设备2700的控制程序的ROM以及处理器。

处理器可以包括用于执行视频图形处理的图形处理单元(GPU)。处理器可以实现为包括核和GPU的片上系统(SoC)。处理器可以包括单核、双核、三核、四核或多核处理器。

处理器可以包括多个处理器。例如,处理器可以通过使用主处理器和在睡眠模式中进行工作的子处理器来实现。

GPU通过使用算术单元和渲染单元来生成包括诸如图标、图像和文本的各种对象的屏幕图像。算术单元通过使用由传感器检测到的用户交互来计算用于要根据屏幕图像的布局来显示的每个对象的属性值,例如坐标值、形状、大小、颜色等。渲染单元基于由算术单元计算的属性值生成包括对象的各种布局的屏幕图像。由渲染单元生成的屏幕图像被显示在显示器2715的显示区域上。

图28是根据本公开实施方式的移动设备2800的框图。

图28中所示的移动设备2800可以与图1至图25中所示的移动设备110或500对应。具体地,包括在图28的移动设备2800中的处理器2805、用户输入接口2810、显示器2821、相机2861和通信接口2830可以分别与包括在图5的移动设备500中的处理器505、用户接口510、显示器520、相机540和通信接口530对应。

因此,与上面给出的移动设备110和500的描述相同的移动设备2800的描述是冗余的并且因此在此处省略。

用户输入接口2810表示用户经由其输入用于控制移动设备2800的数据的器件。例如,用户输入接口2810可以是但不限于键盘、圆顶开关、触摸板(例如,电容覆盖类型、电阻覆盖类型、红外波束类型、整体应变仪类型、表面声波类型、压电类型等)、微动轮或微动开关。

用户输入接口2810可以接收选择待显示的虚拟图像的用户输入。用户输入接口2810还可以接收用于设置虚拟图像的操作的用户输入和用于购买与虚拟图像相关联的项目的用户输入。

输出接口2820可以输出音频信号、视频信号或振动信号,并且可以包括显示器2821、音频输出接口2822和振动马达2823。

显示器2821显示由移动设备2800处理的信息。例如,显示器2821可以显示用于选择虚拟图像的用户接口、用于设置虚拟图像的操作的用户接口以及用于购买虚拟图像的项目的用户接口。

当显示器2821与触摸板一起形成层结构以构造触摸屏时,显示器2821可以用作输入设备以及输出设备。显示器2821可以包括液晶显示器(LCD)、薄膜晶体管-LCD(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、三维(3D)显示器和电泳显示器中的至少一个。根据移动设备2800的实施方式,移动设备2800可以包括至少两个显示器2821。至少两个显示器2821可以通过使用铰链彼此面对地设置。

音频输出接口2822输出从通信接口2830接收的或存储在存储器2870中的音频数据。音频输出接口2822还可以输出与移动设备2800的功能相关的音频信号(例如,呼叫信号接收声音、消息接收声音、通知声音)。音频输出接口2822可以包括例如扬声器和蜂鸣器。

振动马达2823可以输出振动信号。例如,振动马达2823可以输出与音频数据或视频数据(例如,呼叫信号接收声音或消息接收声音)的输出对应的振动信号。当触摸屏被触摸时,振动马达2823也可以输出振动信号。

处理器2805通常控制移动设备2800的所有操作。例如,处理器2805可以通过执行存储在存储器2870中的程序来控制用户输入接口2810、输出接口2820、感测单元2840、通信接口2830、音频/视频(A/V)输入接口2860等。

感测单元2840可以检测移动设备2800的状态或移动设备2800的周围的状态,并且可以向处理器2805发送与检测到的状态对应的信息。

感测单元2840可以包括但不限于从磁传感器2841、加速度传感器2842、温度/湿度传感器2843、红外传感器2844、陀螺仪传感器2845、位置传感器(例如,全球定位系统(GPS))2846、压力传感器2847、接近传感器2848和RGB传感器2849(即,照明传感器)中选择的至少一个。大多数传感器的功能将由本领域的普通技术人员鉴于其名称而本能地进行理解,因此其详细描述将在这里被省略。

根据本公开的实施方式,感测单元2840还可以包括用于感测用户的视角的至少一个传感器。例如,至少一个传感器可以包括NIR传感器、ToF传感器、SL传感器等。

通信接口2830可以包括使得移动设备2800能够与HMD设备或服务器执行数据通信的至少一个组件。例如,通信接口2830可以包括短距离无线通信接口2851、移动通信接口2852和广播接收机2853。

短距离无线通信接口2851的示例可以包括但不限于蓝牙通信接口、蓝牙低能量(BLE)通信接口、近场通信(NFC)接口、无线局域网(WLAN)(例如Wi-Fi)通信接口、ZigBee通信接口、红外数据协会(IrDA)通信接口、Wi-Fi直连(WFD)通信接口、超宽带(UWB)通信接口和Ant+通信接口。

移动通信接口2852可以与从移动通信网络上的服务器、外部终端和基站中选择的至少一个交换无线信号。这里,无线信号的示例可以包括语音呼叫信号、视频呼叫信号和根据文本/多媒体消息传输的各种类型的数据。

广播接收机2853经由广播信道从外部源接收广播信号和/或广播相关信息。广播信道可以是卫星信道、地波信道等。根据实施方式,移动设备2800可以不包括广播接收机2853。

A/V输入接口2860输入音频信号或视频信号,并且可以包括相机2861和麦克风2862。相机2861可以在视频呼叫模式或拍摄模式下经由图像传感器获取图像帧(例如,静止图像或运动图像)。经由图像传感器捕获的图像可以由处理器2805或单独的图像处理器处理。

由相机2861获得的图像帧可以存储在存储器2870中或者经由通信接口2830发送到外部。根据终端结构的实施方式,可以包括至少两个相机2861。

麦克风2862接收外部音频信号,并将该外部音频信号转换为电音频数据。例如,麦克风2862可以从外部设备或说话者接收音频信号。麦克风2862可以使用各种噪声消除算法以移除在接收外部音频信号时产生的噪声。

存储器2870可以存储由处理器2805使用以执行处理和控制的程序,并且还可以存储输入到移动设备2800的数据或从移动设备2800输出的数据。

存储器2870可以包括从闪存类型、硬盘类型、微型多媒体卡类型、卡类型存储器(例如,安全数字(SD)或极端数字(XD)存储器)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、可编程ROM(PROM)、磁存储器、磁盘和光盘之中选择的至少一种类型的存储介质。

存储在存储器2870中的程序可以根据它们的功能被分类成多个模块,例如,用户接口(UI)模块2871、触摸屏模块2872和通知模块2873。

UI模块2871可以提供专用于每个应用并且与移动设备2800进行互操作的UI、图形用户接口(GUI)等。触摸屏模块2872可以检测用户的触摸屏上的触摸手势,并将关于触摸手势的信息发送到处理器2805。根据实施方式的触摸屏模块2872可以识别和分析触摸代码。触摸屏模块2872可以由包括控制器的单独硬件来配置。

为了检测触摸屏上的实际触摸或接近触摸,触摸屏可以在内部或外部具有各种传感器。用于检测触摸屏上的触摸的传感器的示例是触觉传感器。触觉传感器表示检测特定对象的触摸达到人类感觉或更高的程度的传感器。触觉传感器可以检测各种类型的信息,例如触摸的表面的粗糙度、触摸对象的硬度和触摸点的温度。

用于检测触摸屏上的真实触摸或接近触摸的传感器的另一示例是接近传感器。

接近传感器通过使用电磁力或红外线来检测接近预定感测表面的对象的存在,或者检测附近存在的没有机械接触的对象的存在。接近传感器的示例包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡型接近传感器、电容型接近传感器、磁性接近传感器和红外型接近传感器。用户的触摸手势的示例可以包括敲击、触摸和保持、双击、拖动、摇动、轻点、拖放、滑动等。

通知模块2873可以生成用于通知在移动设备2800中已生成事件的信号。在移动设备2800中生成的事件的示例可以包括呼叫信号接收、消息接收、按键信号输入、调度通知等。通知模块2873可以经由显示器2821输出视频信号形式的通知信号,经由音频输出接口2822输出音频信号形式的通知信号,或者经由振动马达2823输出振动信号形式的通知信号。

根据本公开的实施方式的视频呼叫方法可以实现为可由各种计算机器件执行的并且可以被记录在计算机可读记录介质上的程序命令。根据本公开的实施方式,计算机可读存储介质可以在其上实现包括用于执行上述视频呼叫方法的命令的至少一个程序。

计算机可读记录介质可以包括单独或组合的程序命令、数据文件、数据结构等。待被记录在计算机可读记录介质上的程序命令可以为实施方式专门设计和配置的,或者可以是计算机软件领域的普通技术人员公知的并且可以被计算机软件领域的普通技术人员使用的。计算机可读记录介质的示例包括诸如硬盘、软盘或磁带的磁介质;诸如光盘只读存储器(CD-ROM)或数字多功能盘(DVD)的光学介质;诸如软式光盘的磁光介质;以及专门配置为存储和执行诸如ROM、随机存取存储器(RAM)或闪存的程序命令的硬件设备。程序命令的示例是可以由计算机通过使用解译器等执行的高级语言代码以及由编译器产生的机器语言代码。

此外,根据本公开的实施方式的视频呼叫方法可以实现为计算机程序产品,该计算机程序产品包括其上记录有程序的记录介质,其中,程序用于执行获得由多种语言组成的句子的操作;以及使用多语言翻译模型,获取与由多种语言组成的句子中包含的每个单词对应的矢量值,并将获取的矢量值转换为与目标语言对应的矢量值,以及基于与目标语言对应的矢量值获得由目标语言组成的句子。

根据本公开的实施方式,在显示设备、移动设备、通过显示设备执行的视频呼叫方法以及通过移动设备执行的视频呼叫方法中,用户可以在观看由大屏幕提供的视频呼叫屏幕图像的同时执行视频呼叫。因此,可以增加在视频呼叫期间用户的便利性和用户的满意度水平。

虽然已经参考附图描述了本公开的一个或多个实施方式,但是本领域的普通技术人员将理解,在不脱离由所附权利要求限定的精神和范围的情况下,可以对本公开的一个或多个实施方式进行形式和细节上的各种改变。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号