プロジェクターユニット及びコンピューターを含むシステム

 

例示するシステムは、支持部材を含み、さらにベースと、ベースから上方に延びる直立部材と、直立部材から外側に延びる片持ち梁トップとを含む。さらに、このシステムは直立部材に取り付け可能なプロジェクターユニットを含む。さらに、このシステムは、プロジェクターユニットに取り付け可能なオールインワンコンピューターを含む。そしてさらに、このシステムはオールインワンコンピューターにコミュニケーション可能に接続しているタッチセンサーマットを含む。片持ち梁トップは、折り返しミラーと、オールインワンコンピューターにコミュニケーション可能に接続されたカメラとを含み、そしてプロジェクターユニットはイメージを上方のミラーに投影し、タッチセンサーマットに反射させる。

 

 

コンピューターシステムは、一般的には、サポートスタンドに搭載されたか、コンピューターシステムのその他のコンポーネントに組み込まれている1つ又は複数のディスプレーを採用している。タッチセンサーテクノロジー(例えばタッチスクリーン)を採用しているディスプレーとしては、システムオペレーションにおいて、このようなタッチテクノロジーを十分に使用するために、ユーザーは、このようなディスプレーに直接接触するのが望ましいことがしばしばある。しかしながら、ディスプレー上のイメージを単に見るためのディスプレーの最適な人間工学的な配置は、そこでタッチによる接触を行うための適切な場所とはしばしばならない。従って、伝統的な視聴アプリケーションと、タッチ接触アプリケーションの両方とを単一のコンピューターシステムにおいて使用することを望むユーザーは、そのようなシステムの配置と使用に際して困難にしばしば直面する。
様々な例を詳しく説明するために、参考例を以下の図の中に示す。
ここに開示された原理に従ったコンピューターシステムの1例の全体概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの、その他の全体概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの側面概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの正面概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの稼働中の側面概略図である。 ここに開示された原理に従った、図1におけるコンピューターシステムの稼働中の正面概略図である。 ここに開示された原理に従った図1のコンピューターシステムの、ブラックボックス回路の図である。 ここに開示された原理に従ったコンピューターシステム例のペアを使用して作ったバーチャル共同ワークステーションの、全体概略図である。
[表記法と命名法]
特定の用語は、後述する説明及びクレームを通して、特定のシステムコンポーネントに言及するために使用されている。当業者が認識するように、異なるコンピューター会社は、異なる名前であるコンポーネントを呼ぶかもしれない。この文書は、名前が異なるが、機能が同じコンポーネントの間で区別を付けようとするものではない。後述する議論及びクレームにおいて、「含む(including)」及び「備える(comprising)」は、非限定用法であり、また、従って「含む、しかしこれに限られるものではなく…」という意味で解釈されるべきである。また、「連結(couple)」又は「連結する(couples)」という用語は、直接または非直接の結合のいずれかを意味しようとするものである。従って、もし第1のデバイスが第2のデバイスに連結している場合、その接続は直接電気的に又は機械的に接続していてもよいし、その他のデバイスや結合部を介して間接的に電気的又は機械的に接続していてもよいし、光学的電気的な接続でもよいし、無線電気的接続でもよい。ここで用いられる「およそ(approximately)」とはプラスマイナス10%を意味する。さらに、ここで用いられる言葉「ユーザーインプットデバイス(user input device)」という言葉は、ユーザーによって電気的システムに入力を提供するのに適したデバイス、例えばマウス、キーボード、手(又はそのうちいくつかの指)、タッチペン、ポインティングデバイス等を言う。
[詳細な説明]
後述する議論は、開示のための様々な例に向けられたものである。これらの例のうち1以上の例がより好適であるが、開示された例は、請求項に含まれる開示の範囲を限定するために解釈され又は用いられるべきではない。さらに、後述する説明は広いアプリケーションを有し、そして、いくつかの例における議論は、その例を説明するのみであり、請求項を含めた開示の範囲をその例に限定しようとするものではないことを当業者は理解するであろう。
図1〜4を参照すると、ここに開示された原理に従ったコンピューターシステム100を示している。この例では、システム100は一般的に、サポート構造100、コンピューティングデバイス150、プロジェクターユニット180、タッチセンサーマット200を含んでいる。コンピューティングデバイス150は、ここに開示された原理に従って、その他の適したコンピューティングデバイスを含んでいてもよい。例えば、いくつかの実施例では、デバイス150は電子ディスプレー、スマートフォン、オールインワンコンピューター(すなわち、コンピューターのボードに収納されているディスプレー)、又はこれらのうちいくつかの組み合わせを含んでいてもよい。この例では、デバイス150は中心軸又は中心線155、第1側面又はトップサイド150a、軸方向にトップサイド150aと反対側の第2側面又はボトムサイド150b、150aと150bとの間で軸方向に広がるフロントサイド150c、同様に150aと150bの間で軸方向に広がり、通常軸方向にフロントサイド150cの反対側にあるリアサイド、を含むオールインワンコンピューターである。ディスプレー152は視聴面を定義し、ユーザー(図示せず)による視聴と接触のためのイメージを投影するフロントサイド150cに沿って配置されている。いくつかの例においては、ディスプレー152は、例えば、抵抗性、静電容量性(capacitive)、音波、赤外線(IR)、ひずみゲージ、光学性、音波感知、又はこれらのうちのいくつかの組み合わせのようなタッチセンサー技術を含む。従って、以下の説明において、ディスプレー152はタッチセンサー表面又はディスプレーとして参照される。さらに、いくつかの例において、デバイス150はさらに、ユーザーがディスプレー152の前に居るときに、ユーザーのイメージを撮るためのカメラ154を含んでいる。いくつかの実施においては、カメラ154はウェブカメラである。さらに、いくつかの例においては、デバイス150はまた、稼働中にユーザーの音声入力(例えば声)を受けるために配置されたマイクロフォン又は類似のデバイスを含んでいる。
図1〜4を参照すると、サポート構造110は、ベース120、直立部材140、トップ160を含んでいる。ベース120は第1端又はフロントエンド120aと、第2端又はリアエンド120bとを含む。稼働の間、ベース120は、システム100におけるコンポーネント(例えば部材140、ユニット180、デバイス150、トップ160等)の少なくとも一部分の重さを支持するために支持面15と繋がっている。この例においては、ベース120におけるフロントエンド120aは、支持面15の上から少しだけ分離した持ち上がり部分122(raised portion)を含んでおり、これによって部分122と、面15との間にスペース又は隙間を作り出している。以下に詳細を説明するように、システム100の稼働中、マット200の正しい位置合わせのために、マット200の一端は持ち上がり部分122と面15との間に形成されたスペースの中に受け入れられる。しかしながら、ここに開示された原理に従って、その他の例、他の適した位置合わせ方法又はデバイスを使用してもよいことは認識されるべきである。
直立部材140は、第1端又は上端140aと、上端140aの反対側の第2端又は下端140bと、140aと140bの端の間に広がる第1側面又はフロントサイド140cと、フロントサイド140cの反対側で、また140aと140bとの間に広がる第2側面又はリアサイド140dとを含む。部材140の下端140bは、ベース120のリアエンド120bに連結しており、そのような部材140はサポート面15からほぼ上方向に延びている。
トップ160は、第1端又は近傍端160aと、近傍端160aの反対にある第2端又は遠位端160bと、両端160aと160bとの間に広がるトップ面160cと、トップ面160cの反対側にあって同様に160aと160bとの間に広がるボトム面160dとを含んでいる。トップ160における近傍端160aは、遠位端160bがそこから外側に広がるように、直立部材140の上端140aに連結している。結果として、図2で示すように、トップ160は端160aだけで支持されており、従って、ここでは「片持ち梁(cantilevered)」として言及される。いくつかの例においては、ベース120と、部材140と、トップ160とは、すべて一体に形成されているが、その他の例では、ベース120と、部材140と、トップ160とは、ここに開示された原理に従っていれば、一体に形成されていなくてもよいことが認識されるべきである。
図1〜4を参照すると、マット200は中心軸又は中心線205と、第1側面又はフロントサイド200aと、フロントサイド200aの軸方向の反対側の第2側面又はリアサイド200bとを含んでいる。この例では、タッチセンサー面202は、マット200の上に配置されており、また軸205と整列している。面202は、デバイス150又は何か他のコンピューティングデバイス(図示せず)によって実行されたソフトウェアに接することをユーザーに許可するべくユーザーによる1つ又は複数のタッチ入力を検出及び追跡するための何らかの適したタッチセンサー技術で構成されていてもよい。例えば、ここに開示された原理に従っている間は、いくつかの実施においては、面202は既知のタッチセンサーテクノロジー、例えば、抵抗性、静電容量性、音波、赤外線(IR)、ひずみゲージ、光学性、音波感知、又はこれらのうちのいくつかの組み合わせのようなものを使用してもよい。さらに、この例では、面202はマット200の一部の上のみに広がるが、しかしながら、その他の例では、ここに開示された原理に従って、面202はマット200のほぼ全体に渡って広がってもよいと認められるべきである。
稼働中、前述した正しい位置合わせを確実にするため、マット200は構造110のベース120と整列している。特に、この例では、リアエンド200bがベースの前面120aと整列しており、それによってマット200(及び特に面202)が、システム100におけるその他のコンポーネントと正しい全体の位置合わせが確実にできるように、マット200におけるリアサイド200bがベース120における持ち上がり部分122と支持面15との間に配置されている。いくつかの例において、マット200はデバイス150と、デバイス150における中心線155がマット200の中心線205にほぼ整列するように調整されるが、しかしながら、その他の位置合わせも可能である。さらに、下記により詳細に説明するように、少なくともいくつかの例では、マット200の表面202及びデバイス150は、面202で受けたユーザーの入力がデバイス150に通信されるように、互いに電気的に連結されている。ここに開示された原理に従って、デバイス150と面202との間で、例えば、ワイファイ(WI-FI)、ブルートゥース(BLUETOOTH(登録商標))、超音波、電気ケーブル、導線、磁力によって留められる電気的スプリング留め式ポゴピン、またはこれらのいずれかの組み合わせのような、いくつかの適した無線又は有線の電気的連結又は結合が使われてもよい。本例では、稼働している間、デバイス150と面202との間で信号を転送するために、マット200におけるリアサイド200b上に配置された露出した電気的な接点が、ベース120の部分122にある対応する電気的ポゴピン線に繋がっている。さらに、本例では、前述したように、磁力によって、マット200のリアサイド200bに沿って配置された対応する鉄材料あるいは磁性材料とを、磁力によって引き寄せ、そして固定(例えば、機械的に)するために、電気的な接点は、ベース120における部分122と、面15との間に位置する隣り合った磁石(複数)によって互いに固定されている。
図3を特に参照すると、プロジェクターユニット180は、アウターハウジング182と、ハウジング182の中に配置されたプロジェクターアッセンブリー184とを含んでいる。ハウジング182は、第1端又は上端182aと、上端182aの反対側の第2端又は下端182bと、インナーキャビティー183とを含んでいる。本実施例においては、ハウジング182はさらに、稼働している間、デバイス150に繋がり、サポートするために、連結部材又は装着部材186を含んでいる。一般に、部材186は、ここに開示された原理に従っている間は、コンピューターデバイス(例えばデバイス150)を吊るされ及びサポートするための何か適切な部材又はデバイスであってもよい。例えば、いくつかの態様において、部材186は、ユーザー(図示せず)が最上の視認角度を達成できるように、デバイス150を回転軸上で回転できるような回転軸を含むヒンジで構成されていてもよい。さらに、いくつかの例において、デバイス150は永久的に、又は半永久的にユニット180におけるハウジング182に取り付けられている。例えば、いくつかの例において、ハウジング180及びデバイス150は一体にあるいはモノリシックに形成された単一のユニットとして形成されている。
従って、図4を詳細に参照し、デバイス150が構造110からハウジング182上の装着部材186を介して吊るされたとき、デバイス150における前面150c上に配置されたディスプレー152にほぼ対面する視認面又は視認角度からシステム100を見た場合、プロジェクターユニット180(すなわちハウジング182とアッセンブリー184の両方)は、ほぼデバイス150の後ろに隠される。さらに、また図4に示すようにデバイス150が説明した方式で構造110から吊るされているとき、プロジェクターユニット180(すなわちハウジング182及びアッセンブリー184)及びそこに投影された何らかのイメージは、デバイス150における中心線155に対してほぼ整列あるいは中心に合わされている。
プロジェクターアッセンブリー184は一般に、ハウジング182のキャビティー183内に配置され、また、第1端又は上端184aと、上端184bの反対にある第2端又は下端184bとを含んでいる。上端184aは、ハウジング182の上端182aに最も近く、一方、下端184bはハウジング182の下端182bに最も近い。プロジェクターアッセンブリー184は、コンピューティングデバイス(例えばデバイス150)からデータを受け取り、入力されたデータに対応した1つ又は複数のイメージを投影する(例えば、184aの上端から)、何か適切なデジタルライトプロジェクターアッセンブリーでもよい。例えば、いくつかの実施例においては、プロジェクターアッセンブリー184は、デジタルライトプロセッシング(DLP)プロジェクター(digital light processing projector)、又は、エルコス(LCoS:liquid crystal on silicon(登録商標))で構成されている。これはコンパクトで、出力が効果的な投影エンジンであり、例えば、標準XGA(1024×768)の解像度でアスペクト比4:3、又は、WXGA(1280×800)の解像度でアスペクト比16:10といった複数のディスプレー解像度及びサイズを許容する。プロジェクターアッセンブリー184はさらに、稼働中に、端184aからの光とイメージを作るためのデータを受信するためにデバイス150に電気的に連結される。ここに開示された原理に従って、プロジェクターアッセンブリー184は、何らかの適したタイプの電気的連結によってデバイス150に電気的に連結されていてもよい。例えば、いくつかの実施例においてアッセンブリー184は、導電体、ワイファイ、ブルートゥース(登録商標)、光学的接続、超音波接続、またはこれらのうちいずれかの組み合わせを介してデバイス150に電気的に連結している。本例では、デバイス150は、デバイス150は構造110から部材186を介して吊り下げられたような装着部材186内に配置された(前述の)電気的リード又は導電体と、デバイス150上の部材186内に配置した、対応して接触する電気的リード又は導電体を介してアッセンブリー184に連結している。
図3をまた参照すると、トップ160はさらに折り返しミラー162及びセンサー束164を含んでいる。ミラー162は、トップ160における底面160dに沿って配置された高反射面162aを含んでおり、また稼動時において、プロジェクターアッセンブリー184の上端184aから投影されたイメージあるいは光をマット200に向けて反射するように位置している。ここに開示された原理に従って、ミラー162は何らかの適したタイプのミラー又は反射面で構成してもよい。本例においては、折り返しミラー162は、アッセンブリー184から発された光を屈折させてマット200に投下するように作用する標準の前面真空金属化アルミニウムコートガラスミラー(front surface vacuum metalized aluminum coated glass mirror)で構成されている。その他の例においては、ミラー162は、付加的な焦点調整力又は光学補正を提供するために、反射レンズ要素として作用するよう、複雑な非球面カーブを有することもできる。
センサー束164は、稼働中にマット200上又はその近くで生じる様々なパラメーターを測定あるいは検知するために、複数のセンサーあるいはカメラを含んでいる。例えば、図3に描かれた特定の実施例においては、束164は環境光センサー164a、カメラ(例えば、カラーカメラ)164b、深さセンサーカメラ164c、三次元(3D)ユーザーインターフェースセンサー164dを含む。環境光センサー164aは、システム100を囲む環境における光の強さを測定するために、いくつかの実施例においては、カメラあるいはセンサー(例えばセンサー164a、164b、164c、164d)の露出設定を調整するために、あるいはその他の発光源から、例えば、プロジェクターアッセンブリー184、ディスプレー152等のようなシステムを介して発される光の強度を調整するために配置されている。カメラ164bは、いくつかの例においては、マット200上に配置された物体あるいは文書の静止イメージ又はビデオを撮るためのカラーカメラで構成されていてもよい。深さセンサー164cは一般に、ワーク面に3Dの物体があることを示す。特に、深さセンサー164cは、稼働時に、マット200上に置かれた物体の存在、形、輪郭、動作、三次元深さ(又は、物体のより詳細な形状)を感知又は検知するものでもよい。従って、いくつかの実施例においては、センサーの視野範囲(FOV:field-of-view)に配置された3D物体、あるいは各ピクセル(赤外線か、色か、その他かにかかわらず)の深さ量を感知又は検知するために、センサー164cは、何らかの適切なセンサー又はカメラ配置を採用してもよい。例えば、いくつかの実施例においては、センサー164cは均一に流れる赤外線光と一緒の単一の赤外線(IR)カメラセンサー、均一に流れる赤外線光と一緒の2重赤外線カメラセンサー、構造深さセンサー技術、飛行時間(TOF:time-of-flight)深さセンサーテクノロジー、又はこれらのうちいくつかの組み合わせで構成されていてもよい。ユーザーインターフェースセンサー164dは、例えば、手、タッチペン(stylus)、ポイントデバイス、等といったような何らかの適切なデバイス又はユーザー入力デバイス(例えばセンサー)を追跡するためのデバイスを含んでいる。いくつかの実施例においては、センサー164dは、ユーザーによってマット200及びマット200における面202について動かされるユーザーインプットデバイス(例えば、タッチペン)を立体視野的に追跡するために配置された1対のカメラを含んでいる。その他の例では、センサー164dはさらに、又は代替的に、ユーザーインプットデバイスによって発光された、又は反射された赤外線を検出するために配置された赤外線カメラ又はセンサーを含んでいる。さらに、束164は、前述したセンサー164a、164b、164c、164dの代わりに、又は付加的に、その他のセンサーあるいはカメラを含んでいてもよいことも認められるべきである。加えて、以下に詳細を説明するように、稼動時、束164内で発生したデータがデバイス150に送信され、また、デバイス150によって発行された指令がセンサー164a、164b、164c、164dに通信できるように、束164内の各センサー164a、164b、164c、164dは、束164に電気的及び通信的に連結されている。システム100のその他の構成を上述して説明したように、何らかの適切な電気的あるいは通信的な連結(例えば、導電体、ワイファイ、ブルートゥース(登録商標)、光学的接続、超音波接続、またはこれらのうちいずれかの組み合わせ)を、センサー束164とデバイス150とを連結するために用いることができる。本例においては、導電体は、前述したように、束164から、トップ160、直立部材140、プロジェクターユニット180を介して、デバイス150の中へと、装着部材186の中に配置されたリードを通って配設されている。
図5及び図6を参照すると、システム100を稼働している間、光187がプロジェクターアッセンブリー184から発されている、そして、ミラー162でマット200へ反射され、それによってプロジェクターディスプレースペース188にイメージを映す。本例では、スペース188は、長さL188かつ幅W188で定義されるほぼ長方形をしている。いくつかの例においては、長さL188はおよそ16インチであり、一方幅W188はおよそ12インチであってもよい、しかしながら、長さL188及びW188は、ここに開示された原理に従って、その他の値も使うことができることは認識されるべきである。さらに、束164の中のセンサー(例えば、センサー164a、164b、164c、164d)は、少なくともいくつかの例においては、前述したプロジェクターディスプレースペース188と重なる、あるいは一致するセンサースペース168を含んでいる。スペース168は、そこを束164の中のセンサー164が前述した方法でモニターし、あるいは検知するように配置されている領域を定義している。いくつかの例においては、前述したとおり、タッチセンサー面202と、プロジェクターアッセンブリー184と、センサー束164との機能性を有効に統一するために、スペース188及びスペース168は合致するかあるいはマット200の面202に対応している。
図5〜7に参照されるように、いくつかの例においては、デバイス150は、マット200の面202の上にイメージを投影するために、アッセンブリー184を管理する。さらに、デバイス150はまた、イメージをディスプレー152に映してもよい(これは、アッセンブリー184によって面202上に投影されるイメージと同様であっても、同様でなくてもよい)。アッセンブリー184によって投影されるイメージは、デバイス150の中で実行されるソフトウェアによって作られた情報、あるいはイメージであってもよい。ユーザー(図示せず)は、マット200のタッチセンサー面202への物理的な作用によって、面202及びディスプレー152に映されたイメージと相互作用を行うことができる。このような相互作用は、ユーザーの手35による直接的な接触、又は、スタイラス25やその他の適切なユーザーインプットデバイスを介して行うことができる。
図7に最もよく示されるように、ユーザーがマット200の面202と接するとき、前述した何らかの電気的な連結方法及びデバイスを介してデバイス150へと届けられる信号が生み出される。一旦、マット200の中で発生した信号を、デバイス150が受信すると、その信号は、面202上に投影されたイメージ、又はディスプレー152上に表示されたイメージ、あるいはその両方に変更を加えるために、プロジェクターアッセンブリー184あるいはディスプレー152に送り戻される出力シグナルを発生させるように、インターナルコンダクター通路153を介して、非一時的なコンピューターで読み取り可能な記憶媒体260と通信するプロセッサー250に送られる。このプロセスの間、ユーザーはまた、ディスプレー152に表示されたイメージに対してタッチセンサー面に触れることにより、あるいはキーボードやマウスといったようなその他のユーザー入力デバイスを介して相互作用を行っていてもよいこともまた認識されるべきである。
加えて、いくつかの例においては、スタイラス25は、さらに、スタイラス25(スタイラス25が面202と触れているかどうかに関わらず)の跡を追い、デバイス150の中に置かれたレシーバー270とワイヤレス信号50を介して通信するために、トランスミッター27を含んでいる。これらの例では、出力信号が発され、アッセンブリー184あるいはディスプレー152に送られてもいいように、レシーバー270によって受信されたスタイラス25のトランスミッター27からの入力はまた、パス153を通ってプロセッサー250へ送られる。
さらに、いくつかの例においては、束164の中に配置されたセンサー(例えば、センサー164a、164b、164c、164d)は、プロセッサー250及びデバイス260によるさらなる処理のために、デバイス150に送られるシステム入力を発生させてもよい。例えば、いくつかの実施例においては、束164の中のセンサーは、ユーザーの手35又はスタイラス25の位置あるいはその有無を検知し、そして、プロセッサー250に送られる入力信号を発生させる。そして、プロセッサー250は、上述した方法で、ディスプレー152あるいはプロジェクターアッセンブリー184へ送られる、対応する出力信号を発生させる。特に、いくつかの実施例においては、束164は、立体視野的にスタイラス(例えばスタイラス25)を追跡するように配置された、一対のカメラ又はセンサーを含む。さらにその他の実施例では、スタイラス25は、赤外線レトロリフレクティブ(retro-reflective)コーティング(例えばペイント)がされた先端26を有しており、従って、赤外線レトロリフレクター(retro-reflector)としてふるまうことができる。そしてさらに、束164(及び、さらに特別なセンサー164c又は164d)は、スタイラス25の先端26で反射した赤外線を検出する、前述した赤外線カメラ又はセンサー含んでいても良く、従って、稼働している間、面202上を横切って動く先端26の位置を追跡する。
結果として、いくつかの例においては、アッセンブリー184によって面202上に投影されたイメージは、第2の又は代替的なタッチセンサーディスプレーをシステム100に提供する。さらに、上述したとおり、束164の中に配置されたセンサー(例えばセンサー164a、164b、164c、164d)の使用を通じて、面202に表示されたイメージとの相互作用はさらに協調される。
さらに図5〜7を参照すると、いくつかの例の稼働中、さらなる使用及びその操作のために、対象物のイメージが面202上に投影されるように、システム100は2次元(2D)の画像をキャプチャーしたり、物理的対象3Dスキャンを作ることができる。とくに、いくつかの例においては、2Dイメージを向上させ、又は、その3Dスキャンを作るために、束164の中のセンサー(例えば、カメラ164b、深さセンサー164c、その他)は、例えば物体40の位置、距離、及び、いくつかの例においては、色を検出するために物体40を面202の上に置くことができる。センサー(例えばセンサー164b、164c)によって集められた情報は、前述したデバイス260と通信するプロセッサー250へ送られる。その後、プロセッサー350は、面202上に物体40のイメージを投影するように、プロジェクターアッセンブリー184を指揮する。いくつかの例においては、アッセンブリー184に指示、面202上に投影されたイメージを発生させるために、ドキュメント又は写真のようなその他の物体はまた、束164の中のセンサーによってスキャンされてもよいことも認識されるべきである。さらに、いくつかの例においては、一旦、物体が束164内のセンサーによってスキャンされると、イメージの背景を任意選択的に、面202の表面に投影された(又はデバイス150におけるディスプレー152上に示された)イメージからデジタル的に除去することができる。従って、いくつかの例においては、ここで示した方式と一貫して、稼働中に、その物にさらなる操作をするために、素早く簡単に物理的物体のデジタルバージョンを作るため、物理的物体のイメージ(例えば物体40)をキャプチャーし、デジタル化し、面202上に表示することができる。
ここで、図8を参照すると、いくつかの例においては、1人又は複数のユーザーの間で共同作業をするために、分割されたデジタルワークスペースを作るためにシステム100を使うこともできる。特に、図8に示す例においては、第1のユーザー300Aは第1システム100Aを使っており、一方第2のユーザー300Bは、第2のシステム100Bを使っている。いくつかの例においては、ユーザー300A及びシステム100Aは、ユーザー300B及びシステム100Bから離れて位置していてもよい。システム100A、100Bは、システム100Aと100Bとの間で、自由に情報あるいはデータを送れるように、例えば、導電体、ワイファイ、ブゥルートゥース(登録商標)、光学的接続、超音波接続、又はこれらのうちいずれかの組み合わせといった適切な接続を介して互いに通信可能に繋がっている。さらに、システム100Aとシステム100とのそれぞれは、前述した、図1〜7で説明したシステム100とほぼ同じである。従って、所定の参照番号の後のA又はBは、参照付けられている特別なコンポーネント又は物体が、それぞれシステム100A、100Bに属していることを示すのみであって、また、このようなコンポーネント又は物体が前述したシステム100の代替的な説明を意味するものではないことを示している。
ユーザー300Aとユーザー300Bの間の共同作業中、物体は、面202Aあるいは面202Bの上にイメージを作るために、前述した方法によってスキャンされるように、面202A又は面202Bの上に置かれていてもよい。特に、いくつかの例においては、ある本350Aがマット200における面202Aの上に部分的に置かれており、前述した方法によって、面202B上にシステム100Bにおけるプロジェクターユニット180Bによって投影されるデジタルイメージを作るために、束164に収納されたセンサー(例えば)によってスキャンされる。ユーザー300Bは、手(又はその他の物体)によって本350Aの特定の特徴を指すことによって、面202B上の投影された本350Aのイメージを相互作用を行うことができる。束164Bの中のセンサー(例えば164b、164c、164d)は、前述した方法でこの相互作用を検知し、そして、ユーザー300Aがユーザー300Bの手330Bが本350Aに直接作用しているところを観られるように、システムにおける面202A上に投影するべく、手300Bのイメージ又はビデオをキャプチャーする。いくつかの例では、システム100Aのプロジェクターユニット180Aはまた、ユーザー300Aが物理的な本350Aを面202Aから移動し面202A上の投影された本350Aと共に作業を継続できるように、面202Aの上に本350Aのイメージを投影することができる。さらに、ユーザー300Aと300Bとのそれぞれの共同作業のしやすさを向上させるために、上述した共同作業がユーザー300A、300B間で行われているとき、ウェブカメラ154Bは、ユーザー300Aの視認のために、システム100Aの面152A上のユーザー300Bにおけるイメージをキャプチャーする一方、ウェブカメラ154Aは、ユーザー300Bの視認のために、システム100Bの面152B上に表示されたユーザー300Aのイメージをキャプチャーする。
また、ユーザー300A、300B間の共同作業の間、ユーザー300A及び300Bの両方が、共同作業しつつ共有するデジタルコンテンツにそれぞれ視聴及び相互作用できるように、ソフトウェアの実行によって150Aあるいはデバイス150Bのどちらかの上に生み出されたデジタルコンテンツを、プロジェクターユニット180A、180Bそれぞれを介して面202A、202Bの両方の上に表示することができる。特に、例示の中では、グラフィック375(すなわちデジタルコンテンツ)は、ユーザー300A、300Bの両方がグラフィック375をシミュレーション的に視聴できるように、面202A、202Bの両方の上に表示される。その後、ユーザー300A、300Bのうちの一人が(この場合はユーザー300A)、ユーザー300A、300Bの両方によって視聴できるように、面202A、202Bの両方の上に投影されるデジタルマーキング378を作るため、スタイラス325を使用して、物理的にグラフィック375に接触する。マーキング378は、前述の方法でグラフィック375の上に作られてもよい。例えば、マーキング378の作成において、スタイラス25は、束164の中に配置されたセンサー(例えば164d)や、トランスミッター27から受信したワイヤレスシグナル50、あるいはスタイラス25とタッチセンサー面202とチップ26との間の直接の接触により検知することができる。これによって、システム100A、100B、ユーザー300A、300Bは、デジタル共同作業ワークスペースを介して、より効果的に情報を共有できる。
説明した方法で、ここに開示された原理に則ったコンピューターシステム100における例の使用を通じて、コンピューティングデバイスに二面スクリーンの性能を提供するために、付加的なタッチセンサーディスプレーはタッチセンサー面(例えば面202)の上に投影されてもよい。さらに、ここに開示された原理に則ったコンピューターシステム100における例の使用を通じて、物理的な物体(例えば物体40)をスキャンすることができ、それによって、コンピューターデバイスのディスプレー面(例えば、ディスプレー152あるいは面202又は両方)上で視認、あるいは操作のための物理的な物体のデジタルバージョンを作る。さらに、ここに開示された原理に則ったコンピューターシステム100における例の使用を通じて、遠隔に位置したユーザー(例えばユーザー300A,300B)のためのデジタル共有ワークステーションを作ることもでき、そこで、物理的コンテンツをスキャンし、デジタル化し、すべての共同ユーザーの間で共有して、そして、デジタルコンテンツあるいは物理対象物とユーザーとの相互作用を、すべての参加者が見えるようにすることができる。
デバイス150はオールインワンコンピューターとして説明しているが、その他の例においては、デバイス150はさらに、例えば、キーボードやマウスといった、さらなる伝統的なユーザーインプットデバイスの使用を採用してもよいということも認識されるべきである。さらに、束164の中のセンサー164a、164b、164c、164dはそれぞれがシングルセンサー又はカメラを表すと説明してきたが、ここに開示された原理に従って、各センサー164a、164b、164c、164dは、それぞれが複数のセンサー又はカメラを含んでいてもよいことも認められるべきである。さらに、トップ160は、ここでは片持ち梁状のトップとして説明してきたが、その他の例においては、ここに開示された原理に従って、トップ160はまた、1点以上で支持されていてもよく、また、従って片持ち梁状でなくてもよいことも認識されるべきである。
上述の議論は、本発明の開示における、原則の説明、及び、ここに開示する様々な実施例を意味している。一旦、上述の開示が十分になされると、当業者に、膨大な変形例及び変更が明示されたこととなる。これは、後述の請求項は、すべてのこのような変形例及び変更を包含すると解釈されることを意味する。
15 サポート面
100 システム
110 サポート構造
120 ベース
120a フロントエンド
140 直立部材
140a 上端
140c フロントサイド
150 コンピューティングデバイス
150a トップサイド
150b ボトムサイド
150c フロントサイド
152 ディスプレー
154 カメラ
155 中心線
160 トップ
160a 近傍端
160b 遠位端
200 マット
200a フロントサイド
200b リアサイド
202 面
205 軸



  1. ベースと、該ベースから上方に延びる直立部材と、該直立部材から外側に延びる片持ち梁トップとを含むサポート構造体と、
    前記直立部材に取り付け可能なプロジェクターユニットと、
    前記プロジェクターユニットに取り付け可能なオールインワンコンピューターと、
    前記オールインワンコンピューターにコミュニケーション可能に接続しているタッチセンサーマットと
    を備えたシステムであって、
    前記片持ち梁トップは、折り返しミラーと、前記オールインワンコンピューターにコミュニケーション可能に接続されたカメラとを含み、
    前記プロジェクターユニットは、前記ミラーにより前記タッチセンサーマット上に反射されるイメージを上方に投影するものである、システム。

  2. 前記プロジェクターユニットは、前記直立部材に結合されており、前記オールインワンコンピューターの視認面から見たときに、前記オールインワンコンピューターにほぼ隠されている、請求項1記載のシステム。

  3. 前記投影されたイメージと前記プロジェクターユニットとは、前記オールインワンコンピューターの中央線に対してほぼ中央にある、請求項1記載のシステム。

  4. 他のシステムと遠隔の共同作業中に、前記オールインワンコンピューターは、前記プロジェクターユニットに前記タッチセンサーマット上にイメージを投影させ、前記投影されたイメージは、デジタルコンテンツ及び前記他のシステムから受け取った物理的物体のイメージを含み、前記オールインワンコンピューターは、前記他のコンピューターからのビデオイメージをその上に表示するためのディスプレーを含む、請求項1記載のシステム。

  5. 前記片持ち梁トップは、複数のカメラを含み、その中の少なくとも1つのカメラは深さ探知に使われ、また少なくとも2つのカメラは立体視野的にスタイラス追跡に使われる、請求項1記載のシステム。

  6. 前記オールインワン コンピューターは、スキャンイメージを作るために前記カメラに前記タッチセンサーマット上の物理的な物体をスキャンさせ、前記タッチセンサーマット上に戻すように前記スャンイメージを前記プロジェクターユニットに投影させるものである、請求項1記載のシステム。

  7. さらに前記タッチセンサーマットと前記オールインワンコンピューターとの間は前記ベースを介した電気的接続を含む、請求項1記載のシステム。

  8. ベースと、該ベースから上方に延びる直立部材と、該直立部材から外側に延び、折り返しミラー及びカメラを有する片持ち梁トップとを含むサポート構造体と、
    前記直立部材に取り付け可能で、前記ミラーで前記ベースの前面に反射するべく、イメージを上方に投影するプロジェクターユニットと、
    前記プロジェクターユニットに取り付け可能なオールインワンコンピューターと
    を備えたシステムであって、
    前記オールインワンコンピューターは、前記カメラをベースの前面の面に置かれた物理的対象物をスキャンさせ、それによってスキャンイメージを作り、そして、前記プロジェクターユニットに前記スキャンイメージを前記ベースの前面の面上に戻すように投影させるものである、システム。

  9. 前記ベースを介して前記オールインワンコンピューターにコミュニケーション可能に結合されたタッチセンサーマットをさらに含む請求項8記載のシステム。

  10. 前記投影されたスキャンされたイメージ及び前記プロジェクターユニットは、前記オールインワンコンピューターに対してほぼ中心にある、請求項8記載のシステム。

  11. 他のシステムとの遠隔共同作業中に、前記オールインワンコンピューターは、前記プロジェクターユニットが共同作業イメージを前記ベースの前面の面上に投影するようにし、前記投影された共同作業イメージは、前記他のシステムから受け取ったデジタルコンテンツと、前記他のシステムから受け取った物理的コンテンツのイメージとを含み、前記オールインワンコンピューターは、前記他のシステムからのビデオイメージを表示するためのディスプレーを含むものである、請求項8記載のシステム。

  12. 前記片持ち梁トップは複数のカメラを含み、そのうち少なくとも1つのカメラは深さ方向探知に使われ、そして、そのうち少なくとも2つのカメラは立体視野的にスタイラス追跡に使われるものである、請求項8記載のシステム。

  13. 前記タッチセンサーマットは赤外線(IR)レトロリフレクターを含むスタイラスと一緒に使うことができ、前記片持ち梁トップは前記スタイラスのIRレトロリフレクターにより、前記スタイラスの位置を探知するための赤外線センサーを含むものである、請求項8記載のシステム。

  14. ベースと、該ベースから上方に延びる直立部材と、該直立部材から外側に延びる片持ち梁トップとを含むサポート構造体と、
    前記直立部材に取り付け可能なプロジェクターユニットと、
    前記プロジェクターユニットに取り付け可能なオールインワンコンピューターと、
    前記オールインワンコンピューターにコミュニケーション可能に接続しているタッチセンサーマットと
    を備えたシステムであって、
    前記片持ち梁トップは、折り返しミラーと、前記オールインワンコンピューターにコミュニケーション可能に接続しているカメラとを含み、
    他のシステムとの遠隔共同作業中に、前記オールインワンコンピューターが、前記プロジェクターユニットが共同作業イメージをタッチセンサーマット上に投影するようにし、
    前記投影された共同作業イメージは、前記他のシステムから受け取った物理的コンテンツのイメージと、デジタルコンテンツとを含み、前記オールインワンコンピューターは、前記他のシステムからのビデオイメージを表示するディスプレーを含み、
    前記投影された共同作業イメージ及びプロジェクターユニットは前記オールインワンコンピューターの中心線に関してほぼ中心にあるものである、システム。

  15. 前記オールインワンコンピューターは、スキャンイメージを作るために前記カメラが、タッチセンサーマット上の物理的対象物をスキャンするようにし、そして、前記プロジェクターユニットが前記スキャンイメージを前記タッチセンサーマット上に投影して戻すようにするものである、請求項14に記載のシステム。

 

 

Patent trol of patentswamp
類似の特許
本発明は、音声コンテンツの試聴方法に関するものであり、さらに詳しくは、音声コンテンツを提供するシステムにおいて使用され、複数の音声コンテンツがリスト形式で表示されるステップと、選択ラインに特定の音声コンテンツが位置するように画面をスクロールするステップと、選択ラインに位置する当該音声コンテンツの音声が再生されるステップと、を含む音声コンテンツの試聴方法において、スクロール中に選択ラインが任意に音声コンテンツを通るだけでも当該音声コンテンツの音声が再生されることを特徴とする音声コンテンツの試聴方法に関する。
本発明の音声コンテンツの試聴方法は、音声コンテンツを提供するシステムにおいて、画面に表示される音声コンテンツ一覧上の複数の音声コンテンツのうち選択ラインに特定の音声コンテンツが位置するように画面をスクロールするとき、選択ラインが任意に音声コンテンツを通るだけでも当該音声コンテンツの音声を聴き取ることができて、所望の音声コンテンツを検索するための検索時間が画期的に短縮され、その試聴方法が非常に簡便であるという効果がある。
システム自身または他のデバイスまたは電子媒体をロック解除するシステムは、所定のハプティック効果を再生し、それに応えてユーザからジェスチャに基づくインタラクション入力を受け取ることにより、ロック解除モードに入る。システムは、インタラクション入力を、格納されている既定のインタラクション入力と比較し、インタラクション入力が、格納されている既定のインタラクション入力と実質的に一致する場合に、ロック解除モードに移行する。
【選択図】図1
モバイルデバイスにおけるターゲットキーワードによって音声アクティブ化変化を制御するための方法が開示される。この方法は、入力サウンドストリームを受信することを含む。入力サウンドストリームがスピーチを示すとき、音声アクティブ化ユニットは、ターゲットキーワードを検出するためにアクティブ化され、少なくとも1つのサウンド特徴が、入力サウンドストリームから抽出される。さらに、この方法は、少なくとも1つのサウンド特徴が非ターゲットキーワードを示すとき、音声アクティブ化ユニットを非アクティブ化することを含む。
電子デバイスにおける機能を起動するためにターゲットキーワードを検出する方法が開示される。方法は、ターゲットキーワードの複数の部分のうちの1つから始まる入力音声を受け取ることを含む。入力音声は、デューティサイクルに基づいて周期的に受け取られ得る。方法は、入力音声から複数の音声特徴を抽出し、ターゲットキーワードの部分に関連付けられた複数の状態についての状態情報を取得する。抽出された音声特徴と状態情報とに基づいて、入力音声がターゲットキーワードとして検出され得る。複数の状態は、所定の数の複数の部分を示す所定の数のエントリ状態を含む。
【選択図】 図8
【解決手段】 例示的な装置および方法は、生体測定による識別に基づいてユーザアクションの帰属先を判定することに関する。例示的な一方法は、共有起動サーフェスに関連付けられたアプリケーションを制御することを目的とするアクションを検出するステップを含む。この方法は、そのアクションを、共有起動サーフェスに関連付けられた生体センサの視野内に位置する身体に関連付けるステップを含む。生体センサからのデータを使用して身体のバイオメトリックアイデンティティを決定し、次いでそのバイオメトリックアイデンティティに応じてアクションの帰属先ユーザを判定する。ユーザに関連付けられたコンテクストがアクセスされ、アクションに関連付けられた動作がそのコンテクストに基づいて選択的に制御される。
【選択図】 図1
再生キューの修正に応じて再生キューに追加されているプレイリストを更新する実施形態が提供される。再生キューは、再生キュー内のアイテムがゾーンによってレンダリングされるようにネットワークメディアシステムのゾーンに関連付けられてもよい。プレイリストは、ゾーンによって再生可能な1つ又は複数のアイテムを含むとともに、再生キューが維持されている場所とは別の場所に記憶される可能性がある。再生キューに含まれるプレイリストの修正に応じて再生キューを更新する実施形態が提供される。場合によっては、プレイリスト又は再生キューを修正するユーザは、修正を行ったときに、当該修正を再生キュー又はプレイリストのそれぞれにも適用するかどうかを促される。
本発明は、家庭内環境において音声コマンドを用いて割り当てられた部屋に位置する家庭用電気機器を制御する方法に関する。この方法は、ユーザによって音声コマンドを受信するステップと、受信された音声コマンドを記録するステップと、記録された音声コマンドをサンプリングし、記録された音声コマンドから特徴を抽出するステップと、音声コマンドの抽出された特徴と特徴リファレンスを比較することによって、特徴リファレンスに関連付けられた部屋ラベルを判定するステップと、部屋ラベルを音声コマンドに割り当てるステップと、割り当てられた部屋に位置する家庭用電気機器を音声コマンドに従って制御するステップと、を含む。
【選択図】図2
多国語情報案内システムは、案内情報を利用者に表示する一つ以上の情報出力装置及び前記情報出力装置と接続されて情報出力装置の要請によって一つ以上の使用言語で作成された案内情報を前記情報出力装置に提供する情報提供サーバを含み、前記情報出力装置は利用者の国籍情報が格納されたRFIDタグから読み出されるか、前記情報提供サーバから送信された利用者の国籍情報に該当する使用言語で作成された案内情報を出力する。
本発明は、近接検知に基づいて再生デバイスのアンプをインテリジェントにアクティブにすることを提供する。再生デバイスがメディアコンテンツを再生していないとき、半アイドル状態であってもよい。再生デバイスの半アイドル状態は、再生デバイスのある他のコンポーネント又はモジュールがアクティブであるが、非アクティブの再生デバイスのアンプを含んでもよい。再生デバイスは、再生デバイスに関連する動作を検出するように構成された近接センサを備えてもよい。動作が検出された場合であって、その動作が再生デバイスにメディアコンテンツを再生させるためおユーザ入力信号であると予想される場合、前もってアンプがアクティブにされることによって、再生デバイスが半アイドル状態からアクティブ状態になってもよい。ある場合では、再生デバイスはメッセージを1つ又は複数の他の再生デバイスに送信することによって、他の再生デバイスをアクティブ状態にしてもよい。
本発明は、ユーザインタフェースを使用して、ネットワークメディアシステム内の一方の再生ゾーンから他方の再生ゾーンへ、再生待ち列を転送するためのものである。インタフェースは、再生ゾーンを示す第1ゾーン表示を提供すると共に、関連する所定の位置に再生可能アイテムの第1グループの第1待ち列表示を提供してもよい。第1待ち列表示の当該関連する所定の位置は、第1再生ゾーンと関連付けられた再生待ち列が再生可能アイテムの第1グループを含むことを示してもよい。インタフェースは、当該関連する所定の位置への第2待ち列表示の移動を示す入力を受信してもよい。それに応答して、第1待ち列表示が当該関連する所定の位置から取り除かれてもよいし、第2待ち列表示が当該関連する所定の位置に提供されてもよい。それによって、再生待ち列が現在第2待ち列表示で示される再生可能アイテムを含む第2グループを含んでいることを示してもよい。
To top