In recent years, remote communication via the metaverse has attracted considerable attention, and researchers are now exploring ways to link not only the VR space visible on a screen but also the physical space in which our bodies reside with the metaverse. Traditionally, the mainstream method has been to provide visual communication through avatars represented as images or robots. However, even if we cannot see someone's appearance, we can perceive their presence through sensations such as their sounds, and vibrations. Therefore, it is conceivable that even in remote communication, it may be possible to convey a sense of presence without relying on visual cues.
This study proposed a method for transmitting presence by seamlessly and immersively connecting virtual and physical spaces through auditory and haptic channels. While multiple users remain in a shared physical space, they can perceive and share the presence of unseen remote users via spatial audio and haptic feedback. Interaction with invisible objects also becomes possible—for instance, several users can pass an unseen ball among themselves. By integrating user-position and head-orientation tracking, participants can move or turn their heads and still feel as if the invisible presence remains fixed at the same location in the physical space. Through the development of a multi-user, physically overlaid metaverse, we aim to foster shared understanding and emotional bonds through eye contact and bodily movement, proposing a vision of the metaverse that flexibly adapts to physical environments without depending on sight.
▶︎ Exhibition at the Mori Art Museum, Roppongi Ambient Avatar - Who Owns the Echo? -
People have long connected through their voices—but now AI also has a “voice.” As the boundary between humans and machines grows increasingly blurred, how much of our dialogue can still be called “human”? If AI and human voices were to share the same identity, where would people draw the line between “human” and “AI”?
At an exhibition held on 22 March 2025, we combined haptics from chairs with spatial sound to spatially present the ‘presence of avatars’ around the participants. We implemented an immersive installation that made it feel as if avatars, a fusion of humans and AI, were actually there, questioning where ‘humanity’ lies in the age of AI.
近年、メタバースを介した遠隔コミュニケーションが注目を集めており、画面の中のVR空間だけでなく、我々の身体が存在する物理空間とメタバースを結ぶ手法が研究されている。従来では、映像やロボットとして表現されるアバターを通じて、視覚的なコミュニケーションを提供する手法が主流である。しかし、私たちは姿が見えなくとも、気配や物音、振動といった感覚を通して「誰かがそこにいる」ことを知覚できる。つまり、メタバースを介した遠隔コミュニケーションにおいても、視覚に頼らずに人の存在感を伝えることができるのではないかと考えられる。
本研究は、聴覚と触覚を用いて仮想空間と物理空間をシームレスかつ没入的に接続することによる存在感の伝送手法を提案する。複数のユーザーが物理空間にいながら、空間音響と触覚フィードバックを通じて目に見えない遠隔ユーザーの存在感を知覚・共有できる。さらに、見えないオブジェクトとのインタラクションが可能となる。例えば、複数のユーザが見えないボールのパス回しが可能となる。ユーザの位置と頭部方向の追跡技術を組み合わせることで、ユーザが移動したり頭を回したりしても、目に見えない存在が常に物理空間の同一位置に存在するよう感じることが可能となる。複数人で共有できる物理空間重畳型メタバースの開発を通じて、アイコンタクトや身体動作を通じた共通認知や感情的つながりの形成を目指し、視覚に依存しない物理空間に柔軟に適応できる新たなメタバースのあり方を提案する。
▶︎六本木・森美術館での展示作品 Ambient Avatar - Who owns the echo? -
人々はこれまで、声を通じてつながってきました。しかし今は、AIにも「声」が存在します。人間と機械の境界がますます曖昧になる中で、私たちの対話のどれほどが「人間らしい」と言えるのでしょうか。もしAIの声と人の声のアイデンティティが一致したら、人はどこまでを「人」、どこからを「AI」と感じ取るのでしょうか。
2025年3月22日に行なった展示では、椅子からの触覚刺激と空間音響を組み合わせ、さらに「アバターの存在感」を体験者の周囲に空間的に提示しました。これにより、人間とAIが融合したアバターがそこに実在しているかのように感じられる没入型インスタレーションを実装し、AI時代における「人間らしさ」がどこに宿るのかを問いかけました。
■Embodied Media Project, Keio Media Design
沈 家宜 Jiayi Shen
辻田 喜琉 Kiryu Tsujita
吉田 貴寿 Takatoshi Yoshida
南澤 孝太 Kouta Minamizawa
■tv asahi, ExMetaClub
山村 風子 Fuko Yamamura
香川 凌也 Ryoya Kagawa
横井 勝 Masaru Yokoi
「マシン・ラブ:ビデオゲーム、AIと現代アート」AIと共に想像と創造の境界をめぐるワークショップ 関連企画