<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=iso-8859-1"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:Aptos;}
/* Style Definitions */
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#467886;
        text-decoration:underline;}
p.MsoPlainText, li.MsoPlainText, div.MsoPlainText
        {mso-style-priority:99;
        mso-style-link:"Nur Text Zchn";
        margin:0cm;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-ligatures:standardcontextual;}
span.NurTextZchn
        {mso-style-name:"Nur Text Zchn";
        mso-style-priority:99;
        mso-style-link:"Nur Text";
        font-family:"Calibri",sans-serif;}
span.E-MailFormatvorlage20
        {mso-style-type:personal-compose;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;
        mso-ligatures:none;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:70.85pt 70.85pt 2.0cm 70.85pt;}
div.WordSection1
        {page:WordSection1;}
--></style></head><body lang=EN-US link="#467886" vlink="#96607D" style='word-wrap:break-word'><div class=WordSection1><p class=MsoPlainText>Dear colleague,<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>We are happy to announce that our Virtual Humans and Crowds in Immersive Environments (VHCIE) workshop will have its 10th anniversary at the IEEE VR (March 21-25, 2026, Daegu, Korea).<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>This year, we are focusing on the topic of multimodal representation of interactions (such as haptic feedback for physical collisions, sound integration, etc.), the responsiveness of virtual humans at both verbal and non-verbal communication levels, and understanding the individual and situational factors affecting social interactions in populated environments.<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>Our 10th edition of VHCIE will feature a panel dedicated to multimodal rendering of virtual humans and crowds. In addition to this, we invite research contributions not only from the VR community but also from fields that contribute to understanding human behavior during social interactions - especially work with potential applications in VR or those exploring how to transition to VR. We also warmly welcome contributions from the intelligent virtual agents (IVA) community, with which we aim to strengthen our connection due to significant overlaps and potential collaboration. This focus is reflected in our topics, committee structure, IPC, and invited keynote. Finally, we explicitly welcome work-in-progress and student projects.<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>Please visit our website: <a href="https://files.inria.fr/vhcie/2026">https://files.inria.fr/vhcie/2026</a> <o:p></o:p></p><p class=MsoPlainText>or see our attached document for details on the topic and submission guidelines.<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>Here are some important dates:<o:p></o:p></p><p class=MsoPlainText>•              December 18th, 2025: Scientific Paper submission<o:p></o:p></p><p class=MsoPlainText>•              January 22nd, 2026: Notification of Scientific Paper acceptance<o:p></o:p></p><p class=MsoPlainText>•              January 30th, 2026:  Camera-ready material to be published in IEEE XPlore<o:p></o:p></p><p class=MsoPlainText>•              February 7th, 2026: Late Breaking Report submission<o:p></o:p></p><p class=MsoPlainText>•              February 14th, 2026: Notification of Late Breaking Report acceptance<o:p></o:p></p><p class=MsoPlainText>•              February 21st, 2026: Camera-ready material to be published on our website<o:p></o:p></p><p class=MsoPlainText>•              March 21st or 22nd, 2026: Half-day onsite workshop<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>Sincerely,<o:p></o:p></p><p class=MsoPlainText>·  Andrea Bönsch, RWTH Aachen University, Germany<o:p></o:p></p><p class=MsoPlainText>·  Mathieu Chollet, University of Glasgow, United Kingdom<o:p></o:p></p><p class=MsoPlainText>·  Anne-Hélène Olivier, University of Rennes 2, France<o:p></o:p></p><p class=MsoPlainText><span lang=DE>·  Julien Pettré, Inria Rennes, France<o:p></o:p></span></p><p class=MsoPlainText><span lang=DE>·  Katja Zibrek, Inria Rennes, France<o:p></o:p></span></p><p class=MsoPlainText>·  Arthur Audrain, Inria Rennes, France<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>--<o:p></o:p></p><p class=MsoPlainText>Dr. Andrea Bönsch<o:p></o:p></p><p class=MsoPlainText>[sie/ihr; she/hers]<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText>RWTH Aachen University<o:p></o:p></p><p class=MsoPlainText>- Visual Computing Institute - Virtual Reality & Immersive Visualization    <o:p></o:p></p><p class=MsoPlainText>- Computer Science Department – LuFG i12 – Deputy Head of LuFG and Social VR Teamlead<o:p></o:p></p><p class=MsoPlainText>- IT Center - Computational Science & Engineering – Co-Head of Division<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p><p class=MsoPlainText> <span lang=DE>Kopernikusstraße 6, 52074 Aachen, Germany<o:p></o:p></span></p><p class=MsoPlainText><span lang=DE> Phone +49 241 80-24922; Fax +49 241 80-6-24922; Mobile +49 170 5650437<o:p></o:p></span></p><p class=MsoPlainText><span lang=DE> </span>Email boensch@vr.rwth-aachen.de<o:p></o:p></p><p class=MsoPlainText> URL www.vr.rwth-aachen.de<o:p></o:p></p><p class=MsoPlainText><o:p> </o:p></p></div></body></html>