<div dir="ltr"><div><br></div><div><b>Call for Papers</b><div dir="ltr"><div style="padding:0px;margin-left:0px;margin-top:0px;overflow:hidden;color:black;font-size:10px;line-height:13px"></div></div><div><b>New submission deadline is July24th!<br></b></div><div><br></div><div>The 1st Workshop on <b>Crossmodal Social Animation </b>(<a href="https://sites.google.com/view/xs-anim/" target="_blank">https://sites.google.com/view/xs-anim/</a>)<b>  </b>is co-located with the International Conference on Computer Vision to held from October 11-17, 2021 in Montreal, Canada (held virtually this year)</div><div><br></div><div>We are in the middle of a revolution for artificial intelligence where new technologies are becoming more interactive (e.g., virtual assistant such Alexa, Google Assistant, Siri, Cortina). The next generation of these interactive technologies is likely to present some embodiment, such as virtual character or social robot. It is essential to better understand the link between human body motion and other communicative channels such as language and speech. This research has the potential to enable more realistic and engaging social interactions, which are central in sharing knowledge, ideas and important parts of successful collaborations and teamwork. Furthermore, it also encourages the study of effective communication by intelligent tutoring systems in classroom settings, empathy in clinical psychology and tools to aid animation generation. It is also a key building block for forging new relationships through self-expression as well as understanding others' emotions and thoughts.<br></div><div><b><br></b></div><div><b>Topics</b></div><div>We are accepting papers in the following broad areas of Crossmodal Social Animation. A more detailed list can be found <a href="https://sites.google.com/view/xs-anim/#h.7wg0x8a1zon0" target="_blank">here</a></div><div><ul><li style="margin-left:15px">Generative animation models<br></li><li style="margin-left:15px">Vision-Language-Speech Grounding<br></li><li style="margin-left:15px">Gesture and Animation Styles<br></li><li style="margin-left:15px">Privacy and ethical issues<br></li><li style="margin-left:15px">Data Efficiency and Resources<br></li><li style="margin-left:15px">Application domains</li></ul></div><div><b><br></b></div><div><b>Submission Guidelines</b></div><div>We are accepting papers for two tracks</div><div><ul><li style="margin-left:15px">Main Track (8 pages): to be included in the ICCV 2021 Workshop Proceedings</li><li style="margin-left:15px">Late Breaking Results (4 pages)</li></ul><div>Submissions are handled through Microsoft CMT: <a href="https://cmt3.research.microsoft.com/XSAnim2021" target="_blank">https://cmt3.research.microsoft.com/XSAnim2021</a>. We will follow the submission guidelines specified by ICCV 2021 which can be found here: <a href="http://iccv2021.thecvf.com/node/4#submission-guidelines" target="_blank">http://iccv2021.thecvf.com/node/4#submission-guidelines</a> </div></div><div><br></div><div><b>Organizing Committee</b></div><div><ul><li style="margin-left:15px"><span class="gmail-il">Chaitanya</span> Ahuja, Carnegie Mellon University, US</li><li style="margin-left:15px">Louis-Philippe Morency, Carnegie Mellon University, US</li><li style="margin-left:15px">Yukiko I. Nakano, Seikei University, Japan</li><li style="margin-left:15px">Ryo Ishii, NTT, Japan</li></ul><div><b>Publication Committee</b></div></div><div><ul><li style="margin-left:15px">Dong Won Lee, Carnegie Mellon University, US</li></ul><div><b>Publication</b></div></div><div>Papers from the Main Track with be included in the workshop proceedings of ICCV 2021.</div><div><b><br></b></div><div><b>Contact</b></div><div><span style="color:rgb(0,0,0);font-family:Arial;font-size:14px;white-space:pre-wrap">Questions regarding submissions of papers should be emailed to <span class="gmail-il">Chaitanya</span> Ahuja (<a href="mailto:cahuja%2Bxsanim2021@andrew.cmu.edu" target="_blank">cahuja+xsanim2021@andrew.cmu.edu</a>)</span><b><br></b></div><div><span style="color:rgb(0,0,0);font-family:Arial;font-size:14px;white-space:pre-wrap"><b><br></b></span></div><div><span style="color:rgb(0,0,0);font-family:Arial;font-size:14px;white-space:pre-wrap"><b>Important Dates</b></span></div><div><font color="#000000" face="Arial"><span style="font-size:14px;white-space:pre-wrap"><u>Main Track</u>
Abstract Submission: <b><strike>July 20, 2021</strike> July 24, 2021</b>
Paper submission: <b>July 24, 2021</b>
Notification of acceptance: <b>August 10, 2021</b>
Camera-ready submission: <b>August 16, 2021</b>
</span></font></div><div><font color="#000000" face="Arial"><span style="font-size:14px;white-space:pre-wrap"><br></span></font></div><div><font color="#000000" face="Arial"><span style="font-size:14px;white-space:pre-wrap"><div><u>Late Breaking Results</u></div><div>Abstract Submission: <b>September 3, 2021</b></div><div>Paper submission: <b>September 7, 2021</b></div><div>Notification of acceptance:<b> September 27, 2021</b></div><div>Camera-ready submission: <b>October 7, 2021</b></div><div><br></div><div><u>Workshop Date</u>: <b>October 16, 2021</b></div><div><b><br></b></div><div>For new updates please check the workshop website: <a href="https://sites.google.com/view/xs-anim/" target="_blank">https://sites.google.com/view/xs-anim/</a></div></span></font></div></div></div>