<div dir="ltr"><div>*** 1st Call for Papers ***</div><div><br></div><div>LREC 2016 Workshop</div><div><br></div><div>Multimodal Corpora:</div><div>Computer vision and language processing</div><div><br></div><div>*** 24 May 2016, Grand Hotel Bernardin Conference Center, Portorož, Slovenia ***</div><div><br></div><div><a href="http://www.multimodal-corpora.org/">http://www.multimodal-corpora.org/</a></div><div><br></div><div>The creation of a multimodal corpus involves the recording, annotation and analysis of several communication modalities such as speech, hand gesture, facial expression, body posture, gaze, etc. An increasing number of research areas have transgressed or are in the process of transgressing from focused single modality research to full-fledged multimodality research, and multimodal corpora are becoming a core research asset and an opportunity for interdisciplinary exchange of ideas, concepts and data.</div><div><br></div><div>We are pleased to announce that in 2016, the 11th Workshop on Multimodal Corpora will once again be collocated with LREC.</div><div><br></div><div>Theme</div><div><br></div><div>As always, we aim for a wide cross-section of the field, with contributions ranging from collection efforts, coding, validation, and analysis methods to tools and applications of multimodal corpora. Success stories of corpora that have provided insights into both applied and basic research are welcome, as are presentations of design discussions, methods and tools. This year, we would also like to pay special attention to the integration of computer vision and language processing techniques – a combination that is becoming increasingly important as the accessible video and speech data increases. The special theme for this instalment of Multimodal Corpora is how processing techniques for vision and language can be combined to manage, search, and process digital content.</div><div><br></div><div>This workshop follows previous events held at LREC 00, 02, 04, 06, 08, 10, ICMI 11, LREC 2012, IVA 2013, and LREC 2014. All workshops are documented under <a href="http://www.multimodal-corpora.org">www.multimodal-corpora.org</a> and complemented by a special issue of the Journal of Language Resources and Evaluation which came out in 2008, a state-of-the-art book published by Springer in 2009 and a special issue of the Journal of Multimodal User Interfaces under publication. This year, some of the contributors, along with selected contributors from 2009 up until now, will be invited to submit an extended version for a new publication gathering recent research in the area. </div><div><br></div><div>The LREC'2016 workshop on multimodal corpora will feature a special session on the combination of processing techniques for vision and language.</div><div><br></div><div>Other topics to be addressed include, but are not limited to:</div><div><br></div><div>•<span class="" style="white-space:pre">       </span>Multimodal corpus collection activities (e.g. direction-giving dialogues, emotional behaviour, human-avatar and human-robot interaction, etc.) and descriptions of existing multimodal resources</div><div>•<span class="" style="white-space:pre">        </span>Relations between modalities in human-human interaction and in human-computer interaction</div><div>•<span class="" style="white-space:pre">       </span>Multimodal interaction in specific scenarios, e.g. group interaction in meetings or games </div><div>•<span class="" style="white-space:pre">     </span>Coding schemes for the annotation of multimodal corpora</div><div>•<span class="" style="white-space:pre"> </span>Evaluation and validation of multimodal annotations</div><div>•<span class="" style="white-space:pre">     </span>Methods, tools, and best practices for the acquisition, creation, management, access, distribution, and use of multimedia and multimodal corpora</div><div>•<span class="" style="white-space:pre">        </span>Interoperability between multimodal annotation tools (exchange formats, conversion tools, standardization)</div><div>•<span class="" style="white-space:pre">      </span>Collaborative coding</div><div>•<span class="" style="white-space:pre">    </span>Metadata descriptions of multimodal corpora</div><div>•<span class="" style="white-space:pre">     </span>Automatic annotation, based e.g. on motion capture or image processing, and its integration with manual annotations</div><div>•<span class="" style="white-space:pre">     </span>Corpus-based design of multimodal and multimedia systems, in particular systems that involve human-like modalities either in input (Virtual Reality, motion capture, etc.) and output (virtual characters)</div><div>•<span class="" style="white-space:pre">      </span>Automated multimodal fusion and/or generation (e.g., coordinated speech, gaze, gesture, facial expressions)</div><div>•<span class="" style="white-space:pre">     </span>Machine learning applied to multimodal data</div><div>•<span class="" style="white-space:pre">     </span>Multimodal dialogue modelling</div><div><br></div><div>Important dates</div><div><br></div><div>•<span class="" style="white-space:pre">   </span>Deadline for paper submission (complete paper): 12 February</div><div>•<span class="" style="white-space:pre">     </span>Notification of acceptance: 20 March</div><div>•<span class="" style="white-space:pre">    </span>Final version of accepted paper: 1 April</div><div>•<span class="" style="white-space:pre">        </span>Final program and proceedings: 2 May</div><div>•<span class="" style="white-space:pre">    </span>Workshop: 24 May</div><div><br></div><div>Submissions</div><div><br></div><div>The workshop will consist primarily of paper presentations and discussion/working sessions. Submissions should be 4 pages long, must be in English, and follow the LREC’s submission guidelines. </div><div>Demonstrations of multimodal corpora and related tools are encouraged as well (a demonstration outline of 2 pages can be submitted).</div><div><br></div><div>Submissions are made at <a href="https://www.softconf.com/lrec2016/MMC2016/">https://www.softconf.com/lrec2016/MMC2016/</a>.</div><div><br></div><div>Time schedule and registration fee</div><div>The workshop will consist of a morning session and an afternoon session. There will be time for collective discussions.</div><div>Registration and fees are managed by LREC – see the LREC 2016 website (<a href="http://lrec2016.lrec-conf.org/">http://lrec2016.lrec-conf.org/</a>).</div><div><br></div><div>Organizing committee</div><div><br></div><div>Jens Edlund, KTH Royal Institute of Technology, Sweden</div><div>Dirk Heylen, University of Twente, The Netherlands</div><div>Patrizia Paggio, University of Copenhagen, Denmark/University of Malta, Malta</div><div><br></div></div>