<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">
********************************************************
<div class=""><br class="">
</div>
<div class="">WITH APOLOGIES FOR MULTIPLE POSTINGS</div>
<div class=""><br class="">
</div>
<div class="">********************************************************</div>
<div class=""><br class="">
</div>
<span class="">First Call for Papers<br class="">
<br class="">
MULTIMODAL CORPORA 2018:<br class="">
Multimodal Data in the Online World</span>
<div class=""><span class=""><br class="">
</span></div>
<div class="">LREC 2018 Workshop<span class=""><br class="">
12 May 2018, Phoenix Seagaia Conference Center, Miyazaki, Japan<br class="">
<br class="">
Introduction<br class="">
=========<br class="">
</span>
<div class=""><span class="">The creation of a multimodal corpus involves the recording, annotation and analysis of several communication modalities such as speech, hand gesture, facial expression, body posture, gaze, etc. An increasing number of research areas
 have transgressed or are in the process of transgressing from focused single modality research to full-fledged multimodality research, and multimodal corpora are becoming a core research asset and an opportunity for interdisciplinary exchange of ideas, concepts
 and data.<br class="">
<br class="">
We are pleased to announce that in 2018, the 12th Workshop on Multimodal Corpora will once again be collocated with LREC.<br class="">
<br class="">
This workshop follows similar events held at LREC 00, 02, 04, 06, 08, 10, ICMI 11, LREC 2012, IVA 2013, LREC 2014, and LREC 2016.  The workshop series has established itself as of the main events for researchers working with multimodal corpora, i.e. corpora involving the
 recording, annotation and analysis of several communication modalities such as speech, hand gesture, facial expression, body posture, gaze, etc. <br class="">
<br class="">
Special theme and topics<br class="">
===================<br class="">
As always, we aim for a wide cross-section of the field of multimodal corpora, with contributions ranging from collection efforts, coding, validation, and analysis methods to tools and applications of multimodal corpora. Success stories of corpora that have provided
 insights into both applied and basic research are welcome, as are presentations of design discussions, methods and tools. This year, to comply with one of the hot topics of the main conference, we would also like to pay special attention to multimodal corpora
 collected and adapted from data occurring online rather than especially created for specific research purposes.<br class="">
<br class="">
In addition to this year’s special theme, other topics to be addressed include, but are not limited to:<br class="">
·      Multimodal corpus collection activities (e.g. direction-giving dialogues, emotional behaviour, human-avatar and human-robot interaction, etc.) and descriptions of existing multimodal resources<br class="">
·      Relations between modalities in human-human interaction and in human-computer or human-robot interaction<br class="">
·      Multimodal interaction in specific scenarios, e.g. group interaction in meetings or games<br class="">
·      Coding schemes for the annotation of multimodal corpora<br class="">
·      Evaluation and validation of multimodal annotations<br class="">
·      Methods, tools, and best practices for the acquisition, creation, management, access, distribution, and use of multimedia and multimodal corpora<br class="">
·      Interoperability between multimodal annotation tools (exchange formats, conversion tools, standardization)<br class="">
·      Collaborative coding<br class="">
·      Metadata descriptions of multimodal corpora<br class="">
·      Automatic annotation, based e.g. on motion capture or image processing, and its integration with manual annotations<br class="">
·      Corpus-based design of multimodal and multimedia systems, in particular systems that involve human-like modalities either in input (Virtual Reality, motion capture, etc.) and output (virtual characters)<br class="">
·      Automated multimodal fusion and/or generation (e.g., coordinated speech, gaze, gesture, facial expressions)<br class="">
·      Machine learning applied to multimodal data<br class="">
·      Multimodal dialogue modelling<br class="">
<br class="">
Programme<br class="">
=========<br class="">
The workshop will consist primarily of paper and poster presentations. In addition, we want to start discussing a shared task involving multimodal corpus development and/or use for predicting communication behaviour. Therefore, prior to the workshop, participants
 will be asked to submit ideas for such a shared task. The goal is for the task to be launched next time the workshop is held.<br class="">
<br class="">
There will also be one or two keynote speakers.<br class="">
<br class="">
Important dates<br class="">
============<br class="">
Deadline for paper submission: 12 January</span></div>
<div class=""><span class=""><br class="">
Notification of acceptance: 9 February<br class="">
<br class="">
Final version of accepted paper: 23 February<br class="">
<br class="">
Final program and proceedings: 9 March<br class="">
<br class="">
Workshop: 12 May <br class="">
<br class="">
Submissions<br class="">
==========<br class="">
Submissions should be 4 pages long, must be in English, and follow the LREC’s submission guidelines.<br class="">
<br class="">
Demonstrations of multimodal corpora and related tools are encouraged as well (a demonstration outline of 2 pages can be submitted).<br class="">
<br class="">
Submissions should be made at the following address:<br class="">
<br class="">
 <a href="https://www.softconf.com/lrec2018/MMC2018/" class="">https://www.softconf.com/lrec2018/MMC2018/</a><br class="">
<br class="">
Time schedule and registration fee<br class="">
==========================<br class="">
The workshop will consist of a morning session and an afternoon session.<br class="">
<br class="">
Registration and fees are managed by LREC – see the LREC 2018 website (<a href="http://lrec2018.lrec-conf.org/" class="">http://lrec2018.lrec-conf.org/</a>).<br class="">
<br class="">
Identify, Describe and Share your Language Resources (LRs)!</span></div>
<div class=""><span class="">===============================================<br class="">
<br class="">
Describing your LRs in the LRE Map is now a normal practice in the submission procedure of LREC (introduced in 2010 and adopted by other conferences). To continue the efforts initiated at LREC 2014 about “Sharing LRs” (data, tools, web-services, etc.), authors
 will have the possibility, when submitting a paper, to upload LRs in a special LREC repository. This effort of sharing LRs, linked to the LRE Map for their description, may become a new “regular” feature for conferences in our field, thus contributing to creating
 a common repository where everyone can deposit and share data.<br class="">
<br class="">
As scientific work requires accurate citations of referenced work so as to allow the community to understand the whole context and also replicate the experiments conducted by other researchers, LREC 2018 endorses the need to uniquely Identify LRs through the
 use of the International Standard Language Resource Number (ISLRN, <a href="http://www.islrn.org" class="">www.islrn.org</a>), a Persistent Unique Identifier to be assigned to each Language Resource. The assignment of ISLRNs to LRs cited in LREC papers will
 be offered at submission time.<br class="">
<br class="">
Organizing Committee</span></div>
<div class=""><span class="">=================<br class="">
<br class="">
Patrizia Paggio<br class="">
</span>Centre for Language Technology, Univ. of Copenhagen, Denmark</div>
<div class=""><span class="">Institute of Linguistics and Language Technology, Univ. of Malta, Msida, Malta<br class="">
<br class="">
Kirsten Bergmann<br class="">
Cluster of Excellence in Cognitive Interaction Technology, Univ. Bielefeld, Germany<br class="">
Institute of Cognitive Science, Univ. Osnabrück, Germany<br class="">
<br class="">
Jens Edlund<br class="">
KTH Speech, Music and Hearing, Stockholm, Sweden<br class="">
<br class="">
Dirk Heylen<br class="">
Univ. Twente, Human Media Interaction, Enschede, The Netherlands<br class="">
<br class="">
<br class="">
</span><br class="">
<div class="">
<div class="" style="font-variant-ligatures: normal; font-variant-east-asian: normal; font-variant-position: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; widows: 2; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
<div class="">
<div class="">Patrizia Paggio</div>
<div class=""><br class="">
</div>
<div class="">Senior Researcher</div>
<div class="">University of Copenhagen</div>
<div class="">Centre for Language Technology</div>
<div class=""><a href="mailto:paggio@hum.ku.dk" class="">paggio@hum.ku.dk</a></div>
<div class=""><br class="">
</div>
<div class="">Associate Professor</div>
<div class="">University of Malta</div>
<div class="">Institute of Linguistics and Language Technology</div>
<div class=""><a href="mailto:patrizia.paggio@um.edu.mt" class="">patrizia.paggio@um.edu.mt</a></div>
</div>
</div>
</div>
</div>
</div>
</body>
</html>