<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">With apologies for multiple postings.<div class=""><br class=""></div><div class="">Workshop to be held at the 22nd Nordic Conference on Computational<br class="">Linguistics (NoDaLiDa 2019) Conference, Turku University, Turku,<br class="">Finland, on 30 September 2019.<br class=""><br class=""><a href="https://faces2019workshop.github.io/home/" class="">https://faces2019workshop.github.io/home/</a><br class=""><br class="">Workshop goals<br class="">===============<br class="">The workshop will  provide a forum to present and discuss current<br class="">research focusing on the way human faces are perceived, understood and<br class="">described by humans, as well as the way computational models  represent<br class="">(and therefore ‘understand’) human faces and generate descriptions of<br class="">faces, or facial images corresponding to descriptions, for different<br class="">purposes and applications.<br class=""><br class="">Recent research on multimodal analysis of images and text or the<br class="">generation of image descriptions has focussed on general data sets,<br class="">involving everyday scenes and objects, or on domain-specific data. While<br class="">some of these might contain faces as a subset, we argue that the <br class="">specific challenges associated with faces are not adequately<br class="">represented. Descriptions of faces are frequent in human communication,<br class="">for example when one seeks to identify an individual or distinguish one<br class="">person from another. They are also pervasive in descriptive or narrative<br class="">text. Depending on the context, they may focus on physical attributes,<br class="">or incorporate inferred characteristics and emotional elements.<br class=""><br class="">The ability to adequately model and describe faces is interesting for a<br class="">variety of language technology applications, e.g., conversational agents<br class="">and interactive narrative generation, as well as forensic applications<br class="">in which faces need to be identified or generated from textual or spoken<br class="">descriptions. Such systems would need to process the images associated<br class="">with human faces together with their linguistic descriptions, therefore<br class="">the research needed to develop them is placed at the interface between<br class="">vision and language research, a cross-disciplinary area which has<br class="">received considerable attention in recent years, e.g. through the series<br class="">of workshops on Vision and Language organised by the European Network on<br class="">Integrating Vision and Language (iV&L Net), the 2015–2018 Language and<br class="">Vision Workshops, or recently the Workshop on Shortcomings in Vision and<br class="">Language.<br class=""><br class="">Human faces are being studied by researchers from different research<br class="">communities, including those working with vision and language modeling,<br class="">natural language generation and understanding, cognitive science,<br class="">cognitive psychology, multimodal communication and embodied<br class="">conversational agents. The workshop aims to reach out to all these<br class="">communities to explore the many different aspects of research on human<br class="">faces and foster cross-disciplinary synergy.<br class=""><br class=""><br class="">Relevant topics<br class="">==============<br class="">We are inviting short and long papers of original research, surveys,<br class="">position papers, and demos on relevant topics that include, but are not<br class="">limited to, the following ones:<br class=""><br class="">- Datasets of facial images and descriptions<br class="">- Experimental studies of facial expression understanding by humans<br class="">- Discovery of face descriptions in corpora<br class="">- Automatic structuring of descriptions and semantic web representations<br class="">and databases<br class="">- Algorithms for automatic facial description generation<br class="">- Emotion recognition by humans<br class="">- Emotion recognition, perception and interpretation of face descriptions<br class="">- Multimodal automatic emotion recognition from images and text<br class="">- Subjectivity in face perception<br class="">- Communicative, relational and intentional aspects of head pose and<br class="">eye-gaze<br class="">- Collection and annotation methods for facial descriptions<br class="">- Inferential aspects of facial descriptions<br class="">- Understanding and description of the human face in different contexts,<br class="">including commercial applications, art, forensics, etc.<br class="">- Modelling of the human face and facial expressions for embodied<br class="">conversational agents<br class="">- Generation of facial images from descriptions<br class=""><br class=""><br class="">Important dates<br class="">=============<br class="">Paper submission deadline: July 7<br class="">Notification of acceptance: July 25<br class="">Camera ready Papers: September 1<br class="">Workshop Schedule: September 18<br class="">Workshop: September 30 (half day) <br class=""><br class=""><br class="">Submission guidelines<br class="">===================<br class="">Submission URL: <a href="https://easychair.org/conferences/?conf=faces2019" class="">https://easychair.org/conferences/?conf=faces2019</a><br class=""><br class="">Short paper submissions may consist of up to 4 pages of content, while<br class="">long papers may have up to 8 pages of content. References do not count<br class="">towards these page limits.<br class=""><br class="">All submissions must follow the NoDaLiDa 2019 style files, which are<br class="">available for LaTeX (preferred) and MS Word and can be retrieved from<br class="">the following address:<br class=""><br class=""><a href="http://www.nodalida2019.org/authorkit.zip" class="">http://www.nodalida2019.org/authorkit.zip</a><br class=""><br class="">Submissions must be anonymous, i.e. not reveal author(s) on the title<br class="">page or through self-references. Papers must be submitted digitally, in<br class="">PDF, and uploaded through the online submission system. The authors of<br class="">accepted papers will be required to submit a camera-ready version to be<br class="">included in the final proceedings. Authors of accepted papers will be<br class="">notified after the notification of acceptance with further details.<br class=""><br class="">Accepted papers will be published in the ACL Anthology<br class=""><a href="https://aclanthology.info" class="">https://aclanthology.info</a>.<br class=""><br class=""> <br class="">Organisers<br class="">===========<br class="">Patrizia Paggio, University of Copenhagen and University of Malta<br class="">Albert Gatt, University of Malta<br class="">Roman Klinger, University of Stuttgart<br class=""><br class=""><br class="">Programme committee<br class="">====================<br class="">Adrian Muscat, University of Malta<br class="">Andreas Hotho, University of Würzburg<br class="">Andrew Hendrickson, Tilburg University<br class="">Anja Belz, University of Brighton<br class="">Costanza Navarretta, CST, University of Copenhagen<br class="">David Hogg, University of Leeds<br class="">Diego Frassinelli, University of Stuttgart<br class="">Emiel van Miltenburg, Tilburg University and VU Amsterdam<br class="">Francesca D’Errico, Roma Tre University<br class="">Gerard de Melo, Rutgers University<br class="">Gholamreza Anbarjafari, University of Tartu<br class="">Isabella Poggi, Roma Tre University<br class="">Jan Snajder, University of Zagreb<br class="">Jordi Gonzalez, Universitat Autònoma de Barcelona<br class="">Lonneke van der Plas, University of Malta</div><span class=""><div class="">Michael Tarr, Carnegie Mellon University</div>Paul Buitelaar, National University of Ireland, Galway<br class="">Raffaella Bernardi, CiMEC Trento<br class="">Sebastian Padó, University of Stuttgart<br class="">Spandana Gella, University of Edinburgh</span></body></html>