<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="NL" link="blue" vlink="purple">
<div class="WordSection1">
<p class="MsoNormal"><span lang="EN-US">Call for papers for the 4th international workshop on<o:p></o:p></span></p>
<p class="MsoNormal"><b><span lang="EN-US">Multimodal Analyses enabling Artificial Agents in Human-Machine Interaction (MA3HMI 2018)<o:p></o:p></span></b></p>
<p class="MsoNormal"><span lang="EN-US">In conjunction with ICMI2018.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">October 16th, 2018 in Boulder, USA.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><a href="http://MA3HMI.cogsy.de">http://MA3HMI.cogsy.de</a><o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p></o:p></span></p>
<p class="MsoNormal"><b><span lang="EN-US">Scope:<o:p></o:p></span></b></p>
<p class="MsoNormal"><span lang="EN-US">One of the aims in building multimodal user interfaces and combining them with technical devices is to make the interaction between user and system as natural as possible. The most natural form of interaction may be how
 we interact with other humans. Although technology is still far from human-like, and systems can reflect a wide range of technical solutions. They are often represented as artificial agents to facilitate smooth inter-actions. While the analysis of human-human
 communication has resulted in many insights.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p> </o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Transferring these to human-machine interactions remains challenging especially if multiple possible interlocutors are present in a certain area. This situation requires that multimodal inputs from the main speaker (e.g.,
 speech, gaze, facial expressions) as well as possible co-speaker are recorded and interpreted. This interpretation has to occur at both the semantic and affective levels, including aspects such as the personality, mood, or intentions of the user, anticipating
 the counterpart. These processes have to be performed in real-time in order for the system to respond without delays, in a natural environment.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p> </o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">The MA3HMI workshop aims at bringing together researchers working on the analysis of multimodal data as a means to develop technical devices that can interact with humans. In particular, artificial agents can be regarded
 in their broadest sense, including virtual chat agents, empathic speech interfaces and life-style coaches on a smart-phone. More general, multimodal analyses support any technical system being located in the research area of human-machine interaction. For
 the 2018 edition, we focus on the environment and situation an interaction is situated in extending the investigations on real-time aspects of human-machine interaction. We address the synergy of situation, context, and interaction history in the development
 and evaluation of multimodal, real-time systems.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">We solicit papers that concern the different perspectives of such human-machine interaction. Tools and systems that address real-time conversations with artificial agents and technical systems are also within the scope
 of the workshop.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p></o:p></span></p>
<p class="MsoNormal"><b><span lang="EN-US">Topics (but not limited to):<o:p></o:p></span></b></p>
<p class="MsoNormal"><span lang="EN-US">a) Multimodal Environment Analyses<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Multimodal understanding of situation and environment of natural interactions<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Annotation paradigms for user analyses in natural interactions<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Novel strategies of human-machine interaction in terms of situation and environment<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">b) Multimodal User Analyses<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Multimodal understanding of user behavior and affective state<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Dialogue management using multimodal output<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Multimodal understanding of multiple users behavior and affective<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Annotation paradigms for user analyses in natural interactions<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Novel strategies of human-machine interactions<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">c) Applications, Tools, and Systems<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Novel application domains and embodied interaction<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Prototype development and uptake of technology<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- User studies with (partial) functional systems<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">- Tools for the recording, annotation and analysis of conversations<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p></o:p></span></p>
<p class="MsoNormal"><b><span lang="EN-US">Important Dates:<o:p></o:p></span></b></p>
<p class="MsoNormal"><span lang="EN-US">Submission Deadline: July 30th, 2018<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Notification of Acceptance: September 10th, 2018<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Camera-ready Deadline: September 15th, 2018<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Workshop Date: October 16th, 2018<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p></o:p></span></p>
<p class="MsoNormal"><b><span lang="EN-US">Submissions:<o:p></o:p></span></b></p>
<p class="MsoNormal"><span lang="EN-US">Prospective authors are invited to submit full papers (8 pages) and short papers (5 pages) in ACM format as specified by ICMI 2018. Accepted papers will be published as post-proceedings in the ACM Digital Library. All
 submissions should be anonymous.<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US"><o:p></o:p></span></p>
<p class="MsoNormal"><b><span lang="EN-US">Organizers:<o:p></o:p></span></b></p>
<p class="MsoNormal"><span lang="EN-US">Ronald Böck, University Magdeburg, Germany<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Francesca Bonin, IBM Research, Ireland<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Nick Campbell, Trinity College Dublin, Ireland<o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-US">Ronald Poppe, Utrecht University, Netherlands<o:p></o:p></span></p>
</div>
</body>
</html>