<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p><br>
    </p>
    <div class="moz-forward-container">
      <table class="moz-email-headers-table" cellspacing="0"
        cellpadding="0" border="0">
        <tbody>
          <tr>
            <th valign="BASELINE" nowrap="nowrap" align="RIGHT"><br>
            </th>
            <td><br>
            </td>
          </tr>
          <tr>
            <th valign="BASELINE" nowrap="nowrap" align="RIGHT"><br>
            </th>
            <td><br>
            </td>
          </tr>
          <tr>
            <th valign="BASELINE" nowrap="nowrap" align="RIGHT"><br>
            </th>
            <td><br>
            </td>
          </tr>
          <tr>
            <th valign="BASELINE" nowrap="nowrap" align="RIGHT"><br>
            </th>
            <td><br>
            </td>
          </tr>
        </tbody>
      </table>
      <br>
      <br>
      * Apologies for cross postings *<br>
      <br>
      <br>
===================================================================================================<br>
      Workshop on Cognitive Architectures for Human-Robot Interaction:
      Embodied Models of Situated Natural Language Interactions (MM-Cog)<br>
      May 13th or 14th 2019, in Montreal, Canada<br>
      Paper submission deadline: February 12, 2019<br>
===================================================================================================
      <br>
      <br>
      <br>
      Overview<br>
===================================================================================================<br>
      <br>
      The workshop will take place in conjunction with the International
      Conference on Autonomous Agents and Multiagent Systems (AAMAS
      2019) in Montreal, Canada.<br>
      In many application fields of human-robot interaction, robots need
      to adapt to changing contexts and thus be able to learn tasks from
      non-expert humans through verbal and non-verbal interaction.
      Inspired by human cognition and social interaction, we are
      interested in mechanisms for representation and acquisition,
      memory structures etc., up to full models of socially guided,
      situated, multi-modal language interaction. These models can then
      be used to test theories of human situated multi-modal
      interaction, as well as to inform computational models in this
      area of research.<br>
      <br>
      <br>
      Call for Papers<br>
===================================================================================================<br>
      <br>
       The workshop aims at bringing together linguists, computer
      scientists, cognitive scientists, and psychologists with a
      particular focus on embodied models of situated natural language
      interaction. Workshop submissions should answer at least one of
      the following questions:<br>
      <br>
      * Which kind of data is adequate to develop socially guided models
      of language acquisition, e.g. multi-modal interaction data, audio,
      video, motion tracking, eye tracking, force data (individual or
      joint object manipulation)?<br>
      <br>
      * How should empirical data be collected and preprocessed in order
      to develop socially guided models of language acquisition, e.g.
      collect either human-human or human-robot data?<br>
      <br>
      * Which mechanisms are needed by the artificial system to deal
      with the multi-modal complexity of human interaction. And how to
      combine information transmitted via different modalities - at a
      higher level of abstraction?<br>
      <br>
      * Models of language learning through multi-modal interaction: How
      should semantic representations or mechanisms for language
      acquisition look like to allow an extension through multi-modal
      interaction?<br>
      <br>
      * Based on the above representations, which machine learning
      approaches are best suited to handle the multi-modal, time-varying
      and possibly high dimensional data? How can the system learn
      incrementally in an open-ended fashion?<br>
      <br>
      <br>
      Relevant Topics include (but are not limited to) the following<br>
===================================================================================================<br>
      <br>
      * models of embodied language acquisition<br>
      <br>
      * models of situated natural language interaction<br>
      <br>
      * multi-modal situated interaction data<br>
      <br>
      * individual / joint manipulation & task description data<br>
      <br>
      * multi-modal human-human interaction<br>
      <br>
      * multi-modal human-robot interaction<br>
      <br>
      * acquiring multi-modal semantic representations<br>
      <br>
      * multi-modal reference resolution<br>
      <br>
      * machine learning approaches for multimodal situated interaction<br>
      <br>
      * embodied models of incremental learning<br>
      <br>
      <br>
      Invited Speakers<br>
===================================================================================================<br>
      <br>
      Keynotes will be given by John Laird, Professor at the faculty of
      the Computer Science and Engineering Division of the Electrical
      Engineering and Computer Science Department of the University of
      Michigan, and Chen Yu, Professor at the Computational Cognition
      and Learning Lab at Indiana University.<br>
      <br>
      <br>
      Important Dates<br>
===================================================================================================<br>
      <br>
      Paper submission deadline: February 12, 2019<br>
      <br>
      Notification of acceptance: March 10, 2019<br>
      <br>
      Final version: March 20, 2019<br>
      <br>
      Workshop: May 13 or 14, 2019<br>
      <br>
      Articles should be 4-6 pages, formatted using the AAMAS 2019
      Author's Kit. For each accepted contribution, at least one of the
      authors is required to attend the workshop. Authors are invited to
      submit their manuscripts in PDF.<br>
      <br>
      <br>
      Organizers<br>
===================================================================================================<br>
      Stephanie Gross, Austrian Research Institute for Artificial
      Intelligence, Vienna, Austria<br>
      Brigitte Krenn, Austrian Research Institute for Artificial
      Intelligence, Vienna, Austria<br>
      Matthias Scheutz, Department of Computer Science at Tufts
      University, Massachusetts, USA<br>
      Matthias Hirschmanner, Automation and Control Institute at Vienna
      University of Technology, Vienna, Austria<br>
      <br>
    </div>
  </body>
</html>