<!DOCTYPE html>
<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=UTF-8">
  </head>
  <body>
    <p> </p>
    <div class="moz-text-html" lang="x-unicode">
      <p><b>/***************************************************************************************************<br>
          Call for participation: GENEA (Generation and Evaluation of
          Non-verbal Behaviour for Embodied Agents) Workshop 2024 at
          ICMI<br>
          Date: November 4 or 8, 2024<br>
          Location: Crowne Plaza San José Conference Center, San José,
          Costa Rica<br>
          Website: <a
            href="https://genea-workshop.github.io/2024/workshop"
            class="moz-txt-link-freetext">https://genea-workshop.github.io/2024/workshop</a><br>
***************************************************************************************************/<br>
          Important dates<br>
          *********************<br>
          July 8,   2024 - Paper abstract deadline<br>
          July 10, 2024 - Paper submission deadline<br>
          July 31, 2024 - Notification of paper acceptance<br>
          Aug 14, 2024 - Deadline for camera-ready papers<br>
          Nov 4 or 8, 2024 - In-person workshop at ICMI<br>
          <br>
          <br>
          Overview<br>
          *********************</b><br>
        GENEA 2024 is the fifth GENEA Workshop and an official workshop
        of ACM ICMI ’24, which will take place in San José, Costa Rica.
        Accepted paper submissions will be included in the adjunct ACM
        ICMI proceedings.<br>
        <br>
        Generating non-verbal behaviours, such as gesticulation, facial
        expressions and gaze, is of great importance for natural
        interaction with embodied agents such as virtual agents and
        social robots. At present, behaviour generation is typically
        powered by rule-based systems, data-driven approaches, and their
        hybrids. For evaluation, both objective and subjective methods
        exist, but their application and validity are frequently a point
        of contention.<br>
        <br>
        This workshop asks, “What will be the behaviour-generation
        methods of the future? And how can we evaluate these methods
        using meaningful objective and subjective metrics?” The aim of
        the workshop is to bring together researchers working on the
        generation and evaluation of non-verbal behaviours for embodied
        agents to discuss the future of this field. To kickstart these
        discussions, we invite all interested researchers to submit a
        paper for presentation at the workshop.<br>
        <br>
        <b><br>
          Paper topics include (but are not limited to) the following<br>
          ********************</b><br>
      </p>
      <ul>
        <li>Automated synthesis of facial expressions, gestures, and
          gaze movements</li>
        <li>Audio- and music-driven nonverbal behaviour synthesis</li>
        <li>Closed-loop nonverbal behaviour generation (from perception
          to action)</li>
        <li>Nonverbal behaviour synthesis in two-party and group
          interactions</li>
        <li>Emotion-driven and stylistic nonverbal behaviour synthesis</li>
        <li>New datasets related to nonverbal behaviour</li>
        <li>Believable nonverbal behaviour synthesis using
          motion-capture and 4D scan data</li>
        <li>Multi-modal nonverbal behaviour synthesis</li>
        <li>Interactive/autonomous nonverbal behavior generation</li>
        <li>LLMs and foundation models in the context of non-verbal
          behaviour synthesis</li>
        <li>Subjective and objective evaluation methods for nonverbal
          behaviour synthesis</li>
        <li>Guidelines for nonverbal behaviours in human-agent
          interaction</li>
      </ul>
      <p><b><br>
          Submission guidelines<br>
          *********************</b><br>
        We will accept <b>long</b> (max 8 pages) and <b>short</b> (max
        4 pages) paper submissions, all in the same double-column ACM
        conference format as used by ICMI (<a
          href="https://icmi.acm.org/2024/guidelines/"
          class="moz-txt-link-freetext">https://icmi.acm.org/2024/guidelines/</a>).
        Pages containing only references do not count toward the page
        limit for any of the paper types. Submissions should be
        formatted for double-blind review made in PDF format through
        OpenReview (<a
href="https://openreview.net/group?id=ACM.org/ICMI/2024/Workshop/GENEA"
          class="moz-txt-link-freetext">https://openreview.net/group?id=ACM.org/ICMI/2024/Workshop/GENEA</a>).
        To encourage authors to make their work reproducible and reward
        the effort that this requires, we have introduced the <a
href="https://genea-workshop.github.io/2024/workshop/#reproducibility-award">GENEA
          Workshop Reproducibility Award</a>.<br>
        <br>
        We will also host an <b>open poster session</b> for advertising
        your late-breaking results and already-published work to the
        community. No paper submission is needed to participate in the
        poster session, and these posters will not be part of any
        proceedings (non archival). Submission guidelines for the poster
        session will be available on the workshop website.<br>
        <b><br>
          Organisers<br>
          ********************************</b><br>
        <b>Youngwoo Yoon</b>, ETRI, South Korea, <a
          class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:youngwoo@etri.re.kr">youngwoo@etri.re.kr</a><br>
        <b>Alice Delbosc</b>, DAVI-Les Humaniseurs, France, <a
          class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:alice.delbosc@lis-lab.fr">alice.delbosc@lis-lab.fr</a><br>
        <b>Gustav Eje Henter</b>, KTH Royal Institute of Technology,
        Sweden, <a
          class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:ghe@kth.se">ghe@kth.se</a><br>
        <b>Taras Kucherenko</b>,<b> </b>SEED, Electronic Arts, Sweden,
        <a class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:tkucherenko@ea.com">tkucherenko@ea.com</a><br>
        <b>Teodor Nikolov</b>, Motorica AI, Sweden, <a
          class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:tnikolov@hotmail.com">tnikolov@hotmail.com</a><br>
        <b>Rajmund Nagy</b>, KTH Royal Institute of Technology, Sweden,
        <a class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:rajmundn@kth.se">rajmundn@kth.se</a><br>
        <br>
        The main contact address of the workshop is: <a
          class="moz-txt-link-abbreviated moz-txt-link-freetext"
          href="mailto:genea-contact@googlegroups.com">genea-contact@googlegroups.com</a><br>
        <br>
        <br>
      </p>
    </div>
  </body>
</html>