<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">*** apologies for cross-posting ***<br class=""><br class="">Dear colleagues,<br class=""><br class="">We are calling for participation in the 9th Audio/Visual Emotion Challenge and Workshop (AVEC 2019), held as a workshop of ACM Multimedia 2019 in Nice, France (October 21). The challenge theme is on State-of-Mind, Depression with AI, and Cross-cultural emotion. For more information, see <a href="https://sites.google.com/view/avec2019/" class="">https://sites.google.com/view/avec2019/</a>.<br class=""><br class="">AVEC 2019 will be the ninth competition event aimed at comparison of multimedia processing and machine learning methods for automatic audio, visual, and audiovisual health and emotion analysis, with all participants competing under strictly the same conditions. <br class=""><br class="">We are calling for teams to participate in three Sub-Challenges:<br class=""><br class=""><b class="">State-of-Mind Sub-Challenge (SoMS)</b><br class="">The AVEC 2019 SoMS is a new task focusing on the continuous adaptation of human state-of-mind (SOM), which is pivotal for mental functioning and behaviour regulation. In the SoMS, self-reported mood (10-point Likert scale), after the narrative of personal stories (two positive and two negative), has to be predicted automatically from audio-visual recordings.<br class=""><br class=""><b class="">Detecting Depression with AI Sub-Challenge (DDS)</b><br class="">The AVEC 2019 DDS is a major extension of the AVEC 2016 DSC, where the level of depression severity (PHQ-8 questionnaire) was assessed from audio-visual recordings of patients interacting with a virtual agent conducting a clinical interview and driven by a human as a Wizard-of-Oz. The corpus contains new recordings with the virtual agent being, this time, wholly driven by artificial intelligence, i.e., without any human intervention. Those new recordings are used as a test partition for the DDS.<br class=""><br class=""><b class="">Cross-cultural Emotion Sub-Challenge (CES)</b><br class="">The AVEC 2019 CES is a major extension of the AVEC 2018 CES, where dimensions of emotion were inferred from audio-visual recordings collected “in-the-wild”, i.e., with standard webcams and at home/work place, in a cross-cultural setting: German culture => Hungarian culture. This dataset now includes data collected from new participants with Chinese culture, which is used as a test set for the AVEC 2019 CES.<br class=""><br class=""><b class="">Challenge Registration</b><br class=""><div class="">In order to participate in the Challenge, please register your team by using this form: <a href="https://forms.gle/QBxJMNA3igYZo61k8" class="">https://forms.gle/QBxJMNA3igYZo61k8</a>.<br class=""><br class=""><b class="">Contributions</b></div><div class="">We encourage contributions aiming at highest performance w.r.t. the baselines provided by the organisers, and contributions aiming at finding new and interesting insights w.r.t. to the topic of these challenges, especially:<br class=""><br class=""> - Audio/Video/Physiological-based Health/Emotion Recognition<br class=""> - Multimodal Representation Learning<br class=""> - Transfer Learning, Semi-supervised and Unsupervised Learning<br class=""> - Personalised Health/Emotion Recognition<br class=""> - Context in Health/Emotion Recognition<br class=""> - Cross-cultural and Holistic Recognition<br class=""> - Multiple Rater Ambiguity and Asynchrony<br class=""><br class=""><div class=""><b class="">Prices</b></div><div class="">The sponsor of the AVEC 2019 Challenge, audEERING GmbH, and his partner Jabra, support the Challenge by offering one headphone to the winner of each Sub-challenge. 1) Detecting Depression with AI Sub-challenge: Jabra Elite 85h, 2) Cross-cultural Emotion Sub-challenge: Jabra Elite Active 65t, 3) State-of-Mind Sub-challenge: Jabra Elite 65t. Prices will be handed to the speaker of the winning contributions during the Workshop. </div><b class=""><div class=""><b class=""><br class=""></b></div>Important Dates</b><br class=""><br class="">Training and development sets available: <br class=""><span class="Apple-tab-span" style="white-space:pre">      </span>April 29, 2019<br class="">Test sets available: <br class=""><span class="Apple-tab-span" style="white-space:pre">  </span>June 11, 2019<br class="">Paper submission: <br class=""><span class="Apple-tab-span" style="white-space:pre">      </span>July 2, 2019 (Anywhere on Earth)<br class="">Notification of acceptance: <br class=""><span class="Apple-tab-span" style="white-space:pre"> </span>August 5, 2019<br class="">Camera ready paper: <br class=""><span class="Apple-tab-span" style="white-space:pre">   </span>August 12, 2019<br class="">Workshop: <br class=""><span class="Apple-tab-span" style="white-space:pre">    </span>October 21, 2019<br class=""><br class="">Kind regards,<br class="">Fabien Ringeval<br class=""><br class="">on behalf of the AVEC 2019 organising committee<br class="">Fabien Ringeval, Björn Schuller, Michel Valstar, Nicholas Cummins, Roddy Cowie, Maja Pantic</div></body></html>