Semaine: questo è il nome di un innovativo progetto internazionale che vede coinvolti il Centro tedesco per l’intelligenza artificiale Dfki, l'Imperial College di Londra, l'Università di Parigi 8, l’Università olandese di Twente, l’Università tecnica di Monaco e la Queen’s University di Belfast.
Secondo i promotori dell'iniziativa entro 20 anni sarà possibile dialogare con i computer che si trasformeranno profondamente nell'arco dei prossimi due decenni.
Primo obiettivo del progetto è costruire un sistema chiamato Sensitive Artificial Listener (Sal), in grado di percepire, analizzare e interpretare le espressioni dell'uomo fornendo risposte in base a questi comportamenti non verbali. Tra i grandi cambiamenti in arrivo, uno dei principali riguarderà il modo in cui gli utenti si pongono nei confronti del computer: "oggi - osservano i responsabili del progetto - quando utilizziamo la tecnologia adottiamo uno stile di comunicazione calibrato sulla macchina. In futuro, grazie a progetti come Semaine, svilupperemo tecnologie che permetteranno di dare alla comunicazione fra uomo e macchina una connotazione più umana".
Qui trovate tutte le informazioni su Semaine: http://www.semaine-project.eu/
Per i più esigenti riporto anache la descrizione in inglese del progetto:
"The aim of the SEMAINE project is to build a Sensitive Artificial Listener – a multimodal dialogue system with the social interaction skills needed for a sustained conversation with a human user. The system will emphasise “soft” communication skills, i.e. non-verbal, social and emotional perception, interaction and behaviour capabilities. The Sensitive Artificial Listener paradigm involves only very limited verbal capabilities, but has been shown to be suited for prolonged human-machine interaction. In this paradigm, we will build a real-time, robust interactive system perceiving a human user's facial expression, gaze, and voice, and engaging with the user through an Embodied Conversational Agent's body, face and voice. The agent will exhibit audiovisual listener feedback in real time while the user is speaking, and will take the user's feedback into account while the agent is speaking. The agent will pursue different dialogue strategies depending on the user's state; it will learn to interpret the user's non-verbal behaviour and adapt its own behaviour accordingly".
Credits: l'immagine del post è di Stephanos Neofytidis
1 commento:
Indubbiamente apre visioni e scenari possibili.
Non so che ne sarà del rapporto "dialogico" fra uomo e macchina.
Probabilmente tutto da costruire.
Ciao
Posta un commento