Emma
Le W3C est très actif ces derniers temps, autour des technologies vocales. Après le PLS, qui simplifie l’usage du vocal tant en synthèse qu’en reconnaissance, voici, avec l’agréable nom d’Emma, une recommandation pour le multimodal.
Ce Extensible MultiModal Annotation Markup Language, que l’on aimera donc continuer d’appeler EMMA, es un langage évolué de développement d’actions multi-modales incluant les technologies vocales et améliorant les interactions. Cette forme de XML permet d’annoter les données reçues (avec un score de confiance, par exemple) avant de les transmettre à la plate-forme vocale.
L’objectif est de rendre plus accessible les services web, quelque soit l’outil et la forme d’interaction (vocale, stylet …), dépassant les limites du couple clavier / souris habituel.
Loquendo annonce que son serveur MRCP supporte dès à présent le standard EMMA et Daniele Sereno explique que « cela facilitera grandement le développement des applications et encouragera l’innovation tout en améliorant la compétitivité des entreprises ». Loquendo MRCP Server already supports the EMMA standard – enabling your platform to be EMMA compliant, and thereby enhancing the functionalities and interoperability of your speech-enabled and multimodal applications.
C’est le groupe MultiModal Interaction Working Group qui a défini EMMA, vous pouvez retrouver les spécifications ici :
- Yahoo Mobile c’est pour Mars
- Ernst & Young automatise son standard