L’iPhone 3Gs à l’épreuve …
Beaucoup a été dit sur l’usage du vocal dans la nouvelle version du smartphone d’Apple, voici un intéressant topo de Mébarek Boudemia, un déficient visuel qui a eu l’occasion de le tester.
En premier lieu, l’interface voiceOver :
Il suffit de toucher n’importe où l’écran de l’iphone et la synthèse nous dit sur quel élément nous sommes. En faisant glisser son doigt, on se déplace d’éléments en éléments énoncé par voiceOver. Si l’élément que nous recherchons est trouvé, il suffit de tapotter deux fois rapidement pour accéder au sous-menu.
Au début je trouvais ça très bien et puis en faisant des essai et me documentant un peu aussi, j’ai découvert qu’on était pas obligé de balader son doigt partout. En fait, si on fait glisser deux doigts de haut en bas ou de bas en haut, la synthèse nous donne la liste de tous les éléments visibles à l’écran selon la direction de notre geste. Dès que l’élément voulu a été prononcé par voiceOver, il suffit de toucher l’écran pour stopper la synthèse. Cette fonction est très pratique lorsqu’on se trouve dans un écran que l’on ne connais pas bien.
Il est fréquent également que tous les éléments d’un menu ne tiennent pas sur l’écran, et donc, il faut pouvoir passer d’un écran à l’autre. De la même façon que précédemment, on glisse de bas en haut ou de haut en bas sur l’écran mais cette fois-ci avec trois doits et là synthèse nous donne la liste des éléments : par exemple : éléments 10 sur 250, 28 sur 250. Cette fonction revient à faire page précédente ou suivante.
Je dois dire que c’est bluffant dans la mesure où tout est très intuitif et que l’on ne se soucie pas de savoir où est une zone de texte, ou un bouton de menu car il suffit de poser son doigt et la lecture du bouton de menu est activée automatiquement. Pour interrompre la synthèse il suffit de poser son doigt n’importe où sur l’écran.
C’est exactement la même chose sur safari, le navigateur internet d’Apple. L’accès à internet est aisé.
Concernant le clavier de saisie pour du texte, SMS, Internet : il suffit de toucher la lettre que l’on souhaite et de tapotter deux fois rapidement pour faire avancer le curseur. La lettre est biensûr énoncée par la synthèse.
Le clavier est très simple puisque les lettres sont disposées en azerty. A mon avis il faut vien connaître son clavier azerty pour éviter de perdre trop de temps. C’est une habitude à prendre mais je trouve ça simple et je peu comprendre que le clavier de saisie puisse en décourager certains.
On procèdera de la même façon pour taper un numéro de téléphone.
VoicieOver est très réactif et la synthèse, en plus du texte, délivre des sons qui nous informent lorsqu’un menu est validé, lorsqu’on atteint le bas de l’écran, lorsqu’on fait glisser ses doigts sur l’écran. Bref, tout ce que Jaws ou Talks (NDLR : les logiciels PC les plus utilisés par les déficients visuels) nous disent de manière automatique, voiceover émet des petits sons très courts afin de ne pas charger la synthèse par des informations que l’on peut obtenir en moins d’une seconde. Ceci à l’avantage d’avoir une synthèse qui ne donne que les informations pertinantes. Pas de blabla !
Lorsqu’on veut passer un appel : deux possibilité, soit on touche (contact) deux fois rapidement et on touche le contact de la liste puis le bouton appel, soit on peut avoir recours à voiceControl qui se déclenche par un bouton physique (le seul sur L’iphone) situé en bas de l’écran et on dit simplement : appeler Jean-Marc, appeler DUPONT. Voice control nous répond : appel Jean-marc, appel DUPONT. La numérotation commence alors.
En bref, il suffit de prononcer le nom ou le prénom d’un contact pour que l’iPhone le compose pour nous. Lorsque un contact a deux numéros de téléphone, il suffit d’ajouter : appeler Jean-Marc travail.
Très pratique ce voicecontrol puisqu’on est pas obligé de réaliser des fiches audio pour chaque contact comme sur les nokia.
Lorsqu’on veut composer un numéro de téléphone : il suffit de dire « appeler : 0 6 0 0 0 0 0 0 0 0 0 0 » et voiceover le compose.
Attention, il faut dicter le numéro chiffre par chiffre, ce qui est un peu agaçant, d’où l’intérêt d’avoir un répertoir bien fourni de manière à simplement donner le nom ou le prénom.
Voicie control est également oppérant dans la fonction ipod de l’iphone et il se comporte eactement comme le Kapten de chez KAPSYS pour ceux qui connaissent. Sinon, on peut se servir de ses doigts.
Je referai un autre point sur l’iphone dans quelque temps mais pour finir, je dirai que le fait de toucher les éléments sur l’écran nous donne la même disposition que les voyants, ce qui nous permet d’aider ou d’être aidé pour indiquer l’endroit précis d’un lien sur l’écran.
Je dirai également que l’autonomie est nettement améliorée avec ce système car lorsqu’on utilise une application ou un site internet plusieurs fois, à force on sait où est placé tel bouton ou tel lien sur l’écran et cela nous permet d’y aller plus vite qu’avec Jaws ou Talks.
Pour finir ce système tactile nous permet de nous faire une image mentale de la disposition d’une application ou d’une page internet et à ce titre je pense que nous allons y gagner beaucoup en rapidité et en efficacité.
Imaginons qu’on puisse sur les PC avoir un écran tactile de 19 pouces équipé d’une telle interface, nous vivrions l’informatique autrement.
Toucher c’est quand même le propre d’un non-voyant mais par contre les non-voyants parkinsonniens s’abstenir !!!
- Spinvox suscite toujours le débat
- Un nouvel algorithme en reconnaissance de la parole ?