Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Technologies et handicap : pourquoi tout le monde est concerné

Au travers des efforts de Google visant à rendre Android et ses services plus facilement utilisables pour les personnes souffrant d'un handicap, voyons ensemble comment les innovations en matière d'accessibilité profitent en réalité à tout le monde, valides comme invalides.

Je suis ce que l'on appelle un homme valide. En d'autres termes, je ne souffre d'aucun handicap particulier : j'ai deux bras et deux jambes fonctionnels, même son de cloche pour mon ouïe et ma vision -- certes limitée -- ne pose pas de vrai problème au quotidien. À ce titre, et malgré quelques efforts de sensibilisation, je n'ai qu'une très maigre connaissance des difficultés rencontrées tous les jours par les personnes ne jouissant pas des mêmes privilèges.

Malgré cela, j'aimerais aborder avec vous la question de la place du handicap dans les nouvelles technologies et surtout l'impact positif que l'innovation peut avoir quand elle tente de s'adresser aux problématiques d'accessibilité.

Je ne me permettrai certainement pas de parler au nom d'une personne en situation de handicap, toutefois j'ai eu l'occasion de discuter avec quatre employés de Google menant des projets destinés à rendre l'usage d'Android et des divers services de la firme plus accessibles. Mes interlocuteurs étaient les suivants :

Avant d'aller plus loin dans notre réflexion, posons un constat avec quelques chiffres. Et dans cette optique, Google s'appuie sur les données communiquées par l'Organisation mondiale de la santé (OMS).

Tout d'abord, notons que l'OMS estime qu'un milliard de personnes sur Terre « présentent une forme ou une autre de handicap », soit 15 % de la population mondiale. Dans le lot, on compte 466 millions d'êtres humains atteints d'une « déficience auditive handicapante ».

De ce fait, une personne sur 15 dans le monde est sourde ou malentendante et on en compterait au total 900 millions à l'horizon 2050.

Voilà pour la base statistique. Vous noterez au passage que mon propos s'est attardé sur les invalidités liées à l'audition. Cela s'explique par le fait que c'est dans ce domaine que les innovations de Google en termes d'accessibilité ont le plus progressé comme nous allons le voir un peu plus bas dans cet article avec le très intéressant projet Euphonia.

Mais avant d'aller plus loin, il était important de montrer que les efforts en termes d'accessibilité ne s'adressaient pas à un public de niche, mais à une frange importante de la population malgré ce que l'on pourrait éventuellement croire de prime abord. Et pour parler de manière extrêmement pragmatique et froide : il s'agit là d'un marché considérable pour Google.

Toujours plus de services d'accessibilité

Sur Android, des services d'accessibilités sont disponibles depuis un certain temps déjà, aussi bien via les paramètres des smartphones que par le biais d'applications à télécharger sur le Play Store. C'est notamment le cas de Voice Access, un service permettant aux personnes à mobilité réduite de naviguer dans l'interface de leurs téléphones simplement en discutant à l'oral avec Google Assistant.

Dans une conversation concernant les personnes sourdes et malentendantes, Brian Kemler nous explique que Google a fait de gros progrès en termes de machine learning et de retranscription de l'oral à l'écrit. On peut faire un rapide tour d'horizon en mentionnant des applications telles que Transcription instantanée (Live Transcribe) et Amplificateur de son (Sound Amplifier).

« Transcription instantanée » couche à l'écrit tout ce qui se dit autour de l'utilisateur malentendant et retranscrit même certains bruits (sifflements, claquements de doigts, bruissement du vent, aboiements...).

Amplificateur de son s'utilise pendant un appel et a pour objectif d'augmenter le son de la voix tout en minimisant les sons parasites alentours. Les personnes atteintes d'une déficience auditive peuvent ainsi passer des coups de fil plus facilement.

Lors de la Google I/O 2019, le colosse aux quatre couleurs a aussi présenté Live Caption et Live Relay. La première application permet de retranscrire tous les sons émis par les vidéos ou podcasts que vous lisez avec votre smartphone tandis que la seconde fait la même chose, mais pour les appels. À chaque fois, Google a fait jouer son savoir-faire en termes d'apprentissage automatique et d'intelligence artificielle.

Au-delà de cela, Laura D'Aquila a appliqué les solutions de retranscriptions en direct à Google Slides. Ainsi, lors d'une présentation en entreprise ou pendant une conférence, les personnes sourdes et malentendantes ne doivent pas se contenter des simples informations apparaissant sur les diapositives, elles peuvent prendre connaissance des commentaires du présentateur ou de la présentatrice.

Cette fonctionnalité n'est disponible pour le moment qu'en anglais et uniquement sur la version ordinateur de Google Chrome.

Abigail Klein, pour sa part, est affiliée aux projets et services dédiés aux Chromebook et à Google Chrome. Et dans ce cadre-là, elle œuvre, entre autres, à améliorer la reconnaissance d'image sur les sites web pour que les utilisateurs aveugles et malvoyants puissent profiter d'une description plus précise des photos sur des articles de presse ou des réseaux sociaux par exemple.

Des efforts qui profitent à tout le monde

Nous voici désormais bien au fait des efforts de Google en termes d'accessibilité, aussi bien sur Android que sur certains de ses services. D'aucuns ne verront peut-être pas en quoi les avancées dans ce domaine peuvent également profiter aux autres utilisateurs, à celles et ceux qui ne souffrent pas d'un handicap. Il suffit pourtant de comprendre que chaque avancée en termes d'intelligence artificielle fait avancer ce domaine dans son ensemble. Or les services d'accessibilités s'enrichissent aujourd'hui bel et bien grâce à l'IA, ses algorithmes et son apprentissage automatique.

Et il faudrait vivre dans une caverne à l'écart du monde pour ne pas voir que l'IA -- même si ce terme à la mode est parfois utilisé à tort et à travers -- s'immisce progressivement dans chaque appareil technologique que nous utilisons. Très concrètement, les services de transcription peuvent améliorer les applications de traduction et aider plus de personnes valides ou non à communiquer entre elles. Une meilleure reconnaissance d'image ne pourra que profiter à des plateformes telles que Google Photos ou Google Lens.

Et c'est là qu'intervient Euphonia, un projet encore plus ambitieux.

Euphonia : tout le monde peut se faire comprendre

À ce moment là de la conversation, la parole est donnée à Dimitri Kanevsky. Né en ex-URSS, il a perdu l'ouïe à l'âge d'un an puis a appris à parler anglais en lisant l'alphabet cyrillique. En conséquence, quand il s'exprime, le chercheur parle avec une articulation laborieuse, un fort accent russe et, comme il ne s'entend pas parler, le volume de sa voix est très variable et il monte parfois très haut dans les aigus. Vous l'aurez compris, l'homme a une élocution particulièrement atypique. Mais c'est justement sur ce détail que repose tout l'intérêt d'Euphonia.

Comme nous l'avons vu plus haut, les algorithmes d'aujourd'hui sont suffisamment matures et efficaces pour comprendre des discours oraux et les retranscrire en temps réel à l'écrit. Toutefois, toutes ces solutions fonctionnent lorsque la personne qui parle a une élocution relativement classique. Certes, la machine peut interpréter divers accents régionaux, des débits de paroles variés ou des niveaux d'articulation différents, mais on reste toujours dans un cadre assez facile à appréhender pour une IA.

https://www.youtube.com/watch?v=OAdegPmkK-o

Ces technologies ne fonctionnent pas aussi bien quand Dimitri Kanevsky prend la parole. Par son élocution particulière, le chercheur a même du mal à se faire comprendre par un être humain. À titre personnel, en me concentrant, je saisissais le sens global de ses phrases, mais je mentirais si je disais que je comprenais absolument chaque mot prononcé. C'est pourquoi il a initié le projet Euphonia.

Le chercheur a entraîné un algorithme en enregistrant sa voix pendant des dizaines d'heures jusqu'à ce que la machine soit en mesure de comprendre son discours et de le retranscrire en direct sur un écran. Ainsi pour discuter, il n'a pas besoin d'utiliser la langue des signes qui, on l'imagine bien, n'est pas maîtrisée par la grande majorité des personnes qu'il rencontre. Concrètement, l'application Transcription instantanée lui permet d'entendre ce qu'on lui dit, quand Euphonia lui permet de nous faire lire ce que lui dit.

De la surdité à la maladie de Charcot

Plusieurs challenges se posent ici. Certes, Euphonia comprend ce que dit Dimitri Kanevsky, mais d'autres personnes dans d'autres endroits du globe souffrent également d'un handicap les empêchant de se faire comprendre normalement par leur entourage. Or, ces gens-là ne s'expriment pas de la même manière que lui. Le chercheur a simplement montré que son projet était réalisable, maintenant il faut que l'algorithme continue de s'entraîner sur un maximum de modèles. Google invite d'ailleurs les éventuelles personnes concernées à participer à l'amélioration d'Euphonia via un formulaire prévu à cet effet.

On se retrouve ici avec un projet qui peut profiter à bon nombre de personnes sourdes, mais pas que. Comme le souligne Dimitri Kanevsky, Euphonia peut également servir à celles et ceux qui sont touchés par la sclérose latérale amyotrophique -- plus connue sous le nom de maladie de Charcot --, aux victimes d'accidents vasculaires cérébraux ainsi qu'aux gens qui bégaient beaucoup.

D'autre part, le chercheur et la firme de Mountain View veulent faire en sorte que toutes les données d'Euphonia soit stockées en local sur les appareils et non dans le cloud. Cela demande un gros travail de compression des fichiers pour que ces derniers puissent tenir sur nos smartphones ou ordinateurs et donc fonctionner hors connexion. Et là, si Google réussit ce pari, on peut supposer que cela profitera aussi à d'autres applications plus classiques et utilisées par tout le monde. Des ambitions allant dans le même sens ont déjà été annoncées pour une meilleure efficacité de Google Assistant et pour la puce Titan M qui offrira ainsi une meilleure reconnaissance faciale sur le Google Pixel 4.

Comme quoi, tout est vraiment lié.

Communiquer plus, communiquer mieux

On le voit bien, les solutions d'accessibilité ont beaucoup évolué et permettent aujourd'hui de concevoir des mises en application impensables il y a encore quelques années. « J'ai attendu 30 ans avant que les algorithmes deviennent assez puissants pour lancer Euphonia », confie Dimitri Kanevsky. Il y a encore beaucoup de progrès à faire, mais au moins c'est envisageable.

Aux yeux de Brian Kemler, le prochain gros challenge en termes d'accessibilité sera de permettre à nos smartphones de transcrire automatiquement et en direct la langue des signes vers un discours oral et inversement, « mais cela nécessite un nombre phénoménal de données à compiler ».

La réflexion suggérée dans cet article porte sur les efforts de Google en termes d'accessibilité et cela se justifie uniquement par le fait que j'ai pu discuter avec des représentants du géant aux quatre couleurs. Mais il existe évidemment pléthore d'initiatives, lancées par de grosses entreprises ou des associations, poursuivant le même objectif. Google ici n'était qu'un angle d'attaque pour aborder ce vaste sujet.

Il est donc intéressant de voir qu'avec l'avènement du web et des réseaux sociaux, on a eu droit à d'innombrables services nous permettant de plus communiquer. Ici, pour les personnes atteintes de handicaps, il s'agit surtout de mieux communiquer. Si on y arrive, tout le monde en sortira vainqueur.