– « Pièce lumineuse, avec de hautes fenêtres et une grande table au centre. Au fond, il y a un grand miroir et une cheminée. Un ordinateur portable ouvert est posé sur la droite de la cheminée. » La voix de ChatGPT, que Thibaut de Martimprey a activé sur son smartphone, lui donne un aperçu du salon dans lequel il vient d’entrer. Malvoyant, il a simplement pris une photo pour obtenir une description orale quasi instantanée. « Je l’utilise beaucoup au quotidien. C’est intuitif : j’ouvre la caméra et je demande par exemple quelle est la date de péremption d’une boîte de chocolats. »
Le directeur du campus Louis-Braille, un incubateur de start-up consacré à la déficience visuelle, utilise très souvent son téléphone, notamment pour la lecture audio (Voice Over) ou la description de son environnement, grâce à ChatGPT ou Be My Eyes, une application danoise d’intelligence artificielle (IA) téléchargée par 900 000 personnes dans le monde.
« L’appli décrit l’image et répond aux questions qu’on lui pose. Ou bien, on peut appeler un bénévole francophone, en visio pour une aide. Je viens de le faire, pour savoir pourquoi un voyant de ma cafetière clignotait. C’est plus “secure” que ChatGPT, qui fait parfois des erreurs. » Cette application a aussi une vision sélective : lors de sa description, elle n’avait pas repéré la peluche grise posée sur la cheminée.
Canne connectée
« Ces outils sont incroyables, l’enjeu est de faire le tri », estime M. de Martimprey. Le campus Braille, à Paris, accompagne des entreprises qui se lancent dans des innovations technologiques répondant à divers besoins : une canne connectée qui prévient des obstacles, des plans tactiles et vocaux pour se repérer dans un bâtiment, une application de guidage dans les transports, des casques ou tablettes en relief pour suivre des événements sportifs ou bien une ceinture haptique, connectée à une minicaméra accrochée à des lunettes, qui retranscrit par impulsions au niveau des lombaires la perception spatiale de l’environnement. Après huit ans de développement, la ceinture Artha devrait être commercialisée au début de 2026. « Ce projet n’aurait pas été possible sans IA », assure la directrice générale d’Artha France, Alix Pradère.
Le handicap visuel n’est pas le seul secteur à bénéficier de progrès technologiques dans la vie de tous les jours. « L’IA a fait plus pour la surdité que quarante ans de législation », assure Virginie Delalande, conférencière et coach en entreprise. Sourde profonde, elle lit sur les lèvres et s’exprime avec aisance à l’oral, mais cela lui demande beaucoup d’énergie, et elle apprécie de pouvoir compter sur des logiciels de transcription, ou des applications d’accessibilité sur son smartphone. « J’ai sur mon portable une application qui m’envoie un message quand elle reconnaît le bruit de la sonnette ou les aboiements de mon chien. » Autre difficulté récurrente : « Quand on est sourds, le téléphone, c’est très compliqué. Je passe par l’application Rogervoice qui sous-titre les conversations en temps réel et qui est très efficace. »
L’entreprise, créée en 2014, permet aux personnes sourdes et malentendantes de téléphoner, en sous-titrant les appels dans une centaine de langues. « La reconnaissance vocale, qui existe depuis très longtemps, c’est de l’intelligence artificielle. Mais aujourd’hui, elle est arrivée à maturité et elle est époustouflante », explique son fondateur Olivier Jeannel, lui-même malentendant.
Comprendre et interagir
Malgré les progrès considérables de l’IA, la langue des signes reste très compliquée à retranscrire de manière automatique, hormis pour émettre des messages simples. C’est le constat qu’a aussi fait Thibault Duchemin, un ingénieur franco-américain basé en Californie. Il y a dix ans, au début de sa vie professionnelle, le jeune homme entendant, mais issu d’une famille sourde, a cherché à créer un gant pour interpréter en LSF, « mais toutes les solutions ont fait pschitt ». Il se méfie des « effets d’annonce » d’avatars capables de parler en LSF et a préféré concentrer ses recherches sur le sous-titrage de la voix. « On a réussi parce qu’on n’est pas partis de la technologie, mais des besoins. »
Source : – (Le 03 décembre 2025)
Diffusion partielle ou totale interdite sans la mention : Source www.kassataya.com




