1/ Comment avez-vous créé Artha ?
Artha est une invention de Rémi du Charlard. L’idée lui est venue après avoir accompagné des personnes en situation de handicap au ski. Il a alors pris conscience de la difficulté qu’ont les personnes aveugles ou malvoyantes à se représenter leur environnement, et de l’importance de leur redonner une perception du relief, des volumes et des distances.
Pour aller plus loin que les aides existantes, il s’est appuyé sur les travaux pionniers de Paul Bach-y-Rita, chercheur en neurosciences qui a démontré la capacité du cerveau à "voir" autrement, grâce à la neuroplasticité.
Rémi a décidé de pousser ce concept plus loin, en développant une technologie de substitution sensorielle capable de transmettre une perception en relief de l’environnement, et pas simplement une alerte d’obstacle.
C’est ainsi qu’est né Artha, avec une ambition forte : rendre le monde perceptible autrement, avec une vision par le toucher.
2/ À quels publics s’adresse-t-il ?
Artha s’adresse à toutes les personnes aveugles ou malvoyantes, quels que soient leur âge ou leur niveau de perte visuelle.
Il est particulièrement utile pour celles et ceux qui souhaitent se déplacer de manière autonome et en sécurité, mais aussi avec une véritable perception cognitive de leur environnement en 3D. Grâce à la ceinture haptique, Artha ne se contente pas de signaler un obstacle : il transmet une compréhension de la forme, de la distance et de la disposition des éléments dans l’espace.
Cela permet à l’utilisateur de se construire une image mentale précise de son environnement, d’anticiper les situations et d’évoluer avec plus de confiance.
Artha intéresse également les professionnels de la rééducation visuelle, les établissements spécialisés, ou les proches qui souhaitent offrir une aide moderne, respectueuse de l’autonomie.
3/ Comment comptez-vous le faire évoluer ?
Notre logiciel bénéficie de mises à jour régulières, ce qui nous permet d’améliorer en continu les capacités de perception d’Artha. Notre priorité est d’offrir une perception toujours plus fine et contextuelle, par exemple en détectant des éléments comme les nids-de-poule sur les trottoirs ou des escaliers descendants, souvent difficiles à repérer.
Nous intégrons également la lecture vocale grâce à la technologie OCR, pour permettre à l’utilisateur de lire des textes dans son environnement (panneaux, étiquettes, menus…).
Enfin, nous travaillons sur l’ajout de modules d’intelligence artificielle capables de reconnaître des objets ou des scènes du quotidien, comme ce qu’une personne a dans son assiette, afin d’enrichir encore davantage la compréhension du monde qui l’entoure.