Depuis quelques années, l’Intelligence Artificielle (IA) dite générative s’est progressivement imposée dans notre vie personnelle et professionnelle. Cette technologie permet de produire une grande variété de contenus — textes, images, sons, vidéos — à partir d’une consigne écrite, aussi appelée prompt.
Intelligence Artificielle et Accessibilité : les limites de l’automatisation

Pour fonctionner, l’IA s'appuie sur des données collectées numériquement, qu’elle analyse pour générer un contenu en temps réel. Son usage soulève toutefois de nombreuses problématiques d’ordre :
- éthique
- écologique : impact environnemental, dépendance technologique
- sociale : confidentialité des données, véracité de l’information, propriété intellectuelle
Intelligence Artificielle et inclusion
L’Intelligence Artificielle semble aussi présenter des avantages dans des secteurs comme la santé, la recherche, l’innovation et l’automatisation. Qu’en est-il du domaine de l’accessibilité et de l’inclusion ?
Voici une liste non exhaustive de technologie d’assistances rendues possibles par l’IA :
- Communication : sous-titrage automatique, traduction en langue des signes et multilingue, synthèse vocale.
- Accès à l’information : lecture audio, explication de mots difficiles, synthèse et résumés.
- Mobilité : assistant vocal, détection d’obstacles, cannes ou lunettes intelligentes.
- Vision : reconnaissance d’objets, description d’images, lecture de documents imprimés.
- Éducation : contenus pédagogiques adaptés, soutien à la lecture et à l’écriture.
- Accessibilité numérique : adaptation automatique des sites web (taille du texte, contrastes, lecture d’images).
Ces outils présentent des limites, ils produisent et induisent des erreurs par manque de contexte et d'adaptabilité. Par exemple, un sous-titrage peut être faux, une explication de mots inappropriée, un obstacle non détecté, une image mal décrite, etc.

Intelligence Artificielle et Facile A Lire et à Comprendre (FALC)
Qu’est ce que le FALC ?
La méthode Facile à lire et à comprendre (FALC) repose sur un ensemble de règles établies au niveau européen par l’association Inclusion Europe en 2009. Son objectif est de rendre l’information accessible aux personnes ayant une déficience intellectuelle.
Cette approche contribue à renforcer l’autonomie dans les démarches du quotidien (administration, santé, logement, travail...), et bénéficie aussi à d’autres publics : personnes âgées, allophones, dyslexiques, déficients visuels ou présentant des troubles cognitifs. Le FALC s’applique à tous types de contenus : documents officiels, brochures, formulaires, sites web, consignes, notices, contrats, etc.
La rédaction FALC impliquent :
- Des phrases simples et courtes
- Un vocabulaire courant, sans jargon ni sigles
- Une mise en page aérée et structurée
- Des illustrations explicites si besoin
- Une relecture et validation par le public concernée

10 limites de l’IA dans la production de contenus accessibles (et FALC)
Que peut – et surtout ne peut pas – faire l’IA dans une assistance à la rédaction FALC ? L’IA peut aider à reformuler ou structurer un texte, mais elle ne comprend pas le sens, ne connaît pas le public et ne garantit aucunement l’accessibilité du contenu. Son usage nécessite une perception et une expertise humaine à chaque étape du processus : de la conception à la validation.
- L'implication des personnes concernées : Dans tout support concerné par l'accessibilité de l'information, il est indispensable de concerter ou faire tester par le public en situation de handicap. Cela est particulièrement vrai pour le FALC. L'IA ne peut pas réaliser les tests utilisateurs impératifs dans la méthode FALC.
- Absence de contexte social ou culturel : Les textes générés ne prennent pas en compte les différences culturelles, les habitudes de langage ou les enjeux liés à l’inclusion. Certains sous-entendus ou stéréotypes peuvent être reproduits sans discernement.
- Perte de sens : En résumant ou simplifiant un contenu, des informations importantes peuvent être supprimées ou altérées, modifiant ainsi le message initial.
- Illustrations inadaptées : Les images ou pictogrammes générés sont approximatifs ou hors sujet.
- Vocabulaire inadapté : Des mots hors contexte, techniques, vagues ou stigmatisants peuvent être proposés.
- Interprétation approximative des besoins du public : Même contextualisé, les besoins spécifiques du public ne sont pas réellement compris, l’ajustement reste superficiel.
- Mémoire instable et incohérente : Aucune continuité n’est assurée d’un échange à l’autre, avec des risques de contradictions et d’oubli.
- Hallucinations et affirmations trompeuses : Des informations inexactes ou inventées peuvent être générées et formulées avec assurance, sans vérification ni avertissement.
- Biais d’automatisation : Tendance à faire plus confiance aux réponses d’une IA qu’à des sources humaines, même quand ces dernières sont correctes. Le ton familier ou empathique de l’IA crée un lien artificiel avec l’utilisateur, qui réduit d’autant plus sa vigilance. Ce biais renforce la crédibilité perçue du contenu, même en cas d’erreurs.
- Traitement formel du langage : Les mots sont manipulés sans compréhension du contenu, ce qui peut conduire à des ambiguïtés, des contresens ou une perte de cohérence.
Des outils configurés pour rendre l’IA plus fiable
L’Intelligence Artificielle devient plus efficace et fiable lorsqu’elle est intégrée dans des outils conçus ou configurés pour un usage précis, avec des instructions et des règles claires.
Ce cadre permet de limiter les erreurs et d’améliorer la qualité des contenus générés. En d’autres termes, ce n’est pas l’IA elle-même qui devient plus "intelligente", mais l’environnement dans lequel elle est paramétrée, encadrée et limitée par la gouvernance humaine.
Dans le cas du FALC, certains outils ont été développés en tenant compte des règles de simplification, du public visé et des enjeux d’accessibilité. Ce cadrage permet de mieux maîtriser les contenus produits et ainsi d’éviter certaines dérives linguistiques, sociales ou culturelles.
Bien sûr, une réflexion du concepteur et une validation des usagers reste indispensable pour garantir la conformité aux règles FALC. Mais avec une configuration adaptée, l’IA peut permettre de gagner du temps, de suggérer des propositions et de faciliter certaines étapes dans la rédaction de contenus accessibles.
Une technologie utile, si elle est bien encadrée
L’utilité et la valeur de l’IA dépendent des usages que nous en faisons, de notre esprit critique et de notre degré de vigilance face aux dérives sociales et de l’impact environnemental qui en découle.
Dans le cadre de la rédaction FALC, l’IA peut constituer une aide pour amorcer une reformulation, structurer un texte ou proposer des suggestions. Mais celle-ci ne remplacera pas la sensibilité humaine, l’expertise d’un professionnel ou la perception du public concerné.
L’IA seule ne suffit pas à produire des contenus accessibles. Ce sont les solutions construites autour d’elle — avec des règles, des paramètres, des interfaces adaptées et des garde-fous — qui permetteront un usage pertinent et efficace de l’outil.
Quelques exemples d’outils basés sur l’IA conçus pour le FALC
Voici trois outils développés à partir de l’intelligence artificielle pour faciliter la rédaction de contenus en FALC.
Cap’FALC
Développé par l’Unapei, Cap’FALC intègre une IA pour proposer des simplifications de phrases. L’outil propose également un dictionnaire collaboratif et une banque d’images adaptée au contexte FALC.
→ Cap’FALC
FALC’On
Comme un traducteur en ligne classique, cette application permet la conversion rapide et gratuite de textes en version simplifiée, respectant les principes du FALC (vocabulaire simple, phrases courtes, mise en page aérée).
→ FALC’On
Lecture FALCile
Développé par Ludovic Marchand et accessible sur ChatGPT, Lecture FALCile facilite la transcription rapide de contenus pédagogiques en FALC, notamment pour les élèves dyslexiques, allophones ou en difficulté de lecture.