AI agentica e accessibilità: come gli agenti che controllano il computer stanno cambiando tutto

Tabella dei Contenuti

Ho una disabilità visiva. Un agente AI controlla il mio computer. Ci gioco persino a Football Manager.

Parlo di quello che faccio ogni giorno, da mesi. Zero teoria, zero scenari da convegno.

Uso Claude Code, un agente AI che vede il mio schermo, muove il mouse, clicca, digita, naviga siti web e applicazioni al posto mio. Compila form, gestisce file, apre programmi, risponde alle email. E da qualche settimana, ci gioco anche a Football Manager 2026: un gioco che non ha mai avuto il minimo supporto per screen reader, un gioco fatto di tabelle, statistiche, menu annidati, grafici tattici. Un gioco che sulla carta è l’opposto dell’accessibilità. Eppure ci gioco, perché l’agente AI vede lo schermo e me lo racconta.

Questo cambia tutto. L’accessibilità digitale come la conosciamo sta per essere ridisegnata da zero.

Il problema che conosciamo fin troppo bene

La promessa dell’accessibilità digitale è vecchia di trent’anni: ogni sito, ogni app, ogni software deve essere progettato per essere usabile da tutti, comprese le persone con disabilità. Le WCAG (Web Content Accessibility Guidelines) esistono dal 1999. L’European Accessibility Act è in vigore dal giugno 2025. Eppure, nel 2026, la situazione è questa: la gran parte dei siti web resta inaccessibile. I form governativi sono un incubo. I PDF non hanno tag. I CAPTCHA bloccano chi usa uno screen reader. I social media cambiano interfaccia ogni tre settimane e rompono tutto.

Lo screen reader, lo strumento principale di chi non vede per interagire col digitale, funziona leggendo il codice della pagina: il DOM, i tag ARIA, l’HTML semantico. Se il codice è scritto bene, funziona. Se è scritto male (e lo è nella maggioranza dei casi), si blocca. Punto.

Poi sono arrivati gli overlay di accessibilità: widget come AccessiBe che promettevano di rendere qualsiasi sito accessibile con una riga di codice. Oltre 700 professionisti dell’accessibilità hanno firmato un documento pubblico (overlayFactsheet.com) per dire che non funzionano, che sono una soluzione cosmetica, che danno alle aziende l’illusione della compliance senza risolvere nulla.

Lo stato dell’arte, nel 2026, è che chi non vede dipende dalla buona volontà degli sviluppatori. E la buona volontà, da sola, non ha mai risolto un problema sistemico.

Cos’è l’AI agentica e perché cambia le regole

L’AI agentica è un tipo di intelligenza artificiale che va oltre le risposte a domande. Agisce. Vede lo schermo, capisce cosa c’è sopra, e interagisce con le interfacce come farebbe un essere umano: muove il cursore, clicca i pulsanti, digita nei campi di testo, scrolla le pagine, apre i menu.

Esiste già. Diversi strumenti sono operativi.

Computer Use di Anthropic

Lanciato il 23 marzo 2026, permette a Claude di controllare il desktop dell’utente. Vede screenshot, muove il mouse, clicca, digita. Segue una gerarchia: prima prova a usare connettori diretti (Google Calendar, Slack), poi il browser, e solo come ultima risorsa prende il controllo dello schermo intero. Capisce da solo cosa ha davanti, senza configurazione per ogni applicazione.

Funziona sui modelli Opus 4.6 (con un milione di token di contesto e task fino a 14 ore e mezza) e Sonnet 4.6 per le operazioni di routine. Per ora è disponibile solo su macOS, con Windows previsto entro fine anno.

Claude Code

L’interfaccia a riga di comando di Anthropic, già usata da milioni di sviluppatori (è responsabile di circa il 4% dei commit pubblici su GitHub). Funziona nel terminale, il che lo rende nativamente accessibile con qualsiasi screen reader. Può controllare il browser tramite “Claude in Chrome”, gestire file, eseguire comandi, e orchestrare più strumenti contemporaneamente. Supporta il Model Context Protocol (MCP), un protocollo aperto con oltre 400 server creati dalla community che permette di collegare Claude a qualsiasi servizio esterno.

Claude Dispatch

Lanciato il 17 marzo 2026. Permette di mandare istruzioni a Claude dal telefono (dove VoiceOver funziona perfettamente) e farle eseguire sul desktop. Si imposta una cadenza (“ogni mattina”, “ogni venerdì”) e l’agente esegue senza ulteriori prompt. Per chi non vede, il vantaggio è enorme: dal telefono, dove lo screen reader funziona bene, si comandano operazioni sul desktop, dove le interfacce grafiche sono spesso inaccessibili.

OpenAI Operator e Codex

Anche OpenAI si è mossa. Operator, lanciato a inizio 2025, è un agente che controlla il browser, naviga siti, compila form. GPT-5.4, uscito a marzo 2026, ha capacità di computer use. Codex CLI è l’equivalente OpenAI di Claude Code, con oltre 2 milioni di utenti attivi settimanali. Reuters riporta che OpenAI sta lavorando a una “superapp” che unirà ChatGPT, Codex e browser in un unico strumento desktop.

Google e le interfacce adattive

Google ha lanciato le Natively Adaptive Interfaces (NAI): un framework basato su Gemini dove l’interfaccia si adatta automaticamente all’utente. Project Astra è il loro assistente multimodale che vede e interagisce col mondo. Project Mariner naviga il web autonomamente.

Il cambio di paradigma: da supply-side a demand-side

Per trent’anni, l’accessibilità digitale ha funzionato con un modello supply-side: chi produce il software deve renderlo accessibile. Standard, linee guida, leggi, audit, certificazioni. Tutto il peso è sullo sviluppatore.

L’AI agentica introduce un modello demand-side: l’utente ha un intermediario intelligente che può navigare qualsiasi interfaccia al suo posto. L’agente vede lo schermo, e finché ci sono pixel visibili può interpretarli e agire.

Questo è il punto chiave: lo screen reader dipende dalla qualità del markup. L’agente AI dipende solo dai pixel.

Jakob Nielsen, il padre dell’usabilità, ha scritto nel febbraio 2025 un pezzo intitolato “Hello AI Agents: Goodbye UI Design, RIP Accessibility” dove afferma: tradurre un’interfaccia grafica bidimensionale in audio monodimensionale per un utente cieco è una causa persa. La risposta, secondo Nielsen, sta nell’eliminare questa traduzione del tutto: dare all’utente un agente che interpreta l’interfaccia al suo posto.

Il suo modello prevede tre fasi: nella prima (1-2 anni), l’AI fa da intermediario tra l’utente e l’interfaccia. Nella seconda (5 anni), la generative UI crea interfacce personalizzate per ogni utente, ottimizzate per il mezzo (audio per chi non vede, visivo per chi vede). Nella terza (2027-2030), l’agente fa tutto e l’utente non tocca più l’interfaccia.

Le opinioni sono divise. Ci arriveremo. Ma il dato di fondo è questo: per la prima volta, la tecnologia permette a una persona cieca di interagire con qualsiasi interfaccia digitale senza che quella interfaccia sia stata pensata per lei.

Perché la differenza con gli overlay è totale

Il lettore informato potrebbe chiedersi se siamo davanti a una nuova versione degli overlay, un altro strato di tecnologia che promette di risolvere l’accessibilità senza toccare il codice.

La differenza è strutturale.

Un overlay come AccessiBe inietta uno script nella pagina e prova a modificare il codice sottostante. Se il codice è rotto, lo script non sa come aggiustarlo. Dipende dalla qualità del sorgente. Agisce sul sito, per il sito. 700 professionisti dell’accessibilità hanno firmato una petizione pubblica per dire che non funziona.

Un agente AI con computer use opera per conto dell’utente. Vede lo schermo, capisce cosa c’è sopra, e agisce. Gli basta che i pixel siano visibili, come basterebbe a un assistente umano seduto accanto a te.

L’overlay è il rossetto su un maiale. L’agente AI è un assistente competente che sa leggere, cliccare, e seguire le tue istruzioni.

Gli scenari concreti: cosa cambia nella vita di tutti i giorni

Parto da quelli che chiunque può immaginare. Poi arrivo a quelli a cui nessuno sta pensando.

Form, burocrazia, e-commerce

Compilare un modulo INPS, fare un bonifico su un sito bancario con l’interfaccia rifatta da poco, completare un checkout su un e-commerce che ha i pulsanti senza etichetta. Oggi, per chi usa uno screen reader, ognuna di queste operazioni è un campo minato. Con un agente AI, diventa una conversazione: “Compila questo form con i miei dati”, “Fai il bonifico di 200 euro a Mario Rossi”, “Ordina quel prodotto”.

PDF inaccessibili e documenti

Milioni di PDF senza tag, senza struttura, scannerizzati da carta. Lo screen reader non ci fa nulla. L’agente AI li vede, li legge, li interpreta.

CAPTCHA

I CAPTCHA sono nati per bloccare i bot. Hanno finito per bloccare anche le persone cieche. L’agente AI li risolve. C’è un’ironia che merita di essere raccontata: le misure di sicurezza pensate per fermare le macchine ora funzionano meglio con le macchine che con le persone.

Software legacy

Milioni di applicazioni desktop (bancarie, governative, enterprise, gestionali) che non saranno mai adattate per l’accessibilità. Nessuno riscriverà un gestionale degli anni 2000 per renderlo compatibile con VoiceOver. Ma un agente AI può vederlo, capirlo, e usarlo al posto tuo. Da un giorno all’altro.

Social media

Instagram, X, TikTok cambiano interfaccia continuamente. Ogni aggiornamento rompe qualcosa per gli screen reader. Un agente AI non dipende dalla struttura del codice: vede lo schermo. Può pubblicare un post, rispondere a un commento, scrollare il feed, senza che l’app debba essere accessibile.

Strumenti creativi

Photoshop, Premiere, Figma. Strumenti visivi per definizione, costruiti per chi vede. Un agente AI può fare da “occhi e mani”: descrivere cosa c’è sulla tela, applicare filtri su istruzione, posizionare elementi. Per un uso professionale completo siamo ancora indietro, ma la direzione è tracciata.

Task programmati e multi-agente

Con Dispatch, posso impostare un agente che ogni mattina controlla le email, le organizza, risponde a quelle di routine. Con la modalità Co-Work, più agenti lavorano in parallelo: uno compila un form, un altro cerca informazioni, un terzo monitora le notifiche. Tutto senza che io tocchi un’interfaccia.

La frontiera che nessuno vede: il gaming

E qui arriviamo alla parte dell’articolo che mi sta più a cuore, perché la sto vivendo.

Ci sono 23 milioni di videogiocatori ciechi o ipovedenti nel mondo. La gran parte dei giochi mainstream è completamente inaccessibile per loro. Alcuni titoli AAA hanno fatto passi avanti enormi: The Last of Us Part II ha oltre 60 opzioni di accessibilità, Forza Motorsport ha il “Blind Driving Assist” che permette a un cieco di correre usando solo feedback audio spaziale, Diablo IV ha menu navigabili con screen reader. Ma sono eccezioni che richiedono investimenti enormi da parte degli sviluppatori. La regola è l’inaccessibilità.

Football Manager: il mio caso

Football Manager è un gioco di gestione calcistica con tonnellate di dati: classifiche, statistiche, formazioni tattiche, mercato, contratti, report degli scout. Non ha mai avuto il minimo supporto per screen reader. Sul forum ufficiale di Sports Interactive c’è un thread aperto dal 2013, con 78 post di utenti ciechi che chiedono accessibilità. Mai ottenuta.

Io ci sto giocando. Con Claude Code e Computer Use, l’agente vede lo schermo del gioco, mi descrive la situazione (la classifica, la formazione, le statistiche del giocatore, le offerte di mercato), e io do istruzioni: “Cambia il modulo in 4-3-3”, “Offri 15 milioni per quel centrocampista”, “Metti il secondo portiere titolare per la partita di coppa”.

Siamo all’inizio. L’agente a volte sbaglia un click, a volte interpreta male una tabella. Ma funziona. E il fatto che funzioni anche solo parzialmente dimostra qualcosa di enorme: un gioco senza alcuna feature di accessibilità è diventato giocabile grazie a un agente AI che lo vede al posto mio.

Non risulta che esista un altro caso documentato al mondo di un utente cieco che gioca a un titolo complesso come Football Manager tramite un agente AI. La ricerca accademica (GamerAstra, un framework multi-agente pubblicato su arXiv nel giugno 2025) ha dimostrato la fattibilità tecnica. L’esperienza reale, quotidiana, di un giocatore cieco con un gioco mainstream? Questa è nuova.

Perché i giochi a turni sono il terreno ideale

La latenza è il tallone d’Achille dell’AI agentica nel gaming. I modelli cloud introducono ritardi di 500 millisecondi fino a 2 secondi tra la percezione dello schermo e l’azione. Per un gioco d’azione in tempo reale, è troppo. Ma per un gioco a turni come Football Manager, Civilization, XCOM, la latenza non conta. Posso prendermi tutto il tempo che serve per capire la situazione e dare istruzioni.

Gemini Deep Research lo conferma in un report dedicato: i giochi di gestione e strategia a turni sono la categoria più adatta alla mediazione tramite agente AI.

Cosa si muove nell’industria

Microsoft sta portando il Gaming Copilot su Xbox Series X|S nel 2026: un assistente AI attivabile a voce durante il gioco che fa screenshot, estrae testo, e aiuta il giocatore. Ha persino depositato un brevetto per un sistema dove l’AI prende il controllo del gioco quando il giocatore è bloccato. Sony ha un brevetto per un “AI ghost player” che impara dalle clip di YouTube e dai dati PSN. Nintendo ha aggiunto lo screen reader nativo su Switch 2, anche se non funziona ancora nei giochi.

C’è Novis Games, una startup che usa AI e tecnologia Microsoft per aggiungere accessibilità ai giochi per ciechi. C’è GamerAstra, il framework accademico multi-agente. C’è PlayAbility su Steam, che trasforma espressioni facciali e voce in controlli di gioco. C’è RetroArch che usa AI per leggere il testo nei giochi emulati.

Il dato più importante: la community dei gamer ciechi è largamente ottimista. Sui forum come Can I Play That? e nei Discord dedicati, l’AI agentica viene definita un “game-changer”. Con una precisazione costante: è un supplemento, un complemento all’accessibilità nativa.

Il conflitto anti-cheat

C’è un problema che pochi considerano. I sistemi anti-cheat come EasyAntiCheat e BattlEye analizzano i pattern di input per individuare i bot. Un agente AI che muove il mouse e clicca al posto dell’utente produce pattern che possono essere scambiati per cheating. Questo apre una questione etica seria: escludere dai giochi competitivi i giocatori che usano AI assistiva perché il sistema li identifica come cheater è una forma di discriminazione?

Il dibattito tra gli esperti: chi ha ragione?

L’AI agentica come soluzione per l’accessibilità divide la community. Il dibattito è acceso e le posizioni sono molto diverse.

Jakob Nielsen: le WCAG sono superate

Nielsen è il più radicale. Nel suo articolo del febbraio 2025, scrive che gli utenti disabili adotteranno agenti AI entro il 2027 e che l’accessibilità tradizionale diventerà irrilevante. Nota che già a febbraio 2025 il 63% dei siti web riceveva visite da agenti AI. Il suo modello in tre fasi (intermediario, generative UI, agente totale) prevede che entro il 2030 l’interfaccia come la conosciamo sarà superata.

Adrian Roselli: paternalismo tecnologico

Roselli, uno degli esperti di accessibilità più rispettati al mondo, è sulla sponda opposta. Ha definito la visione di Nielsen “an ugly kind of paternalism with a new AI twist”: se l’AI decide che hai una disabilità, ti dà un’esperienza semplificata, diversa da quella degli altri. Chi decide cosa è “appropriato” per te? Ha anche documentato come OpenAI stia chiedendo ai siti di aggiungere tag ARIA per migliorare il funzionamento di ChatGPT Atlas, trasformando uno strumento di accessibilità in un metadato per bot, con il rischio di ripetere i danni del keyword-stuffing SEO.

Léonie Watson: scetticismo pragmatico

Watson, Chair del Board of Directors del W3C e utente cieca di screen reader, pone una domanda secca: se questi strumenti non riescono a produrre un singolo bottone accessibile, come possiamo sperare che creino interfacce completamente personalizzate? Riconosce che gli agenti AI ridurranno il divario nelle piccole operazioni quotidiane, ma avverte che l’AI generativa è un’illusione di competenza.

Aaron Di Blasi: il ponte, la direzione giusta

Di Blasi, presidente di Mind Vault Solutions ed editore di Top Tech Tidbits, ha la posizione che mi convince di più. Scrive che invece di navigare percorsi a ostacoli fatti di pulsanti senza etichetta, form rotti e CAPTCHA, gli utenti potranno esprimere le proprie intenzioni tramite conversazione naturale. Ma aggiunge subito: l’AI è un ponte, e il design accessibile resta il traguardo.

I rischi che elenca sono concreti: microfoni e telecamere sempre accesi, allucinazioni dell’AI in compiti dove l’errore ha conseguenze reali, e una barriera economica da 200 dollari al mese per le funzioni migliori.

La posizione che emerge

Il consenso prevalente tra gli esperti di accessibilità sta in una terza via: le WCAG diventano più importanti, perché l’accessibilità strutturale di un sito serve sia agli screen reader sia agli agenti AI. I siti con HTML semantico pulito, flussi logici, e codice strutturato sono più facilmente navigabili anche dagli agenti. L’incentivo economico si è finalmente allineato con l’incentivo etico: rendere un sito accessibile ora conviene anche a chi vuole che funzioni con l’AI.

I rischi, senza filtri

Un articolo onesto deve parlare anche dei rischi. Alcuni sono gravi.

L’outsourcing dell’accessibilità

Il pericolo numero uno: le aziende smettono di investire nell’accessibilità nativa perché “tanto l’AI ci pensa”. L’argomento è seducente per chi deve tagliare i costi. Ma significa scaricare sulle persone disabili (e sui loro abbonamenti AI) un problema che è responsabilità di chi produce il software.

La barriera economica

Computer Use di Anthropic parte da 20 dollari al mese (piano Pro), le funzioni avanzate arrivano a 200. GPT-5.4 con computer use ha costi simili. Se l’accessibilità dipende da un abbonamento a pagamento, abbiamo creato un sistema dove i più poveri tra i disabili sono anche i più esclusi. L’accessibilità diventa un servizio premium.

Privacy

L’agente AI deve vedere tutto quello che c’è sullo schermo per funzionare. Tutto: password, dati bancari, messaggi privati, cartelle cliniche. Anthropic dichiara che i dati di Cowork sono processati sulla macchina dell’utente, non sui loro server. Ma il tema resta delicato, e va affrontato con trasparenza.

Dipendenza e fragilità

Cosa succede quando l’AI è offline? Quando il servizio ha un’interruzione? Quando il modello sbaglia? Se l’intera esperienza digitale di una persona dipende da un agente cloud, qualsiasi interruzione diventa un blackout di accessibilità. Serve sempre un fallback.

Segregazione digitale

C’è un rischio sottile: creare due esperienze digitali separate. Da una parte, gli utenti vedenti che interagiscono direttamente con le interfacce. Dall’altra, gli utenti disabili che ottengono un’esperienza mediata, filtrata, riassunta dall’AI. Due web diversi. L’uguaglianza per cui ci battiamo è un’altra.

Anti-bot come nuova barriera

CAPTCHA, rate limiting, misure anti-scraping. Tutte tecnologie pensate per bloccare i bot che finiscono per bloccare anche gli agenti AI che le persone disabili usano per navigare. Una nuova forma di esclusione digitale, figlia della stessa logica che ha reso il web inaccessibile in primo luogo.

Il framework per non sbagliare

NTT DATA ha pubblicato nel gennaio 2026 un framework con quattro principi per l’AI agentica applicata alla disabilità che merita di essere conosciuto.

Il primo è l’autonomia: gli obiettivi devono essere definiti dalla persona, inferiti dall’algoritmo in modo trasparente. L’utente deve sempre poter sovrascrivere l’agente e ispezionare i suoi piani. Il secondo è l’accessibilità: l’AI agentica deve integrarsi con le tecnologie assistive. Il terzo è la responsabilità: il comportamento dell’agente ricade su organizzazioni e sviluppatori, sugli utenti disabili. Il quarto è l’agency: le persone disabili devono essere co-designer e co-decisori nello sviluppo di questi strumenti.

Google Research va nella stessa direzione con le Natively Adaptive Interfaces: sistemi agent-driven dove l’interfaccia si adatta dinamicamente all’utente. Il loro prototipo StreetReaderAI permette a un utente cieco di camminare per strada e ricevere descrizioni in tempo reale dell’ambiente, con la possibilità di fare domande contestuali. Il principio dichiarato è “Nothing About Us Without Us”.

L’effetto marciapiede

I tagli nei marciapiedi sono stati pensati per le sedie a rotelle. Li usano tutti: chi spinge un passeggino, chi trascina una valigia, chi va in bicicletta, gli anziani con difficoltà di movimento. L’accessibilità pensata per alcuni ha migliorato la vita di tutti.

Lo stesso accadrà con gli agenti AI. Un agente progettato per navigare un sito al posto di una persona cieca è utile anche per un anziano che non sa usare il computer, per chiunque debba compilare un form incomprensibile, per chi ha un braccio rotto e non può usare il mouse, per chi semplicemente odia perdere tempo su interfacce mal progettate.

L’accessibilità mediata dall’AI è un tema universale. Riguarda tutti.

Cosa cambia per le WCAG

Le WCAG si trasformano.

Resteranno il riferimento per l’interazione diretta tra esseri umani e interfacce. Ma il loro ruolo cambierà: da requisito minimo per l’accessibilità a best practice per la qualità del software. I siti costruiti secondo le WCAG funzioneranno meglio anche con gli agenti AI, perché HTML semantico, label corrette e flussi logici rendono le pagine più facilmente interpretabili sia dagli screen reader sia dagli agenti.

Potrebbe emergere un nuovo set di linee guida: standard per rendere le interfacce “agent-friendly”, accanto alle WCAG per l’accessibilità umana. Perché se milioni di utenti inizieranno a navigare il web tramite agenti AI, i siti che funzionano meglio con gli agenti avranno un vantaggio competitivo.

L’European Accessibility Act è in vigore dal giugno 2025, ma la questione legale è aperta: se un agente AI rende un sito usabile per un utente disabile, quel sito è considerato accessibile ai sensi della legge? La risposta, per ora, è no. La compliance richiede accessibilità nativa. Ma il dibattito è iniziato.

Lo stato reale delle cose: cosa funziona e cosa no

Sarebbe disonesto dipingere un quadro tutto rose. Ecco dove siamo davvero, a marzo 2026.

Quello che funziona: gli agenti AI possono navigare siti web, compilare form, gestire email, organizzare file, interagire con applicazioni desktop, e sì, giocare a giochi a turni. Claude Code nel terminale è completamente accessibile con VoiceOver. Dispatch permette di comandare il desktop dal telefono. Be My Eyes con la Service AI risolve il 90% delle richieste senza intervento umano. Joe McCormick, ingegnere ipovedente, ha costruito tre estensioni Chrome in meno di 25 minuti ciascuna con Claude Code. Su AppleVis, un utente cieco ha comprato un libro su Amazon usando l’assistente Guide senza toccare l’interfaccia.

Quello che non funziona ancora bene: l’affidabilità di Computer Use è intorno al 50% sui task complessi. La simulazione keyboard-only (senza mouse) scende al 42%. Chris Mairs, blogger cieco, scrive che l’accessibilità per i non vedenti nel 2025 “si è a malapena mossa” e che la tecnologia assistiva resta “frustrantemente fragile”. Claude Code stesso ha problemi di accessibilità con gli screen reader: NVDA, JAWS e Narrator si congelano durante l’output in streaming. Su GitHub c’è una issue aperta che chiede un flag `–screen-reader`.

La verità è che siamo in una fase di transizione. La tecnologia c’è, la direzione è chiara, ma la maturità ancora no. Chi oggi si affida solo a un agente AI per l’accessibilità avrebbe un’esperienza inaffidabile. Chi lo usa come complemento allo screen reader, come faccio io, ha già un vantaggio concreto.

Quello che ho capito usandolo ogni giorno

Uso Claude Code da mesi. Lo uso per scrivere, per gestire i miei siti, per navigare il web, per organizzare i file, per programmare task ricorrenti, per fare ricerche, e da qualche settimana per giocare a Football Manager. Ci ho scritto questo stesso articolo, che è stato costruito con 8 agenti di ricerca lanciati in parallelo su fonti in inglese e italiano, deep research tramite Gemini e Grok, e analisi di oltre 70 fonti.

Il passaggio vero è dal controllo dell’interfaccia all’espressione dell’intento. Prima dovevo sapere esattamente dove cliccare, quale scorciatoia usare, come era strutturato il menu. Ora dico cosa voglio fare e l’agente si occupa del come.

Lo screen reader resta, e resta indispensabile. Ma per la prima volta nella storia dell’accessibilità digitale, la qualità del codice altrui non mi tiene più prigioniero. Un sito inaccessibile è un inconveniente che il mio agente gestisce.

Per chi non ha mai provato cosa significa sbattere contro un CAPTCHA quando hai fretta, o abbandonare un acquisto perché il checkout non ha le etichette, o rinunciare a giocare al tuo gioco preferito perché non è stato pensato per te: fidatevi, questo cambiamento è grande. E sta succedendo adesso.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *