Novità

Mar 19 2008

Anticipazioni - Luca Mascaro ed Emanuele Quintarelli: l’esperienza di progettare esperienze utenti

L’esperienza utente è “la combinazione olistica di tutto ciò che un essere umano vede, tocca e prova interagendo con un prodotto o servizio”.
All’interno di questa semplice definizione si nascondono in realtà competenze, esigenze ed attività profondamente diverse, a volte addirittura in contrasto tra loro.

Ragionare su una figura di insieme di tutte le attività di progettazione che coinvolgono (o dovrebbero coinvolgere) l’utente finale, fornisce importanti vantaggi sia ai progettisti che ai clienti del servizio nel:

  • Definire fin dall’inizio, con chiarezza ed in modo condiviso gli obiettivi di business che il cliente si propone di raggiungere tramite il prodotto e le metriche per decretare il successo o il fallimento del progetto
  • Identificare, priorizzare e pianificare le attività che concretamente permettono di garantire un’esperienza piacevole e soddisfacente agli utenti
  • Inquadrare queste attività all’interno di un processo iterativo, agile, il più possibile standard e caratterizzato da fasi e deliverable significativi per il cliente
  • Reperire e coordinare le figure che, proveniendo da background diversi, consentono di raggiungere un ottimale bilanciamento delle esigenze alle spalle di ogni progetto

Partendo da questa premesse, l’intervento affronterà a 360° il tema della user experience discutendo la sua importanza all’interno di progetti reali e mostrando il ruolo e le relazioni esistenti tra dimensioni quali interaction design, visual design, information architecture, usabilità, accessibilità, ecc.

La progettazione centrata sugli utenti sarà presentata innanzitutto come punto di incontro ed equilibrio tra discipline diverse (strategia, biblioteconomia, design, economia, psicologia cognitiva, informatica, etc), nella convinzione che un risultato ottimale in termini di efficacia, efficienza e soddisfazione nelle interazioni tra essere umano ed interfacce sia possibile innanzitutto ricercando un delicato bilanciamento tra competenze, figure professionali, attività ed obiettivi diversi.

Saranno discussi i profili richiesti all’interno di un ciclo completo di user experience ed il modo in cui questi interagiscono e danno origine ad un processo iterativo, adattivo ed economicamente percorribile che comprenda tutte le fasi principali di una progettazione capace di coniugare azienda committente, contenuti ed utenti. Le fasi salienti saranno brevemente descritte, sottolineandone le interdipendeze e mostrando esempi di deliverable.

Queste considerazioni saranno arricchite da storie, casi di studio e riferimenti alle difficoltà peculiari del mercato italiano e sud europeo con l’obiettivo finale di proporre ai partecipanti un framework in grado di guidarli nelle loro attività di progettazione, ma anche nella selezione delle attività da richiedere, nella scelta dei fornitori e, in ultima analisi, verso una maggiore sensibilità ed attenzione nei confronti dei propri clienti, partner, dipendenti e del proprio business.

Popolarità: 23% [?]


Mar 19 2008

Anticipazioni - Cristina Lavazza e Andrea Fiacchi: la ricerca avanzata, da cenerentola del web a sfida della progettazione

Nel nostro seminario affrontiamo il tema della funzione di ricerca avanzata, un servizio web da sempre presente nei siti internet, ma relegato troppo spesso a ruolo di secondo piano. Oggi, con la crescita vertiginosa dei contenuti sul web, una buona funzione di ricerca è l’unico strumento per arrivare all’informazione che ci interessa e filtrare tutto il superfluo. Disegnare una ricerca che funzioni è una sfida. Una sfida per l’architettura dell’informazione, per gli esperti di usabilità, per i programmatori. E per i designer, sempre poco attenti alla grafica di questo servizio.

Il nostro contributo vuole puntare i riflettori sulla ricerca avanzata e darle lo spazio che merita. Il lavoro è organizzato in quattro sezioni, il nostro obiettivo è quello di indicare delle linee guida per progettare una funzione di ricerca che sia parte integrante e fiore all’occhiello di un sito internet; che sia efficace, usabile, accessibile e progettata con un alto standard di design.

1. La teoria della ricerca avanzata

Dedicata alla teoria della ricerca avanzata, tratta delle sfide che questa funzione presenta per le figure professionali coinvolte nella sua realizzazione.
Con milioni di pagine messe online ogni giorno nel mondo, trovare un contenuto specifico diventa sempre più difficile. Quali sono le nuove sfide alla findability poste dal web 2.0 e dagli user genereted contents?
Gli architetti dell’informazione rispondono al web che cambia sviluppando nuove forme di ricerca avanzata.
Vedremo meglio nel corso della sezione come cambia il ruolo dell’architetto dell’informazione in un ambiente complesso e in continuo cambiamento. Che variabili bisogna considerare per realizzare una funzione di ricerca efficiente? Come rapportarsi con le altre figure professionali?

2. La pratica della ricerca avanzata

Dedicata alla ricerca avanzata in pratica, parleremo delle diverse architetture dell’informazione e degli strumenti sottostanti un sistema efficace per il reperimento dei contenuti.
Una pagina nascosta nel menu di servizio. Messaggi di risposta tipo: “Nessuna voce corrispondente ai termini immessi”. Questa è stata per tanto tempo la ricerca avanzata ma oggi le cose stanno cambiando, gli utenti sono più maturi e hanno maggiori aspettative rispetto ai siti internet. La ricerca diventa parte integrante della navigazione del sito. L’e-business, come sempre, indica la strada…

Nel corso della sezione vedremo come rendere i contenuti “machine readable”, come usare al le ontologie e i metadata per ottenere risposte “intelligenti” alle nostre richieste. E’ possibile mettere l’utente al centro della progettazione e mostrargli i risultati più vicini ai suoi bisogni, magari indicargli opzioni interessanti e inizialmente non previste?
Infine cercheremo di rispondere ad una domanda semplice ma centrale: “Ma se la ricerca avanzata è tanto valida, perché gli utenti non la usano?”

3. Dalla parte dell’utente

Dedicata all’utente, al suo rapporto con le interfacce di ricerca e con i report dei risultati, analizzando i modi per testare l’efficacia di un sistema e ottimizzare i risultati. Per rispondere alla domanda della sezione precedente è necessario parlare dei diversi tipi di utente, del loro rapporto con il web e con gli oggetti cercati.
Come cercano i navigatori, come possiamo aiutarli e rendergli la vita più semplice?
Per capirlo dobbiamo capire i visitatori dei nostri siti. Di modi per farlo ce ne sono molti…
Nel corso della sezione vedremo come ottenere informazioni sui visitatori, come immaginare le loro azioni e reazioni al nostro sito. In alcuni casi si tratta di un vero e proprio role-playing come nel caso del metodo delle personas, in altri di osservazioni più sperimentali e quantitative, come per esempio l’eye-tracking.

4. Come realizzare un’interfaccia grafica per la ricerca avanzata

Dedicata al design di questa funzione, spesso povero e frettoloso, con esempi di casi di successo e possibili strade future.
La ricerca avanzata è uno strumento spesso poco usato perché la sua progettazione e i suoi aspetti grafici restano sempre criptici e poco usabili. Migliorare il design della pagina dedicata, delle pagine di feedback (ma anche il design della funzione quando questa è inserita nell’interfaccia del sito) aiuta l’utente a sentirsi a suo agio, a tranquillizzarlo e a fargli ottenere risultati migliori. La forma è anche funzione…
Nel corso di questa parte affronteremo come organizzare graficamente la pagina della ricerca, dalla divisione in blocchi alla scelta e alla progettazione dei box, alla rappresentazione grafica dei risultati.

Popolarità: 17% [?]


Mar 19 2008

Anticipazioni - Oreste Signore: Introduzione al Semantic Web

Tag:Tag , , , , , Signore @ 13:06

Contenuto
Il seminario è rivolto a chi è interessato ad apprendere gli elementi essenziali del Semantic Web. I concetti verranno presentati in maniera semplice, evitando di scendere nel dettaglio dei formalismi.
Il Web come fonte di conoscenza
“Lo cerco sul Web” è ormai un’ espressione usuale, che testimonia come il Web sia percepito come un serbatoio di conoscenza. Per fruire delle informazioni disponibili sul web, però, spesso è necessario combinare dati provenienti da fonti diverse ed eterogenee. Per gli esseri umani questo processo è ragionevolmente semplice, anche se spesso noioso e ripetitivo, e sarebbe quindi desiderabile che le macchine potessero automaticamente combinare la conoscenza proveniente dalle diverse fonti e, ancor meglio, derivarne di nuova. Ciò però è impossibile senza un adeguato meccanismo per la rappresentazione della conoscenza.
Dal Web al Semantic Web
Il Web è stato concepito essenzialmente come un ambiente sociale, in cui tutti potessero contribuire alla crescita della conoscenza condivisa, indipendentemente dalle differenze di cultura o da limitazioni tecnologiche o fisiche.
Già nella prima, originaria proposta, gli elementi informativi erano collegati da legami semanticamente definiti e ricchi. Il web si è quindi via via evoluto, sotto la guida del World Wide Web Consortium (W3C) da una struttura estremamente semplice ad una assai più complessa, che però non differisce strutturalmente da quella iniziale.
Da qualche anno i ricercatori stanno lavorando intensamente per la realizzazione del Semantic Web, che può essere definito come un’ infrastruttura basata su metadati per svolgere ragionamenti sul Web. Nel Semantic Web la conoscenza è rappresentata in maniera elaborabile dalla macchina, e può essere utilizzata da componenti automatizzati, denominati agenti software. Il Semantic Web, naturale evoluzione del web attuale, potrà funzionare solo se le macchine potranno accedere ad un insieme strutturato di informazioni e a un insieme di regole di inferenza da utilizzare per il ragionamento automatico.
Le tecnologie del Semantic Web
I metadati sono informazioni, elaborabili in modo automatico, relative alle “risorse” web, identificate univocamente da un URI (Uniform Resource Identifier). La tecnologia di riferimento per la codifica, lo scambio e il riutilizzo di metadati strutturati è RDF (Resource Description Framework), basata su un modello molto semplice di “statement”, rappresentabili come triple (in termini più formali, una tripla forma un “grafo diretto etichettato”).
Per esprimere le restrizioni sulle associazioni, in altri termini per evitare che possano essere codificati degli “statement” sintatticamente corretti, ma privi di senso, è necessario un meccanismo per rappresentare “classi di oggetti”. Da questa esigenza nasce “RDF Vocabulary Description Language”, che mantiene anche, per ragioni storiche, il nome di “RDF Schema” (RDFS).
Per poter effettuare dei ragionamenti, per definire le classi, e per varie altre esigenze, però, RDFS non è sufficiente, e occorre un modo per rappresentare la conoscenza e le regole che permettono di dedurre ulteriore conoscenza: l’ontologia.
Ma il Web è intrinsecamente distribuito, e quindi occorre un linguaggio che non solo permetta di esprimere dati e regole sui dati, ma che consenta anche di esportare questa conoscenza (ontologia) per renderla disponibile a qualunque applicazione. Il W3C ha definito, per questa esigenza, il Web Ontology Language (OWL).
Materiale didattico
Presentazione disponibile all’ URI: http://www.w3c.it/talks/2008/wsb08/

Popolarità: 17% [?]


Mar 19 2008

Anticipazioni - Daniele Galiffa: l’information visualization

Abstract

La disciplina dell’Information Visualization è divenuta, negli ultimi anni, una delle più interessanti aree in cui poter affrontare le nuove sfide per fronteggiare una mole sempre crescente di complessità e ridondanza di “informazione digitale”.

Agli inizi del XXI secolo dei nuovi fenomeni hanno permesso all’Information Visualization di ricevere l’attenzione necessaria, tanto da contribuire con un nuovo “linguaggio” alla definizione di nuove modalità di relazione tra l’utente e l’ecosistema digitale.

Il mutamento della disciplina, ancora in corso, sta portando a definire in maniera chiara tutto quanto inerente due filoni molto interessanti: la sfera di quella che si può definire “Information Aesthetic” e l’insieme degli elementi che possono essere classificati come “Social Visualization”.

Lo scenario

Fino a pochi anni fa (ultimi anni ‘90) l’Information Visualization è rimasto un ambito praticato da pochi ricercatori provenienti prevalentemente dalle aree disciplinari della Computer Science, HCI in particolare.

Questa situazione ha determinato una proliferazione di strumenti molto analitici e perfomanti, rivolti ad una tipologia di utenti molto specifica: ricercatori e scienziati.

Oltre alla specificità dell’utenza finale c’è però da considerare la eterogeneità degli ambiti di indagine e di applicazione delle prime soluzioni (dalla gestione delle foto, alla scelta di un film, alla localizzazione di unità immobiliari).

La fruizione di tali strumenti era, inizialmente, per singolo utente e avveniva sul singolo computer.

Duante gli ultimi anni, però, alcuni eventi hanno radicalmente cambiato questo scenario:

  • l’avvento del web come canale di comunicazione di massa;
  • la contaminazione con l’area del Visual Design e dell’Interaction Design, soprattutto ad opera di alcuni geniali artisti (Maeda, Ben Fry, Brendan Dawes);
  • il crescente overload di informazioni digitali.

Con l’intervento di questi fattori scatenanti, l’Information Visualization è divenuta una pratica proiettata ben oltre gli intenti originali; internet, poi, ne ha accresciuto la consapevolezza.

Questo mutamento ha quindi determinato, oltre che ad una maggiore pratica della disciplina, al formarsi di una nuova figura professionale che si pone sempre più come elemento di congiunzione tra l’approccio meramente rappresentativo, tipico del mondo del Visual Design, e quello più analitico, patrimonio dei ricercatori nell’ambito dell’Information Visualization.

La crescente diffusione di soluzioni infovis orientate alla fruizione di massa e collettiva, ha iniziato a porre nuove domande in termini di soddisfazione dell’esperienza dell’utente e in termini di partecipazione alla generazione di senso.

Seguendo queste due traiettorie si arriva, quindi, a dover affrontare i temi dell’Information Aesthetic e della Social Visualization.

Si parlerà di entrambe, portando degli esempi che consentano di tracciare una mappatura adeguata dell’attuale contesto, con l’obiettivo di poter delineare i trends e le nuove opportunità che potrebbero essere raccoltà da un intelligente impiego dei modelli e delle toerie della disciplina dell’Information Visualization.

Risorse utili

Popolarità: 17% [?]


Mar 19 2008

Anticipazioni - Roberto Ellero: forza sociale del video su Web

Quando ci si imbatte nel problema dell’accessibilità dei contenuti multimediali distribuiti in Rete, la mente corre alla sottotitolazione, in forma quasi esclusiva.

Si tratta di un automatismo che richiama la pagina 777 di Televideo o la sottotitolazione cinematografica: l’idea di sottotitolo viene trasferita nella fruizione Web accessibile quale unica preoccupazione.

In realtà, la sottotitolazione su Web non presenta particolari difficoltà, a parte il tempo da dedicare alla trascrizione del parlato. Ma soprattutto è bene precisare che i sottotitoli sono l’aspetto meno necessario per un servizio video accessibile.

Se i sottotitoli sono fondamentali per chi è diventato sordo nel corso della vita, e sono importanti per situazioni in cui non è possibile attivare l’audio (per esempio, in ufficio) e utili per i contenuti a finalità didattica, essi non sono invece sufficienti per chi è nato sordo. Il sordo dalla nascita utilizza come lingua madre la lingua dei segni: la “total communication” consisterà quindi dei sottotitoli associati all’interpretazione in lingua dei segni.

Per molti, poter scorrere il testo aiuta la memorizzazione ed è quindi utile avere uno strumento capace di rinforzare nell’ascoltatore i concetti espressi dallo speaker. Del resto, è proprio su questo rinforzo fra codici diversi che si fonda la potenza degli audiovisivi per trasmettere messaggi: ogni video parte sempre da un testo e al testo ritorna (un libro si legge generando immagini nella mente, e il percorso inverso conduce all’audiodescrizione, che è a sua volta un testo).

Per converso, associare un video ai testi è utilissimo per esempio ai dislessici. Poter ascoltare contenuti, invece di leggerli, permette al dislessico di ridurre enormemente i tempi di studio e il dispendio di energie. Trovare mezzi facilitanti è quindi di fondamentale importanza per garantire pari opportunità di conoscenza. Se all’audio aggiungiamo l’informazione visiva, costruita come rinforzo iconico ai contenuti audio, aumentano le possibilità di memorizzazione e interiorizzazione dei contenuti.

Il lavoro più difficile è calibrare i codici per integrarli al meglio, e questo vale anche per il montaggio video associato a testi che sono stati semplificati ma senza però perdere il rigore espositivo.

Da questa breve introduzione si sarà intuito che la sottotitolazione è solo uno dei tasselli che compongono un audiovisivo progettato avendo in mente l’accessibilità. Per riassumere: per realizzare video accessibili servono la Lis, la sottotitolazione, il commento audio dell’informazione visiva per chi non vede e la trascrizione.

Nel seminario cercherò di illustrare nel poco tempo a disposizione le tecniche per fare tutto ciò, fornendo solidi riferimenti disponibili in Rete. In particolare, però, l’attenzione sarà rivolta a cosa succede quando si progetta e si realizza da zero un video accessibile: si conoscono molte persone, si possono mettere in atto strategie di comunicazione su più versanti, si possono mettere in dialogo mondi che di solito rimangono lontani e separati.

Mostrerò inoltre in anteprima uno spettacolo teatrale adattato al Web, progettato per le modalità di fruizione specifiche del Web (diverse da quelle dei media audiovisivi tradizionali) e sottotitolato, audiodescritto e messo in parallelo con lo stesso spettacolo interpretato da attori sordi con la lingua dei segni.

Da questa doppia messa in scena dello stesso testo teatrale, nella visione affiancata e simultanea, nascono – come si vedrà - molti spunti di riflessione e molte prospettive di ricerca e sperimentazione. Ce lo consente una tecnologia nata proprio sulla scorta di queste riflessioni.

Ma non basta che un video sia accessibile, deve essere coinvolgente e catturare l’attenzione.

Per farlo, probabilmente deve trasmettere esperienze. La realizzazione del video che presento al seminario coinvolge due compagnie di teatro che sono due comunità, intorno a un testo da comunicare in modi diversi ma in dialogo.

Popolarità: 24% [?]


Mar 18 2008

Anticipazioni - Luca Rosati: verso un’architettura dell’informazione integrata: dalla carta al web ai luoghi

Abstract

Il concetto di architettura dell’informazione non è proprio solo del Web, ma di ogni contesto del nostro agire quotidiano, e diviene tanto più cruciale quanto più densa e complessa è l’informazione che pervade tali contesti. L’obiettivo del seminario è mostrare un modello integrato di architettura dell’informazione capace di funzionare trasversalmente ai diversi contesti dell’agire, dagli ambienti fisici a quelli digitali.

Lo scenario

Più che come disciplina a sé stante, l’architettura dell’informazione si configura come un sapere trasversale situato al confine fra più discipline (architettura, biblioteconomia, scienze sociali e cognitive, scienze del linguaggio e dell’informazione).

E se inizialmente questo sapere ha riguardato soprattutto il Web (si parla infatti di architettura dell’informazione per il World Wide Web), negli ultimi anni esso si va estendendo a un più ampio insieme di contesti, sia fisici sia digitali. Fenomeni come l’ubiquitous computing, l’Internet delle cose e la complessità dei flussi informativi interni a enti o aziende dimostrano che una corretta organizzazione dell’informazione è strategica non solo nelle biblioteche o nei siti web ma anche in contesti e spazi fisici.

Fra l’altro, oggi, molte nostre attività quotidiane richiedono un continuo passaggio fra canali d’informazione assai eterogenei fra loro per formato, codifica, modalità d’interazione. Vale a dire che per portare a termine molti compiti è necessario sempre più spesso attraversare più domini (leggo un articolo, mi sposto sul Web per approfondire alcuni riferimenti trovati là, e poi magari decido l’acquisto di un bene o servizio)

La sfida

Garantire all’utente una continuità esperienziale nel passaggio da un contesto/dominio a un altro è la sfida che il design dell’interazione e la user experience saranno chiamate ad affrontare sempre più nei prossimi anni.

In quanto elemento che concorre a definire la user experience, l’architettura dell’informazione può giocare in tal senso un ruolo strategico. Essa si fonda infatti su principi di organizzazione della conoscenza indipendenti dal supporto fisico (cartaceo, digitale o altro) della conoscenza stessa. E proprio per questo l’architettura dell’informazione si presta assai bene a fungere da collante fra molteplici contesti, assicurando una continuità nel passaggio dall’uno all’altro, cosicché gli utenti non dovranno apprendere ogni volta un modello mentale e d’interazione differente.

Come esiste un’immagine coordinata esiste allora anche un’architettura dell’informazione coordinata, capace di connettere fra loro i diversi domini di un’azienda (sito web, uffici, negozio) dal punto di vista dei flussi informativi, dell’organizzazione della conoscenza, della trovabilità (findability, wayfinding).

Casi studio

Nell’ambito di questo scenario, il seminario proporrà alcuni casi studio di architetture informative integrate analizzando i principi caratterizzanti di questi modelli, in cui logiche tipiche del Web sono applicate anche al software, all’hardware o ad oggetti e spazi fisici, e viceversa.

I casi riguarderanno: Apple, Amazon, Ikea e altri esempi di retail design.

Per saperne di più

Popolarità: 13% [?]


Mar 18 2008

Anticipazioni - Michele Diodati: delimitare il perimetro dell’accessibilità (dei contenuti web)

Tag:Tag , , Diodati @ 9:45

Benché le linee guida WCAG 2.0 non abbiano ancora terminato la loro quasi infinita fase di gestazione, possiamo dire che l’accessibilità per il Web, o web accessibility, è ormai una realtà consolidata. Esiste per esempio una storia più che ventennale di tecnologie assistive: all’epoca di MS-DOS - parliamo cioè degli anni ‘80 del secolo scorso -, esistevano già screen reader in grado di permettere ad un non vedente di utilizzare il computer.

Con la crescente diffusione delle tecnologie assistive, si sentì il bisogno di creare estensioni software appositamente studiate per consentire a questi strumenti di interfacciarsi nel modo migliore con i sistemi operativi. Nacque così nel 1997 MSAA, Microsoft Active Accessibility, il sistema di API di Microsoft per l’accessibilità.

Mancava però a questo punto uno strumento che agisse non dal lato dell’utente, ma da quello dello sviluppatore di software. Nell’ambito del Web, questo tassello fu aggiunto con la pubblicazione, il 5 maggio del 1999, delle linee guida W3C per l’accessibilità dei contenuti web, meglio note come WCAG 1.0. Giunte quasi alla soglia dei dieci anni di vita, le WCAG 1.0 saranno prossimamente affiancate dalle WCAG 2.0, il cui parto complicato è anche la testimonianza del cammino che la web accessibility ha compiuto e sta compiendo per definire meglio il suo oggetto.

Le WCAG 1.0 rappresentano una fase iniziale, per così dire “garibaldina”, di approccio all’accessibilità: il loro obiettivo principale non era fare teoria, ma fornire agli sviluppatori degli strumenti pratici per implementare caratteristiche di accessibilità su un universo di contenuti incentrato quasi esclusivamente intorno al linguaggio HTML. Ecco dunque che le 14 linee guida che compongono le WCAG 1.0 sono fortemente dipendenti dalla tecnologia, essendo i loro suggerimenti tarati per contenuti in cui tabelle HTML e codice di marcatura presentazionale coesistono fianco a fianco con i primi tentativi di utilizzare in modo professionale la potenza dei fogli di stile.

Abbiamo oggi bisogno di fare un passo avanti. Le WCAG 2.0 contengono i semi per l’affermazione di nuovi concetti, il più importante dei quali è sicuramente quello di indipendenza dalla tecnologia. Con lo sviluppo di sempre nuovi linguaggi di marcatura, per lo più basati su XML, le linee guida per l’accessibilità dei contenuti non potevano più limitarsi a formulare suggerimenti legati a questo o a quel linguaggio. Era necessario passare ad un livello più astratto, ed è quello che le WCAG 2.0 hanno fatto, individuando quattro principi generali, che sono applicabili universalmente al contenuto web, qualsiasi sia la tecnologia utilizzata per codificarlo:

  1. perceivable (percepibile);
  2. operable (utilizzabile);
  3. understandable (comprensibile);
  4. robust (robusto).

Tuttavia questi quattro principi generali ancora non ci dicono dove comincia e dove finisce l’accessibilità del contenuto web. In altre parole, autori e sviluppatori impegnati in un nuovo progetto di sito hanno bisogno di sapere in che modo e fino a che punto la ricerca dell’accessibilità può influenzare il progetto nel suo complesso. Hanno bisogno inoltre di sapere che tipo di competenze saranno richieste per applicare i principi dell’accessibilità.

Provare a tracciare un tale quadro di riferimento vuol dire delineare il perimetro dell’accessibilità, e questo è, appunto, l’obiettivo del mio intervento al Convegno Web Senza Barriere ‘08.

Popolarità: 10% [?]


Mar 17 2008

Anticipazioni - Francesco Levantini: Web 2.0, dal World Wide Web al Giant Global Graph

Il Web 2.0 è oggi soprattutto un’icona giornalistica ma che traduce un bisogno reale: quello degli utenti di vivere Internet con modalità differenti dalle pagine web. Il villaggio globale ci ha portato il mondo sulla scrivania ma oggi non basta, l’utente di Internet sente l’esigenza di prendere la scrivania, metterla in tasca e portarla nel proprio Agorà personale. Condividere cioè esperienze di vita e di lavoro col proprio gruppo, con gli amici o coi colleghi. In una parola “partecipare”.

I Blog, Wikipedia e il collective intelligence, i Word of Mouth e il mash up, il social networking o i metaversi come Second Life sono solo i primi passi di un percorso che, iniziato col p2p di audio e musica sta sfociando nello sharing delle esperienze e delle idee.

“Dalla società dell’informazione alla società della conoscenza”, “dalla rete al grafo” e “dal social engineering virtuale a quello digitale” sono i tre punti di vista di questo processo di cambiamento che maggiormente coinvolgono l’utente e su cui verte il seminario.

Rivolta a tutti la partecipazione è però particolarmente indicata alle figure professionali che orientano giovani, e soprattutto disabili, nel mondo del lavoro. Le esperienze a cui il relatore farà riferimento sono infatti esempi di integrazione nei work group aziendali dove al centro del disegno dei modelli di “Enterprise Resource Planning”, “Customer Relationship Management”, “Supply Chain Management” e del “Product lifecycle management”, sono il mobile e il desk sharing.

Un ICT sotto il marchio Mobile Wireless Accessibility. Un etichetta che, nata dalla collaborazione di IBM, ASPHI, Nokia, Cisco, Cattid e Dotvocal, integra il meglio che il mercato, il mondo open source e le comunità del creative commons o di autoaiuto offrono per un ufficio mobile per tutti … nessuno escluso!

Popolarità: 10% [?]


Mar 17 2008

Anticipazioni - Fabrizio Gramuglio: tecnologie vocali e multimodali al servizio dell’accessibilità.

Tag:Tag , , Gramuglio @ 15:17

Lo scopo di questo intervento è quello di far chiarezza su alcune tecnologie, ormai mature anche se ancora poco diffuse, che rappresentano un valido supporto per prodotti e servizi di nuova generazione.

Sotto il nome generico di tecnologie vocali e multimodali sono presenti diversi strumenti che vanno dal “semplice” motore di sintesi vocale a complessi framework di sviluppo e controllo dell’input utente: sia esso vocale, mediato da sensori, sguardo, gesti ecc.

Al fine di non risultare troppo accademico e poco pratico ogni argomento trattato sarà, il più possibile, ricco di riferimenti ad applicazioni, esempi, demo, e link ad approfondimenti. Questo permetterà all’utente, non solo di evitare di ascoltare normative, raccomandazioni e proiezioni su un imprecisato e poco datato futuro, ma anche di rendersi conto di quale sia lo stato dell’arte delle tecnologie, e, soprattutto, gli permetterà di capire su quali tecnologie il mercato stia attualmente scommettendo.

Quindi, cercando di delineare un’agenda dell’intervento (agenda che, come l’esperienza mi ha insegnato, verrà modificata di giorno in giorno fino all’ora dell’intervento) possiamo dire che verranno toccati i seguenti argomenti:

  • Chi fa cosa: un esame dei principali attori di progetti a livello internazionale per le nuove tecnologie sui diversi media, in questa sezione si parlerà di applicazioni web, applicazioni remote su mobile e del web visto attraverso protocolli diversi dal solo e solito http.
  • Tecnologie vocali: cosa sono? Quale è lo stato dell’arte attualmente disponibile? Cosa ci si aspetta dai prossimi tre anni? Come e dove posso provarle? ASR1, TTS2, SI3, NLU4, SV5, Trascrizione Speech Dependent, ecc.
  • Tecnologie multimodali: quali sono? Esistono degli standard? Come e dove posso testare un’applicazione multimodale? Quali input sono oggi disponibili per l’utente (voce, tastiera, mouse, sensori di movimento, sensori di pressione, ecc.)? Qual’è la relazione e il supporto che queste tecnologie possono dare all’accessibilità?
  • Progetti attualmente disponibili o di prossima pubblicazione: cosa offre il mercato? Chi lo sta offrendo? Quale è la scommessa dei player per i prossimi anni? Cosa posso già testare?

All’interno della sezione “progetti” si esamineranno, tra gli altri, Android progetto diretto e voluto dalla Open Handset Alliance tra i cui membri si trovano nomi illustri nella produzione di devices (Motorola, HTC, Samsung), nel campo degli operatori telefonici (China Mobile Communications Corporation, T-Mobile e Telecom Italia) e nella produzione software (Ebay, Google), e, per avvicinarci alla parte che ci riguarderà più vicino, per la parte vocale (Nuance e SoniVox).

Altri progetti che andremo ad esaminare sono tutti quei progetti/software che vanno sotto il nome di Interactive Web (sia multimedia che multimodale) che, nonostante l’assonanza, non hanno nulla a che fare ne con il social network né con pagine realizzate con l’ultima moda in fatto di linguaggi web. Ma piuttosto permetteranno all’utente di utilizzare tecnologie diverse da quelle tipiche del web attraverso il web.

Popolarità: 10% [?]

  1. Automatic Speech Recognition [indietro]
  2. Text-To-speech [indietro]
  3. Semantic Interpretation [indietro]
  4. Natural Language Understanding [indietro]
  5. Speaker verification [indietro]

Mar 12 2008

Anticipazioni – Mariuccia Teroni: regoliamo le regole

Tag:Tag , , Teroni @ 18:41

Devo ringraziare Marco Bertoni per la mia presenza a questo convegno. Ha trovato per caso il mio libro in una Feltrinelli (”Manuale di redazione”) e, a suo dire, l’ha “divorato” in tre giorni. Mi ha contattata tramite l’editore e mi ha letteralmente “ordinato” di tenere un seminario didattico della durata di “100 minuti” sulle tecniche e sulle regole di pubblicazione. Non conosco ancora di persona Marco (ci sentiamo ancora solo per telefono o per mail) ma, al di là della sua simpatia e della sua professionalità, mi è sembrato (forse) un po’ poco democratico… ma mi è piaciuto. Mi ha offerto la possibilità di mettere a disposizione di altri le mie conoscenze, e di questo gliene sono grata. Quindi, eccomi qui.

La storia dell’uomo può essere osservata da diversi punti di vista: uno fra i tanti è la capacità di comunicare, insita nella natura dell’essere umano.
Comunicare è sempre stata un’esigenza del genere umano, e il bisogno di interagire con i propri simili ha portato l’uomo, prima con i segni, poi con il linguaggio e infine con la scrittura a trasferire e a tramandare le informazioni.
La capacità dell’uomo di esprimersi e di trasmettere contenuti si è evoluta grazie al continuo progresso dei mezzi tecnologici utilizzati.
Dalle tavolette d’argilla, al papiro, alla pergamena, alla carta, al video, il supporto scrittorio ha sempre influenzato l’evoluzione della comunicazione e le stesse modalità di presentazione.
Uno tra i più significativi cambiamenti nel modo di trasferire il sapere, paragonabile per l’impatto sulla gente alla rivoluzione di Gutenberg (inventore della stampa a caratteri mobili), avviene nella metà degli anni Ottanta con la nascita del DTP.
Con l’arrivo delle nuove tecnologie digitali vengono messi a disposizione dell’informazione e di chi la produce sempre nuovi canali distributivi.
Successivamente, nei primi anni Novanta, un evento di straordinaria importanza entra a far parte delle nostre vite: la Rete, un mezzo innovativo per la diffusione delle informazioni.

Il facile utilizzo del pc e delle nuove tecnologie ha tracciato nuovi percorsi professionali e solleticato ambizioni.
Oggi sono sempre di più le persone, soprattutto giovani, che si avvicinano alla scrittura, che si cimentano nel trattamento del testo o nella gestione delle immagini, che creano propri siti, blog, forum, wiki o che aspirerebbero a lavorare in una casa editrice. Ma quanti sono in grado di tradurre le informazioni, siano esse di testo, immagini, colori, o altro in un prodotto fruibile ed efficace?
Essere in grado di far giungere al proprio interlocutore proprio il messaggio desiderato, in maniera inequivocabile, nel modo migliore e con lo strumento più adeguato fa parte del “saper trasferire le informazioni”.
Per fare questo occorre sapere che esistono delle regole e, soprattutto, conoscerle e applicarle.
Le conoscenze non si improvvisano.
Comunicare con chiarezza significa saper utilizzare gli standard editoriali, le norme redazionali e le regole tipografiche, le procedure di editing e quelle di produzione; significa saper scegliere il carattere, combinare i colori, utilizzare gli spazi, disegnare interfacce comprensibili e molto altro ancora.
Lavorare bene vuol dire essere organizzati, ed essere organizzati vuol dire conoscere le regole di creazione, di gestione e di archiviazione del materiale, sia esso cartaceo o digitale; vuol dire utilizzare strumenti standard; applicare procedure consolidate; organizzare il flusso di lavoro.
E in tutto ciò non importa che si tratti di carta stampata piuttosto che di un blog su Internet.
Nel mio seminario cercherò di essere il più esaustiva possibile e di dare almeno i fondamentali di tutte queste “buone regole”, utili tanto a chi pubblica su Internet, tanto a chi ha un progetto da presentare a un editore (tradizionale o multimediale), tanto a uno studente che sta preparando la tesi di laurea o a chi deve produrre documentazione aziendale.

Saper comunicare e scrivere correttamente o essere in grado di preparare un layout grafico adeguato può fare la differenza nel settore professionale, e rappresentare sempre un buon biglietto da visita nei rapporti interpersonali.
L’utilizzo delle nuove tecnologie ha fortemente trasformato le pratiche di creazione dei contenuti, tanto diverse rispetto a quelle di ieri, ma non ne ha cancellato i fondamenti. Conoscerli significa saper gestire le informazioni e la loro organizzazione su qualsiasi prodotto.
Anche scrivere per Internet ha le sue regole, ma non si può dimenticare che la storia di questo nuovo mezzo ha tanti elementi in comune con la tradizione editoriale, e conoscere le regole e i processi di lavorazione di ieri è un passaggio importante, anche in un mondo dominato dai bit.

Popolarità: 11% [?]