Novità

Mar 18 2008

Anticipazioni - Luca Rosati: verso un’architettura dell’informazione integrata: dalla carta al web ai luoghi

Abstract

Il concetto di architettura dell’informazione non è proprio solo del Web, ma di ogni contesto del nostro agire quotidiano, e diviene tanto più cruciale quanto più densa e complessa è l’informazione che pervade tali contesti. L’obiettivo del seminario è mostrare un modello integrato di architettura dell’informazione capace di funzionare trasversalmente ai diversi contesti dell’agire, dagli ambienti fisici a quelli digitali.

Lo scenario

Più che come disciplina a sé stante, l’architettura dell’informazione si configura come un sapere trasversale situato al confine fra più discipline (architettura, biblioteconomia, scienze sociali e cognitive, scienze del linguaggio e dell’informazione).

E se inizialmente questo sapere ha riguardato soprattutto il Web (si parla infatti di architettura dell’informazione per il World Wide Web), negli ultimi anni esso si va estendendo a un più ampio insieme di contesti, sia fisici sia digitali. Fenomeni come l’ubiquitous computing, l’Internet delle cose e la complessità dei flussi informativi interni a enti o aziende dimostrano che una corretta organizzazione dell’informazione è strategica non solo nelle biblioteche o nei siti web ma anche in contesti e spazi fisici.

Fra l’altro, oggi, molte nostre attività quotidiane richiedono un continuo passaggio fra canali d’informazione assai eterogenei fra loro per formato, codifica, modalità d’interazione. Vale a dire che per portare a termine molti compiti è necessario sempre più spesso attraversare più domini (leggo un articolo, mi sposto sul Web per approfondire alcuni riferimenti trovati là, e poi magari decido l’acquisto di un bene o servizio)

La sfida

Garantire all’utente una continuità esperienziale nel passaggio da un contesto/dominio a un altro è la sfida che il design dell’interazione e la user experience saranno chiamate ad affrontare sempre più nei prossimi anni.

In quanto elemento che concorre a definire la user experience, l’architettura dell’informazione può giocare in tal senso un ruolo strategico. Essa si fonda infatti su principi di organizzazione della conoscenza indipendenti dal supporto fisico (cartaceo, digitale o altro) della conoscenza stessa. E proprio per questo l’architettura dell’informazione si presta assai bene a fungere da collante fra molteplici contesti, assicurando una continuità nel passaggio dall’uno all’altro, cosicché gli utenti non dovranno apprendere ogni volta un modello mentale e d’interazione differente.

Come esiste un’immagine coordinata esiste allora anche un’architettura dell’informazione coordinata, capace di connettere fra loro i diversi domini di un’azienda (sito web, uffici, negozio) dal punto di vista dei flussi informativi, dell’organizzazione della conoscenza, della trovabilità (findability, wayfinding).

Casi studio

Nell’ambito di questo scenario, il seminario proporrà alcuni casi studio di architetture informative integrate analizzando i principi caratterizzanti di questi modelli, in cui logiche tipiche del Web sono applicate anche al software, all’hardware o ad oggetti e spazi fisici, e viceversa.

I casi riguarderanno: Apple, Amazon, Ikea e altri esempi di retail design.

Per saperne di più

Popolarità: 13% [?]


Mar 18 2008

Anticipazioni - Michele Diodati: delimitare il perimetro dell’accessibilità (dei contenuti web)

Tag:Tag , , Diodati @ 9:45

Benché le linee guida WCAG 2.0 non abbiano ancora terminato la loro quasi infinita fase di gestazione, possiamo dire che l’accessibilità per il Web, o web accessibility, è ormai una realtà consolidata. Esiste per esempio una storia più che ventennale di tecnologie assistive: all’epoca di MS-DOS - parliamo cioè degli anni ‘80 del secolo scorso -, esistevano già screen reader in grado di permettere ad un non vedente di utilizzare il computer.

Con la crescente diffusione delle tecnologie assistive, si sentì il bisogno di creare estensioni software appositamente studiate per consentire a questi strumenti di interfacciarsi nel modo migliore con i sistemi operativi. Nacque così nel 1997 MSAA, Microsoft Active Accessibility, il sistema di API di Microsoft per l’accessibilità.

Mancava però a questo punto uno strumento che agisse non dal lato dell’utente, ma da quello dello sviluppatore di software. Nell’ambito del Web, questo tassello fu aggiunto con la pubblicazione, il 5 maggio del 1999, delle linee guida W3C per l’accessibilità dei contenuti web, meglio note come WCAG 1.0. Giunte quasi alla soglia dei dieci anni di vita, le WCAG 1.0 saranno prossimamente affiancate dalle WCAG 2.0, il cui parto complicato è anche la testimonianza del cammino che la web accessibility ha compiuto e sta compiendo per definire meglio il suo oggetto.

Le WCAG 1.0 rappresentano una fase iniziale, per così dire “garibaldina”, di approccio all’accessibilità: il loro obiettivo principale non era fare teoria, ma fornire agli sviluppatori degli strumenti pratici per implementare caratteristiche di accessibilità su un universo di contenuti incentrato quasi esclusivamente intorno al linguaggio HTML. Ecco dunque che le 14 linee guida che compongono le WCAG 1.0 sono fortemente dipendenti dalla tecnologia, essendo i loro suggerimenti tarati per contenuti in cui tabelle HTML e codice di marcatura presentazionale coesistono fianco a fianco con i primi tentativi di utilizzare in modo professionale la potenza dei fogli di stile.

Abbiamo oggi bisogno di fare un passo avanti. Le WCAG 2.0 contengono i semi per l’affermazione di nuovi concetti, il più importante dei quali è sicuramente quello di indipendenza dalla tecnologia. Con lo sviluppo di sempre nuovi linguaggi di marcatura, per lo più basati su XML, le linee guida per l’accessibilità dei contenuti non potevano più limitarsi a formulare suggerimenti legati a questo o a quel linguaggio. Era necessario passare ad un livello più astratto, ed è quello che le WCAG 2.0 hanno fatto, individuando quattro principi generali, che sono applicabili universalmente al contenuto web, qualsiasi sia la tecnologia utilizzata per codificarlo:

  1. perceivable (percepibile);
  2. operable (utilizzabile);
  3. understandable (comprensibile);
  4. robust (robusto).

Tuttavia questi quattro principi generali ancora non ci dicono dove comincia e dove finisce l’accessibilità del contenuto web. In altre parole, autori e sviluppatori impegnati in un nuovo progetto di sito hanno bisogno di sapere in che modo e fino a che punto la ricerca dell’accessibilità può influenzare il progetto nel suo complesso. Hanno bisogno inoltre di sapere che tipo di competenze saranno richieste per applicare i principi dell’accessibilità.

Provare a tracciare un tale quadro di riferimento vuol dire delineare il perimetro dell’accessibilità, e questo è, appunto, l’obiettivo del mio intervento al Convegno Web Senza Barriere ‘08.

Popolarità: 10% [?]


Mar 17 2008

Anticipazioni - Francesco Levantini: Web 2.0, dal World Wide Web al Giant Global Graph

Il Web 2.0 è oggi soprattutto un’icona giornalistica ma che traduce un bisogno reale: quello degli utenti di vivere Internet con modalità differenti dalle pagine web. Il villaggio globale ci ha portato il mondo sulla scrivania ma oggi non basta, l’utente di Internet sente l’esigenza di prendere la scrivania, metterla in tasca e portarla nel proprio Agorà personale. Condividere cioè esperienze di vita e di lavoro col proprio gruppo, con gli amici o coi colleghi. In una parola “partecipare”.

I Blog, Wikipedia e il collective intelligence, i Word of Mouth e il mash up, il social networking o i metaversi come Second Life sono solo i primi passi di un percorso che, iniziato col p2p di audio e musica sta sfociando nello sharing delle esperienze e delle idee.

“Dalla società dell’informazione alla società della conoscenza”, “dalla rete al grafo” e “dal social engineering virtuale a quello digitale” sono i tre punti di vista di questo processo di cambiamento che maggiormente coinvolgono l’utente e su cui verte il seminario.

Rivolta a tutti la partecipazione è però particolarmente indicata alle figure professionali che orientano giovani, e soprattutto disabili, nel mondo del lavoro. Le esperienze a cui il relatore farà riferimento sono infatti esempi di integrazione nei work group aziendali dove al centro del disegno dei modelli di “Enterprise Resource Planning”, “Customer Relationship Management”, “Supply Chain Management” e del “Product lifecycle management”, sono il mobile e il desk sharing.

Un ICT sotto il marchio Mobile Wireless Accessibility. Un etichetta che, nata dalla collaborazione di IBM, ASPHI, Nokia, Cisco, Cattid e Dotvocal, integra il meglio che il mercato, il mondo open source e le comunità del creative commons o di autoaiuto offrono per un ufficio mobile per tutti … nessuno escluso!

Popolarità: 10% [?]


Mar 17 2008

Anticipazioni - Fabrizio Gramuglio: tecnologie vocali e multimodali al servizio dell’accessibilità.

Tag:Tag , , Gramuglio @ 15:17

Lo scopo di questo intervento è quello di far chiarezza su alcune tecnologie, ormai mature anche se ancora poco diffuse, che rappresentano un valido supporto per prodotti e servizi di nuova generazione.

Sotto il nome generico di tecnologie vocali e multimodali sono presenti diversi strumenti che vanno dal “semplice” motore di sintesi vocale a complessi framework di sviluppo e controllo dell’input utente: sia esso vocale, mediato da sensori, sguardo, gesti ecc.

Al fine di non risultare troppo accademico e poco pratico ogni argomento trattato sarà, il più possibile, ricco di riferimenti ad applicazioni, esempi, demo, e link ad approfondimenti. Questo permetterà all’utente, non solo di evitare di ascoltare normative, raccomandazioni e proiezioni su un imprecisato e poco datato futuro, ma anche di rendersi conto di quale sia lo stato dell’arte delle tecnologie, e, soprattutto, gli permetterà di capire su quali tecnologie il mercato stia attualmente scommettendo.

Quindi, cercando di delineare un’agenda dell’intervento (agenda che, come l’esperienza mi ha insegnato, verrà modificata di giorno in giorno fino all’ora dell’intervento) possiamo dire che verranno toccati i seguenti argomenti:

  • Chi fa cosa: un esame dei principali attori di progetti a livello internazionale per le nuove tecnologie sui diversi media, in questa sezione si parlerà di applicazioni web, applicazioni remote su mobile e del web visto attraverso protocolli diversi dal solo e solito http.
  • Tecnologie vocali: cosa sono? Quale è lo stato dell’arte attualmente disponibile? Cosa ci si aspetta dai prossimi tre anni? Come e dove posso provarle? ASR1, TTS2, SI3, NLU4, SV5, Trascrizione Speech Dependent, ecc.
  • Tecnologie multimodali: quali sono? Esistono degli standard? Come e dove posso testare un’applicazione multimodale? Quali input sono oggi disponibili per l’utente (voce, tastiera, mouse, sensori di movimento, sensori di pressione, ecc.)? Qual’è la relazione e il supporto che queste tecnologie possono dare all’accessibilità?
  • Progetti attualmente disponibili o di prossima pubblicazione: cosa offre il mercato? Chi lo sta offrendo? Quale è la scommessa dei player per i prossimi anni? Cosa posso già testare?

All’interno della sezione “progetti” si esamineranno, tra gli altri, Android progetto diretto e voluto dalla Open Handset Alliance tra i cui membri si trovano nomi illustri nella produzione di devices (Motorola, HTC, Samsung), nel campo degli operatori telefonici (China Mobile Communications Corporation, T-Mobile e Telecom Italia) e nella produzione software (Ebay, Google), e, per avvicinarci alla parte che ci riguarderà più vicino, per la parte vocale (Nuance e SoniVox).

Altri progetti che andremo ad esaminare sono tutti quei progetti/software che vanno sotto il nome di Interactive Web (sia multimedia che multimodale) che, nonostante l’assonanza, non hanno nulla a che fare ne con il social network né con pagine realizzate con l’ultima moda in fatto di linguaggi web. Ma piuttosto permetteranno all’utente di utilizzare tecnologie diverse da quelle tipiche del web attraverso il web.

Popolarità: 9% [?]

  1. Automatic Speech Recognition [indietro]
  2. Text-To-speech [indietro]
  3. Semantic Interpretation [indietro]
  4. Natural Language Understanding [indietro]
  5. Speaker verification [indietro]

Mar 12 2008

Anticipazioni – Mariuccia Teroni: regoliamo le regole

Tag:Tag , , Teroni @ 18:41

Devo ringraziare Marco Bertoni per la mia presenza a questo convegno. Ha trovato per caso il mio libro in una Feltrinelli (”Manuale di redazione”) e, a suo dire, l’ha “divorato” in tre giorni. Mi ha contattata tramite l’editore e mi ha letteralmente “ordinato” di tenere un seminario didattico della durata di “100 minuti” sulle tecniche e sulle regole di pubblicazione. Non conosco ancora di persona Marco (ci sentiamo ancora solo per telefono o per mail) ma, al di là della sua simpatia e della sua professionalità, mi è sembrato (forse) un po’ poco democratico… ma mi è piaciuto. Mi ha offerto la possibilità di mettere a disposizione di altri le mie conoscenze, e di questo gliene sono grata. Quindi, eccomi qui.

La storia dell’uomo può essere osservata da diversi punti di vista: uno fra i tanti è la capacità di comunicare, insita nella natura dell’essere umano.
Comunicare è sempre stata un’esigenza del genere umano, e il bisogno di interagire con i propri simili ha portato l’uomo, prima con i segni, poi con il linguaggio e infine con la scrittura a trasferire e a tramandare le informazioni.
La capacità dell’uomo di esprimersi e di trasmettere contenuti si è evoluta grazie al continuo progresso dei mezzi tecnologici utilizzati.
Dalle tavolette d’argilla, al papiro, alla pergamena, alla carta, al video, il supporto scrittorio ha sempre influenzato l’evoluzione della comunicazione e le stesse modalità di presentazione.
Uno tra i più significativi cambiamenti nel modo di trasferire il sapere, paragonabile per l’impatto sulla gente alla rivoluzione di Gutenberg (inventore della stampa a caratteri mobili), avviene nella metà degli anni Ottanta con la nascita del DTP.
Con l’arrivo delle nuove tecnologie digitali vengono messi a disposizione dell’informazione e di chi la produce sempre nuovi canali distributivi.
Successivamente, nei primi anni Novanta, un evento di straordinaria importanza entra a far parte delle nostre vite: la Rete, un mezzo innovativo per la diffusione delle informazioni.

Il facile utilizzo del pc e delle nuove tecnologie ha tracciato nuovi percorsi professionali e solleticato ambizioni.
Oggi sono sempre di più le persone, soprattutto giovani, che si avvicinano alla scrittura, che si cimentano nel trattamento del testo o nella gestione delle immagini, che creano propri siti, blog, forum, wiki o che aspirerebbero a lavorare in una casa editrice. Ma quanti sono in grado di tradurre le informazioni, siano esse di testo, immagini, colori, o altro in un prodotto fruibile ed efficace?
Essere in grado di far giungere al proprio interlocutore proprio il messaggio desiderato, in maniera inequivocabile, nel modo migliore e con lo strumento più adeguato fa parte del “saper trasferire le informazioni”.
Per fare questo occorre sapere che esistono delle regole e, soprattutto, conoscerle e applicarle.
Le conoscenze non si improvvisano.
Comunicare con chiarezza significa saper utilizzare gli standard editoriali, le norme redazionali e le regole tipografiche, le procedure di editing e quelle di produzione; significa saper scegliere il carattere, combinare i colori, utilizzare gli spazi, disegnare interfacce comprensibili e molto altro ancora.
Lavorare bene vuol dire essere organizzati, ed essere organizzati vuol dire conoscere le regole di creazione, di gestione e di archiviazione del materiale, sia esso cartaceo o digitale; vuol dire utilizzare strumenti standard; applicare procedure consolidate; organizzare il flusso di lavoro.
E in tutto ciò non importa che si tratti di carta stampata piuttosto che di un blog su Internet.
Nel mio seminario cercherò di essere il più esaustiva possibile e di dare almeno i fondamentali di tutte queste “buone regole”, utili tanto a chi pubblica su Internet, tanto a chi ha un progetto da presentare a un editore (tradizionale o multimediale), tanto a uno studente che sta preparando la tesi di laurea o a chi deve produrre documentazione aziendale.

Saper comunicare e scrivere correttamente o essere in grado di preparare un layout grafico adeguato può fare la differenza nel settore professionale, e rappresentare sempre un buon biglietto da visita nei rapporti interpersonali.
L’utilizzo delle nuove tecnologie ha fortemente trasformato le pratiche di creazione dei contenuti, tanto diverse rispetto a quelle di ieri, ma non ne ha cancellato i fondamenti. Conoscerli significa saper gestire le informazioni e la loro organizzazione su qualsiasi prodotto.
Anche scrivere per Internet ha le sue regole, ma non si può dimenticare che la storia di questo nuovo mezzo ha tanti elementi in comune con la tradizione editoriale, e conoscere le regole e i processi di lavorazione di ieri è un passaggio importante, anche in un mondo dominato dai bit.

Popolarità: 11% [?]


Mar 11 2008

Anticipazioni - Maurizio Vittoria: le grammatiche formali, sostegno all’accessibilità e alla qualità del web.

Un salto di qualità che la Legge 9 gennaio 2004, n. 4 conduce a fare per tutti i siti Web interessati dalla Legge stessa è la necessaria conoscenza delle relative grammatiche formali, cioè di quelli che comunemente chiamiamo “standard”.
Il primo dei Requisiti Tecnici richiesti dalla Legge recita:

“Realizzare le pagine e gli oggetti al loro interno utilizzando tecnologie definite da grammatiche formali pubblicate nelle versioni più recenti disponibili quando sono supportate dai programmi utente. Utilizzare elementi ed attributi in modo conforme alle specifiche, rispettandone l’aspetto semantico. …”

Difficilmente infatti, non seguendo gli standard, si potrà realizzare un sito accessibile e di qualità.

Ma cos’è uno standard? Un protocollo standard può essere definito come un insieme di regole fisse che determinano il da farsi e i relativi risultati in un determinato caso o in certi determinati processi.

In tutte le attività si sente l’importanza di avere degli standard, delle regole precise. Quando cerchiamo l’autore “Umberto Eco” in una bibliografia o in un catalogo, cerchiamo sotto la voce “Eco” anziché sotto la voce “Umberto”. Questo perché conosciamo lo standard che ha fissato la ricerca tramite il cognome, anziché tramite il nome. Anche se ormai ci sembra banale, questo standard comporta tutta una serie di vantaggi intrinseci che abbiamo comunque dimenticato, ma di cui abbiamo acquisito l’applicazione.

Uno standard, per essere tale, deve poter operare nello spazio e nel tempo. Un attuale spartito musicale, un pentagramma, può essere interpretato da qualsiasi musicista sparso in tutto il pianeta. Può essere suonato con strumenti moderni, oppure con strumenti antichi. Un pentagramma del 1700 può, viceversa, essere egualmente interpretato con strumenti moderni. Si parla perciò di compatibilità e durata a lungo termine dei documenti. È uno standard.

Gli standard del Web sono delle tecnologie aperte (XML, (X)HTML, CSS, ecc.), ideate e sviluppate dai membri del World Wide Web Consortium (W3C) per costruire e interpretare i contenuti del Web stesso. Non sono degli standad “de jure”, come le norme “UNI”, “ISO”, ecc., ma per la loro validità sono riconosciuti a livello internazionale come standard “de facto”. Essi sono indipendenti da: hardware, software, lingua, posizione geografica, abilità fisica o mentale dell’utente.

Accessibilità: l’obiettivo primario dell’esistenza degli standard del web è arrivare ad un accesso universale; essi perciò integrano già al loro interno degli elementi di accessibilità. Sono compatibili e adattabili alle varie tecnologie esistenti; nella interpretazione dei documenti sono dunque agevolate anche le tecnologie non visuali (screen readers, browser testuali, ecc).

E non a caso il legislatore ha posto, come prima condizione sine qua non per essere conformi alla Legge, la loro l’utilizzazione: è stata ribadita l’importanza delle grammatiche formali come veicolo di accessibilità.

La maggioranza degli standard del Web sono inoltre stati concepiti in modo da coniugare la retrocompatibilità con l’apertura ai futuri sviluppi della tecnologia. E stata posta cioè una particolare attenzione alla longevità dei documenti. Gli stessi documenti che, grazie all’uso degli standard specifici, diventano più “leggeri” e più facili da mantenere. Quegli stessi documenti che, essendo strutturati in modo logico, diventano semanticamente più facili da indicizzare da parte dei motori di ricerca e potranno perciò avere una maggiore visibilità ed essere trovati dall’utenza con maggior rapidità.

Usare gli standard del è dunque molto importante: grazie al loro impiego potremo ottenere dei documenti web con un alto livello di qualità.

Popolarità: 13% [?]


Mar 11 2008

Anticipazioni - Roberto Polillo: Web prototyping: una road-map per lo sviluppo di siti di qualità

Questo seminario è rivolto a tutti coloro che realizzano siti Web e che desiderano organizzare le attività di progettazione e sviluppo in un processo semplice, razionale e controllato, per ottenere risultati di qualità minimizzando il rischio di rifacimenti.
Esso riassume l’impostazione descritta nel recente libro di R.Polillo “Plasmare il web – Road map per siti di qualità”, e colloca le varie attività lungo un percorso ben strutturato che, partendo dalla raccolta dei requisiti del sito, porti fino alla sua pubblicazione in rete. Questa “road map” è scandita da alcune tappe fondamentali - la realizzazione di prototipi intermedi del sito - che permettono di effettuare test con gli utenti fin dalle prime fasi del progetto e, se necessario, di correggere il tiro. È indipendente dalle tecnologie usate e può essere seguita negli ambienti più disparati.

Questa road map è stata pensata facendo principalmente riferimento a progetti Web di media complessità, nei quali siano presenti, in proporzioni significative, problematiche di architettura dell’informazione, comunicazione, interattività, gestione dei contenuti. Essa ha tre caratteristiche distintive:

  • si basa su un modello di qualità specifico per i siti Web;
  • adotta un modello di sviluppo per prototipi successivi, anch’esso specifico per il Web;
  • pone molta enfasi sui requisiti, semplificando al massimo la documentazione successiva.

Modello si qualità specifico per i siti web.

Basare l’impostazione di un progetto su un modello di qualità specifico offre grandi vantaggi, perché in tal modo disponiamo di una “check-list” di tutti gli aspetti rilevanti, da utilizzare sia nella fase di definizione dei requisiti, sia durante le attività di verifica e convalida condotte durante il progetto.
Il modello di qualità utilizzato è quello descritto in un libro precedente (R.Polillo, Il check-up dei siti web) . Si tratta di un modello semplice e ampiamente sperimentato, che identifica 7 macrocaratteristiche di qualità per i siti Web (architettura dell’informazione, comunicazione, funzionalità, contenuto, gestione, accessibilità, usabilità) e 23 sottocaratteristiche. Esso permette di tenere bene sotto controllo la qualità complessiva di un sito, dal punto di vista del suo utente. Inoltre, è basato a sua volta sullo stesso modello di sviluppo adottato nella road map.

Sviluppo per prototipi

La seconda caratteristica distintiva della road map - l’approccio allo sviluppo per prototipi successivi - non è certamente una novità: ogni testo d’ingegneria di software tratta ampiamente di questi metodi. Tuttavia, non basta affermare la bontà di questo approccio in astratto. Occorre pianificare lo sviluppo dei diversi prototipi in modo razionale, tenendo conto della specifica natura del progetto (un sito Web), per evitare che i tempi e i costi del progetto sfuggano di mano. Ogni prototipo deve avere una sua ragione d’essere ben precisa e deve essere sottoposto a test con finalità specifiche. Deve contribuire a far convergere più rapidamente il processo, riducendo - e non aumentando - il rischio di ricicli non previsti. Questo è lo scopo principale della road map. Essa prevede, dopo la stesura dei requisiti del sito, quattro fasi di progetto con finalità molto diverse: Web design, visual design, sviluppo del sito, redazione dei contenuti. Ciascuna fase produce un nuovo prototipo, sul quale vengono condotte attività di verifica e di convalida di natura diversa. Segue l’accettazione del sito finale e la sua pubblicazione in rete. Se tutto procede bene, ogni prototipo consolida quanto prodotto precedentemente e permette di procedere alla fase successiva.

Enfasi sulla stesura dei requisiti.

La terza caratteristica della road map è l’enfasi posta sulla stesura dei requisiti, e la riduzione al minimo indispensabile della restante documentazione di progetto. L’idea è che, come si dice, una buona partenza è metà del viaggio. Contrariamente alla prassi corrente, nella quale molto spesso ci si accontenta di partire con semplici brief di progetto informali, si propone di produrre un documento di requisiti iniziale piuttosto dettagliato, la cui struttura è basata sul modello di qualità di cui si è detto. Oltre ai requisiti, si richiede uno snello piano di qualità: essenzialmente, un piano di progetto corredato dalle indicazioni essenziali sulle modalità di conduzione del progetto.

Popolarità: 16% [?]


Mar 03 2008

Iscrizioni al convegno inaugurale

Tag:Tag , , Baraniello @ 12:40

Dal 3 marzo sono aperte le iscrizioni al convegno inaugurale.

L’iscrizione è gratuita ed aperta a tutti e per una migliore gestione logistica dell’evento è obbligatoria la registrazione.

Entro pochi giorni verrà attivata anche la procedura per la registrazione ai seminari didattici.

Popolarità: 18% [?]