Una storia da scrivere, anzi in fase di scrittura

Quando nel 2015, motivati dall’incontro fra i nostri personali interessi di ricerca, a cavallo fra storia della tecnologia, storia della grafica e storia digitale, abbiamo deciso di dedicare un numero di “AIS/Design. Storia e ricerche” agli sviluppi storici della relazione fra graphic design, tecnologie e media (l’elettronica, il computer, il digitale), eravamo spinti dalla convinzione che un tema così importante andasse finalmente indagato e portato alla luce. Sapevamo che l’impresa sarebbe stata ardua poiché poco era stato fatto a livello di studi documentali. Durante la fase della ricerca preliminare, tuttavia, ci siamo resi conto che il tema, per altri come per noi, stava finalmente raggiungendo la superficie della consapevolezza storica.

Nel maggio 2015, nella PhD Design forum list – una mailing list in cui ricercatori, professori e studenti di design si scambiano informazioni e discutono dei temi di loro interesse – Tomás García Ferrari, Senior Lecturer presso il Department of Computer Science of The University of Waikato (Nuova Zelanda), chiedeva aiuto alla comunità degli iscritti per trovare riferimenti relativi alla storia del desktop publishing (12 maggio 2015).[1] Raccontando dell’intenzione di un suo studente di occuparsi di questo tema, egli ammetteva che entrambi avevano avuto difficoltà a recuperare “solide e valide fonti di informazione” (“finding some difficulties to obtain relevant and valid sources of information”); immaginando di essere “semplicemente ciechi per ignoranza” si rivolgeva agli iscritti della mailing list chiedendo se qualcuno poteva illuminarli suggerendo fonti su cui lavorare (“Most probable is the case that we are just blind by ignorance. Hence, to ask in this forum could bring us to light. Is there any source that you could recommend?”). A García Ferrari rispondeva pianamente Carlos Pires che il problema, più che negli occhi dei ricercatori, risiedeva nella mancanza di “informazioni” sul tema – probabilmente intendendo, però, interpretazioni documentate –, trattandosi di un capitolo “molto recente” della storia del design (“My understanding of this matter is that there is actually very little information on the subject because it is a very recent chapter in our history”). Pires suggeriva dunque che García Ferrari e il suo studente avrebbero dovuto “scrivere da sé” questa storia, immergendosi nello studio di fonti primarie, come pubblicazioni specialistiche e commerciali, nonché pubblicità, relative alle forniture per la prestampa, a eventi e iniziative di formazione per i primi operatori DTP e a questioni legate agli effetti del computer sulla tipografia. L’invito, quanto mai opportuno, era dunque a intraprendere la ricerca documentale, a cominciare a ricomporre un panorama eterogeneo e reso accidentato dall’andamento frenetico e tumultuoso degli sviluppi tecnologici nel settore.

Questo scambio di considerazioni sugli sviluppi del desktop publishing, solo un segmento specifico della storia di nostro interesse, può essere considerato un esempio emblematico dello stato della storiografia e della riflessione storica in merito all’impatto che le tecnologie elettroniche e digitali hanno avuto in generale sulla pratica e sulla cultura del graphic design. A nostro parere, però, la difficoltà centrale non è tanto la scarsità di informazioni. Semmai, al contrario, si può parlare di un “eccesso” di informazioni, disperse in una congerie di fonti come articoli e annunci pubblicitari in riviste tecniche e specialistiche e la cosiddetta letteratura “grigia”. Tutto questo ha acuito la fisiologica difficoltà a misurare con il metro della distanza storica un fenomeno i cui sviluppi sono attuali, sotto i nostri occhi contemporanei.

A ben vedere, del resto, non si può neppure dire che manchi del tutto una riflessione in proposito. Le pubblicazioni esistenti sulla storia della grafica – i manuali o le grandi opere di ricognizione – hanno quasi subito compiuto lo sforzo di includere anche l’avvento del computer e le sue conseguenze sulla professione, per quanto abbiano inevitabilmente trattato questi temi in modo sintetico e spesso sommario. La chiave di interpretazione più diffusa in tali testi è quella che vede la corrispondenza più o meno stretta fra l’avvento del digitale e le categorie del postmoderno, sia in termini concettuali che stilistici. Ciò appare evidente per esempio in un noto libro di Rick Poynor No More Rules: Graphic Design and Postmodernism (2003), che ricostruisce i termini del dibattito critico molto largo e vivace che ha accompagnato gli anni dell’avvento e dell’assimilazione della tecnologia digitale. Maggiore esitazione, invece, c’è stata nel considerare il fenomeno al di là delle dinamiche di tipo culturale, come una forza che stava ristrutturando dall’interno tutto il settore, dalle filiere della produzione a quelle della progettazione. Nel campo del type design è stato Robin Kinross fra i primi a tentare di ricostruire i diversi passaggi dello sviluppo tecnologico, nell’ultimo capitolo del suo saggio Tipografia moderna (1992) così come in alcuni articoli (1992, 2004).

Bisogna poi aspettare gli anni più vicini a noi, però, per trovare tracce di un più diffuso interesse verso la comprensione e interpretazione critica dell’impatto delle trasformazioni tecnologiche che hanno investito il graphic design negli ultimi trent’anni.

Quando abbiamo cominciato a verificare cosa esistesse sul tema, in vista della preparazione di questo numero, abbiamo constatato che già alcuni studiosi si erano rimboccati le maniche, o stavano per farlo. Nel 2014, per esempio, è uscito il saggio di Johanna Drucker, Graphesis: Visual Forms of Knowledge Production (2014; si veda la recensione), che propone un’analisi delle forme visive della conoscenza all’intersezione fra digital humanities, media studies e storia del graphic design. Sempre nel 2014, fra l’altro, alla Barbican Gallery a Londra si è tenuta la mostra Digital Revolution, che ha presentato le sperimentazioni e trasformazioni portate dal digitale in diversi settori creativi come design, arte e musica nel Regno Unito a partire dagli anni settanta (Barbican, 3 luglio – 14 settembre; poi itinerante). Proprio mentre proseguivamo nella ricerca di riferimenti, abbiamo avuto notizia che Helen Armstrong stava curando, per Princeton Architectural Press, un’antologia di testi dal titolo Digital Design Theory (2016) – con brani da autori come Ladislav Sutnar, Bruno Munari, Wim Crouwel, Muriel Cooper, Zuzana Licko e Rudy VanderLans, John Maeda, Paola Antonelli. Intanto Briar Levit aveva lanciato sulla piattaforma di crowdfunding Kickstarter una campagna di raccolta fondi per il video-documentario Graphic Means inteso a raccontare la storia della produzione del graphic design prima dell’avvento del computer, il documentario nasce chiaramente dall’esigenza di riflettere sulle cesure e discontinuità intervenute nella pratica progettuale (dopo aver raccolto i fondi necessari nella primavera 2016, il video è in fase di postproduzione e si attende la sua uscita imminente).[2] In Francia, nel frattempo, Anthony Masure stava portando a termine, presso l’Université Paris 1 Panthéon-Sorbonne, una ricerca di dottorato di carattere teorico e critico – ma non priva di spunti storici – sul tema del “design dei programmi” (il titolo della tesi è Le design des programmes: des façons de faire du numérique; il prossimo anno è prevista l’uscita di una pubblicazione tratta da questo lavoro di ricerca, Design et humanités numériques, per le edizioni B42).

Confortati da questi segnali di attenzione al tema di nostro interesse, per quanto apparentemente ancora occasionali, nel lanciare la call per questo numero abbiamo sollecitato proposte di contributi originali che esaminassero –attraverso il ricorso alle fonti primarie – come le diverse tecnologie abbiano rappresentato per il graphic design uno strumento, un medium e anche una idea e un motivo di ispirazione. L’ambizione era di poter illuminare diversi aspetti e questioni dall’analisi di casi di progettazione grafica per nuovi media e per diversi supporti all’esame del dibattito teorico e del discorso critico maturati attorno al computer e al digitale, fino al ruolo della grafica nella comunicazione e promozione, verso differenti pubblici, delle tecnologiche elettroniche e digitali e nella costruzione di un immaginario attorno a tali innovazioni.

Come spesso accade, la call è stata un modo per sondare e verificare il terreno delle ricerche ed elaborazioni effettivamente in corso. Da un lato abbiamo ricevuto diverse proposte di contributi che nascevano da questioni attuali di pratica progettuale (interazione utente-computer nei videogames o graphic design delle interfacce): certamente interessanti, ma improntate a un approccio critico più che propriamente storico o storiografico. Dall’altro lato le proposte pervenute con una più chiara impostazione storica o storiografica, se non hanno permesso, come è ovvio, di esaurire tutti i temi proposti, hanno consentito di toccare diverse fra le questioni che avevamo sollevato. E, fatto ancora più stimolante, ci hanno permesso di includere aspetti e questioni che non avevamo immaginato di affrontare.

Il numero 8 di AIS/Design si apre con tre saggi assai diversi fra di loro, ma accomunati da un approccio che “usa” la esemplificazione storica per affrontare problematiche che attengono alcuni nodi teorici essenziali per il nostro tema.

Una delle questioni che hanno accompagnato l’incontro della progettazione grafica con il computer e il digitale è stata lo sfaldarsi di confini “disciplinari” e professionali, e il rimescolamento degli orizzonti operativi che, in particolare nella direzione dell’interaction design e della programmazione, ha portando tanto a sperimentazioni quanto a resistenze, di cui è emblematica la contrapposizione grafica per la stampa vs. design multimediale. Nel suo saggio, Gillian Crampton Smith, una protagonista attiva di quella transizione, affronta alcune di quelle resistenze in specie sul versante delle industrie tecnologiche e propone otto spiegazioni del “perché c’è voluto tanto” prima che i valori del design trovassero accoglienza e venissero valorizzati nei nuovi ambiti dischiusi dal digitale.

Nel suo contributo, Letizia Bollini propone di affrontare da una prospettiva di genere lo sviluppo di quell’area della comunicazione visiva che si è formata attorno alla progettazione dell’esperienza utente, delle interazioni e delle interfacce in ambiente digitale. Prendendo atto della significativa presenza di figure femminili nell’industria dei software e della programmazione, l’autrice ripercorre il profilo di alcune protagoniste, individuate come rappresentanti “archetipiche” di diverse provenienze disciplinari e competenze. Dal testo emerge come, partendo da un approccio “di genere”, sia possibile non soltanto restituire visibilità storica a figure (femminili) rimaste sinora nell’ombra, ma anche intercettare nuclei tematici altrimenti meno evidenti. Il testo infatti non si propone di approfondire storicamente ciascuna delle figure individuate (e non lo fa), ma di delinearne i profili che, nel loro insieme, riescano a darci elementi per ripercorrere l’origine e l’evoluzione di pratiche e applicazioni nate all’intersezione di discipline diverse.

Lo stesso approccio di tipo problematico caratterizza il saggio di Isabella Patti. L’autrice lavora attorno a una serie di concetti tipici del gioco tradizionale, come la simulazione e il coinvolgimento del giocatore, che con il passaggio al digitale si sono sviluppati quasi a dismisura grazie al potenziamento delle molteplici forme di interazione e di accessibilità consentite dalle tecnologie digitali. Lo fa comparando una serie di giochi storici da tavolo ai loro omologhi digitali. Entrambi hanno l’immedesimazione come obiettivo ultimo, fine che si raggiunge con il “tavoliere”, sia esso di carta o un video. Attraverso questa interfaccia progettata e disegnata, il game designer ha la possibilità di trasformare il gioco da un insieme di immagini a un mondo di esperienza. Perché, come si a, nulla è più serio del gioco.

I saggi di questo numero mettono in risalto anche come l’impatto delle tecnologie digitali sulla concezione e sulla pratica del design ha avuto implicazioni – non sempre risolte – anche per l’organizzazione della educazione dei graphic designer o di coloro che ambivano a esplorare il computer non come mero strumento ma come medium per inedite espressioni. Una significativa esperienza pedagogica in questa ottica è stata quella di Design By Numbers sviluppata attraverso un linguaggio di programmazione, un manuale e vari apparati didattici da John Maeda nella seconda metà degli anni novanta presso il Media Lab del Massachusetts Institute of Technology e che Giulia Ciliberto approfondisce nel suo intervento.

Altri contributi riflettono su ambiti progettuali e artefatti della comunicazione che si sono evoluti grazie all’elettronica e al computer. Una particolare attenzione è stata dedicata al settore auodiovisivo, nello specifico a quello delle produzioni per la televisione che, come è noto, è stato uno dei primi a fornire ai designer l’opportunità di sperimentare tecnologie elettroniche e digitali. Due contributi fra le Ricerche si occupano infatti di sigle televisive, grafica cinetica e animazione.

Chiara Mari in “Alle origini di una “visualità tecnologica” ripercorre la storia, o meglio una “preistoria”, della grafica delle sigle televisive nel primo decennio di trasmissioni della televisione pubblica italiana, Rai. Attraverso lo studio di materiali preservati nell’archivio Teche Rai e la lettura di riviste specialistiche, l’autrice racconta alcuni progetti di figure come Erberto Carboni, Tito Varisco, Bruno Munari e Marcello Piccardo, Pino Pascali. Interpretando queste prime esperienze di grafica in movimento in relazione alle coeve ricerche sperimentali dell’arte e al dibattito critico della grafica, l’autrice individua le radici di un immaginario ispirato dall’elettronica e dalla idea di programmazione, destinato ad avere più spettacolari sviluppi nel decennio seguente.

Liselotte Doeswijk e René Koenders ci portano invece in Olanda dove, nei primi anni ottanta, l’applicazione del computer diventa il centro di una battaglia culturale e tecnica per la realizzazione di sigle e animazioni per programmi televisivi. Esaminando documenti audiovisivi conservati in archivi e collezioni private – nonché pubblicati online via YouTube – e grazie a conversazioni con alcuni progettisti, gli autori raccontano diverse vicende di progettazione e produzione, soffermandosi sulle scelte estetiche e le soluzioni tecniche adottate e contestualizzandole nel particolare quadro del sistema mediatico olandese alle prese, in quel periodo, con la progressiva liberalizzazione del mercato televisivo.

Un’altra vicenda dall’Olanda di inizio anni ottanta è quella raccontata da Karin van der Heiden. Che cosa succede, chiede l’autrice, se l’avvento del Macintosh Apple nel 1984 viene considerato non come un termine a quo ma più semplicemente come una fase in un più lungo processo di transizione verso la progettazione al computer? Altre storie vengono in primo piano che possono essere studiate per una migliore comprensione della ricezione e dell’effettivo utilizzo del computer da parte dei designer. La vicenda su cui si concentra Van der Heiden riguarda il sistema Aesthedes, un computer grafico sviluppato a cavallo fra anni settanta e ottanta, e in particolare la sua adozione presso la celebre agenzia Total Design, fondata nel 1963 da designer come Wim Crouwel, Friso Kramer e Benno Wissing. Confrontando questa esperienza con il lavoro precedente e successivo di altri designer, l’autrice illumina l’evolversi dell’atteggiamento dei progettisti, dal computer come idea e ispirazione al digitale come strumento progettuale e medium espressivo.

Con questo testo si entra nel vivo di un tema cruciale: come i graphic designer e la cultura del graphic design hanno accolto e si sono relazionati con i nuovi strumenti tecnologici.
Nei loro scritti, Maddalena Dalla Mura e Carlo Vinti si concentrano sull’esame delle riviste specialistiche come fonti per ricostruire la ricezione del computer e il discorso critico elaborato attorno alla rivoluzione elettronica e digitale – dalla prestampa alla progettazione. In “Qualcosa che non c’è più e qualcosa che non c’è ancora”, Dalla Mura rende conto – anche nella estesa lista di riferimenti/citazioni bibliografiche – dello spoglio condotto di trenta annate della rivista italiana Linea grafica, fra 1970 e 2000, evidenziando l’apparire di filoni tematici, come pure di esclusioni, e soprattutto di una elaborazione volta a orientare, attraverso editoriali e articoli, l’interiorizzazione delle nuove tecnologie: inizialmente presentate come uno strumento da aggiungere alla cassetta degli attrezzi già conosciuti, il computer e il digitale appaiono sempre più causa
di uno stravolgimento dell’orizzonte della comunicazione visiva, nel mezzo del quale diviene sempre più difficile affidarsi a riferimenti e tradizioni del passato. Vinti in “Visioni alla rincorsa del futuro” si concentra sul primo decennio di vita (1973-1983) della rivista pubblicata dall’International Typeface Corporation U&lc (Upper & lower case), e sul suo tentativo di mediazione delle nuove tecnologie fotografiche, elettroniche e digitali verso un pubblico formato prevalentemente da grafici e art director. Dallo spoglio emerge la percezione precoce, già negli anni settanta, di fenomeni oggi divenuti evidenti come lo spostamento verso lo studio del designer dei mezzi di produzione e la progressiva accessibilità dell’area della tipografia a utenti non professionisti. Emergono inoltre una serie di “visioni” che mentre intuivano alcune direzioni del cambiamento lo interpretavano spesso con categorie concettuali legate al passato.

All’analisi dei discorsi prodotti attorno alle nuove tecnologie si collega l’indagine sull’impatto che esse hanno avuto nella pratica dei professionisti, tema trattato nelle interviste che abbiamo deciso di inserire nel numero. Michele Galluzzo ha intervistato quattro designer italiani appartenenti a diverse generazioni, i quali, in vari momenti della loro vita lavorativa, hanno incontrato l’elettronica e il computer: Italo Lupi, Roberto Pieracini, Patrizia Convertino e Silvia Sfligiotti. Le loro risposte offrono vari spunti di riflessione e approfondimento: a partire dalla propria personale esperienza, essi forniscono una preziosa testimonianza non solo sul primo “contatto” con le tecnologie (e sembrerebbe emergere che i grafici italiani spesso hanno incontrato il PC/Mac con maggiori difficoltà, mediazioni e ritardi rispetto ai loro colleghi all’estero), ma anche sui cambiamenti generati all’interno dell’intera filiera produttiva. I grafici intervistati da Galluzzo raccontano anche quanto sia stata lenta, e per taluni persino traumatica, la presa di coscienza che le tecnologie elettroniche e digitali non sono riducibili a “strumenti” esterni al lavoro del designer, a semplici attrezzi al servizio del processo ideativo e progettuale.

Prima ancora che negli studi dei graphic designer l’ambito in cui gli effetti della “rivoluzione digitale” sono stati più immediatamente evidenti è quello della tipografia. All’inizio degli anni novanta molte delle trasformazioni portate dal computer si erano già compiute e avevano investito il progetto, la produzione e la distribuzione di caratteri tipografici. Per questa ragione abbiamo scelto di ripubblicare un testo di Robin Kinross del 1992, Digital wave, e abbiamo chiesto a Luciano Perondi di farne una rilettura sulla base della sua personale esperienza e conoscenza del settore e alla luce dei cambiamenti intervenuti dalla data della sua prima pubblicazione a oggi. In un contributo denso e ricco di informazioni, Perondi discute soprattutto quelle esperienze menzionate nel testo di Kinross che hanno maggiormente influenzato i decenni successivi, dal primo lavoro fatto presso Adobe alla nascita delle fonderie indipendenti, esaminandone le ricadute in termini di nuovi strumenti e modalità di progettazione, sul piano commerciale e della distribuzione, e nel campo della didattica.

Infine, chiudono il numero le recensioni delle pubblicazioni di Johanna Drucker, Graphesis, e di Helen Armstrong, Digital Design Theory, rispettivamente di Andrea Facchetti e Maddalena Dalla Mura.

Nel definire gli obiettivi del n. 8 di “AIS/Design. Storia e Ricerche” ci siamo trovati a discutere in merito alla inclusione o meno di una grande tematica e sfida che pur riguarda la storia più recente e futura del graphic design: la duplice questione della digitalizzazione delle fonti della grafica e della conservazione, dello studio e della interpretazione del design nato digitale. L’ampiezza e la particolarità del tema – che pone sfide specifiche, ancora troppo trascurate da istituzioni e storici del settore – ci hanno spinti a rimandarne la trattazione ad altra occasione. Nondimeno abbiamo deciso di invitare Simona De Iulio e Fabiola Leone a esporre i primi risultati delle loro ricerche – in corso presso il laboratorio GERiiCO dell’Université Lille3 e nell’ambito di un dottorato in co-tutela con l’Università Iuav di Venezia – sulle pratiche di digitalizzazione degli artefatti grafici presso archivi e collezioni istituzionali. Le autrici rendono conto del caso studio della sezione Publicité/Design Graphique del Musée des Arts Décoratifs di Parigi. Osservando da vicino e riflettendo sul ruolo che le nuove forme di riproduzione, visualizzazione e valorizzazione hanno nell’animare gli archivi e le collezioni di manifesti, stampati e altri dispositivi di comunicazione pubblicitaria. De Iulio e Leone lasciano sedimentare spunti e domande che riguardano gli stessi storici e una possibile storia digitale del design (si veda anche Dalla Mura, 2016).

L’avvento dell’elettronica e poi del computer ha costretto la comunità dei graphic designer a confrontarsi ancora una volta, ma in maniera forse più profonda e radicale, con la natura propriamente tecnologica del loro operare: una sfida che ha provocato reazioni diverse, complesse e anche contraddittorie, imperniate, in definitiva, attorno alla soluzione di binomi e contrapposizioni sempre meno facilmente sostenibili – in primis quello fra tecnologia e cultura. Non va dimenticato il fatto che nel Novecento la diffusione di dispositivi tecnologici che fungevano da veicoli di cultura (si pensi alle apparecchiature radio-televisive, a tutte le forme di comunicazione, telefono compreso, agli apparecchi per la musica, alla fotografia, al cinema e via dicendo), attestava che le forme della cultura contemporanea erano e sono intrinsecamente connesse ai loro supporti tecnici. Questo fatto si è lentamente imposto nella coscienza sociale, tanto che la cultura non è di fatto più pensabile al di fuori delle tecnologie. Per i designer allora si è trattato non soltanto di imparare modi nuovi di progettare usando il computer e i software, incorporando nel proprio mestiere mansioni prima affidate a figure professionali diverse, ma anche di riconoscere che la pratica del design è eminentemente tecnica, in quanto la tecnica è essa stessa un prodotto dei processi culturali della società. Anche per questa ragione, occuparsi della storia dell’impatto del digitale nel campo del graphic design, oltre ad avere un valore per la storiografia del settore, ha una valenza più estesa per la storia del design. I cambiamenti che negli anni più recenti stanno riconfigurando la pratica, la produzione e l’economia del design – pensiamo alla stampa 3D e al fenomeno dei maker – hanno molti punti in comune con i mutamenti che, a partire da trent’anni fa, hanno attraversato progressivamente ogni aspetto, ideativo ed esecutivo, della grafica. In questo senso, studiare la relazione tra graphic design, tecnologie elettroniche e media digitali significa affrontare e impostare questioni operative, concettuali e metodologiche di ampio respiro, che possono servire alla storiografia del design, ma che sono utili anche per riflettere sul mondo contemporaneo.


 

Riferimenti bibliografici

Armstrong H. A cura di. (2016). Digital Design Theory: Readings from the Field. Con una introduzione [visiva] di Keetra Dean Dixon, New York: Princeton Architectural Press.

Dalla Mura M. (2016). Entering Digital Design History. In A. Benincasa, G. Camuffo, M. Dalla Mura, C. Upmeier, C. Vinti, a cura di, Graphic Design: History and Practice (189-214), Bolzano: bu,press. (Versione in italiano disponibile via http://www.maddamura.eu.)

Drucker, J. (2014). Graphesis: Visual Forms of Knowledge Production. Cambridge, MA: Harvard University Press.

Kinross, R. (1992). Modern typography: An essay in critical history. London: Hyphen Press.

Kinross, R. (1992, estate). The digital wave. Eye, 7, 2.

Kinross, R. (2004). Some features of the font explosion. Idea, 305, 8-17.

Poynor, R. (2003). No More Rules: Graphic Design and Postmodernism. New Haven, CT: Yale University Press.


 

Note    (↵ returns to text)

  1. Tomas Garcia Ferrari, email, 12 maggio 2015, PhD-Design mailing list.
  2. Ringraziamo Briar Levit per averci aggiornati sul progetto e averci inviato alcune preview del video.

Perché c’è voluto tanto: Sviluppare la mentalità del design nelle industrie tecnologiche


Warning: Parameter 2 to qtranxf_postsFilter() expected to be a reference, value given in /web/htdocs/www.aisdesign.org/home/aisd/wp-includes/class-wp-hook.php on line 286

Negli anni settanta e ottanta le interfacce del computer apparivano ancora grezze e poco accessibili. Il “valore” del design, pur divenuto una qualità riconosciuta per gli oggetti d’uso quotidiano, era costantemente e generalmente ignorato o osteggiato dalle industrie tecnologiche. Solo recentemente l’industria del computer ha manifestato entusiasmo per tale valore e per la mentalità dei designer. In questo saggio l’autrice – che ha fatto esperienza in prima persona della transizione dalla stampa tipografica all’offset fino all’interaction design – individua otto ragioni che spiegano perché c’è voluto tanto per tale riconoscimento e indica le responsabilità che in questo ritardo hanno avuto le diverse culture del design, dell’educazione, dell’ingegneria e delle aziende.


Questo articolo è disponibile solo in inglese.

Why it took so long: Developing the design mindset in the technology industries

 

Le Pleiadi: una prospettiva storica sulla costellazione delle protagoniste della rivoluzione tecnologica e del design digitale

L’introduzione delle tecnologie digitali nel mondo del graphic design a partire dagli anni ottanta dà origine a un insieme di competenze, metodologie e figure professionali che può essere indicato con l’espressione digital design. In questo contesto, molte donne sono state protagoniste, presenze significative e strategiche, contribuendo con intuizioni teoriche, approcci multidisciplinari e originalità progettuale.
L’articolo propone una narrazione alternativa dello sviluppo del digital design, identificando e ripercorrendo il lavoro di figure femminili – sette come la costellazione delle Pleiadi – a vario titolo archetipiche dell’incontro tra cultura progettuale e mondi digitali: Brenda Laurel, Laurie Anderson, Susan Kare, Amy Franceschini, Lynda Weinman, Molly E. Holzschlag e Sherry Turkle.
L’obiettivo è sia delineare una storia dal punto di vista delle donne, sia mappare e sedimentare, per futuri approfondimenti, una serie di questioni relative allo statuto disciplinare del graphic design in seguito all’incontro con le tecnologie digitali e di vicende che rischiano di rimanere in ombra, come le loro protagoniste.


1. Percorsi femminili per una storia del digital design

Affrontare la storia della nascita e dello sviluppo delle discipline del design della comunicazione visiva che hanno come epicentro la progettazione dell’esperienza, delle interazioni e delle interfacce utente in ambiente digitale significa imbattersi in molteplici questioni. In primo luogo il tema delle tecnologie informatiche e digitali pone di fronte al problema di una definizione significativa e condivisa.[1] Da un lato, infatti, l’espressione new media, implica la contrapposizione tra vecchio e nuovo, tra qualcosa di preesistente e qualcosa che emerge nel panorama mediale in un dato punto dell’evoluzione dell’ecosistema comunicativo e tecnologico, fenomeno storico difficile da fissare stabilmente considerata la rapida e costante evoluzione dei processi di innovazione. Dall’altro lato, un’espressione come digital design,[2] ponendo l’enfasi sulla tecnologia e, indirettamente, sul salto evolutivo che contrappone la trasmissione analogica e quella digitale, rischia, in un contesto sempre più accelerato e frammentato di dispositivi e tecnologie, di risultare parziale e, particolarmente dal punto di vista del design, troppo focalizzata sugli aspetti strumentali, temporanei, piuttosto che sulla evoluzione della cultura di progetto e delle sue declinazioni.

Anche mettendo da parte le questioni strettamente definitorie – e in questo articolo si è scelto di usare l’espressione omnicomprensiva, pur nella sua vaghezza, digital design – sembra mancare una concezione e una comprensione che sia al tempo stesso unificante di una serie di fenomeni eterogenei che, nel lungo periodo, hanno concorso alla costruzione dell’attuale panorama disciplinare, teorico e professionale e capace di rendere conto di osmosi e scambi con altri mondi e contributi.

Nel quadro di questa difficoltà, una possibilità che si vuole provare a proporre e percorrere in questo articolo – quasi un escamotage per iniziare un nuovo percorso di ricerca – è quella di adottare una prospettiva al femminile.

Lo spunto per una storia “al femminile” dell’incontro fra design e tecnologie elettroniche e digitali viene da varie vicende che hanno visto coinvolte le donne nell’origine e nell’evoluzione delle Information and Communication Technologies (ICT). A partire da una figura come Ada Lovelace Byron (Londra, 1815-1852), la brillante matematica, l’“incantatrice dei numeri” come la definì Charles Babbage, alla cui macchina analitica collaborò scrivendo un algoritmo che è considerato il primo programma della storia, la base della programmazione che consente all’hardware di operare. Nel Novecento, d’altra parte, non sono certo mancati casi di donne coinvolte nei team di importanti progetti nel settore dello sviluppo software e della programmazione – per citarne una, Margaret Hamilton che, a capo del team del MIT Instrumental Laboratory, ha sviluppato il programma per l’allunaggio dell’Apollo 11 permettendo la conquista da parte dell’uomo del suolo lunare e alla quale si deve, inoltre, il termine software engineering.

Al di là di singoli episodi emblematici, tuttavia, ciò che sembra particolarmente promettente in una storicizzazione che ponga al centro il contributo delle protagoniste, è la possibilità che nelle loro storie “altre”, ovvero nelle storie di alcune fra loro archetipiche, formatesi ai margini di ambiti disparati, si annidino elementi e spunti importanti per ripercorrere l’origine e l’evoluzione di pratiche e applicazioni nate all’intersezione di discipline diverse. Allo stesso tempo, il tentativo di far emergere e di ricollocare nella narrazione ufficiale dell’epopea della rivoluzione digitale, dagli anni sessanta fino ai giorni nostri, le protagoniste femminili, è una direzione utile per indagare l’“alterità” del loro contributo. Una alterità intuibile, ma ancora da identificare, definire e mappare nelle sue peculiarità e linee di sviluppo.

Il passo che si è scelto di compiere in questo articolo, per connettere i punti di una storia ancora in gran parte da scrivere, è, dunque, l’individuazione – sulla base della letteratura specialistica disponibile e delle testimonianze dirette accessibili in rete – di alcune figure rappresentative dei maggiori ambiti disciplinari della complessa galassia di pratiche, teorie e contributi che confluiscono nel mondo della progettazione digitale.

2. Le Pleiadi: una costellazione archetipica

La progettazione digitale è una costellazione articolata, con origini eterogenee. Il design delle interfacce – grafiche, visive, tattili, multimodali, aptiche – può essere interpretata come una migrazione in ambito tecnologico della cultura e delle competenze del graphic design, da cui mutua i fondamenti disciplinari. Al contempo, la presenza di aspetti d’interazione e di design dell’esperienza utente rimandano all’approccio concettuale e professionale ibrido mutuabile da varie eso-discipline, “altre” per metodi e origini, ma convergenti nella costruzione di ecosistemi comunicativi così come proposto da Garret (2000) nel classico schema The elements of user experience.[3]

Nella progettazione dell’interfaccia (1) – luogo strutturale di accoppiamento tra scopo e strumento, secondo Bonsiepe (1993), ovvero la protesi cognitiva e sociale rappresentata da internet nelle sue varie declinazioni, come i social network e il mobile – confluiscono contributi di interaction design (2), multimodalità (3), psicologia cognitiva e sociale (4), sviluppo di codice per il front end (5) e uso di software per il web design (6), fino ai linguaggi sperimentali dell’arte e delle avanguardie (7): è questo mondo articolato che costituisce il complesso bacino teorico e progettuale a cui guardare per individuare figure e protagoniste e tracciarne una narrazione.

Nella difficoltà, o come spunto iniziale, di una ricognizione storica puntuale e complessiva, la ricerca propone un percorso possibile che individua sette figure archetipiche – una sorta di costellazione di sette sorelle come le mitologiche Pleiadi – all’interno di tali differenti mondi disciplinari, teorici e professionali che orbitano intorno al settore delle tecnologie dell’informazione e della comunicazione e alla loro progettazione visiva e multimodale.

Ciascuna di esse rappresenta un punto di partenza, di rottura o di possibile sviluppo in uno specifico ambito della comunicazione visiva[4] intesa nella sua più ampia prospettiva disciplinare e di intersezione con altri approcci culturali e metodologici, eterogenei, ma convergenti che caratterizzando l’ampio mondo del digital design.

Seguendo il lavoro delle figure individuate ci sembra possibile delineare un’evoluzione storica – si parte dagli anni ottanta con le speculazioni teoriche di Brenda Laurel (par. 2.1; interaction design) e il contributo progettuale di Susan Kare (par. 2.2; interface design), per passare agli anni novanta con la maturità della ricerca artistica applicata alle perfomance multimediali di Laurel Anderson (par. 2.3; multimodalità), le contaminazioni transdisciplinari di Amy Franceschini (par. 2.4 design sperimentale dell’arte), l’attività formativa e di divulgazione di Lynda Weinman (par. 2.5, codice per il front end), per approdare ai giorni nostri con il lavoro di convergenza tra design e tecnologia di Molly E. Holzschalg (par. 2.6 web design), fino all’analisi dei fenomeni contemporanei della dualità di rapporto tra rappresentazione del sé ed esperienze virtuali di Sherry Turkle (par. 2.7 psicologia cognitiva e sociale).

La poliedricità dei contributi offre un punto di vista trasversale e articolato che permette di mettere a fuoco la definizione e la mappatura stessa del digital design.

2.1 Brenda Laurel e l’interaction design. La metafora scenica come modello di interazione uomo/computer

L’attività imprenditoriale e progettuale della Laurel abbraccia diversi periodi e decadi della storia dei nuovi media, rendendo questa teorica e professionista una delle figure più poliedriche nel settore.

Brenda Laurel – a partire dagli studi svolti presso la DePauw University, con una laurea in Speech and theatre nel 1972 e il dottorato presso la Ohio State University nel 1986 – elabora l’intuizione che capovolge la prospettiva sul rapporto tra utente e calcolatore nel mondo della nascente disciplina della Human-Computer Interaction[5] nella seconda metà degli anni ottanta. L’approccio verrà formalizzato nel testo Computer as a theatre pubblicato nel 1991 (Laurel 1991). Come ha sottolineato Donald Norman, teorico e critico del design, nella prefazione alla seconda edizione pubblicata nel 2013

Theatre is about interaction, about themes and conflicts, goals and approaches to those goals, frustration, success, tension, and then the resolution of that tension. Theatre is dynamic, changing, always in motion. Our modern technologies with their powerful computers, multiple sensors, communication links, and displays are also about interaction, and treating that interaction as theatre proves to be rich, enlightening, and powerful (Laurel 2013).

Mentre iniziava a consolidarsi il modello delle Graphical User Interface (GUI) introdotto nel 1984 da Apple, basate su metafore visive, quali la scrivania, le finestre e le icone, la Laurel propone, a sua volta, la metafora dell’azione teatrale aristotelica come chiave di lettura dell’interazione uomo-macchina, sottintendendo che, quest’ultima, ha luogo non sullo schermo, bensì “al di là” dello schermo. Questa concezione permette un ulteriore passaggio critico per lo sviluppo successivo che vede il computer come un medium e l’interfaccia come uno strumento attivo che consente un “atto di esperienza”, fatto di gesti, azioni, comportamenti, sensazioni, conoscenza, esplorazione e invenzione (cfr. Bollini 2008) . Come in una vera rappresentazione teatrale, dunque, l’interazione avviene intorno a un’azione che evolve e coinvolge l’utente come protagonista di un’esperienza concettuale ed emozionale. L’autrice, infatti, afferma: “the notion that when people were using computers they were interacting in representational worlds, much more like plays in which they were characters than computers on which they ran programs” (Laurel, 2013).

Un secondo settore, o periodo, di attività coincide con la fondazione, dopo una esperienza in Atari, di Purple Moon nel 1996, la prima azienda statunitense del settore esplicitamente dedicata alla progettazione e realizzazione di video giochi per un pubblico femminile. Il presupposto è che, contrariamente a un certo pregiudizio culturale, le ragazze siano interessate ai video giochi, ma che questi ultimi siano pensati per uno specifico segmento demografico che non rappresenta, né include target femminili. I progetti Secret Paths in the forest (1997) e Rockett’s secret invitation (1998) (realizzati prima dell’acquisizione di Purple Moon da parte della Mattel nel 1999) affrontano l’esperienza di gaming utilizzando una narrativa più legata alla quotidianità, all’interazione sociali complesse e basata su valori più tipicamente verbali e transmediali, rispetto allo scenario operativo, attivo e materiale degli altri video giochi. Al di là dei rilievi mossi successivamente a questo approccio da parte di quanti hanno osservato che esso, in definitiva, rafforza gli stereotipi di genere anziché superarli o proporre una reale alternativa come fa notare la Hernandez (2012), è importante, comunque, sottolineare l’intuizione e la posizione pio-nieristica della Laurel che preconizza problematiche e movimenti di pensiero che oggi, a distanza di una ventina d’anni, iniziano a diventare il focus del dibattito sul mondo dell’ICT e dell’accesso delle donne in questi settori professionali. L’interesse per il girl video-gaming ha, inoltre, aperto la strada alle successive generazioni di ragazze e donne che – come utenti, come progettiste o come sviluppatrici – hanno iniziato a inserirsi ed esprimersi in questo ambito, tra queste, oltre alle protagoniste storiche della scena internazionale, vanno ricordate, nel panorama contemporaneo italiano, le Girl Geek e personalità emergenti come Claudia Molinari (Rossi 2014). Il percorso teorico della Laurel, iniziato negli anni ottanta, si sviluppa ulteriormente e si arricchisce di spunti tratti dalla sperimentazione sulla realtà virtuale, trovando spazio nella seconda edizione di Computer as a theatre. L’interesse della Laurel si rivolge a questo settore negli anni novanta quando fonda Telepresence Research, un’azienda focalizzata sullo studio e l’applicazione di realtà virtuale e remote presence. Paradigmatica l’esperienza Placeholder del 1994, un’installazione per il Banff Center for Arts in collaborazione con la Strickland che – a differenza delle tendenze di allora, portate a immaginare mondi irreali e possibili tramite data-glove o visori – lavora su aspetti di multimodalità, sinestesia, prossemica e cinestetica preconizzando fenomeni come l’internet delle cose (internet of things), le interfacce aptiche e l’ambiente intelligente (intelligent environment). È forse questo l’ambito in cui la teoria dell’interazione teatrale esprime la sua più piena maturità concettuale e applicativa, in cui l’utente e la macchina trovano un punto d’incontro spaziale e di manipolazione diretta non più vincolato dal limite bidimensionale del monitor e dall’opacità del suo “oltre”.

2.2 Laurie Anderson e la multimodalità: la Gesamtkunstwerk elettronica e le performance interattive

Laurie Anderson – nata a Chicago nel 1947, ma attiva soprattutto nella scena dell’avanguardia newyorkese dove si laurea presso la Columbia University in scultura nei primi anni settanta – incarna e attualizza, traslandolo nel mondo del digitale, il concetto wagneriano di Gesamtkunstwerk, l’opera d’arte totale, in cui i diversi canali e linguaggi artistici si amalgamano e si fondo per dare origine a un unicum esperienziale mediato dalla tecnologia. Allo stesso tempo rappresenta la più concreta realizzazione, in termini di rappresentazione e d’interazione, dei principi teorici enunciati dalla Laurel. Artista, compositrice, musicista, performer la Anderson è considerata l’essenza dell’artista multimediale o – meglio – multimodale. Sperimentatrice delle forme del teatro tradizionale coniugate con la tecnologia informatica, la A. realizza vere e proprie performance multimediali in cui all’azione scenica sul palco si sovrappongono proiezioni di immagini, video psichedelici, sintetizzatori vocali. È la trasposizione del linguaggio della rappresentazione nei diversi canali/media espressivi: film, video, libri musica. Come nel suo maggiore successo United States del 1979-1983 in cui la complessità e le mutevoli contraddizioni degli States vengono narrate con un ritmo ipnotico a spirale crescente, con una gestualità carica di tecnologia, meccanica frammentata e sintetizzata, che finisce di sbocciare nei ritmi vocali che definiscono le affascinanti sonorità delle sue produzioni musicali, surreali proiezioni animate a più strati, strani e complessi effetti di luci, la convergenza multimediale che crea il teatro magico dell’epoca post-moderna” (cfr. Bollini 2004).

L’opera della Anderson si snoda lungo percorsi che ibridano la componente sonora – musicale e compositiva – con i linguaggi espressivi dei media digitali, cinematografici e figurativi in una integrazione coreica e spaziale della performance, tipica delle neo-avanguardie, in un atto registico che plasma, amalgama e genera una nuova poetica della performance art che si fa portatrice di contenuti critici e di denuncia della società di massa, pur rimanendo ad essa accessibile in termini culturali. Le collaborazioni trasversali con John Cage, Robert Wilson, Peter Gabriel, o i riferimenti impliciti a Fluxus e all’avanguardia elettronica di Edgard Varèse si fondono in un rapporto tra arte tecnologia inscindibile: la dimensione visiva planare, ibridata con la performance sonora, diventa quadridimensionale, spaziale, temporale, multimodale. L’opera della Anderson apre prospettive possibili nel progetto digitale e offre una critica – presente già in United States e ripresa in opere successive sulla “visione quasi huxleyana della realtà occidentale, fatta di robot antropomorfizzati e uomini-automi, alienazione e inquietudini latenti” (Goldberg 2000) – temi psicologici e sociali che si ritrovano nelle ricerche della Turkle (si veda infra par. 2.7).

Dal 1995 e nei successivi cinque anni, Laurie Anderson porta in tournée mondiale The never bible, la sua più grande performance multimediale. Lei stessa afferma:

Quando feci il mio primo CD-Rom […] cominciai a pensare: ‘Qui c’è un pezzo che comprende immagini, suono e elettronica, e li posso mescolare’. È un tipo di realizzazione di arte digitale che corrisponde al modo di funzionare della mente, perché fa interagire tra di loro le cose. È un mezzo circolare e insiste in punti che si toccano lungo la via. Mi è sempre piaciuto il viaggio. E se è abbastanza interessante non mi pongo limiti.

Inoltre, come rileva Fabretti, “L’irruzione di Laurie Anderson nel contest rock ha spazzato via i facili velleitarismi dei ‘dandy elettronici’ degli Ottanta e imposto una figura di artista a tutto tondo con pochi pari, che ridefinisce del tutto il ruolo femminile nell’ambito musicale” (Fabretti s.d.).
Forse più conosciuta per la componente musicale del suo lavoro artistico, la Anderson rappresenta, tuttavia, con la sua sperimentazione sul palco, le performance e l’interazione scenica mediale e tecnologica una delle forme più significative della sperimentazione della metafora teatrale in termini progettuali e pratici.

2.3 Susan Kare e il visual design: icono-grafica e tipo-grafica digitale

Susan Kare, nata a Itacha nel 1954, dopo la laurea e il dottorato in Fine Arts presso la New York University si trasferisce in California dove inizia, nei primissimi anni ottanta, la collaborazione con la Apple. Viene definita dal Museum of Modern Art[6] come “a pioneering and influential computer iconographer. Since 1983, Kare has designed thousands of icons for the world’s leading companies. Utilizing a minimalist grid of pixels and constructed with mosaic-like precision, her icons communicate their function immediately and memorably, with wit and style”.

È a lei, infatti, che contribuisce significativamente a creare un’immagine grafica complessiva – in termini visivi, simbolici e tipografici – della metafora del desktop della Apple. La Kare progetta le singole icone usate sia nel sistema operativo Macintosh, che nei principali software. Sempre per il sistema operativo disegna alcune tra le prime screen font, come il Chicago. Questi nuovi caratteri, anche se bitmap, sono espressamente pensati per una buona visualizzazione a monitor (allora senza nessun effetto di anti-aliasing e di smoothing, ovvero arrotondamento, del contorno) con una qualità formale ed espressiva tipica dei caratteri tipografici da stampa e la leggibilità necessaria per la lettura sullo schermo.

La Kare inizia già nel 1980 la collaborazione con Apple Computer e nel 1982 entra nel team di sviluppo Software Group. Al suo arrivo, solo alcuni elementi erano già stati sommariamente o concettualmente delineati: l’icona del file (il documento con l’angolo piegato), il cestino e l’elevator (cioè la scroll-bar). Da questi spunti, nati nella prima versione di Lisa con il supporto, prima, solo di carta e matita e, poi, di MacSketch (a sua volta in fase di sviluppo prima di essere commercializzato come MacPaint) inizia il percorso che porterà a definire il repertorio delle icone per le applicazioni: l’Happy Mac di benvenuto (mantenuto fino alla versione OSX), i simboli degli strumenti per il disegno di MacPaint e l’Elefont, prima versione del Chicago a cui seguiranno il Geneva, il mono-spaziato Monaco, il pittografico Cairo (Crockett 2014) e l’iconema command della tastiera standard, un ibrido tra la croce di Sant’Hannes e un castello visto dall’alto, mutuato dai sistemi segnaletici scandinavi (Gonzales 2016).

Partendo da una formazione plastico-artistica – “I didn’t have any computer experience, but I had experience in graphic design” ricorda in un’intervista (Pan 2000) – Kare attinge ai principi della propria cultura di graphic designer per traslarli nel mondo della tecnologia e del’interazione. Malgrado la limitatezza delle possibilità offerte del mezzo – una griglia di pixel bianchi e neri – il suo lavoro declina innovazione, facilità d’uso, sintesi e friendliness nella sfida pionieristica di disegnare la prima interfaccia visuale e il relativo glossario di icone ponendo l’immaginario e gli standard del futuro sviluppo delle GUI.

Nell’opera della Kare possiamo anche ravvisare il nucleo di quella che potremmo definire la visual usability (Schlatter & Levinson 2013) ovvero la componente dedicata all’usabilità degli elementi grafici singoli e dell’intera interfaccia. Come lei stessa dichiara:

We took a very common sense approach. […] I like to think that good icons are instantly recognizable— even if someone’s never seen it, you can ask them what it does, and they get it— or it’s so easy to remember that if someone tells you want it is once, it’s easy to remember when you look at it. I think that’s a lot to ask of a symbol, that if you tested it everyone would all have the same one-word response as its function. But I think I had then, and still have, more of a common sense than a scientific approach to that kind of thing. […] when I said ‘not scientific’, really what I meant was informal user testing, showing a lot of people and just asking them what they thought. When choosing an icon for the fill function in MacPaint, I tried paint rollers and other concepts, but I guess the pouring paint can made the most sense to people. (Pan 2000).

Il concetto di finestra, condiviso con gli sviluppatori Andy Hertzfeld e Steve Capps; la “matericità” della barra del titolo, pur nella planarità dell’interfaccia, ottenuta tramite il pattern di righe orizzontali; la gerarchia data dalla possibilità di sovrapporre gli elementi su diversi livelli e la loro variabilità (tri)dimensionale, creano un effetto gerarchico che fa riferimento all’ergonomia, alla percezione e all’estetica, cioè ai 3 concetti cardine alla base della nozione di usabilità.

Dall’intervista rilasciata a Pang, emerge una presenza più ampia e rilevante delle donne, anche in posizioni apicali, all’interno delle diverse divisioni Apple. Tra queste Patti Kenyon, la “bibliotecaria” del software, Ellen Romana del Creative Service, Caroline Rose, Sandy Miranda, Debbie Coleman, CFO (Chief of Financial Officer) o la stessa Kare diventata Creative Director in Apple e NeXT prima di tornare all’attività libero professionale come pixel artist e di consulenza che la vedranno coinvolta con clienti come Windows, Facebook e altri grandi protagonisti del settore informatico.

2.4 Lynda Weinman e il web design: life-long learning e l’autoapprendimento del web design

In un mondo nascente, come quello del web, chi muoveva i primi passi negli anni novanta come designer di interfacce grafiche era inevitabilmente un autodidatta. Spesso si era costretti a confrontarsi con linee guida estremamente tecniche, meta-materiali e specifiche trovate on line o a imparare dagli escamotage ideati da altri progettisti per piegare la tecnologia e i linguaggi di programmazione alle necessità espressiva della nascente comunicazione digitale di massa e alle istanze culturali del visual design dai pochi siti esistenti.

Nata nel 1955 e formatasi all’Evergreen State College in Olympia (Washington) in studi umanistici, Lynda Weinman s’inserisce in questo panorama dividendosi tra l’insegnamento in aula – Computer Graphics all’Art Center College di Pasadena dal 1989 – e la divulgazione editoriale. La Weinman è considerata la prima ad aver affrontato la questione della progettazione e della produzione di artefatti digitali – all’epoca i primi siti internet a cui era possibile dare anche una veste grafica – dal punto di vista del visual design anziché della tecnologia. L’esperienza viene formalizzata e condivisa nel libro Designing web graphics del 1995, considerato una pietra miliare nel settore. Come lei stessa racconta in un’intervista a Thiffany Pham:

In 1982, my boyfriend at the time challenged me to help him with his new computer. I started to read the manual and was mortified by how it was written by engineers for other engineers, with no sensitivity to the uninitiated. […] As the computer era gained popularity, I started sharing what I taught myself with others, and after years of this ‘hobby’ realized that I had a gift for simplifying technical instructions and had a true passion for teaching (Pham 2015).

Il metodo didattico accosta aspetti formali – i principi culturali e teorici – e fattuali – how-to, esempi pratici e/o procedurali, analisi e riproduzione di casi studio – in un equilibrio inedito, almeno per un settore ibrido, a cavallo tra design e informatica, come quello del design delle interfacce e della grafica applicata al digitale.

L’innovazione alla base del grande successo internazionale (sebbene in Italia sia stato tradotto solo il primo libro: Grafica per Internet. Dal progetto alla realizzazione dalla Jackson libri nel 1997) è l’aver saputo cogliere la necessità di rendere accessibile la tecnologia anche al mondo del design e della grafica, intendendola non come il fine del processo di formazione, ma come uno strumento per fare. Il web con i suoi linguaggi di markup e scripting sono strumenti principalmente di comunicazione e, in questo senso, appannaggio delle competenze progettuali.
La dimensione più originale della Weinman, tuttavia, è nell’avere intuito e cavalcato le trasformazioni in atto: da un lato la necessità di una formazione permeante e specialistica pensata soprattutto per i professionisti, dall’altro, le possibilità che l’online offriva per la diffusione e l’erogazione dei suoi contenuti e tutorial.

Gli strumenti e i supporti didattici adottati evolvono costantemente nel tempo trasformando le risorse gratuite on line in un business. Al mutare del contesto e del pubblico, sempre più vasto, internazionale e remoto, si passa da un modello formativo tradizionale – in presenza in aula e tramite i libri, supporto alla lezione e materiali di apprendimento e approfondimento stand-alone – a quello multimediale che affianca, alle risorse d’aula e cartacee, CD-Rom interattivi, video e meta-contenuti pratici, fino all’attuale erogazione on-line di video-corsi segmentati in lezione frontali ed attività applicative individuale o di challenge tra i partecipanti di una data edizione tramite il portale lynda.com lanciato nel 1995.

Il sistema formativo proposto dalla Weinman precorre, dunque, sia il mondo dei vlogger e dei video tutorial, che le esperienze attuali dei MOOC (Massive Open Online Courses) inaugurati nel 2012 dalla piattaforma Coursera della Stanford University dove sono fruibili contenuti dei maggiori e più svariati insegnamenti universitari e dell’ICT in particolare.

Infine, anche gli argomenti si sono progressivamente aperti a nuove tematiche che, pur gravitando intorno alla galassia del digitale, si estendono al business, alla crescita personale, alle tecniche di time e project management ecc., così come sono aumentate le collaborazioni con professionisti e figure di spicco dei singoli settori, al punto che, nell’aprile del 2015, LinkedIn – il social network leader nel mondo professionale – ha acquisito lynda.com e integrato i suoi servizi nel proprio business come forma di supporto e sviluppo delle competenze lavorative e delle soft skills dei propri iscritti. La grande intuizione della Weinman e il suo contributo al mondo del graphic e del web design stanno, soprattutto, nell’aver individuato un modo didattico per trasmettere principi e competenze a cavallo di mondi disciplinari diversi e convergenti come quello del software e della comunicazione visiva.

2.5 Amy Franceschini e le contaminazioni sperimentali dell’arte: Tra web design e digital art

Amy Franceschini – nata nel 1970 a Patterson in California, formatasi in discipline artistiche, performative e giardinaggio alla San Francisco State University e alla Stanford University dove poi insegnerà – rappresenta un punto di vista anomalo nel panorama del web design e, allo stesso tempo, pionieristico nella nascita e nello sviluppo delle interfacce grafiche applicate al web. Presente sulla scena di San Francisco “dalla prima ora”, già nel 1995 lancia il progetto futurearmers.com – tutt’oggi attivo come piattaforma/collettivo ibrido di artisti, ricercatori, scienziati, designer, performer e farmers (coltivatori), che spaziano dal mondo del digital a quello della terra – elaborando concetti legati al rapporto tra uomo, tecnologia e natura in termini sociali e di eco-sostenibilità. (Adobe Web Gallery s.d.)
Dopo la specializzazione in fotografia, alla San Francisco State University, esordisce “precocemente” negli anni novanta nel mondo del web design sviluppando siti per grandi aziende come NEC e Autodesk, cui seguiranno altri grandi brand – cosa forse inconsueta per un’artista sperimentale – come Nike, Levis e Lucasfilms. Nel 1995 Amy Franceschini lancia, all’interno di Future Farmers, Atlas Magazine forum di arte e fotografia con cui vince un Webby Awards ed altre collaborazioni con progetti sperimentali come la partecipazione a The Remedi Project[7] una delle esperienze fondanti della cultura e dei linguaggi del web nata come interactive art gallery and exhibition nel 1997 dai pionieri della prima generazione di web designer.

La Franceschini è l’enfant-prodige e terrible della sperimentazione digitale e, al contempo, una figura di spicco del mondo professionale e istituzionale, l’artista sperimentale e l’azienda di consulenza senza apparente contraddizione. Antesignana di molti dei fenomeni che si svilupperanno nei decenni successivi, si contraddistingue per un design fortemente tridimensionale, materico, ludico, dalle forme plastiche e dai colori pastello, astratti, quasi a contrasto con quella ricerca invece di tattilità – come ella stessa dichiara in una intervista per Adobe – che le fa successivamente allontanare dal web per una ricerca espressiva più concreta e analogica:

Whether bird, human, or fish, she painstakingly models them [her characters] in Metacreation’s Infini-D 4.5, captures them as screens, and then painstakingly renders them either in to Adobe Photoshop images or as Web animations. ‘They take an awful lot of time’, she admits. ‘But it’s great when you finally make a character give a little wave. Then you think, wow, it’s alive’. (Adobe Web Gallery)

È l’effetto esemplificato dalla versione, ancora on line, di Atlas.[8] In questa ricerca, rispetto al panorama bidimensionale giocato su semplici campiture cromatiche o tridimensionale/fotografico – ben rappresentato da siti con sfondi con texture di mattoni o rotoli di pergamena – Amy Fransceschini trova una terza via originale, un linguaggio fatto di volumi e forme spaziali al contempo grafico e dinamico, realistico e simbolico.

Il suo percorso espressivo si discosta da subito dai mondi flat, tipici di chi lavora sull’interfaccia secondo i pattern imposti dal codice — un HTML ancora molto limitato dal punto di vista delle potenzialità presentazionali e lontano dalle potenzialità introdotte dai CSS (si veda il par. 2.6 dedicato alla Holzschlag).

Come designer può essere considerata come rappresentativa, sia pure in maniera originale, di molte delle protagoniste della prima generazione del web, presenti, ma raramente menzionate, che hanno partecipato attivamente alle diverse esperienze pionieristiche e sperimentali, come Irene Chan. Unica donna citata in New Masters of Flash, artista, progettista, programmatrice autrice del sito eneri.com, un percorso interiore e sperimentale che focalizza la propria poetica sulla dimensione emozionale dell’interazione multimodale: “I wanted my site to have an emotional impact on its visitors, not just entertain them with interactive craziness and experimental graphics” (Chan 2000, p. 261).

2.6 Molly E. Holzschlag e il web building: integrare design, tecnologia e standard

Se Amy Franscechini rappresenta il versante artistico, creativo e sperimentale del mondo di Internet, Molly Holzschalg incarna il contrappunto tecnologico, lo standard, inteso come forma condivisa di processi e di pattern che garantiscono – dall’ideazione all’implementazione – la compatibilità multipiattaforma e multi-browser di un sito secondo un approccio che pone le esigenze dell’utente al centro (user-centered design).

La Holzschalg, classe 1963, si forma al Liberal Arts, The Environment and Social Justice Prescott College, in Arizona e conclude gli studi al New School for Social Research di New York. È stata definita la “fata madrina del web”[9] per il suo importante contributo allo sviluppo del settore e già nel 1998 The San Francisco Chronicle la inseriva nella Top 10 Most Influential Women in Technology.

La Holzschlag è una evangelist [dare in italiano] dei web standard, sia come membro dei gruppi di lavoro del W3Cosortium – l’ente normativo degli standard condivisi del web, in particolare della Web Accesibility Initiative (WAI) dedicato all’accessibilità dei siti internet per utenze con forme diverse di disabilità – che del Web Standard Project (WaSP). Quest’ultimo, co-fondato con Jeffrey Zeldmann, rappresenta uno dei progetti più importanti per la normalizzazione degli standard che ha permesso di superare le difformità d’interpretazione del codice (HTML/CSS) dei browser e ha fatto cresce la consapevolezza tra i progettisti, i designer e gli sviluppatori nel garantire la fruibilità e l’esperienza che gli utenti fanno tutte le volte che navigano in un sito.

Nel testo del 2002 Integrated web design: Building the new breed of designer & develo-per la Holzschlag affronta una delle questioni più improntati del web design o, meglio, di quella frontiera ibrida che viene chiamata web building in cui si integrano, in termini progettuali e di sviluppo, le attività dei programmatori e dei designer. Figure professionali progettuali e tecnologiche coinvolte nel processo che porta all’ideazione e allo sviluppo di un sito web – rispettivamente front-end e back-end development – che rimangono, ancora troppo spesso, separate. In mezzo a questi due approcci, infatti, si trova l’interfaccia. Punto d’incontro dell’utente con i contenuti, l’identità, la comunicazione, l’architettura informativa, i servizi e la strategia – secondo il già citato schema di Garrett (2000) – l’interfaccia che rappresenta, anche, il contatto tra il mondo del design e dello sviluppo informatico, dei rispettivi contributi e competenze. Holzschlag intende contaminare i due versanti di questa collaborazione secondo un approccio olistico in cui il progettista comprende e acquisisce principi e nozioni tecnologiche e di programmazione e il programmatore impara i fondamenti del linguaggio visivo e dell’interazione per operare con un approccio integrato e ibrido in termini di competenze e di saperi disciplinari.
Le domande riportate nell’introduzione al volume del 2007 cui cerca di dare risposta sono: “Cosa fare affinché i designer riuscissero a pensare in termini di semantica e di struttura? Come far comprendere l’estetica a chi è abituato a pensare in modo analitico e programmatico?” (Clark & Holzschlag 2007).

Nel 2005 è co-autrice – anche se spesso il suo contributo è scarsamente ricordato e menzionato – con Dave Shea del testo The Zen of CSS design: Visual enlightenment for the web. Il libro rappresenta uno spartiacque nel mondo del web design e del front-end development. In esso i due autori illustrano, tramite una serie di esempi realizzati collaborativamente in rete, i profondi cambiamenti introdotti dai Cascading Style Sheet. I cosiddetti CSS stavano, allora, diventando definitamente il nuovo standard e soprattutto introducevano il concetto di layer presentazionale, a cui rimaneva sottesa la struttura semantica e gerarchica dell’HTML, per creare la componente visiva delle interfacce. Abbandonate le strutture tabellari, il trasparent dot – tecnica inventata da David Siegel (1997) – adottati negli anni novanta per piegare il codice di mark-up alle esigenze grafiche di un medium nato per una nicchia e diventato strumento di comunicazione di massa, i CSS diventano il modo per realizzare tramite codice – non più in grafica, caricando immagini realizzate in Photoshop – gli elementi tipografici, visivi, cromatici presenti nelle interfacce.

In una sorta di esercizio di stile, che ricorda quelli di Raymond Queneau, la Holzschlag e Shea propongono agli utenti, progettisti, designer di cimentarsi con una struttura base comune a tutti – testata orizzontale, colonna laterale verticale contente il menu di navigazione, pagina piedi pagina – e di realizzarne infinite versioni di look & feel tramite l’uso dei CSS. Il progetto, sebbene ormai abbia esaurito la sua forza sperimentale e di rottura, è ancora visibile all’URL: http://www.mezzoblue.com/zengarden/alldesigns a testimonianza della grandissima versatilità e potenzialità del nuovo standard tecnico.

2.7 Sherry Turkle e le scienze umane e sociali: psicologia e design dell’interazione sociale digitale

Eccentrica rispetto al mondo del design in senso stretto, la Turkle rappresenta, però, una di quelle realtà disciplinari borderline e di confine tra il mondo progettuale e l’area delle scienze della mente, sempre più coinvolte nei processi di ricerca alla base dello user-centered design, come l’antropologia culturale, gli studi etnografici, l’ergonomia e psicologia cognitive, la psicologia e la ricerca sociale. Nata a New York nel 1948 si laurea in Social Studies ad Harvard dove consegue un dottorato in Sociology and Personality Psychology. Attualmente insegna Social Studies of Science and Technology al MIT.

I suoi studi, che partono dalla psicoanalisi e dalle ricerche di Piaget, si focalizzano soprattutto sugli aspetti psicologici del rapporto tra le persone e la tecnologia.

Fondamentale, in questo senso, è il lavoro La vita sullo schermo (1995): partendo da un concetto analogo a quanto espresso da Vannevar Bush in As we may think (1945) – ovvero le possibilità e potenzialità aperte dalle tecnologie digitali nel mondo di organizzare e strutturare il pensiero e il sapere – la Turkle esplora come i computer incidono sul modo in cui pensiamo noi stessi, come esseri umani, nel nostro interagire con il cyberspazio e nel nostro percepirci in relazione alla tecnologia.

Le ricerche si focalizzano sui MUD, Multi User Dungeon/Dimension o Domain, video-giochi nati nel 1978, ambienti virtuali multi utente in cui le persone interagiscono in zone e stanze, originariamente via texting e, in seguito, tramite interfacce grafiche bi- e tridimensionali sempre più complesse, fino all’evoluzione in land, avatar e virtual social environment di SecondLife. La possibilità di assu-mere differenti personalità e il ruolo dell’interazione mediata dal virtuale diventa terreno di ricerca per comprende il concetto di identità e il mutare dei sui confini tra vita reale e vita simulata. L’intuizione fondamentale è quella di concepire il computer “as more than just a tool, but part of the everyday personal and psychological lives […] Technology catalyzes changes not only in what we do but in how we think” (Turkle 1984, pp. 18-19) ovvero parte fondante dell’esperienza intrapsichica contemporanea, con tutte le rilevanti e conseguenti implicazioni in termini di design dell’esperienza utente e del design delle interfacce.

L’ulteriore deriva nei rapporti umani viene approfondita studiando l’impatto non solo della tecnologia, ma anche della pervasività dei social media, come trasduttori e mediatori delle nostre relazioni interpersonali. Solitudine e socialità, reale e virtuale, emozioni e tecnologia hanno confini sempre più sbavati, sovrapposti, confusi in una sorta di prospettiva blurred che portano l’autrice ad una riflessione profondamente critica sulla deriva relazionale in cui i rapporti sociali si degradano a causa di una costante esposizione ad uno scambio che sembra significativo con l’intelligenza artificiale. (Turkle 2011). La prospettiva si amplia anche al futuro prossimo, ovvero al mondo cyborg e dei robot, alla nozione sempre più critica di privacy e controllo e a una sorta di effetto Goldilocks (l’effetto Riccioli d’oro) in cui la tecnologia sembra poter semplificare e dare risposte alla complessità e alla fatica delle relazioni umane.

Turkle riflette, inoltre, come già aveva fatto la Laurel, sul rapporto non lineare delle donne con la fenologia che definisce come soft mastery o bricolage idealmente in contrapposizione con l’hard mastery cioè alla linearità del pensiero astratto e della programmazione idealmente maschile.

3. Passato e futuro prossimi

Da questo primo tentativo di ricognizione, che individua figure di spicco e già conosciute del panorama internazionale, emerge la necessità di approfondire un percorso che possa ampliare i riferimenti a figure altrettanto significative, ma meno conosciute e un ulteriore mappatura focalizzata sul contributo delle figure femminili della storia italiana.

Illuminante, in questo senso, è stata una breve ricognizione tra le foto che narrano l’epopea che va dal primo passo dell’uomo sulla luna, passando per i laboratori della Apple,[10] fino alle conferenze e convention internazionali contemporanee in cui le donne compaiono a testimonianza del ruolo, della presenza e del contributo dato alle invenzioni, ai progetti, ai team, alle aziende, ma, spesso, senza essere menzionate. Presenze evidenti, ma cancellate: nel momento stesso in cui non vengono nominate, la loro esistenza è destinata all’oblio, o a rimanere una presenza accessoria, quasi come semplici comparse, nella coreografia generale.

Il percorso storico, inoltre, presuppone anche una chiave d’interpretazione del ruolo di queste figure nella storia complessiva dei new media. La mappatura delle protagoniste e del loro lavoro apre la possibilità, ancora da esplorare, di individuare e definire la specifica originalità del femminile nel settore del digital design: se e quali siano i contributi originali e peculiari del loro fare progettuale e teorico.


Riferimenti bibliografici

Carta del progetto grafico (1990, gennaio-febbraio). Carta del progetto grafico. LineaGrafica, 1.

Adobe (s.d.). The Future Farmers Harvest High-Tech Art For Big Name Clients. Adobe Web Gallery. S.d. http://www.adobe.com/uk/web/gallery/futurefarmers/index.html [consultato il 1° febbraio 2016].

Anceschi, G. (a cura di) (1993). Il design dell’interazione. Il progetto delle interfacce, oggetti colloquiali e protesi virtuali. Milano: Domus Academy.

Anderson, L. (1980). United States. https://youtu.be/IJZVz_M2oSM [consultato il 1° febbraio 2016].

Bollini, L. (2011). Multimodalità vs. Multimedialità. Il Verri, 16, 144-148.

Bollini, L. (2008). Registica multimodale. Il design dei new media. Seconda edizione. Santarcangelo di Romagna: Maggioli.

Bonsiepe, G. (1993). Il ruolo del design. In Anceschi, G. (a cura di) (1993). Il design dell’interazione. Il progetto delle interfacce, oggetti colloquiali e protesi virtuali. (pp. 165-190). Milano: Domus Academy.

Bush, V. (1945, luglio). As we may think. The Atlantic. http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881 [consultato il 1° febbraio 2016].

Card, S. K., Thomas P. M., Allen N. (1980, luglio). The keystroke-level model for user perfor-mance time with interactive systems. Communications of the ACM, 23, 7, 396–410.

Carlisle, J. H. (1976 giugno). Evaluating the impact of office automation on top management communication. Proceedings of National Computer Conference and Exposition (pp. 611-616), New York: ACM.

Chan, I. (2000). Rainfall. In M. Orgee & E. Baylis (a cura di). New Masters of Flash (pp. 259-285) Birgimgham: Friends Of ED.

Clark, A. & Holzschlag, M. (2007). Trascending CSS: the fine art of web design. San Francisco: New Riders.

Crockett, Z. (2014, 3 aprile). The Woman Behind Apple’s First Icons, Priceonomics. http://priceonomics.com/the-woman-behind-apples-first-icons/. [consultato il 1° febbraio 2016]

Dunn, L. (2015, 14 settembre). Women in Business Q&A: Lynda Weinman, Co-Founder and Executive Chair, lynda.com. Huffinghton Post,http://www.huffingtonpost.com/laura-dunn/women-in-business-qa-lynd_b_8135682.html. [consultato il 1° febbraio 2016]

Fabretti, C. (s.d.). Laurie Anderson, Il linguaggio è un virus. http://www.ondarock.it/altrisuoni/laurieanderson.htm. [consultato il 1° febbraio 2016]

Garrett, J. (2000). The Elements of User Experience. User-Centered Design for the Web. San Francisco: New Riders Publishing.

Goldberg, R. (2000). Laurie Anderson. New York: Harry N. Abrams Inc.

Gonzalez, R. (2016, 2 aprile). Iconic Designer Susan Kare Explains How ⌘ Came to Be. Wired. https://www.wired.com/2016/02/iconic-iconographer-susan-kare-explains-how-%E2%8C%98-came-to-be/ [consultato il 1° febbraio 2016].

“Susan Kare, John Gruber – Layers 2015” by Layers Design Conference on Vimeo.
https://vimeo.com/151277875 [consultato il 24 aprile 2016].

Hernandez, P. (2012, 28 maggio). She Tried To Make Good Video Games For Girls, Whatever That Meant. Gizmodo Media Group. http://kotaku.com/5913019/she-tried-to-make-good-video-games-for-girls-whatever-that-meant [consultato il 1° febbraio 2016].

Holzschlag, M. E. (2002). Integrated Web Design. Building the New Breed of Designer and Developer. San Francisco: New Riders Publishing.

Laurel, B. (1991). Computer as a theatre. New York: Addison and Wesley.

Laurel, B. (2013). Computer as a theatre. II edizione. New York: Addison and We-sley.

Moon, E. (1998, 30 gennaio). Webgrrls: Top 25 women on the Web. The San Francisco Chronicle, 30 gennaio 1998. http://www.sfchronicle.com/news/article/Webgrrls-Top-25-women-on-the-Web-3014827.php [consultato il 1° febbraio 2016].

Nelson, T. (1974). Computer Lib/Dream Machines. Self-published [Nelson, T. (1987). Computer Lib/Dream Machines. II edizione. Tempus Books of Microsoft Press.]

Pang, A. S. K. (2000). Interview with Susan Kare. Making the Macintosh, 14 luglio 2000. http://web.stanford.edu/dept/SUL/sites/mac/primary/interviews/kare/trans.html [consultato il 1° febbraio 2016].

Pham, T. (2015, 20 gennaio). How She Did It: Lynda Weinman, From Web Graphics And Design To Cofounder Of lynda.com. Forbes. http://www.forbes.com/sites/tiffanypham/2015/01/20/lynda-weinman-from-renowned-web-graphics-and-design-expert-to-co-founder-of-lynda-com/#472da7d37491 [consultato il 1° febbraio 2016]

Piccolo, S. & Puliti, F. (2015, 10 dicembre). L’informatica non è roba da ragazze? Negli anni ’70-’80 lo era, eccome. Corriere della Sera, http://www.corriere.it/scuola/universita/15_dicembre_10/informatica-ragazze-pisa-ada-lovelace-afd6444c-9f62-11e5-a5b0-fde61a79d58b.shtml [consultato il 1° febbraio 2016]

Pressley, N. (2016, 27 febbraio). Laurie Anderson: an artist like no other. The Washington Post. https://www.washingtonpost.com/entertainment/theater_dance/laurie-anderson-keeps-experimenting-next-with-letters-to-jack/2016/02/25/9a2166aa-d756-11e5-be55-2cc3c1e4b76b_story.html [consultato il 1° febbraio 2016]

S.a. (2015). America’s Richest Self-Made Women. Forbes. http://www.forbes.com/profile/lynda-weinman/ [consultato il 1° febbraio 2016]

Schlatter, T. & Levinson, D. (2013). Visual Usability. A book on principles and practices for designing digital applications. Morgan Kaufmann-Elsevier Group.

Shea, D. & Holzschlag, M. E. (2005). The Zen of CSS Design: Visual Enlightenment for the Web. San Francisco: Peachpit Press.

Sigel, D. (1995). Creating Killer Web Sites. New York: Macmillan.

Rossi, M. (2014, 22 luglio). Claudia Molinari: dal graphic al web game design. Girl Geek Life. http://www.girlgeeklife.com/2014/07/claudia-molinari-dal-graphic-al-game-design/ [consultato il 1° febbraio 2016]

The Remedi Project (2001). http://gmunk.com/The-Remedi-Project [consultato il 1° febbraio 2016].

Weinman, L. (1996). Grafica per Internet. Dal progetto alla realizzazione. Milano: Jackson libri.

Turkle, S. (1984). The second self: Computer and human spirit. Cambridge, Mass.: MIT Press.

Turkle, S. (1995). The life on screen: Identity in the age of the internet. New York: Simon & Schuster.

Turkle, S. (2011). Alone together: Why we expect more from technology and less from each other. New York: Basic Books.


Note    (↵ returns to text)

  1. Per una più ampia dissertazione sul tema della definizione e relativi usi e sbavature semantiche si rimanda ai testi: Multimedialità vs. Multimodalità (Bollini 2003) e al saggio Registica multimodale (Bollini 2008).
  2. In assenza di una definizione omnicomprensiva del campo di user experience e user interface design capace di accogliere e di evolvere parallelamente alle continue inno-vazioni tecnologiche, si sta diffondendo l’uso del termine digital design – nel settore della formazione, si vedano i corsi dell’Università di Vancouver, Amsterdam, fra altre; premi come il Digital Design Award e il Digital Design Contest; conferenze periodiche come Digital Design and Web Innovation di Los Angeles o i Digital Design (Milano, 27-29 ottobre 2016) – come alternativa a web design ormai obsoleto e limitante rispetto a fenomeni come il mobile, la realtà virtuale, la realtà aumentata, l’internet delle cose ecc.
  3. Il diagramma dell’autore è oggi visibile all’URL: pbs.twimg.com/media/CnnJ0k8VUAA9pdr.jpg:large. Lo schema pubblicato nella prima edizione è scaricabile all’URL: www.jjg.net/elements/pdf/elements.pdf (ultimo accesso alle fonti online consultate nel testo, luglio 2016).
  4. Per una più ampia discussione sulla definizione dell’ambito disciplinare del visual design e delle sue ulteriori declinazioni fino ai mondi digitali si rimanda, da un lato al dibattito inaugurato nel 1989 dalla Carta del Progetto Grafico e alle sue successive evoluzioni fino all’ultima stesura a seguito della Settimana Internazionale della Grafica tenutasi a Milano dal 4 all’8 dicembre 2015 in occasione del settantesimo anniversario della fondazione dell’AIAP e che ha visto tra gli altri coinvolti Giovanni Anceschi, Giovanni Baule, Valeria Bucchetti e Daniela Piscitelli. Per approfondimenti sulla Carta e le sue successive elaborazioni si vedano: il testo originale: http://www.aiap.it/documenti/8046/71, la sintesi visiva/mappatura proposta da Lussu in Carta del progetto grafico (gennaio-febbraio 1990). LineaGrafica, 1, e l’articolo La Carta del Progetto Grafico venticinque anni dopo. Una rilettura di Giovanni Baule, pubblicato nella sezione On Design History del sito di AIS/Design (1 novembre 2015).
  5. Il termine utilizzato per la prima volta da Carlisle (1976) nel 1975 è entrato nel dibattito comune grazie al contributo di Stuart K. Card, Allen Newell e Thomas P. Moran The Psychology of Human-Computer Interaction (1983). Questo testo e le sue successive evoluzioni definiscono il mondo della ricerca ergonomica e psicologica finalizzato all’osservazione e allo studio del rapporto tra le persone e i dispositivi digitali per migliorare e facilitare l’interazione.
  6. Così come riportato nel sito stesso della designer: kare.com/about/.
  7. Parte dei progetti presentati da sessanta artisti, tra il 1997 e il 2008, nella gallery della piattaforma The Remedi Project sono ancora visibili all’URL: gmunk.com/The-Remedi-Project. Purtroppo il dominio originario è attualmente utilizzato da un’altra attività.
  8. Visibile all’URL: www.atlasmagazine.com/win98.html.
  9. Come riportato nel suo sito personale: “a long-time friend and colleague once quipped ‘If Tim Berners-Lee is the father of the Web, than Molly is its fairy godmother’”, about.me/mollydotcom.
  10. Come Joanna Hoffmann il quinto uomo dello staff originale Apple e autrice del primo draft delle User Interface Guidelines visibile nella foto di copertina del volume di Andy Her-tzfeld: Revolution in The Valley: The Insanely Great Story of How the Mac Was Made pubblicato nel 2011.

Tavolieri digitali e percorsi videoludici

Con questo saggio intendo proporre l’analisi di alcuni elementi che hanno caratterizzato il passaggio all’era digitale della progettazione dei giochi da tavolo, passaggio che inizia quasi improvvisamente sul finire degli anni sessanta e che, in poco più di cinquant’anni, ha stravolto gran parte del tradizionale, direi secolare, mondo del gioco. L’ipotesi generale intorno alla quale ruotano le mie riflessioni è che la cultura digitale abbia potenziato alcune capacità tipiche dei giochi da tavolo, soprattutto quelle legate al coinvolgimento e all’esperienza ludica tramite la simulazione. Ho intenzione di individuare, cioè, tra le recenti teorie del game design quali siano capaci di ottenere tale potenziamento e di evidenziarne i metodi.


1. Progettare tavolieri per il gioco

Considerare l’artefatto ludico come un progetto coerente di design e avviare ricerche in merito, è pratica abbastanza recente: per millenni abbiamo realizzato giochi di tutti i tipi senza una disciplina di supporto teorico e formale cui fare riferimento. Progettare un gioco è sempre sembrato un’attività piuttosto banale e secondaria, e solo da poco più di un decennio, da quando i videogiochi si sono imposti come medium comunicativo tra i più pervasivi – da quando anche il video-giocare, cioè, è riconosciuto come strumento di conoscenza e interazione tra gli esseri umani – studiare il (video)gioco è divenuta una necessità (Bertolo e Mariani, 2014). Ancora nel 1999 Ciro Ascione, nel suo Videogames: Elogio del tempo sprecato, s’adoperava a difendere la tecnologia applicata agli artefatti lucidi digitalizzati: “L’informatica è una cosa bella e buona quando ci aiuta a prenotare un volo, a tenere in ordine la contabilità, a stendere una lettera con un programma di scrittura, a controllare il lancio di un missile nucleare. Quando però viene applicata al gioco, al divertimento, all’evasione, allora si trasforma in stupidaggine” (Ascione, 1999, p. 24).

Nel saggio farò riferimento al game design come l’attività legata al processo generale d’ideazione, progetto e creazione di un gioco e al game designer come chi “progetta un artefatto, sia esso un insieme di regole astratte, un programma, un diagramma disegnato in terra, una scatola piena di oggetti particolari, auspicando che le persone che ne faranno uso vivano l’esperienza ludica desiderata: desiderata dal designer in fase di progetto, e dai giocatori in fase di scelta del gioco cui dedicarsi” (Bertolo e Mariani, 2014, p. 131).
Il tema sarà sviluppato proponendo esempi di giochi di diversa natura con cui mi propongo di collegare due storie apparentemente lontane: quella del disegnatore-stampatore di giochi e quella del game designer. Quest’ultimo, infatti, sembra ereditare molte delle sue competenze – creative, intuitive e progettuali – da quelle degli antichi editori di giochi da tavolo. Per questo, i giochi analizzati appartengono a epoche differenti: il più antico, un tradizionale gioco dell’Oca, Il Gioco dell’Aquila (figura 1) edito nel 1916, è preso a modello della categoria dei boardgame di simulazione (Dossena, 1984; Nuccio, 2016); il più attuale, del 2007, un videogioco on-line dall’impronunciabile acronimo MMORPG[1] e dal titolo Word Without Oil (figura 2), è usato come esempio dei serious games (Salvador, 2013), genere che trae gran parte dell’impianto sistemico proprio da quello dei tradizionali giochi di simulazione.[2]

Fig. 1 - Gioco dell’Aquila, Milano, 1917, litografia a colori di P. Castellani, Cortona, Italy.

Fig. 1 – Gioco dell’Aquila, Milano, 1917, litografia a colori di P. Castellani, Cortona, Italy.

Fig. 2 - Screenshot World Without Oil, 2007.

Fig. 2 – Screenshot World Without Oil, 2007 (proprietà P. Castellani, Cortona, Italy).

La strategia di studio adottata non si basa sulla differenza di supporti in cui sono realizzati i due giochi – carta stampata per Il Gioco dell’Aquila e supporto digitale per Word Without Oil – piuttosto su un elemento comune che li contraddistingue, il tavoliere, e i sistemi utilizzati per realizzarne la simulazione che intenderò “applicata”, cioè progettata al fine di far “fare ai giocatori esperienze accurate, anche complesse, in grado di promuovere attraverso la forma del gioco percorsi attivi, partecipanti, coinvolgenti di apprendimento nei vari domini dell’esistenza umana” (Anolli e Mantovani, 2011, pp. 155-156, cit. in Bertolo e Mariani, 2014, p. 77).

In questa direzione, intendo assimilare il tavoliere al sistema stesso del gioco, cioè al suo principio più importante, dove le regole passano in secondo piano, ed evidenziare che il dialogo tra lo spazio fisico reale in cui si trova il giocatore e quello analogico dei giochi stampati, poi, sintetico dei videogiochi, si è evoluto seguendo la nozione di inclusione e accessibilità (Bittanti, 2002). Nei giochi di simulazione, il progettista ha molti modi per rendere lo spazio ludico il più̀ reale possibile e fare sì che il giocatore trovi divertimento nell’immergersi in una realtà simile alla sua, ma che riconosca altra, artefatta, “possibile”. Come scrive Matteo Bittanti,

L’idea di includere lo spettatore nella rappresentazione, introducendolo a provare un’esperienza in grado di trascendere il mondo reale, è prerogativa di tutte le manifestazioni artistiche fin dagli albori dell’umanità […] tuttavia è solo con l’avvento dei computer che quest’effetto ha raggiunto i risultati più significativi, permettendo l’inclusione “fisica” dell’utente, dotata della capacità di interagire con le immagini. (p. 28)

Questa immedesimazione del giocatore è il risultato più auspicabile dal progettista di serious (video)games attuali, ma lo era anche per giochi più tradizionali, come quelli dell’Oca, quando il disegnatore sapeva che una buona successione segmentata delle immagini, oltre a creare uno stato ludico di dipendenza dal reale, permetteva al giocatore di visualizzare l’intero ambito operativo entro cui stava giocando. Più lo spazio ludico era, ed è,̀ accessibile, più era, è appagante lo idea stessa della vittoria. Su questa linea e grazie alle tecnologie digitali che hanno aumentato la possibilità di rendere credibile lo spazio ludico in relazione alla sua “capacità di antievasione” (McGonigal, 2011) – non sempre più attinente al reale ma più condivisibile e giocabile – si è andata strutturandosi la professione del game designer come progettista di giochi applicati che, partendo dai modelli archetipici, oggi è in grado di sviluppare cornici protettive più definite o modificarne opportunamente altre già edite (Nuccio, 2016). Ecco che una delle differenze principali tra la veste digitale, e non, dei giochi di simulazione sembra centrarsi proprio nella natura virtuale dei tavolieri che, come dalle parole di Gianfranco Pecchinenda

Sono basati non sulla rappresentazione ma su una struttura semiotica significativamente diversa, la cosiddetta simulazione. […] Essendo da secoli abituati a comprendere e spiegare la realtà attraverso modelli rappresentativi, e in particolare attraverso quella forma di strutturazione delle rappresentazioni conosciuta come narrazione, la nostra cultura fa fatica ad accettare l’idea che possano esistere dei modelli alternativi di descrizione e comprensione della realtà, come quelli offerti, appunto, dalla simulazione (2010, p. IX).

Attraverso i giochi portati ad esempio, mi propongo di far luce sul mestiere del loro “creatore”: partendo dal presupposto che la simulazione sia la realizzazione di uno spazio narrato che trova la sua “credibilità” nella realizzazione di un tavoliere più, o meno, coerente, sembra fin troppo evidente che i limiti imposti dall’uso dei materiali – prima dell’epoca digitale – abbiano fatto da cesura tra il limitato mondo della carta stampata e l’illimitato universo del mondo virtuale; ma anche che, a parità di coerenza progettuale dell’artefatto ludico, il mestiere del creatore coincida.

2. Il tavoliere come oggetto ibrido

La sostanziale differenza tra i tradizionali boardgame e i videogiochi sta nel tavoliere: la caratteristica generale dei giochi da tavolo, come scrive Giampaolo Dossena (1984), storico dei giochi tra i più conosciuti, è la necessità di utilizzare una superficie piana per giocare (un tavolo, una plancia, un tabellone, una parete, ecc.). Nei giochi di percorso, invece, la superficie piana deve rappresentare obbligatoriamente un tragitto compiuto dai giocatori, con un inizio e una fine stabiliti.[3] Nei giochi di simulazione, perciò, il tavoliere è uno strumento necessario e non va confuso con il tavolo su cui il tavoliere, invece, può essere appoggiato.
In questo saggio intendo leggere il tavoliere in maniera “potenziata” rispetto alla tradizionale definizione di Dossena e pensarlo come un oggetto ibrido identificabile nell’idea stessa di percorso strutturato su specifiche regole e che trascende l’aspetto tradizionalmente fisico dei boardgame, dato che “nei videogame, il comportamento (degli oggetti) come qualunque cosa creata da un programma computerizzato – scrive Pecchinenda – è limitato soltanto all’immaginazione di chi li ha programmati. Gli oggetti di un videogame in cui si gioca a flipper sono fatti di informazioni, non di metallo” (2003, p. 89). La materialità del tavoliere, infatti, se unisce i giochi da tavolo con quelli di simulazione, crea invece una cesura tra i giochi pre e post-digitali: è indiscutibile che i videogiochi non abbiano una veste fisica (sempre che non si voglia pensare che lo schermo del televisore o del PC equivalga a un tavoliere, o che questo sia identificabile nella forma fisica delle home consolle o le tradizionali coin-op[4]) ma è altresì evidente che alcuni esemplari di videogiochi, come Word Without Oil (d’ora in avanti WWO), siano costruiti come un gioco di percorso simulato, solo su un tavoliere ibrido. In essi, le componenti simboliche trascendono la necessità di progettare un’immagine affiancata da un testo esplicativo, da inserire in uno specifico format e/o supporto, tipica dei boardgame tradizionali.

Nel Gioco dell’Aquila (d’ora in avanti GdA) ogni immagine riportata nelle caselle è corredata da un breve componimento scritto utile a immergere il giocatore nella simulazione. Nei giochi analogici più che in quelli digitali, è necessario “istituire un sistema di apprendimento che guidi il giocatore a conoscere e attribuire il corretto significato ai segni, così che si trasformino da possibile elemento di ostacolo alla comprensione, a facilitatore” (Bertolo e Mariani, 2014, p. 249) e che questo avvenga prima che lo stesso inizi a giocare. Nella pratica, tale necessità si è risolta presentando gli elementi grafici a supporto di quelli testuali. In WWO, come nella maggioranza dei prodotti ludici digitali, invece, è stato possibile privilegiare l’uso del linguaggio visivo piuttosto che quello testuale grazie ai sistemi di feedback (playtest, gameplay, brainstorming) legati all’interazione tra il giocatore e il gioco stesso: le regole di WWO, per esempio, vengono suggerite al giocatore durante il gameplay e non tramite un sistema di apprendimento pre-gioco.[5]

Pensiamo alla carta su cui erano stampati i giochi tradizionali come GdA e a quanto le dimensioni pressoché obbligate del tavoliere abbiano determinato le scelte grafiche piuttosto rigide (all’interno di un singolo foglio dovevano stare il percorso e le regole, per esempio) e pensiamo, invece, alla libertà dimensionale che permettono i sistemi digitali su cui è pensato WWO.

Progettato da un numeroso team di progettisti tra cui la designer americana Jane McGonigal, WWO è un esempio vincente di serious game cioè di gioco inteso come strumento atto a promuove processi di apprendimento e formazione guidati.[6] WWO fa parte anche degli Alternate Reality Game (ARG), una specifica categoria di videogiochi MMORPG che sono “giochi antiescapisti, antievasione […] che si fanno per ottenere di più dalla vita reale, al contrario dei giochi che si fanno per evaderne” (McGonigal, 2011, pos. 2624). La complicata definizione di WWO si semplifica nella descrizione del suo sistema di gioco: è una sorta di narrazione open-source, realizzata da migliaia di giocatori che tramite sms, video, immagini e messaggi vocali postati su un blog dedicato e pubblico, hanno cooperato a risolvere un’immaginaria crisi petrolifera mondiale. Alla partita-esperimento, conclusa dopo trentadue giorni dall’annuncio dato sul web (nel maggio del 2007) di un presunto shock petrolifero, hanno giocato online più di 1900 persone in tutto il mondo, e la pagina web ha avuto più di 60.000 visitatori. Le possibilità della narrazione digitale hanno inciso profondamente sulle capacità d’interazione di WWO con i suoi giocatori: liberato il percorso dal tavoliere analogico-materiale, sono state liberate a dismisura le possibilità di potenziarne l’accessibilità fino a renderla possibile (come la stessa acquisizione delle regole) solo tramite la collaborazione degli stessi giocatori durante il gameplay.

Walter Nuccio ha recentemente pubblicato un’approfondita analisi sulla progettazione dei giochi da tavolo intesi come sistemi integrati: ho confrontato le sue teorie con le modalità progettuali più tradizionali dei giochi di simulazione e sono emersi alcuni fattori comuni ai giochi e ai videogiochi e che possono essere divisi in funzionali – a loro volta divisi in risorse (gli elementi/oggetti che il giocatore utilizza per ottenere un risultato o effetto) e meccanica di gioco (una o più regole che indicano le modalità per giocare e ciò che ne consegue) – e formali – che a loro volta comprendono la struttura (che raccoglie i due elementi appena scritti in una specifica grafica coerente), le dinamiche e gli automatismi di gioco (Nuccio, 2016, p. 25). Gli aspetti funzionali sono chiamati comunemente il game del gioco, cioè l’artefatto vero e proprio progettato dal designer, quelli formali originano invece il play cioè l’esperienza che si auspica sia vissuta dai giocatori giocando (Bertolo e Mariani, 2014, p. 22).

Sulle costanti progettuali Walter Nuccio scrive che il gioco:

Può essere prima scomposto nei suoi elementi fondamentali e poi osservato da diversi punti di vista, o dimensioni, ciascuna delle quali prende in esame un singolo aspetto di interesse […]. All’interno di ciascuna dimensione si colloca una serie di concetti di game design. Alcuni di essi sono alla base di altrettanti principi generali di progettazione. Altri sono espressi sotto forma di tecniche di design: una tecnica descrive una soluzione a uno specifico problema di progettazione in una forma molto sintetica. Altri ancora si prestano maggiormente a una descrizione dettagliata sotto forma di design pattern […]. Un design pattern è, in sintesi, un elemento ricorrente o un’idea di progettazione che è possibile riconoscere in molti dei giochi più diffusi, seppure in una molteplicità di accezioni o interpretazioni differenti (Nuccio, 2015, p. 14).

Dal punto di vista degli aspetti formali, i giochi materiali (di carta, di legno, manipolabili in qualche modo) e i videogiochi, appartengono indistintamente alla categoria dei giochi di “simulazione applicata”.[7] In questo senso possiamo intendere il GdA e WWO come percorsi simulati che mantengono le regole tipiche dei giochi di percorso. La tragicità dei temi trattati dai due giochi – la guerra per GdA, e una presunta crisi petrolifera mondiale per WWO – è risolta con la scelta tradizionale di una grafica essenziale, o che il giocatore riconosca tale, che solleciti una consapevolezza condivisa ma non scioccante del problema presentato. In questa direzione, le cornici narrative dei giochi di simulazione sono cambiate in maniera coerente prediligendo un coinvolgimento attivo, ma dichiaratamente distaccato, del giocatore. Non è un caso, infatti, che alcuni attuali wargame di moderna generazione, come Call of Duty o God of War, troppo realistici e che presentato il tema della morte inflitta gratuitamente, abbiano fatto così indignare l’opinione pubblica che ne sia stato chiesto più volte il ritiro dal mercato. I giochi di simulazione bellica, invece, fin quando hanno mantenuto la veste materiale e bidimensionale come GdA, hanno vissuto di un distaccato realismo che li rendeva meno spaventosi ma al contempo più condivisibili.

In questo senso, WWO è progettato sulle basi della simulazione applicata piuttosto che sul fun estremo: la verosimiglianza e l’utilizzo d’immagini troppo realistiche non sono così indispensabili al gioco, dato che a trascinare il giocatore in un’esperienza interattiva non è la potenza del verosimile ma la credibilità della simulazione. WWO utilizza una grafica essenziale: paragonata a quella di Halo3, per esempio, videogioco edito sempre nel 2007, sembra di vent’anni precedente; in realtà, la scelta dei grafici di WWO è stata volutamente essenziale: la schermata del gioco ricorda quella dei format dei siti web più conosciuti e dei programmi di scrittura più comuni all’epoca (logo semplice in alto a sinistra, informazioni di base poste sulla barra in alto, layout da pagina di quotidiano on line, ecc.). WWO e il GdA risolvono i temi della simulazione applicata anche per l’immagine distaccata che garantisce al giocatore una distanza “di sicurezza emotiva” dalla realtà presentata, e insieme la possibilità di una forte condivisione tra i giocatori.[8]

L’interazione, invece, cioè “l’influenza che ciascun giocatore esercita sugli altri partecipanti attraverso le proprie scelte” (Nuccio, 2014, p. 143) pone i due giochi agli antipodi: il GdA è un “gioco solitario di gruppo” dove l’unico elemento di condivisione tra i giocatori è la competizione per arrivare per primi in fondo al percorso e dove “ciascun partecipante persegue i propri obiettivi senza minimamente influenzare gli altri o essere a sua volta influenzato da essi “ (p. 143); WWO, invece, in linea con le moderne tendenze del game design, crea una rete di dipendenze tra le azioni e le scelte dei vari giocatori, chiamati per questo attivi, in modo che ciascuno possa impattare sullo svolgimento del gioco stesso.

3. Il tavoliere come oggetto tradizionale

Nel periodo che va dalla fine del XVIII alla prima metà del XX secolo è stato codificato in Europa un modello grafico per i giochi di percorso, soprattutto per quelli destinati al mercato popolare. Il modello risultava dall’accordo di più elementi, tradizionali e non: in primis, la consuetudine di utilizzare un percorso a forma spiroidale e labirintica, tipo quello dei Giochi dell’Oca, poi la necessità di inserire in un unico foglio il tragitto, le istruzioni e, a volte, anche le pedine, infine i limiti imposti dalle nuove tecniche di stampa che richiedevano l’uso di metodi e materiali specifici da contenere in specifiche dimensioni.[9]

Per “modello” intendo una struttura archetipica: una successione a forma di spirale di caselle su cui sono riportati un numero e una figura, che procede dall’esterno verso l’interno, immersa in uno scenario rappresentativo che crea la cornice ludica dove il percorso diventa “possibile”. Oltre alle caselle, a questo spazio simulato appartengono due micro-mondi, tenuti fuori dal percorso di gioco: una casella “avamposto”, ufficiosamente chiamata numero 0 (vi si mettono le pedine e si paga la posta prima di iniziare a giocare) e il Giardino dell’Oca, la meta del gioco, il vero premio della partita, una pseudo-casella finale.[10] Questi due micro-mondi sono fondamentali al raggiungimento della simulazione tipica di questo tipo di giochi perché contribuiscono in maniera determinante a rappresentare lo scenario ludico: creano i limiti del tragitto, potenziano la loro credibilità, codificano il mondo possibile in cui il gioco s’immerge. La fortuna di questo tipo di strutturazione si deve soprattutto al modello ben definito e di semplice comprensione del Gioco dell’Oca che, in attestati cinque secoli di storia, ha ammesso un numero ristrettissimo di varianti strutturali accanto al mutare costante dei temi della simulazione (Dossena, 1984).

I giochi ottocenteschi erano stampati prevalentemente su carta sottile, ripiegati più volte su se stessi e venduti singolarmente, per la maggior parte dei casi senza una scatola che li contenesse. Il GdA è rilegato a libro in otto parti e contenuto da una copertina di cartoncino. Sulla prima pagina troviamo tutte le informazioni che dovevano risultare immediatamente comprensibili al giocatore: il titolo del gioco, le illustrazioni significative sul tema adottato, un breve componimento-racconto per motivarlo, e i riferimenti dell’editore (di norma scritti in fondo alla pagina). All’interno troviamo stampato il percorso di gioco e le regole.

Il GdA, edito dalle Arti Grafiche Varesine e promosso dalla Pubblica Assistenza milanese, era rivolto alle famiglie e ai bambini italiani perché contribuissero alla causa bellica donando denaro. “Qui non s’intende l’aquila che, con superba penna, sale fin quasi al sole, ma l’aquila di Vienna” (dall’incipit del componimento in copertina) cioè il simbolo dell’Impero Austro-Ungarico contro cui l’Italia era scesa in guerra nel maggio del 1915. In un contesto di difficoltà militare ed economica, il Ministero del Tesoro italiano sceglie il gioco come mezzo di propaganda: per i più piccoli come forma di educazione visiva e culturale, per i più grandi come messaggio subliminale e coercitivo. La simulazione evocata dal gioco non “racconta” soltanto la storia accaduta ma, presupponendo che “si crei un rapporto di complicità tra chi narra e chi ascolta, permette a quest’ultimo di accettare per vero ciò che gli viene proposto e di collaborare attivamente alla sua interpretazione” (Cambi, e Staccioli, 2007, p. 176).

Le immagini raffigurate sul tavoliere GdA raccontano una guerra con toni non troppo tragici ma graffianti: l’oca protagonista nella raffigurazione,̀ impettita e irritata (figura 3) trasmette la disperazione italiana di fronte al danno bellico della guerra contro l’Austria che è “un’aquila che vanta due teste e non ha un solo cervello” e che “bestia grifagna, stolida, che squarta, sgozza, scuoia, che ha la forca per gruccia, ed ha per cuoco il boia” (Mascheroni e Tinti, 1981).

Fig. 3 - Gioco dell’Aquila, Milano, 1917, particolare della casella 41 (proprietà P. Castellani, Cortona, Italy).

Fig. 3 – Gioco dell’Aquila, Milano, 1917, particolare della casella 41 (proprietà P. Castellani, Cortona, Italy).

L’intero progetto grafico del GdA poggia su un sistema visivo essenziale: il gioco è sviluppato nella direzione del game, cioè della trasmissione dei contenuti (la condanna alla ferocia della guerra) piuttosto che del play, cioè nel proporre nuove meccaniche di gioco. Gli elementi grafici sono pensati con distaccato realismo e sulla base del principio olistico che motiva ogni buon progetto ludico: tale principio insegna che “l’insieme più o meno strutturato di elementi e sottoelementi, legati indissolubilmente tra loro, creano un risultato che va molto al di là della somma delle singole parti” (Mariani, 2014, p. 251). Nel GdA, infatti, a una meccanica molto semplice, legata al principio “cailloisiano” di alea, cioè alla vittoria decisa dalla casualità del lancio dei dadi (Callois, 1958), risponde una cornice narrativa accessibile e intuitiva, che rende il gioco un vero e proprio “facilitatore comunicativo”: esso immerge il giocatore in uno scenario in cui il rapporto tra gioco e realtà è evidente, e, proprio per questo, amaramente condivisibile. I colori utilizzati sono fondamentali a generare questa credibilità: la tricromia crea lo scenario livido, freddo, raggelante della guerra di cui il giocatore fa esperienza balzando di casella in casella, e a dare l’identità al progetto che si dimostra consapevole e corale. Nei giochi dell’Oca di poco precedenti al GdA era tutto diverso: i colori erano brillanti e uniformi, l’atmosfera fiabesca e romantica, l’aspetto generale dichiaratamente infantile. Le immagini del GdA invece sono essenziali e rigide, sfruttano l’intuitività del gioco per proporre il tema della guerra e della morte con immagini pietrificate, bidimensionali, però in un format tradizionale che indicava al giocatore come orientarsi all’interno del tavoliere e dove trovare tutte le informazioni necessarie.
La coerenza di questo gioco ci porta al nucleo tematico del saggio: come e chi progettava un gioco di percorso come quello dell’Aquila?

Oggi i creatori dei (video)giochi di maggior successo sono celebrità, guru indiscussi della comunicazione a livello mondiale: una vera e propria élite di game designer d’eccezione – Will Wright, Richard Garriott, Sid Meier, Yu Suzuki, Shigeru Miyamoto, Hideo Kojima, John Carmack e pochi altri ancora – che hanno contribuito a nobilitare il mestiere videoludico, trasformandolo da semplice meraviglia tecnologica a forma espressiva dotata di un suo statuto autonomo.[11] Il giapponese Shigeru Miyamoto, autore del famosissimo Donkey Kong, è stato il primo a essere presentato pubblicamente come designer e mente creativa di un’azienda come la Nintendo. Miyamoto, abile fumettista, inizia a lavorare per la Nintendo, all’epoca produttrice di hanafuda cioè carte da gioco, come inventore di giocattoli, settore in cui l’azienda si cimentava da una decina di anni. Assunto con l’incarico di “collaboratore artistico” (Pellitteri e Salvador, 2014, p. 47), si dedica alla sezione videogiochi per migliorarne alcuni già in commercio, come Radar Scope, “sparatutto” di tipo arcade molto famoso in Giappone ma praticamente sconosciuto nel resto del mondo. Miyamoto, non troppo entusiasta di doversi dedicare a giochi di strategia bellica, propone un videogioco tutto nuovo, Donkey Kong: su schermo fisso, con personaggi inventati e controllati a video dal giocatore, narra la storia di Jumpman, un simpatico idraulico baffuto che deve raggiungere la sommità di un palazzo dove lo scimmione Donkey Kong tiene prigioniera la sua fidanzata. Il successo di questo videogioco è stato tale che il lavoro di Miyamoto “ha ottenuto in Giappone quel riconoscimento che i designer della Atari avevano chiesto invano negli Stati Uniti per anni” (Pellitteri e Salvador, 2014, p. 48): infatti, dal 1982 in poi, il game designer diventa dichiaratamente il mestiere di chi inventa giochi, qualificato dalle componenti più creative e progettuali.

Negli anni immediatamente precedenti, l’approccio aurorale alla progettazione dei videogiochi (mi riferisco a quelli realizzati tra la fine degli anni sessanta e i primi anni settanta) si struttura grazie a contributi differenti, confluiti nel mondo ludico da diverse direzioni, e innestati nella prassi tradizionale degli autori di giochi da tavolo, all’epoca ancora artigiani anonimi che lavoravano per casa editrici o stamperie professionali: da un lato, continuano a istituire il mercato figure autoriali che si occupavano in prima persona di tutti gli aspetti progettuali e operativi – dall’ideazione alla realizzazione – come da consuetudine del mestiere; dall’altro, incidono le sperimentazioni attuate da figure casuali di scienziati e studiosi approdati al progetto ludico da ambiti differenti (Pellitteri e Salvador, 2014, p. 9).

A questo dobbiamo l’iniziale semplicità dei primi schemi dei videogiochi – trama elementare, scenografie bidimensionali, assenza di grafica e presenza, non sempre necessaria, del testo scritto – che corrispondeva a una conoscenza prettamente informatica dell’autore. Il videogioco, infatti, è nato ben prima del 1972, storica data di nascita del celebre Pong, progettato da Allan Alcon per la Atari, ma alla fine degli anni quaranta dalla sperimentazione avvenuta in laboratori di diversa natura. Thomas T. Golsmith, per esempio, nel 1948 brevetta uno strumento “per intrattenersi con un gioco” (United States Patent Office, 1948, cit. in Pellitteri e Salvador, 2014, p. 21) che si basa sul controllo di un raggio catodico per abbattere bersagli mobili visualizzabili in un oscilloscopio, era un fisico attivo nei laboratori di Allen B. Du Mont di Passaic nel New Jersey: per i costi di produzione, il brevetto non andò mai oltre la fase di prototipo. Dopo di lui, Willy Higinbotham che realizza nel ‘58 un gioco di tennis interattivo sfruttando un oscilloscopio e un gigantesco calcolatore, era uno scienziato nucleare che si era occupato della sperimentazione delle bombe atomiche durante la Seconda Guerra Mondiale: inventa Tennis for Two “pensato esclusivamente come intrattenimento scientifico e pura fascinazione tecnologica per i visitatori del laboratorio” (Pellitteri e Salvador, 2014, p. 22). Lo studente universitario, Steve Russell, infine, nei laboratori d’ingegneria del MIT di Boston, crea nel 1961 Spacewar!, combattimento fantascientifico fra due navicelle spaziali montato su un enorme computer tx-o, il primo videogioco “progettato in maniera approfondita con tempi di realizzazione non giustificabile solo da questione tecniche ma anche, e soprattutto, dal vero e proprio design delle meccaniche di gioco, dall’interfaccia, dai controlli” (Pellitteri e Salvador, 2014, p. 24).

Nel giro di pochi anni da queste prime straordinarie sperimentazioni, il settore videoludico si struttura rapidamente: le competenze specifiche dei programmatori vanno via-via definendosi e complicandosi in parallelo all’evoluzione tecnica e all’utilizzo dei sistemi standardizzati e parametrizzabili del virtuale. Solo dopo le geniali intuizioni di Miyamoto e l’esplosione delle potenzialità offerte dal digitale, diventa necessario suddividere e inquadrare le differenti professioni in un progetto di gioco e di orientare maggiormente la tradizionale autorialità verso gli aspetti più creativi del design e dell’interfaccia con l’utente finale. In questa direzione lavorano gli statunitensi Trip Hawkins e Sid Meyer; il primo, solo un anno dopo il “primo processo di progettazione che comincia con una storia” di Miyamoto (Kohler, 2004, p. 39, cit. in Pellitteri e Salvador, 2014, p. 47) fonda la Electronics Art sulla filosofia di base di promuovere la componente creativa e autoriale del game design; il secondo diventa, a tutti gli effetti, il designer più rappresentativo del settore videoludico tanto da pubblicare nel 1982 Sid Meier’s Pirates! il primo videogioco di simulazione che contiene nel titolo il nome del proprio designer. Le straordinarie capacità di Meyer, che nel 1999 è stato insignito nella hall of fame della Academy of Interactive Arts and Sciences, creatrice di D.I.C.E. Awards, fra i riconoscimenti più importanti nel mondo video ludico contemporaneo, non risiedono nelle abilità manuali quanto nell’intuito di utilizzare il PC, e non più le consolle arcade, per coinvolgere attivamente il giocatore nelle scelte e negli sviluppi della storia del gioco che inizia a cambiare in base alle strategie di quest’ultimo. “Il game designer non è schiavo della tecnologia – scrive Bittanti – al contrario la subordina alle sue esigenze espressive. Il vero auteur ricorre a tutti gli espedienti tecnici, visuali e formali per creare la sua opera” (Bittanti, 2004).[12]

Nei giochi con un alto livello di giocabilità, l’accordo di tutti gli aspetti teorico-progettuali è sempre stato fondamentale al loro successo, anche nei secoli precedenti al XX quando il processo ideativo che sta alla base di un gioco di simulazione era meno noto: il team composto dal disegnatore, gli artigiani esperti nella lavorazione dei materiali, uniti all’esperienza dell’editore, facevano la differenza nella fortuna di un gioco.[13]
Nel passato, però, contrariamente a quanto accade oggi, i giochi non avevano un autore-progettista cui riferirsi, piuttosto un editore: i giochi di percorso più longevi e amati dal pubblico non appartengono ai nomi dei loro ideatori, che rimangono pressoché sconosciuti, ma alle stamperie che li hanno prodotti, come il GdA. Ogni tanto, e solo nel caso di disegnatori di merito indiscusso, è comparsa la firma di chi aveva realizzato la prima matrice per la stampa. Nell’arco dei secoli, infatti, i giochi realizzati su supporto cartaceo sono nati semplicemente dalle mani di chi, poi, li vendeva: è solo nel corso del Settecento che assistiamo alla graduale separazione tra stampatore, editore e libraio anche se, accanto a tipografi puri e a librai autentici (oltre agli autori che si fanno editori, sono frequenti, casi di tipografi che stampano a proprie spese e, con maggior fortuna, di librai che diventano editori), s’impongono sul mercato figure ibride, contraddistinte da un appeal imprenditoriale che si fondava sull’idea della solidità aziendale intesa come la combinazione di più mestieri. Nel GdA è piuttosto evidente “l’occasionalità” dell’edizione: le Arti Grafiche Varesine non erano una realtà editoriale conosciuta per la diffusione di giochi a stampa come lo erano, invece, da anni le milanesi Marca Stella e Marca Aquila specializzate proprio in questo settore; tantomeno il Comitato delle Patronesse Milanesi era un ente consuetamente finanziatore di progetti comunicativi. Il fortunato connubio conferma una pratica italiana consolidata per da più di un secolo si basava su un sistema professionale composito e anonimo. Tale sistema si era strutturato nei secoli precedenti in Francia e in Inghilterra, poi transitato in Italia: le tavole stampate nel nostro paese erano, per la maggior parte, copie di matrici che provenivano dal mercato francese, più sistematico e longevo.

Caratteristica dei cosiddetti feuilleton volant francesi era la complessità del tema, ben tradotta in una grafica articolata, e la provenienza da botteghe già specializzate e di prestigio come M. Basset d’Estampes in rue Saint-Jacques a Parigi, o l’Imagerie d’Épinal di Jean Charles Pellerin, entrambe attive già dalla fine del Settecento. Di questi giochi abbiamo pochissime notizie su “chi faceva cosa” nelle fasi d’ideazione, disegno e poi produzione: i problemi legati alla censura dei temi più scomodi (erotici, politici, propagandistici, ecc.) e alle sanzioni imposte a chi stampava giochi d’azzardo, imponevano il più possibile l’anonimato (Milano, 1993). Era consueto, tra l’altro, che le matrici dei giochi di maggior successo passassero da editore a editore come merce di scambio per arricchire e variare il repertorio di una bottega: in questi passaggi alcune matrici erano parzialmente restaurate, poi riutilizzate, e il nome della stamperia d’origine era sostituito con quello della successiva che acquistava il gioco.

L’Imagerie d’Épinal, presente ancora oggi sul mercato internazionale, può essere considerata a buon diritto un simbolo della continuità della pratica collettiva alla progettazione dei giochi di simulazione, ma anche dell’attuale immobilità del mercato dei giochi stampati su una superficie piana. L’evoluzione tecnica e la creatività legata alla digitalizzazione, infatti, non sembrano essere l’attuale cuore della produzione di Épinal, mentre durante tutto il XVIII, il XIX e il XX secolo, l’Imagerie aveva fatto proprio dell’innovazione tecnica legata alla resa grafica la sua caratteristica fondamentale. L’azienda è stata la prima a immettere sul mercato il concetto della riproducibilità industriale dei giochi stampati e a strutturare un vocabolario segnico condivisibile e riconoscibile dai giocatori. Il mondo immaginato nei giochi di Épinal è il risultato coerente di più componenti: le realizzazioni artistiche dei singoli, le innovazioni tecnologiche legate all’uso della stampa e allo sviluppo della xilografia, l’intuito dell’autore-editore Jean-Charles Pellerin di specializzarsi nel settore “popolare” della produzione di prodotti per bambini (carte da gioco, racconti illustrati, giochi di percorso, puzzle e almanacchi) e infine la qualità grafica della rappresentazione che è andata progressivamente svincolando, poi abolendo del tutto, gli elementi testuali dai giochi. L’Imagerie ha attraversato due fasi rivoluzionarie nel mondo dei giochi: dopo l’exploit della stampa, la rivoluzione del digitale; se il primo impatto ha generato, però, quella che a buon diritto si può definire la prima industria di artefatti ludici, il secondo, quello con il digitale, ha stravolto e arrestato irrimediabilmente l’azienda che oggi è più un “monumento” dell’industria ludica che il simbolo della continuità con la tradizione dei giochi stampati. Rifiutando in generale l’adattamento alle modifiche delle strutture di mercato e tecnologiche, i talentuosi autori attivi oggi per Épinal, s’inseriscono nel mercato per le immagini sapientemente elaborate e per l’accorto uso delle tecniche di stampaggio più all’avanguardia; si sottraggano, però, ai sistemi del digitale e, in gran parte, alla digitalizzazione dei tradizionali sistemi narrativi.[14]

Su un fronte diverso procede, infatti, il mercato videoludico che evidenzia quel dinamismo e quella trasversalità che apparteneva all’industria ludica pre-virtuale dell’Imagerie d’Épinal. Ciò che nel mondo della simulazione è rimasto immutato, è la pratica del mestiere inteso come opera collettiva e coordinamento di un team, ma tale è stata l’accelerazione dei videogiochi che per creare un mondo virtuale come quello di WWO oggi è necessario uno sforzo collettivo e coordinato straordinario di centinaia di artisti e programmatori.[15]

I progetti di giochi di ARG possono variare molto l’uno dall’altro per lo stile, la grafica, la scala, la finalità e il budget: ne esistono alcuni realizzati e collaudati con un budget ridottissimo da ricercatori o sviluppatori di giochi indipendenti, oppure sostenuti da investimenti milionari come WWO al cui progetto hanno lavorato almeno trentacinque persone tra designer, fumettisti e sviluppatori, ed è stato presentato da ITVS Independent Television Service e finanziato dalla Corporation for Public Broadcasting americana.[16]
In tutti i casi, gli ARG ben progettati sono delle strutture che devono rispondere a due qualità centrali: la prima, tradizionale, devono essere opzionali, cioè frutto di una scelta volontaria, mai coercitiva e sempre più alternativa al reale da parte del giocatore; la seconda, complessa e potenziata, devono essere percorsi stimolanti, con ostacoli interessanti e sistemi di feedback. Grazie all’intersezione degli studi sociologici e dell’evoluzione dell’industria digitalizzata, oggi il progetto di un gioco è diventato anche una scienza applicata, quella degli “ingegneri della felicità” (McGonigal, 2011). L’esercito dei professionisti del gaming dimostra, però, che il passaggio al digitale ha reso necessario frammentare e specializzare i singoli contributi ma di mantenere quanto più possibile l’attività lontana dal semplice fun, il divertimento fine a se stesso, e più vicina alle tradizionali teorie dell’inclusione e dell’accessibilità del giocatore.[17] Secondo Bittanti, la maggior parte dei creatori di videogiochi sono ancora artigiani, non artisti: “Si deve distinguere tra gli ‘autori’ e i metteurs en scene: questi ultimi sono esecutori, che traducono una sceneggiatura in immagini, mentre il vero game designer è capace di sintetizzare nella sua creazione i più svariati elementi culturali, sociali ed estetici della contemporaneità” (Bittanti, 2004).

4. Simulazione applicata e serious game

Oggi, un game designer può contribuire in diversa maniera nel progetto di un gioco, dall’ideazione degli schemi complessi dello storyboard e degli script, alla cura dell’affordance e dei feedback per il grado d’interazione, al progetto dei livelli: ogni competenza ha valore di per sé e può essere l’aspetto in parte predominante del gioco, anche se, come sostiene Bittanti, “una buona caratterizzazione dei personaggi e la ricostruzione dettagliata e non casuale degli ambienti di gioco, si rivelano discriminanti fondamentali quando lo stesso prodotto interattivo presenta anche un solido impianto ludico” (2002, p. 31). Pensiamo a Lara Croft, l’archeologa protagonista della fortunata serie di videogiochi Tomb Raider che dal 1996 ha conquistato milioni di giocatori in tutto il mondo diventando un sex symbol pari a una reale star di Hollywood: Lara non sarebbe potuta divenuta un’icona popolare se, prima di tutto, “il gioco stesso non fosse stato un capolavoro di level design” (2002, p. 31). E pensiamo anche al videogioco Pac-Man per cui la scelta di un semplice segno grafico a forma di semicerchio giallo come protagonista, ha conquistato l’immaginario collettivo tanto da diventare una delle icone più significative dell’intera generazione pop degli anni ottanta. Ricordiamo ancora al personaggio Jumpman di Donkey Kong, poi diventato il famoso Super Mario, tra i più celebri personaggi e mascotte della Nintendo “gioiello dal punto di vista del gameplay […] dotato di una profondità narrativa tale da indurre la Nintendo a contestualizzare la trama nel manuale delle istruzioni” (Pellitteri e Salvador, 2014, p. 49).

Nei paragrafi precedenti ho voluto analizzare il modo in cui giochi come GdA e WWO, intesi come archetipi, si basino sul terreno comune della simulazione applicata e sull’evidente analogia della natura di racconto. Un’altra chiave di lettura comune sta nella “interazione”: questa “richiede l’immersione in un mondo simulato e regolato da leggi tecniche in cui le azioni del fruitore attivo siano teologicamente orientate” (Accordi Rickards, 2015, p. 7). Al di là delle regole, della struttura, delle componenti, delle meccaniche specifiche che caratterizzano i due giochi, esiste quindi anche una sorta di essenza ludica significativa (Bertolo e Mariani, 2014, p. 130) che li accomuna in una tipologia, inscrivibile in un insieme limitato, in cui la parte della rappresentazione è fondamentale su tutto il resto e può anche coincidere – a differenti livelli e con diversi linguaggi che prescindono l’aspetto puramente fisico del supporto a favore di quello narrativo – con lo spazio e/o il percorso del gioco. In realtà, mi rifaccio alla definizione di “cerchio magico” di Huizinga (1938), termini con cui lo studioso olandese ha definito in maniera esemplare lo spazio destinato al gioco, percepito come provvisorio e separato dalla realtà:

Ogni gioco si muove entro il suo ambito, il quale, sia materialmente, sia nel pensiero, di proposito o spontaneamente, è delimitato in anticipo. Come formalmente non vi è distinzione fra un gioco e un rito […] così formalmente non si distingue il luogo destinato al rito da quello destinato al gioco. L’arena, il tavolino di gioco, il cerchio magico, il tempio, la scena, lo schermo cinematografico, il tribunale, tutti sono per forme e funzione dei luoghi di gioco, cioè spazio delimitato, luoghi segregati, cinti, consacrati sui quali valgono proprie e speciali regole. Sono dei mondi provvisori entro il mondo ordinario, destinati a compere un’azione conchiusa in sé ([1938] 2002, p. 13).

Con “cerchio magico” quindi, si vuole intendere non tanto la storia narrata, quanto “la rappresentazione che consente a chi gioca di sperimentare liberamente in uno spazio protetto – lo spazio ludico – trovandosi in una condizione di sicurezza” (è la “cornice protettiva” di cui parlano Bertolo e Mariani, 2015, p. 76).

La credibilità di tale rappresentazione dipende dall’intero impianto grafico del gioco e da come il messaggio sia veicolato in maniera coerente. I sistemi virtuali del game design permettono indubbiamente una resa più credibile, cioè “più giocabile” dello spazio ludico, ma questo non va inteso nel senso che il virtuale permetta di costruire una realtà più “illusoria”, più ingannevole – poiché de-materializzata – ma è l’esatto contrario, il virtuale crei una realtà “più possibile”, più inclusiva tra giocatore e gioco: la memoria virtuale del computer “non è immaginaria visto che essa viene utilizzata dai suoi utenti esattamente nello stesso modo in cui viene utilizzata la memoria reale” essa è “un potenziamento della memoria reale che prende sostanza attraverso i suoi utilizzatori: è la risultante di un’interazione tra la macchina e i suoi utenti. È il senso di ‘potenza’ che esprime il concetto di ‘virtualità” (Cambi e Staccioli, 2007, p. 173).

Inteso, perciò, che la rappresentazione dipenda dall’immaginazione e che “la finzione letteraria e figurativa si collocano nel dominio della ‘rappresentazione’ degli eventi […] il gioco pretende qualcosa di più. Non si limita a una rappresentazione del mondo possibile, a mostrare com’è ciò che non è, bensì invoca una simulazione del mondo possibile, cioè ci chiede di agire all’interno di esso con i nostri sensi al fine di riprodurre com’è ciò che non è fino a ‘far credere che ciò che non esiste, esiste’. La simulazione è appunto l’atto del riprodurre ciò che permette al virtuale di diventare attuale” (Cambi e Staccioli, 2007, p. 175). Il pericolo maggiore di questo tipo di coinvolgimento è il disorientamento che il giocatore potrebbe provare accorgendosi che questa finzione non lo riporta alla realtà altra della cornice protettiva ma, come ricorda Ilaria Mariani, lo fa cadere “nella classica e poco piacevole situazione in cui ognuno vede ciò che sa” (2014, p. 251). I giocatori devono essere forniti di un contesto linguistico/segnico condiviso, progettato per essere credibile sulla base del principio olistico che “comporta un’immersione in un contesto altro, con norme e usanze che possono anche essere lontane da quelle quotidiane, ma è bene che tutti gli aspetti dell’intero impianto iconografico parlino all’unisono lo stesso linguaggio, con coerenza e omogeneità, rendendo l’esperienza più significativa e realistica […] che le componenti grafiche siano progettate in modo che il giocatore ricavi informazioni con un solo semplice sguardo, attraverso un sistema grafico utile e pratico” (p. 251).

I giochi di simulazione sono un campo applicativo particolarmente produttivo per la sperimentazione delle componenti grafiche: i temi utilizzati attualmente sono più numerosi rispetto a quelli tradizionali, di preferenza a carattere militare e propagandistico tipo il GdA, e spaziano dall’urbanistica all’ecologia, all’antropologia, alla sostenibilità come WWO. Questi giochi hanno sempre avuto il vantaggio particolare di permettere ai giocatori di imparare qualcosa dal gioco e al gioco stesso (cioè chi l’ha ideato e proposto) di imparare dai giocatori perché in essi, più che in altri artefatti ludici, “la narrazione – e di conseguenza il contesto di gioco che si traduce fattibilmente in ambientazione – ha una notevole funzione comunicativa, e può assumere di volta in volta il ruolo di metafora o allegoria di contesti e mondi più ampi” (p. 245).

Secondo Mauro Salvador, uno dei maggiori esperti italiani di videogiochi che si occupa dei temi legati alla trasposizione del ludico nei media, “il serious game è un videogioco che ha come principale obiettivo la formazione di competenze per il giocatore oppure la trasmissione di un messaggio retorico in grado di farlo ragionare su un tema particolare (2014, pos. 864) definizione ampliata da Pietro Polsinelli (2015) nei “giochi applicati” che comprendono sia i giochi materiali tradizionali sia i videogiochi e sono “finalizzati a scopi che non sono di puro intrattenimento: più precisamente, un gioco applicato è un gioco che avvicina una tematica complessa senza disvelare questa intenzione, senza cioè presentarsi come un gioco diverso dagli altri” (p. 68).

Il potenziamento del coinvolgimento trova esiti positivi negli aspetti d’interazione che si stabiliscono con maggior naturalezza tra i giocatori e il videogioco. I serious game al pari di quelli che erano i tradizionali giochi di simulazione applicata (cioè attivamente collaborativa) come GdA sono addirittura ritenuti il fondamento di una nuova teoria: quella dell’edutainment (notoriamente, dalla combinazione di educational ed entertainment, dunque educare intrattenendo, divertendo), tema oggi in primo piano agli esperti di Game Studies e non solo.[18] L’edutainment riconosce come “un gioco sapientemente progettato possa produrre esperienze significative, dimostrandosi capace di sensibilizzare e persuadere chi gioca a riconsiderare alcune delle proprio posizioni e persino comportamenti” (Bertolo e Mariani, 2015, p. 72). Il coinvolgimento potenziato dalla simulazione dei serious games del tipo di WWO, nelle sue sterminate possibilità legate ai nuovi sistemi del digitale, dimostra la limitatezza di quello che invece caratterizzava gli antenati, i giochi di simulazione stampati come GdA.

Come afferma Pecchinenda “la qualità di un videogioco, e soprattutto ciò da cui potrà scaturire il suo successo o il suo fallimento di mercato, dipende generalmente in gran parte proprio dal tipo d’interazione che consentirà ai suoi fruitori e, più in particolare, dal grado di coinvolgimento che susciterà in essi” (2010, p. 87) e ancora:

È a questo livello che forse è possibile cominciare a riflettere sulla straordinaria importanza che […] la rivoluzione tecnologica connessa a Internet sta cominciando ad assumere. I mondi virtuali dove i giocatori si incontrano, combattano o comunque sviluppano interazioni di vario genere, sono popolati appunto di avatar cui corrispondono persone in carne e ossa e non semplici proiezioni della macchina. Tutto ciò […] con profondissime conseguenze per ciò che concerne l’elaborazione del proprio senso di identità in rapporto con l’ambiente esterno (2010, p. XIII).

Jane McGonigal è stata tra le prime a evidenziare le potenzialità dell’esperienza motivazionale dei videogiochi: cosa non scontata data la decennale diffidenza riconosciuta alla forsennata attività dei giocatori di videogiochi (su PC negli anni che vanno dal 1970 agli anni novanta, e su home consolle o smartphone oggi). Anche dopo WWO, la designer è rimasta molto attiva sul fronte della difesa e contestualizzazione della relazionalità sociale generata dal video-giocare e ai temi sul come quest’attività possa generare e ridisegnare la realtà esterna. Tramite gli ARG e l’immagine di scenari di vita migliore che promuovano l’apprendimento nel comportamento tramite il gioco, la McGonigal propone una possibile lettura dei videogiochi come “capacità di coinvolgere e generare desiderio di apprendimento” (Salvador, 2014, pos. 1337). Con lo slogan game for good riconosce ai videogiochi la capacità di migliorare la realtà attraverso un processo formativo e educativo:

I giochi oggi hanno spesso un contenuto (un contenuto serio) che dirige la nostra attenzione verso i problemi reali e urgenti che abbiamo di fronte. Inseriamo problemi reali all’interno dei giochi: problemi scientifici, sociali, economici, ambientali. E, attraverso i nostri giochi, inventiamo nuove soluzioni per alcune delle sfide che opprimono di più la specie umana (McGonigal, 2011, pos. 6839).

I risultati ottenuti dall’intelligenza collettiva e dall’immaginazione della comunità dei giocatori di WWO (ai quali è stato chiesto, fondamentalmente, di giocare in maniera responsabile), sono stati utilizzati per creare specifici records poi utilizzati dall’Institute for the Future per anticipare e prevenire il futuro nei suoi peggiori risultati. I giocatori, oltre che dare spunti e soluzioni di gioco inaspettate, hanno dimostrato di poter migrare i risultati ottenuti online nel loro vissuto, cambiando in sostanza le proprie abitudini di vita. In questo senso, WWO è progettato anche come acceleratore digitale della realtà e si basa su una serie ben codificata di principi capaci di superare ciò che i giochi di simulazione tradizionali hanno dimostrato essere un limite, e cioè la possibilità di quantificazione del riflesso sulla vita reale di quanto appreso dal gioco, indipendentemente dalla sua verosimiglianza al reale: fattibile col digitale, impensabile prima di questo e nella cultura tradizionale. In sostanza, le realtà alternative dei videogiochi, oggi, generano dei risultati reali: una sorta di feedback più intenso reimpiantabile nella società di chi ha generato e giocato il gioco. I progettisti dei giochi ARG sperimentano ogni giorno come spingere più in là i limiti di quanto un gioco possa influenzare la vita reale dei giocatori. Per questo, il concetto di realtà alternativa è sempre più centrale nei dibattiti sul futuro dei giochi e “aiuta a promuovere l’idea che le tecnologie dei giochi possono essere utilizzate per organizzare le attività nel mondo reale. Cosa ancora più importante, sta facendo nascere idee innovative su come fondere insieme quel che amiamo di più nei giochi e quello che vogliamo di più dalle nostre vite” (McGonigal, 2011).

5. Il tavoliere come percorso videoludico

Polverizzati i limiti delle sceneggiature dei giochi stampati, imposti principalmente dallo spazio disponibile sul tavoliere e dal budget economico per realizzarlo, nel digitale lo sfruttare al massimo la potenza dell’hardware è diventata la scelta decisiva come lo era quella del tipo di materiale nei giochi analogici. La strategia vincente della Sega per ostacolare il dominio indiscusso della Nintendo alla fine degli anni ottanta, per esempio, è andata proprio in questo senso: con l’aiuto di programmatori del calibro di Richard Garriot, la Sega concentra la sperimentazione sull’attività di interactive storytelling,[19] la disciplina centrata sulla leggibilità degli spazi e di tutte le qualità degli elementi che ne fanno parte e che consentono al giocatore di interagire col gioco, aumentandone il coinvolgimento (in relazione diretta agli oggetti, si parla di affordance, cioè la qualità fisica di un oggetto che suggerisce a un giocatore le azioni appropriate per manipolarlo). Eliminando le differenze di genere, “tutti i giochi (digitali e non) hanno in comune quattro costanti: obiettivo, regole, sistema di feedback e volontarietà della partecipazione; tutto il resto – sostiene la McGonigal – è rafforzativo o migliorativo di questi quattro elementi centrali” (2012, pos. 404 e ss.). Aggiungo che a livello progettuale, il tipo di successione di questi quattro punti e la loro specifica combinazione, sembra essere un’altra delle differenze alla base del mondo ludico pre e post-virtuale. In effetti, ragionando sul sistema vero e proprio dei giochi tradizionali su tavoliere, la differenza di come il giocatore viene messo a conoscenza delle regole del gioco, è evidente: nel pre-virtuale le regole andavano imparate prima di giocare, lette, ascoltate, insegnate, i modi erano tanti ma il principio lo stesso. A un gioco come il Risiko! e, decenni prima, lo stesso GdA, non era possibile giocare se non si era già a conoscenza di tutte le regole e i vincoli che il tavoliere “evidenziava”. Il sistema odierno di feedback, invece, chiamato continuo, permette ai giocatori di conoscere in ogni momento quanto siano vicini al raggiungimento del loro obiettivo e, sempre più in tempo reale, tiene alta la loro motivazione tramite la varietà e l’intensità dei feedback stessi.

Nei giochi tradizionali era proprio l’indeterminatezza delle fasi del percorso e l’esito incerto a dare il polso stesso della sua playability: il GdA non permetteva, se non a fine partita, di capirne l’andamento, e assicurava una presa di coscienza della cornice narrata solo a passi successivi, tramite il posizionamento del segnalino sulla casella raggiunta con il tiro dei dadi. L’autore dei tradizionali giochi come GdA dichiarava preventivamente l’obiettivo e le regole che venivano scritte in manuali d’istruzioni allegati o apposte in una delle due facce del foglio, al centro del gioco (figura 4).

Fig. 4 - Gioco dell’Aquila, Milano, 1917, particolare delle regole (proprietà P. Castellani, Cortona, Italy).

Fig. 4 – Gioco dell’Aquila, Milano, 1917, particolare delle regole (proprietà P. Castellani, Cortona, Italy).

Senza la dichiarazione e le spiegazioni preventive, non era possibile giocare. Il secondo passo era quello di esplicitare l’obiettivo (spesso ciò avveniva tramite le regole stesse o con la narrazione della storia simulata), infine il giocatore acquisiva i feedback insieme ai progressi di gioco e/o solo raggiungendo determinate tappe del percorso. Come afferma Marco Valtriani, questa tendenza è uno dei sistemi più comuni per la valutazione dei videogiochi:

la catalogazione in base all’esperienza e alla parte più “estetica” […] che deriva dal fatto che mentre in un videogioco gran parte dei dati relativi alle meccaniche sono “nascosti” nei meandri dei codici del gioco, in un gioco da tavolo le meccaniche sono in qualche modo “scoperte” e visibili, oltre che – spesso – molto più accessibili in termini di complessità matematica (cit. in Bertolo e Mariani, 2014, p. 281).

Oggi, gli autori di videogiochi hanno completamente ribaltato la successione di questi passaggi tanto che il “truismo dell’industria video ludica moderna è proprio quello che i giocatori all’inizio debbono affrontare l’ostacolo di sapere che cosa fare e di non sapere come giocare” (McGonigal, 2011, pos 504). Questo tipo d’impostazione ambigua è nettamente diversa da quella dei giochi tradizionali: più un videogioco è immediato e non richiede di imparare preventivamente le regole, più genererà divertimento e approvazione. Per questi motivi nei videogame si cerca di nascondere il più possibile il sistema dei feedback: il giocatore scopre solo a tentativi ciò che deve fare e, con il progredire nella storia, arriva a capire l’obiettivo e a decodificare le regole del gioco. Come afferma Pecchinenda “i videogiochi attuali sono diventati complicati e ‘opachi’. Essi trasmettono l’idea di far parte di un luogo che, anziché analizzato, deve essere abilitato, nel senso che ‘nei videogames s’impara ben presto che per imparare a giocare bisogna giocare a imparare’. Non si vanno prima a leggere le istruzioni, né si seguono direzioni precise. S’impara nel corso del processo stesso di gioco” (Turkle, 1997, cit. in Pecchinenda, 2010, p. 90). Aggiunge la McGonigal che “ora siamo invitati a imparare mentre andiamo avanti. Esploriamo lo spazio del gioco e il codice informativo ci vincola e ci guida in modo efficace. Impariamo come giocare osservando con attenzione quello che il gioco ci consente di fare e come risponde ai nostri input” (pos. 507). Pensiamo di nuovo a Tomb Raider, il passaggio a questo gioco non è stato banale: il gameplay è incentrato sulla soluzione di enigmi legati alla fisica e al colpo d’occhio, alle leve da tirare o chiavi da recuperare; il giocatore “conosce” inizialmente la sua eroina, però, in una stanza chiusa, senza dettagli, senza scritte. A forza di tentativi e prove con cui Lara salta, corre, si arrampica, prova a cercare leve, il quadro si riempie di dettagli e la storia inizia. I sistemi per generare coinvolgimento intenso, ottimistico e gratificazioni emotive nel giocatore da parte dei game designers attuali sono sempre più potenti e più mobili: per questo, se già Huizinga sosteneva che “ogni gioco significa qualcosa” oggi, richiamandoci ancora alle parole della McGonigal, si può dire che ogni (video)gioco significa “qualcosa di più” (McGonigal, 2011).

6. Conclusioni

Nel saggio si è inteso procedere mettendo al centro della trattazione la figura del game designer e la potenzialità dei giochi di simulazione applicati tramite una selezione di riflessioni e osservazioni nodali legate alla strutturazione dei serious game, intesi come sistemi ludici archetipici. La complessità del tema ha richiesto di considerare l’attività del designer in maniera tipizzata piuttosto che scendere nello specifico degli strumenti che concretamente egli adotta per la realizzazione dei giochi. Per questo, gli aspetti legati più specificamente alla grafica sono stati trattati solo in parte e solo in relazione ai due giochi analizzati. Di per sé, però, l’argomento varrebbe un’analisi successiva: proprio in relazione ai giochi di ARG, infatti, oggi si pone uno dei quesiti più delicati del mondo dei giochi di simulazione applicata e cioè se l’utilizzo di una grafica sempre più spettacolare equivalga a una migliore esperienza di gioco, a generare, cioè, una cornice ludica più credibile.

Tale quesito si collega al concetto di verosimiglianza al mondo reale di un videogioco e cioè a tutti quei fattori formali legati al play – che a loro volta dipendono dal motore grafico scelto (cioè l’insieme dei programmi su cui il gioco si sviluppa, tipo il rendering delle immagini, il suono, l’aspetto della fisica, il networking cioè il collegamento online tra gli utenti), dalla risoluzione dell’immagine e dagli effetti grafici (Cambi e Staccioli, 2007, pp. 171 ss.) – cui ho in questa sede preferito quelli legati al game, più idonei ad affrontare il tema presentato dell’ideazione e della funzione comunicativa dello scenario interattivo dei giochi. La verosimiglianza dell’impatto estetico-formale di un videogioco dipende dalla grafica con cui esso è proposto ma è anche vero che non è meramente al fine estetico che le componenti grafiche di un videogioco devono essere pensate. In questa direzione va affrontato il quesito appena proposto: quanto la grafica determina e giustifica il successo di un videogioco, soprattutto quando è un serious game applicato? Il termine stesso di “simulazione” pone l’ambivalenza del quesito – che è poi l’ambivalenza semantica della parola stessa che da un lato significa “riprodurre direttamente” e “imitare”, dall’altro può essere intesa anche come “ingannare”, “illudere”.

Concludiamo con le parole di Bittanti (2002) che usiamo per aprire i termini di una nuova riflessione: “Il videogioco, medium in grado di esprimersi per mezzo di immagini e suoni complessi, sfrutta naturalmente le potenzialità della gratificazione estetica” ma questa “tende a sfumare in un sistema fondato su altre attività che non sono la sola contemplazione” (p. 91). In pratica, i soli effetti grafici, per quanto spettacolari, non riescono a sostenere il successo di un gioco che proprio in situazioni di “molta grafica, poco significato” spesso scema nel giro di poche settimane. Dall’altro lato, però, in un “buon progetto” i sistemi grafici e le tecnologie più all’avanguardia devono essere intese in grado di valorizzare e trasmettere i contenuti simbolici significativi di un gioco, senza dimenticare che “anche l’ipnosi tecnologica è in grado di dare assuefazione” ai giocatori (p. 93).


Riferimenti bibliografici

Accordi Rickards, M. (2014). Storia del videogioco: Dagli anni Cinquanta a oggi. Roma: Carocci.

Anolli, L. e Mantovani, F. (2011). Come funziona la nostra mente: Apprendimento, simulazione e Serious Games. Bologna: il Mulino.

Ascione, C. (1999). Videogames: Elogio del tempo sprecato. Roma: Minimum.

Bertolo, M., e Mariani, I., Game design: Gioco e giocare tra teoria e progetto. Pearson: Milano, 2014.

Bittanti, M. (2002). Per una cultura dei videogames: Teorie e prassi del video giocare. Milano: Edizioni Unicopli.

Bittanti, M. (2004). La logica di ludologica: “Pensare con le dita”. Disponibile on line: http://mbf.blogs.com/files/logica_di_ludologica.pdf, work in progress (ultimo aggiornamento 15 marzo 2004).

Cambi, F., e Staccioli, G. (2007). Il gioco in Occidente: Storie, teorie, pratiche. Roma: Armando Editore.

Caillois, R. (1981). I giochi e gli uomini: La maschera e la vertigine (1958). Milano: Bompiani.

Carlà, F. (1996). Space invaders: La vera storia del videogames. Roma: Castelvecchi.
Dumont, J.M. (1956). La Vie et l’œuvre de Jean-Charles Pellerin, 1756-1836. Épinal: L’Imagerie Pellerin.

Huizinga, J. (1973). Homo Ludens (1938). Torino: Einaudi.

Kohler, C., (2004). Power Up: How Japanese Video Games Gave the World an Extra Life, BradyGames, London, 2004 (trad. it. [2009] Power Up. Come i videogiochi giapponesi hanno dato al mondo una vita extra. Terni: Multilayer.it Edizioni.

Maestri, A., Polsinelli, P., e Sassoon J. (2015). Giochi da prendere sul serio: Gamification, storytelling e game design per progetti innovativi. Milano: Franco Angeli.

Mascheroni, S., e Tinti, B. (1981). Il Gioco dell’Oca. Milano: Bompiani.

McGonigal, J. (2011). La realtà in gioco: Perché i giochi ci rendono migliori e come possono cambiare il mondo. Milano: Apogeo.

Milano, A. (1993). Fabbrica d’immagini. Milano: Vangelista.

Nuccio, W. (2016). La progettazione dei giochi da tavolo: Strumenti, tecniche e design pattern. Milano: Mursia.

Pecchinenda, G. (2003, 2010). Videogiochi e cultura della simulazione. Roma-Bari: Laterza.

Pellitteri, M., e Salvador, M. (2014). Conoscere i videogiochi: Introduzione alla storia e alle teorie del video ludico. Latina: Tunuè.

Salvador, M. (2013). Il videogioco. Brescia: Editrice la Scuola [versione kindle].

Thomas, D., Orland, K., e Steinberg, S. (2007). The videogame style guide and reference manual. Coldstream, VIC: Power Play Publishing.

Turkle, S., (1997). La vita sullo schermo: Nuove identità e relazioni sociali nell’epoca di internet. Milano, Apogeo.


Note    (↵ returns to text)

  1. Con MMORPG s’intende Massively Multi-player On-Line Playing Game ovvero il gioco di ruolo in rete multi giocatore di massa, conosciuti anche come MMO.
  2. Sul tema della simulazione nei giochi si veda Videogiochi e cultura della simulazione di Gianfranco Pecchinenda (2003, ristampato nel 2010 con una seconda e molto interessante introduzione dello stesso autore): nel testo è presentata la figura dell’homo game, l’evoluzione dell’homo communicans proposto nella prima edizione, inteso come perfetto interprete della cultura ludica e video ludica occidentale contemporanea.
  3. I giochi di simulazione nascono alla metà dell’Ottocento, in ambito militare: servivano strategicamente da addestramento “visivo” a un evento bellico per le truppe e il popolo (che vi apprendevano fatti bellici accaduti o previsti tali) e da manuali di tattica figurati per i militari e le classi nobili. I giochi militari ottocenteschi adottavano un linguaggio grafico in parte complesso secondo il pubblico cui erano destinati: fumettistico e quasi fiabesco per le stampe popolari, più dettagliati, decorati ed eruditi per i nobili. Cfr. Cambi e Staccioli (2007).
  4. Per coin-op (coin operated machine) s’intendono le consolle posizionate in spazi pubblici da attivare a moneta, meglio conosciute come giochi di arcade. Gli arcade sbaragliano il mercato negli anni ottanta tanto che il loro nome diventa sinonimo stesso di sala giochi. I videogiochi del tipo di Space Invaders, Defender, Asteroids, Tetris e Pac man rappresentano la prima generazione dei videogame appartenenti a questa categoria. Si veda Pellittieri e Salvador (2014), Pecchinenda (2010).
  5. Il gameplay è un concetto piuttosto ampio, traducibile con l’intensità d’interazione che si stabilisce tra il giocatore e il gioco, cioè con le sue meccaniche, gli obiettivi e la trama. Non va confuso con la playability che si riferisce, invece, alla “giocabilità”. Insieme alla trama e alla grafica, il gameplay va inteso come parte costituente del sistema di un videogioco. Cfr. Bertolo e Mariani (2014).
  6. Jane McGonigal è tra i più attivi Game designer dell’Institute for the Future di Palo Alto in California e autrice di La realtà in gioco (2014); dal 2006 a oggi, ha sviluppato numerosi giochi di MMORPG.
  7. Traggo dal libro di Cambi e Staccioli (2007) la definizione dei giochi di simulazione applicata che sono quelli che “sviluppano un modello semplificativo di un evento reale o possibile, simulando le dinamiche reali attraverso poche regole riconoscibili” (p. 102).
  8. Per gli elementi di base di un gioco di simulazione a tema bellico, si possono consultare le voci death, life, kills in Thomas, Orland, Steinberg (2007) (disponibile anche on line su: http/www.gamestyleguide.com) oltre che il già citato Nuccio (2014).
  9. I dati sono desunti dal lavoro di tesi della stessa autrice sulla collezione di giochi di percorso appartenente dell’antiquario Paolo Castellani di Cortona. Sono state consultate altresì collezioni di giochi a stampa presenti on-line, in particolar modo si veda http://www.giochidelloca.it.
  10. Per un’estesa trattazione sulle regole e la struttura dei Giochi dell’Oca cfr. Mascheroni e Tinti (1981).
  11. Per una storia dettagliata dei progettisti di videogiochi dagli anni settanta in poi, cfr. in lingua italiana, Ascione (1999), Carlà (1993), Bittanti (2002), Pellittieri e Salvador (2014).
  12. Disponibile on-line su: http://mbf.blogs.com/files/logica_di_ludologica.
  13. Nella parte che segue si fa riferimento ai libri di Milano (1993), Dossena (1984), Cambi e Staccioli (2007) che vengono citati una sola volta per non appesantire il testo.
  14. Disponibile on-line su: http://www.imagerie-epinal.com/.
  15. I passi da gigante che la tecnologia moderna ha compiuto nel corso degli ultimi anni hanno potenziato l’aspetto tecnico di tutte le componenti che costituiscono il videogioco, dall’aspetto grafico, a tutti gli effetti e la risoluzione, fino ad arrivare al motore della consolle; resta comune, però, un rapporto tra artisti e programmatori di quattro a uno.
  16. Disponibile on-line su http://writerguy.com/wwo/metahome.htm.
  17. Il termine gamification è stato proposto per la prima volta nel 2002 dall’inglese Nick Pelling, programmatore di giochi, e poi usato nel 2010 dall’americano Jesse Schell durante la Dice Conferenze di Las Vegas dove propose una lettura della quotidianità basata sui temi del gaming, intesi come strumento pervasivo e formidabile di engagement. Si rimanda alle recenti ricerche di Viola (2011) e Maestri, Polsinelli, Sassoon (2015).
  18. La letteratura critica e scientifica sui videogiochi è pratica recente: molto approfondita, soprattutto quella in lingua inglese, affronta da due diverse angolazioni e ambiti disciplinari la materia del mondo video ludico: da un lato, i sostenitori della “ludologia” che analizzano i giochi con strumenti nuovi, dedicati ed esclusivi, e i “narratologi” che considerano il videogioco un testo a tutti gli effetti da comprendere e analizzare attraverso gli strumenti tipici della semiotica e della narratologia. Un’esauriente trattazione sui Game Studies si trova in Salvador (2014).
  19. Da non confondersi con il functional writer cioè lo sviluppatore dei dettagli del software grafico, il fiction writer è lo sceneggiatore, il romanziere, colui che usa gli strumenti digitali per raccontare la storia su cui si basa il gioco (Joe Lambert, Center for Digital Story Telling, Berkeley, California disponibile online su: http://www.storycenter.org/story-gallery//the-history-of-cds-a-short-story-behind-the-stories-by-cds-founder-joe-lambert).

Alle origini di una “visualità tecnologica”: percorsi di ricerca sulla grafica delle sigle televisive nel primo decennio di trasmissioni Rai

Le sigle televisive hanno rappresentato, fin dalle origini della televisione pubblica italiana, un campo di interessanti sperimentazioni sull’immagine in movimento e un peculiare terreno di confronto tra progetto grafico e medium tecnologico. A partire da uno scavo nell’archivio Teche Rai e dall’analisi di alcune delle sigle più rappresentative del primo decennio di trasmissioni televisive, l’articolo delinea alcune tracce per ricostruire una preistoria della grafica in movimento. L’esame di articoli pubblicati sulle riviste aziendali della Rai e su altre pubblicazioni periodiche specialistiche e le riflessioni dei grafici permettono di contestualizzare questi progetti all’interno di un più ampio dibattito critico e sottolineare le tangenze tra diverse ricerche sperimentali che, anche sulla scia del nuovo immaginario dischiuso dall’elettronica, stavano negli stessi anni riflettendo sulle possibilità di “programmazione” di immagini in movimento.


1. Tracce per una ricerca in fieri

Viviamo – oggi come non mai – in un’epoca dove la macchina è diventata, se non la signora, certo un’ospite di riguardo della nostra società. Non ce ne possiamo più sbarazzare, anche se, spesso, o talvolta, desidereremmo farlo. Dobbiamo dunque accettarla per quello che è; e con essa, le diverse implicazioni che, nel settore sociologico, antropologico, ed estetico, essa ci arreca. (Dorfles, 1965, p. 109)

Gillo Dorfles apriva con queste parole il suo intervento al convegno Arte e tecnologia, organizzato nel giugno del 1964 a Firenze dal Gruppo 70[1] come momento di riflessione sull’attualità delle esperienze artistiche che in quegli anni “esteticamente” interpretavano, rielaboravano o anche contestavano “gli aspetti di un mondo” sempre meno “naturale” e sempre più “tecnologico” (Arte e tecnologia, 1964). Secondo quell’idea di “estensione” del concetto di arte propria del pensiero teorico di Dorfles, l’intervento, pubblicato l’anno successivo sulle pagine di Marcatré con il titolo “Visualità tecnologica”, evidenziava come parlare di “arti figurative e tecnologia” significasse “parlare anche di cinematografo e televisione”, oltre che di disegno industriale e architettura industrializzata, di cartellonistica e segnaletica stradale (1965, p. 110). La televisione poteva infatti diventare il canale di una “nuova espressività visuale”, come lo stesso Dorfles affermerà nel 1978 al convegno Le arti visuali e il ruolo della televisione organizzato dalla Rai, dove, all’interno di una riflessione sulle prime esperienze di videoarte, sottolineava come un discorso a parte si sarebbe dovuto fare per “tutte le realizzazioni nelle quali gli artisti si sono valsi del video per proiettare immagini astratte cinetiche e cromatiche”, “un settore nel quale la TV ha già dato e potrà dare in futuro prove non indifferenti”:

Basti pensare alle innumeri e quasi indispensabili sigle, scritte, marchi e grafiche astratte, che precedono ogni programma TV e che molto spesso sono opera di noti artisti grafici […]. In queste scritte, sigle, schemi cinetico-cromatico-sonori, appare chiaramente precisata l’utilizzazione delle conquiste tanto della grafica moderna che delle nuove possibilità offerte dal medium televisivo. (Dorfles, 1979, p. 125)

Le sigle di apertura e di chiusura dei programmi televisivi hanno rappresentato, fin dagli inizi delle trasmissioni Rai nel gennaio del 1954, un campo di interessanti sperimentazioni sulle possibilità espressive e comunicative dell’immagine in movimento e quindi un peculiare terreno di confronto tra progetto grafico e medium tecnologico. Un confronto che, per questioni storiche legate agli sviluppi delle tecnologie di ripresa e di elaborazione delle immagini, si è giocato inizialmente sull’ibridazione di modelli e su sistemi di produzione caratteristici di altri ambiti, in primis quello cinematografico, e sul dialogo, o spesso sulla sovrapposizione, di diverse professionalità come quelle del grafico, dell’illustratore, dell’animatore e del regista. La sigla trasmessa sul piccolo schermo è infatti il risultato finale di un lavoro di équipe, in cui non è sempre facile distinguere i singoli contributi, e rispecchia il più o meno libero dialogo con l’autore televisivo, quasi sempre ben consapevole dell’importanza di questo spazio introduttivo nella comunicazione al pubblico dei contenuti e del taglio editoriale del suo programma.

Una riflessione sulla grafica delle sigle Rai del primo decennio di vita della televisione pubblica italiana deve tener conto di questa complessità e labilità di confini, oltre che della parzialità di un’indagine storica che si basa su fonti in molti casi anonime e incomplete. Molto spesso infatti le sigle non ci sono pervenute o sono state tagliate; inoltre solo nei casi dei maggiori progettisti e studi di produzione operanti in quegli anni è possibile ricostruire un quadro di contesto più ampio che sfugge per le sigle rimaste anonime e per quei progetti meno significativi sul piano del linguaggio visivo, che ci parlano però del modo in cui la Radiotelevisione italiana comunicava in quei primi anni, attraverso la concisione dei suoi incipit, il progetto informativo ed educativo rivolto alla nazione.

Questo intervento è parte di una ricerca ancora in fieri che, riprendendo alcuni fondamentali studi di storia della televisione[2] e raccogliendo alcuni spunti offerti dalla sezione dedicata al film e al video della quinta edizione del Triennale Design Museum,[3] presenta un primo “scavo” riguardante il primo decennio di trasmissioni televisive.[4] “Scavo” che non pretende di essere esaustivo, ma cerca di far emergere alcuni temi e alcuni casi che appaiono particolarmente significativi quali tracce per una riflessione sul “contatto” tra graphic design e televisione a cavallo tra anni cinquanta e sessanta. Come ha sottolineato Carlo Vinti, “il fatto che oggi la grafica in movimento costituisca un’area di attività in vertiginoso sviluppo fa dimenticare spesso che i graphic designer in realtà si sono cimentati molto presto con la dimensione della temporalità e con le possibilità coreografiche della tipografia e del segno” (2012, p. 359).
Dopo un paragrafo introduttivo che accenna ai modelli e alle formule che caratterizzano le sigle nella Radiotelevisione delle origini, l’articolo si sofferma sull’analisi di alcuni progetti di Erberto Carboni, Tito Varisco, Bruno Munari, Marcello Piccardo, Sandro Lodolo e Pino Pascali, scelti per la loro rilevanza e perché utili a delineare una “preistoria” della grafica in movimento in Italia.

2. La sigla come “soglia” nella televisione delle origini: alcune considerazioni introduttive

L’interesse del progetto grafico per il campo dell’audiovisivo si è negli ultimi decenni ramificato in una complessità di prodotti comunicativi e di direzioni di ricerca solo in parte riconducibili ai modelli delle origini e soprattutto alle funzioni che la sigla svolgeva nei primi decenni di programmazione televisiva. Negli anni della “paleotelevisione”[5] la sigla contribuiva a definire le trasmissioni all’interno della griglia di generi, orari e fasce di pubblico che articolava il palinsesto Rai, ben diversa dalla logica di flusso che si affermerà alla fine degli anni settanta e soprattutto dagli anni ottanta, quando la brevità diventerà in modo nuovo caratteristica linguistica della comunicazione televisiva. Le sigle inoltre, come ha sottolineato lo storico della televisione Giorgio Simonelli, dimostravano la “televisività” di una determinata trasmissione, cioè “la sua origine e la sua destinazione autenticamente televisive”:

restavano escluse tutte quelle produzioni televisive, ed erano molte, in cui il mezzo televisivo era solo un tramite, un luogo di passaggio di immagini, di parole che venivano da fuori, da altre realtà, esistenti autonomamente e che la televisione si limitava a riprodurre e diffondere” (1994, pp. 8-9).

La ripresa in diretta di una partita di calcio o la trasmissione televisiva di un film non erano ad esempio introdotte da una sigla ad hoc, ma semplicemente dalle parole dell’annunciatrice che in quegli anni aveva un ruolo effettivo di informazione sulla programmazione e di mediazione con il telespettatore. Lo erano invece i programmi di informazione e di intrattenimento (Simonelli, 1994, pp. 9-10).

Questa specificità della sigla nella televisione delle origini sottolinea la sua dimensione di spazio di transizione, di “soglia” che prepara alla visione del programma televisivo, ma anche, nei primi anni, che aiuta a familiarizzare con il nuovo medium, fornendo traslati visivi che agiscono sul piano simbolico – si pensi alla sigla di apertura e chiusura delle trasmissioni – o riproponendo modelli già radicati e conosciuti, derivanti dagli ambiti cinematografico, radiofonico e teatrale.

I margini della programmazione delle origini, non continuativa ma limitata ad alcune ore del giorno e a un unico canale nazionale[6], sottolineavano in modo diverso e più evidente rispetto a oggi l’ingresso delle trasmissioni nel tempo quotidiano della vita, mediando la ricezione del telespettatore e creando un’aspettativa rispetto ai programmi. In questo senso le sigle televisive, in modo simile alla copertina di un libro, possono rientrare nella definizione di paratesto elaborata da Gérard Genette a proposito dell’opera letteraria ma estendibile, come sottolineato dallo stesso autore, ad altri ambiti (1989, pp. 400-401), cioè in quell’insieme di produzioni che “contornano” e “prolungano” il testo “per presentarlo […] nel senso corrente del termine, ma anche nel suo senso più forte per renderlo presente, per assicurare la sua presenza nel mondo, la sua ‘ricezione’ e il suo consumo” (1989, p. 3). Questa dimensione paratestuale, o meglio peritestuale, sembra quasi esplicitamente sottolineata in alcune sigle della Rai delle origini come, ad esempio, quella delle puntate di Appuntamento con la novella andate in onda nel 1957, incentrata sull’inquadratura della copertina del libro letto da Giorgio Albertazzi nel corso della trasmissione.[7] Una soluzione di grande semplicità e immediatezza comunicativa che ricalca un modello frequentemente utilizzato nelle aperture dei film, tanto da diventare – come sottolineano gli studi sui titoli di testa cinematografici, significativo riferimento metodologico per un’analisi traslata all’ambito televisivo – un topos oggetto di molteplici variazioni (Re, 2006, p. 20).[8]

Gli anni cinquanta sono un momento di ricerca di una identità visiva della neonata Radiotelevisione italiana che, sul piano della pubblicità a stampa come degli allestimenti in occasione di mostre e fiere, è da subito molto incisiva soprattutto grazie all’importante contributo di Erberto Carboni. Nello spazio della “messa in scena” (Casetti & Di Chio, 2006, p. 214) sul piccolo schermo, alla costruzione di questa identità contribuisce la sigla di apertura e chiusura delle trasmissioni, emblematica, come analizzato nel prossimo paragrafo, del modo in cui l’azienda propone la novità televisiva ai telespettatori. Le sigle della televisione delle origini sono costituite nella maggior parte dei casi da un testo scritto su sfondo neutro e prodotte con metodi artigianali: venivano infatti per lo più realizzate con cartelli semovibili e rulli ripresi dalle telecamere mentre erano azionati lentamente da un tecnico per creare l’effetto di scorrimento verticale dei titoli (Grasso, 2008, p. 744). Tuttavia proprio nel primo decennio si ritrovano le radici di alcune tipologie legate ai diversi generi televisivi, che diventeranno tipiche della programmazione Rai soprattutto dalla seconda metà degli anni sessanta. Se le sigle dei programmi di informazione si caratterizzano “per la brevità” e sono “impostate alla sobrietà e al rigore”, quelle dei programmi di intrattenimento indulgono “a una maggiore spettacolarità” (Grasso, 2008, p. 744) e sono riassumibili in tre “formule” che avranno negli anni molta fortuna: la sigla narrativa, quella musicale e la sigla di animazione.[9] Quest’ultima, a cui è interessante accennare perché spesso il lavoro dell’animatore e del grafico si sovrappongono e confondono nella televisione delle origini, si afferma soprattutto dopo il successo delle invenzioni di Carosello, in onda dal 1957. È una formula impiegata non solo per lo spettacolo ma anche per programmi della “Tv dei ragazzi” come la trasmissione Passaporto: Conversazioni di lingua inglese, curata da Jole Giannini. Di questo storico e longevo programma, in onda dal 1954, è digitalizzata e visibile nell’archivio Teche Rai la puntata del 17 aprile 1958, aperta da una sigla animata in cui si riconosce lo stile disegnativo e l’inventività di Marcello Piccardo,[10] poliedrica figura di ricercatore visivo che in questi anni collabora con la Rai. La formula della sigla animata è usata in questo periodo anche per introdurre gli spazi pubblicitari come, oltre a Carosello, Tic Tac (1959), Gong (1959), Arcobaleno (1961) e Intermezzo (1962). Roberto Gavioli, fondatore della casa di produzione Gamma Film e creatore di celebri personaggi animati, ha ricordato che proprio grazie al successo degli spot pubblicitari, nel 1959 gli autori di Canzonissima Garinei e Giovannini gli chiesero di realizzare con lo stesso linguaggio la sigla del programma e di animare con disegni e collage fotografici alcune canzoni (1985, p. 167)[11]. Le tecniche dell’animazione cinematografica potevano quindi essere impiegate per vivacizzare la trasmissione di un brano cantato – in una sorta di preistoria del videoclip – ma anche per rendere dinamici grafici e disegni nei programmi di informazione ed educativi. Sia Sandro Lodolo sia Mario Sasso, nomi che hanno segnato la storia delle sigle della televisione italiana, hanno iniziato la loro collaborazione con la Rai alla fine degli anni cinquanta curando le illustrazioni e le animazioni rispettivamente per il telegiornale e per Telescuola.

Sasso, ricordando quegli inizi, ha rievocato il clima che si respirava negli studi televisivi:

Le tecniche e gli esempi da seguire erano quelli dell’animazione cinematografica; ma più che alle avanguardie si pensava a Walt Disney e, riferimenti culturali erano il film e la sua storia più che la pittura. Io ho cominciato nel ’59 con Telescuola […]. Il mio primo contratto fu una collaborazione come illustratore; portavo i disegni da casa e ne eseguivo l’animazione in pellicola a passo uno.[12] Nel ’60 ho realizzato la mia prima sigla, per il programma che divenne popolarissimo di Alberto Manzi Non è mai troppo tardi. Un’esperienza fondamentale anche perché è stata la prima volta – per me certamente, ma anche per altri nella tv italiana – nella quale si è dovuto affrontare il problema di come costruire la “copertina” di un programma. Ma tutto il lavoro è stata un’esperienza decisiva: dalla scelta di usare un linguaggio propriamente cinematografico nella realizzazione della sigla, a quella di sovrapporre alle immagini riprese elementi grafici di diversa provenienza, all’incontro con i conduttori della trasmissione e con i tecnici di studio, alla vita di studio vera e propria. […] In Telescuola ero illustratore, scenografo, regista, grafico a seconda delle esigenze, e il più delle volte tutte queste cose insieme. Solo alla fine degli anni ’60 si è sentita la necessità di fare della grafica in tv, qualcosa di più preciso, di darle un ruolo più evidente e significativo, non di semplice – per quanto importante – ausilio ai programmi. (“Mario Sasso: autoritratto…”, 1994, pp. 115-116)

La sigla di Non è mai troppo tardi[13] è emblematica delle prime sperimentazioni svolte in televisione, in cui a una modalità di ripresa tradizionalmente cinematografica viene sovrapposta una grammatica e una impaginazione grafica che nel caso specifico rimandano al foglio di quaderno, simbolo di uno dei più significativi e fortunati programmi educativi della Rai.

3. L’identità visiva della Rai negli incipit degli anni cinquanta: il contributo di Erberto Carboni e Tito Varisco

Dal 1948 ad oggi nessuno può negare che il linguaggio pubblicitario della Rai sia divenuto uno dei più peculiari, dei più riconoscibili e qualificati. Da premesse alquanto incerte […] siamo arrivati a un inconfondibile stile: “stile Rai”, è il caso di dirlo. Cioè la Rai si è creata una “costante stilistica” in grado di dare vita, in tema di pubblicità, ad una sua vera e propria estetica. A questo punto affermiamo senza esitazione che il maggior merito nel raggiungimento del positivo risultato spetta ad Erberto Carboni, architetto e tecnico della pubblicità di fama internazionale. (Baglio, 1958, p. 40)

Questo articolo pubblicato nel 1958 sulla rivista aziendale La nostra Rai sottolineava il fondamentale ruolo svolto da Erberto Carboni nella creazione di una identità visiva della Radiotelevisione italiana a partire dal 1948, quando l’architetto parmense disegna il marchio della Rai,[14] caratterizzato da lettere squadrate e da un incisivo punto sulla “i”, che andrà per molti anni a rappresentare, nelle sue diverse declinazioni, l’immagine dell’azienda. A questo primo marchio nel 1953 si affianca quello della televisione, costruito anch’esso sulla base di rapporti geometrici con la lettera “t” e la sottostante “v” perfettamente iscritte in un quadrato, che accompagna tutte le campagne pubblicitarie e divulgative legate al nuovo mezzo e sulle pagine del Radiocorriere evidenzia i programmi televisivi rispetto a quelli radiofonici (figure 1-2).
Questa sintetica visualizzazione della TV entra nell’immaginario degli italiani non solo attraverso la carta stampata ma ovviamente anche attraverso lo schermo televisivo, comparendo sul monoscopio, cioè su quell’immagine fissa che veniva trasmessa a orari regolari per consentire la regolazione dei televisori, e soprattutto come protagonista della celebre sigla di apertura delle trasmissioni e della variante che chiude la programmazione giornaliera. La sigla d’inizio dei programmi è emblematica, soprattutto se letta insieme alle campagne pubblicitarie degli stessi anni, del modo in cui la Rai presenta la novità televisiva al suo pubblico (figura 3).[15] Sullo sfondo di un cielo solcato da nuvole bianche, che rappresenta in un certo senso il nuovo “spazio” aperto dalla comunicazione televisiva, scorre una composizione geometrica disegnata dall’architetto e scenografo Tito Varisco, su cui compare il marchio della TV insieme alla scritta “Rai Radiotelevisione italiana”; nell’ultima sequenza le linee della composizione visualizzano la stilizzata immagine di un’antenna da cui si dipartono dei raggi che in chiusura “incorniciano” il marchio, trasformandolo a sua volta in una sorta di mezzo di trasmissione.

Fig. 1-2 - Erberto Carboni, Marchi Rai (1948) e TV (1953) (da Linea Grafica, 2, marzo-aprile 1966). Fig. 3 - Il libro Dieci anni di Televisione in Italia (1964) con in copertina la sigla di inizio trasmissioni, Biblioteca Rai “Dino Villani”, Torino / © Teche Rai.

Fig. 1-2 – Erberto Carboni, Marchi Rai (1948) e TV (1953) (da Linea Grafica, 2, marzo-aprile 1966). Fig. 3 – Il libro Dieci anni di Televisione in Italia (1964) con in copertina la sigla di inizio trasmissioni, Biblioteca Rai “Dino Villani”, Torino / © Teche Rai.

Non sono purtroppo finora emersi documenti che permettano di indagare più in profondità l’iter di commissione e di creazione della sigla, sulla cui paternità gli studiosi non concordano, attribuendola alcuni a Carboni altri a Varisco.[16] Nel Fondo Carboni conservato presso il Centro Studi e Archivio della Comunicazione di Parma non c’è traccia di questo progetto.[17] La composizione geometrica è invece documentata nell’archivio di Varisco da una fotografia in negativo, dello stesso Varisco, del disegno originale realizzato a tempera su acetato (Cavadini, Corà & Di Pietrantonio, 2010, p. 74) (figura 5). Un’altra fotografia, pubblicata nel catalogo della mostra sul Movimento Arte Concreta curata da Luciano Caramel nel 1984 (vol. 1, p. 86), simula lo scorrimento del disegno sullo schermo televisivo attraverso delle maschere di carta[18] (figura 4).

Fig. 4-5 - Tito Varisco, Composizione di geometrie proiettive a forme libere, 1953-54 (da Caramel, 1984 e da Cavadini, Corà & Di Pietrantonio, 2010).

Fig. 4-5 – Tito Varisco, Composizione di geometrie proiettive a forme libere, 1953-54 (da Caramel, 1984 e da Cavadini, Corà & Di Pietrantonio, 2010).

È importante ricordare che Varisco negli anni cinquanta partecipa al Movimento Arte Concreta condividendo quell’idea di “sintesi delle arti” e di “intermedialità” che lo caratterizza soprattutto a partire dal 1952 e che porterà all’incontro e alla fusione nel 1954 con il gruppo francese Espace.[19] La Composizione di geometrie proiettive a forme libere disegnata da Varisco porta sugli schermi Rai l’aspirazione a un costruttivo rapporto tra ricerca visuale e modernità industriale, a un’arte che, proprio perché “concreto manifestarsi di valori grafici, plastici e cromatici” svincolati da ogni “contenutismo aneddotico”, possa promuovere nuove “interazioni” tra “architettura, plastica e pittura”, come si legge sul fascicolo pubblicato in occasione della mostra Esperimenti di Sintesi delle arti del 1955, e rinnovare “il gusto in tutti i settori della vita moderna dove tali arti entrano in gioco” (Caramel, 1996, p. 203).

L’immagine dell’antenna trasmittente è in questi anni simbolo delle innovazioni tecniche e tecnologiche che permettono di “portare il mondo a domicilio” o di viaggiare “intorno al mondo”, come recitano i testi degli annunci di mezza pagina ideati da Erberto Carboni per la pubblicazione sui principali quotidiani nazionali in occasione dell’inizio delle trasmissioni il 3 gennaio 1954 (figure 6-7) e come sottolinea visivamente lo “schermo fisso” (Carboni, 1959, p. 73) per il telegiornale sempre dello stesso anno (figura 8). Non è in questa sede possibile approfondire i molti progetti pubblicitari ideati per la Rai, magistralmente riassunti dallo stesso Carboni nel libro Pubblicità per radiotelevisione pubblicato nel 1959, ma vale la pena almeno accennare a una riflessione sui modi in cui la grafica traduce in messaggio visivo gli indirizzi e i programmi dell’azienda. Come ha sottolineato in un recente articolo Cecilia Penati, le campagne pubblicitarie degli anni cinquanta supportano le strategie messe in atto dalla Rai per rassicurare i cittadini italiani, presentando il televisore come un apparecchio innocuo che avrebbe potuto migliorare il comfort della casa moderna nel contesto sociale del boom economico del secondo Dopoguerra (2015, p. 36). Nel periodo in cui pochissimi italiani possiedono un televisore e quindi la visione dei programmi rappresenta ancora un’esperienza collettiva, le idee grafiche di Carboni interpretano visivamente il progetto dell’azienda pubblica di trasformare il televisore nel nuovo focolare della vita domestica. Ne sono esempio la copertina dell’opuscolo pubblicitario della Rai che riassume l’idea di comodità e di intimità del salotto di casa (figura 9) e alcuni schizzi conservati nel Fondo Carboni dello CSAC di Parma, prime idee fissate rapidamente sulla carta da cui nascono alcune pubblicità che hanno segnato la storia dell’immagine della Radiotelevisione delle origini.[20]

Fig. 6-7 - Erberto Carboni, Annunci di mezza pagina destinati ai principali quotidiani nazionali in occasione dell’inizio delle trasmissioni, 1954 (da Carboni, 1959).

Fig. 6-7 – Erberto Carboni, Annunci di mezza pagina destinati ai principali quotidiani nazionali in occasione dell’inizio delle trasmissioni, 1954 (da Carboni, 1959).

Fig. 8 - Erberto Carboni, “Schermo fisso” per il telegiornale, 1954 (da Carboni, 1959).

Fig. 8 – Erberto Carboni, “Schermo fisso” per il telegiornale, 1954 (da Carboni, 1959).

Fig. 9 - Erberto Carboni, Copertina di opuscolo pubblicitario della Radiotelevisione italiana (da Carboni, 1959).

Fig. 9 – Erberto Carboni, Copertina di opuscolo pubblicitario della Radiotelevisione italiana (da Carboni, 1959).

4. Ricerche di “programmazione” e “modulazione” dell’immagine all’inizio degli anni sessanta

Alla fine del 1961 viene pubblicato l’Almanacco letterario Bompiani dedicato a Le applicazioni dei calcolatori elettronici alle scienze morali e alla letteratura, che affronta il tema del rapporto tra cultura scientifica e umanistica e delle possibilità estetiche e linguistiche della cibernetica. La tanto discussa scissione tra le “due culture”, secondo la fortunata definizione coniata da Charles P. Snow in un saggio tradotto in Italia nel 1964, vive in questi anni più nelle parole di una parte della critica che nella realtà della ricerca artistica e letteraria, come riassume visivamente la copertina di Bruno Munari dove, sullo sfondo di una fotografia a colori di un piano della memoria di un elaboratore,[21] “scorrono” due grafiche sperimentali (figura 10). Umberto Eco in questa occasione scrive della “forma del disordine”, come “forma del nuovo mondo in cui l’uomo va abitando” (1961, p. 175), che l’arte cerca di cogliere attraverso una poetica “aperta” che si muove tra programmazione degli elementi di base e imprevedibilità del risultato finale. Le tavole sperimentali e le fotografie di opere di Giovanni Anceschi, Davide Boriani, Enrico Castellani, Gianni Colombo, Gabriele Devecchi, Karl Gerstner, Bruno Munari, Dieter Roth, Jesús Rafael Soto e Grazia Varisco, che accompagnano il testo, danno luogo, nella variazione programmata di elementi geometrici, non a una forma determinata ma, secondo le parole di Eco, a una “pellicola di una forma in movimento” (1961, p. 175) (figura 11).

Fig. 10-11 - Bruno Munari, Copertina dell’Almanacco Letterario Bompiani 1962, 1961 e pagine interne dello stesso Almanacco.

Fig. 10-11 – Bruno Munari, Copertina dell’Almanacco Letterario Bompiani 1962, 1961 e pagine interne dello stesso Almanacco.

Da simili ricerche di programmazione e modulazione dell’immagine nasce negli stessi anni l’interessante “titolazione programmata” progettata per la Rai dallo Studio di Monte Olimpino di Bruno Munari e Marcello Piccardo, fondato nel 1962 sulla collina che affaccia su Como[22] (figure 12-14). Purtroppo non è nota la circostanza di commissione del progetto, che nel 1964 viene pubblicato sul quarto numero della rivista Pagina come “esempio di titolazione programmata fatta per la televisione italiana” (“Studio di Monte Olimpino”, 1964, p. 38) e nel 1965 nel catalogo della Mostra del linguaggio grafico nella comunicazione visiva. Oggetto e grafica, curata a Torino da Giovanni Brunazzi e Germano Celant, come “visualizzazione grafica di un titolo per la televisione italiana, RAI-TV, Roma” (Forme programmate…, 1965). Il progetto nasce molto probabilmente nel 1963 e va letto in parallelo ai primi due film prodotti dallo Studio di Monte Olimpino. Piccardo, nel raccontare l’avvio dello Studio e la realizzazione di Arte programmata (1962) e I colori della luce (1963), ha ricordato infatti che “intanto andavamo facendo da noi con le nostre cose piccoli film di allenamento per titoli e sigle della televisione, e andavamo dicendo per televisione che il nostro era cinema di ricerca” (1992, p. 31).

12-rit

13rit

Fig. 12-13-14 - Studio di Monte Olimpino, Titolazione programmata per la Radiotelevisione italiana, pubblicata in Pagina, 4, 1964.

Fig. 12-13-14 – Studio di Monte Olimpino, Titolazione programmata per la Radiotelevisione italiana, pubblicata in Pagina, 4, 1964.

La sigla, realizzata con “mezzi cinematografici”, cioè filmata su pellicola, è il risultato della variazione di un’immagine di base a partire da un campo d’insieme predisposto per i movimenti della macchina da presa. Questo campo è costituito da un reticolo di quadrati che sovrapponendosi tra loro creano zone nere e bianche. Come si legge su Pagina:

Questa immagine totale serve anche da sigla visiva della trasmissione, facilmente ricordabile data la elementarità delle immagini e della loro organizzazione nello spazio bidimensionale. La macchina da presa (si tratta di una titolazione filmata e poi messa in onda) inquadra prima il totale, poi si avvicina a inquadrare un particolare che porta il titolo della trasmissione. Da questo punto incomincia una animazione particolare: la macchina si sposta sempre e soltanto seguendo andamenti orizzontali o verticali e fa passare le varie immagini con andamento lento (18 f), fermandosi dove appare il titolo. I titoli e le diciture sono sistemati nelle inquadrature che presentano la maggior quantità di nero o di bianco. I percorsi, ogni volta diversi, sono stabiliti con un segno tracciato su un trasparente. (“Studio di Monte Olimpino”, 1964, p. 38)

Se nel caso di questo progetto l’immagine di base è fissa e il movimento apparente degli elementi geometrici è dato dai percorsi della camera, simili ricerche erano state condotte anche su immagini in movimento. Nell’Almanacco letterario Bompiani 1963 dedicato a La civiltà dell’immagine, uscito alla fine del 1962, Bruno Munari pubblica le “ricerche di comunicazione visiva con immagini in movimento” condotte dallo Studio di Monte Olimpino sulle “opere cinetiche” esposte lo stesso anno nel negozio Olivetti di Milano alla mostra Arte programmata (1962, pp. 34-35) da lui curata insieme a Giorgio Soavi[23] (figura 15). Alcune sequenze di queste indagini filmate fanno parte del documentario sulla mostra prodotto dallo Studio su incarico dell’Olivetti, che, al di là del valore di documentazione dell’esposizione, costituisce una interessante riflessione sull’autonoma comunicatività dell’immagine in movimento.[24] Questi studi sulla percezione del dinamismo di forme e colori sono applicati negli stessi anni a diversi ambiti di attività dello Studio, tra cui appunto quello delle sigle. Un filmato del 1967, che ripercorre brevemente la produzione del duo Munari-Piccardo a partire dal 1963,[25] documenta infatti alcuni interessanti progetti di “titolazioni” realizzati attraverso le riprese di opere programmate e caratterizzati da un fluido scorrere delle immagini “oltre” i limiti dell’inquadratura (figura 16).

Fig. 15 - Studio di Monte Olimpino, Ricerche di comunicazione visiva con immagini in movimento, pubblicate nell’Almanacco letterario Bompiani 1963, 1962.

Fig. 15 – Studio di Monte Olimpino, Ricerche di comunicazione visiva con immagini in movimento, pubblicate nell’Almanacco letterario Bompiani 1963, 1962.

Fig. 16 - Fotogrammi dal documentario Monte Olimpino 1963-1967, 1967, Archivio Andrea Piccardo.

Fig. 16 – Fotogrammi dal documentario Monte Olimpino 1963-1967, 1967, Archivio Andrea Piccardo.

I titoli di testa sono una delle molteplici componenti filmiche indagate dallo Studio di Monte Olimpino all’interno di una articolata concezione di “cinema sperimentale”, inteso come “ricerca fatta con i mezzi del cinema per definire in tutti i suoi possibili aspetti il linguaggio cinematografico”:

la ripresa, i tempi di ripresa, le luci […], il sonoro e le pause, l’animazione, la velocità o la lentezza di informazione, la titolazione e tutti i casi di testi animati, l’inquadratura […], i tempi di azione, il montaggio a senso o a programmazione, le possibilità di stampa della pellicola cinematografica come le immagini filtrate o alterate da fattori fisici o chimici, la sceneggiatura ecc; vengono di nuovo esplorate con il metodo oggettivo del good design. (Nova tendencija 3, 1965, pp. 113-114).[26]

Come afferma Munari intervenendo nel dicembre del 1964 alla tavola rotonda sul tema Design e mass media organizzata dalla galleria Il Centro di Napoli:

il designer si pone di fronte ad un problema richiesto dalla società operando attraverso i nuovi mezzi che volta a volta, a seconda dei temi, gli vengono offerti dalla tecnica. Egli affronta il suo lavoro senza alcun preconcetto né di forma, né di stile, né di astrazione o non astrazione, aderendo essenzialmente ai mezzi tecnologici disponibili per risolvere ciascun problema. (Design e mass media, 1965, p. 16).

La “titolazione programmata” realizzata per la Rai è quindi specchio di un campo d’indagine e riflessione assai ampio e rappresenta una concreta possibilità di applicazione di una metodologia progettuale rigorosa e oggettiva a un nuovo “spazio” comunicativo aperto dalla produzione televisiva.
In modo diverso il concetto di ripetizione, variazione e modulazione di un’immagine astratta è all’origine di una delle più celebri e incisive sigle della televisione italiana: quella del settimanale TV7, progettata da Pino Pascali in collaborazione con Sandro Lodolo, titolare della Lodolo Film, con cui l’artista lavora dal 1958 al 1968, anno della sua prematura scomparsa.[27] La sigla è caratterizzata dalla ripetizione ritmica di alcuni semplici elementi geometrici che insieme al logotipo della trasmissione, costruito attraverso un gioco grafico tra la “t” minuscola e il numero “7”, introducono, con la sintesi necessaria negli spazi paratestuali, il longevo settimanale di politica e attualità in onda dal 15 gennaio 1963 sul canale Nazionale in orario serale[28] (figura 17).

Fig. 17 - Pino Pascali in collaborazione con Sandro Lodolo, Sigla di TV7, pubblicata in La nostra Rai, 5, 1965.

Fig. 17 – Pino Pascali in collaborazione con Sandro Lodolo, Sigla di TV7, pubblicata in La nostra Rai, 5, 1965.

La sigla restituisce, attraverso la pregnanza visiva del logotipo e una efficace sintesi cinetico-sonora, una copertina in linea con l’impostazione del programma, che viene presentato sulle pagine del Radiocorriere come “un rotocalco stampato non su carta di lusso, ma su carta di giornale” (Barbacinti, 1962, p. 19). TV7 nasce infatti come supplemento del telegiornale volto ad approfondire gli argomenti più rilevanti trasmessi quotidianamente dai notiziari Rai. La trasmissione, caratterizzata da uno stile veloce e dinamico, puntava sulla massima attualità delle notizie e cercava quindi di sfruttare al meglio lo specifico televisivo della diretta[29]. L’essenziale titolo della trasmissione è tradotto in un altrettanto essenziale logotipo che è protagonista della sigla quale simbolo visivo che rafforza l’identità del programma nella comunicazione con il pubblico: su uno sfondo a righe orizzontali “scorre” ritmicamente un sottile rettangolo nero che “entra” ed “esce” dall’inquadratura “portando con sé” i titoli di testa della trasmissione sulle note del brano jazz di Stan Kenton Intermission Riff. Sandro Lodolo ha osservato che la sequenza di righe in bianco e nero poteva ricordare il codice Morse “fatto di linee e punti”, che nel suo dinamismo identifica “il telegrafo e quindi la notizia” ([Lodolo], 2006, p. 122). Non a caso il segnale telegrafico che precedeva la sigla musicale annunciava in alfabeto Morse il nome della rubrica (Nissim, 1964, p. 14).

Nel contesto di una riscoperta e rivalutazione critica delle opere “su commissione” di Pino Pascali è stata più volte sottolineata l’importanza del progetto per TV7. Marco Senaldi, in un saggio su Pascali “artista mediale”, ha riconosciuto nella sigla “un’opera tra le sue più grandi e riuscite” e vi ha letto “una rielaborazione tutta italiana, con accenti ludici, della grande stagione del cinema astratto internazionale”, di film come Diagonal Symphonie di Viking Eggeling o Rhythmus 21 di Hans Richter (Senaldi, 2010, p. 91). Modelli storici certamente noti a chi in quegli anni era interessato a un cinema grafico di ricerca, come ha ricordato Marcello Piccardo a proposito degli inizi dell’esperienza di Monte Olimpino (Piccardo, 1992, p. 11).

Un riferimento cronologicamente più vicino si può invece rintracciare nel lavoro del grafico americano Saul Bass che all’inizio degli anni cinquanta, quando i titoli di testa erano considerati una parte quasi irrilevante del film tanto da essere proiettati a sipario ancora chiuso, ne sottolineò il ruolo di negoziazione con il pubblico e di evocazione in forma metaforica del nucleo narrativo della pellicola (Re, 2006, p. 44). Collaborando con registi quali Otto Preminger e Alfred Hitchcock per film come L’uomo dal braccio d’oro (The Man with the Golden Arm, 1955) o Intrigo internazionale (North by Northwest, 1959), diede un’inedita importanza visuale a questo spazio paratestuale. I suoi progetti hanno fatto scuola non solo negli Stati Uniti ma anche in Europa, dove già negli anni cinquanta Bass era riconosciuto come uno dei protagonisti della grafica internazionale. Marco Giusti, che è stato il primo ad avviare un importante lavoro di recupero e di studio del lavoro pubblicitario, grafico e scenografico di Pascali, ha raccolto da Enzo Manili la testimonianza secondo la quale l’artista studiava con attenzione la linea grafica di Bass (Lodolo, 2008). Pur nella diversità dell’impaginazione e del ritmo, la sintassi della sigla di TV7 può essere ad esempio confrontata con quella delle sequenze di apertura del film Psyco (Psycho, 1960)[30], dove i titoli di testa scorrono insieme a una griglia di chiaro sapore modernista. Vicini allo stile di Bass e degli autori della casa di produzione UPA (United Productions of America), fondata negli anni quaranta in opposizione al realismo Disneyano, sono anche i personaggi creati da Pascali per i Caroselli, caratterizzati da una forte stilizzazione e da un tratto lontani dallo stile di animazione della Disney[31].

Nella sua semplicità e chiarezza, la sigla di TV7 rivela una incisività che ancora oggi colpisce e sembra indirettamente riflettere sul linguaggio del medium televisivo sia nel motivo a righe orizzontali che ricorda le linee di trasmissione del televisore sia nella perfetta sincronia tra “improvvisazione grafica” e “improvvisazione musicale”. Sulla scorta della riflessione condotta da Umberto Eco negli stessi anni, può essere infatti letta come “opera aperta”, che sembra riassumere visivamente la crescita della narrazione propria della diretta televisiva, a metà tra scelta e arbitrarietà. L’indeterminazione che Eco individua nelle poetiche contemporanee è paragonata nel saggio Opera aperta all’improvvisazione jazz (Eco, 1962, pp. 170-171), dove il riff costituisce una traccia ripetuta e variata dal musicista senza uno spartito predefinito. Nella sigla di TV7 il brano di Stan Kenton corrisponde all’impaginazione visiva, creando una sottolineatura sonora che intensifica il significato della sigla e nello stesso tempo sembra alludere a una delle caratteristiche del linguaggio televisivo messa in evidenza dalla critica sin dalla nascita del nuovo medium.

5. Conclusioni

Nel 1965 la sigla di TV7 viene messa visivamente a confronto con quelle delle rubriche Anteprima e L’Approdo in un articolo pubblicato sulle pagine de La nostra Rai che si sofferma sull’impostazione e sul taglio giornalistico dei tre programmi, riflettendo solo indirettamente, attraverso le immagini e le brevi didascalie, sul ruolo della sigla nell’“impaginazione” del piccolo schermo (Donat-Cattin, 1965, pp. 10-13). Alle sigle, più che ad altri aspetti della “messa in scena” televisiva, viene riservato un certo spazio sulle pagine delle riviste aziendali della Rai. Se sul Radiocorriere si trovano nel primo decennio soprattutto riferimenti ai brani musicali che introducono le trasmissioni, spesso sollecitati dalla curiosità dei telespettatori, sulla rivista La nostra Rai, pubblicata dal 1958,[32] le “copertine” servono in alcuni casi a illustrare gli articoli sui programmi, di cui rappresentano l’incipit sullo schermo televisivo, anche se molto raramente vengono citati i nomi dei progettisti o degli studi di produzione.

Le origini di una specifica e, possiamo aggiungere, programmatica attenzione critica a questo ambito di progettazione si ritrovano negli articoli di Pagina, l’unica tra le riviste di grafica italiane che in questi anni pubblichi approfondimenti rivolti a un dibattito internazionale[33]. Ne è esempio l’interessante documentazione di titoli di testa realizzati da Saul Bass presentata nel primo numero del novembre 1962. Tra i progetti sono pubblicati la celebre sequenza iniziale di Psyco e le sigle dei programmi televisivi americani PM East e Alcoa Première, che costituiscono importanti modelli di riferimento per chi in quegli anni in Italia stava muovendo i primi passi nella sperimentazione dei linguaggi della grafica in movimento. Il quarto numero di Pagina (1964) ritorna sul lavoro del grafico americano con l’ampio intervento Titles For a Film. And Other Ideas, in cui è lo stesso Bass a presentare i titoli di testa del film Anime sporche (Walk on the Wild Side, 1962) di Edward Dmytryk e a riflettere sul suo processo creativo.
Specchio degli sviluppi della ricerca progettuale è in diverso modo la pubblicazione annuale Pubblicità in Italia, che inaugura una sezione dedicata alla “pubblicità cinematografica e televisiva” nel 1957 con l’avvio di Carosello e inizia a prestare attenzione alle sigle di programmi televisivi non pubblicitari dal 1965, quando ad esempio vengono presentati gli incipit delle trasmissioni La domenica sportiva e Linea diretta, progettati da Ilio Negri, Michele Provinciali e Pino Tovaglia dello Studio CNPT (Pubblicità in Italia…, 1965, p. 247). Questo nuovo e più ampio interesse rivolto al particolare ambito progettuale rappresentato dalle sigle televisive è sintomatico di quel cambiamento che porterà a “fare della grafica in tv qualcosa di più preciso” (Sasso, 1994, p. 116) e a darle un più ampio e specifico peso nell’impaginazione non solo dei programmi, ma anche delle reti e nella loro comunicazione al pubblico.

Il primo decennio di trasmissioni è caratterizzato da esiti meno organici e “spettacolari” rispetto a quelli degli anni successivi e alle prime prove di sigle realizzate interamente in elettronica, ma non per questo meno significativi. In questi anni vengono aperte alcune direzioni di sperimentazione e vengono poste le basi di un longevo immaginario legato al piccolo schermo. I progetti di Carboni, Varisco, Munari, Piccardo, Lodolo e Pascali sono esemplificativi delle pionieristiche ricerche avviate in questo primo periodo; rispecchiano in particolare diverse modalità di indagine di una grammatica visiva basata sull’interazione tra forma tipografica e forma geometrica, che con processi di “proiezione”, “programmazione” e variazione, diventano immagine in movimento. Questi progetti sono “schemi cinetico-sonori”, per riprendere le parole di Gillo Dorfles, che suggeriscono analogie non solo con i meccanismi di funzionamento del nuovo medium e con la modalità di trasmissione dell’immagine sullo schermo, ma anche in alcuni casi con i nuovi modelli di rielaborazione dei dati offerti dagli sviluppi dell’elettronica e con l’immaginario a questi legato.

La sigla si configura già in questo primo decennio come spazio di riflessione “metatelevisiva”, in cui la televisione cita i suoi meccanismi, il suo funzionamento, le sue ritualità, a volte in modo ironico, altre con inedite valenze espressive sul piano del linguaggio visivo. Come ha scritto lo storico e teorico Gianfranco Bettetini nel volume pubblicato a seguito dell’importante convegno del 1985 Televisione: la provvisoria identità italiana[34]:

Anche quando non si avevano a disposizione i trucchi elettronici e i computer, i titoli delle diverse produzioni comportavano un lavoro creativo molto intenso, efficace e spesso indirizzato verso soluzioni narrative. […]. Lo studio delle più significative sigle prodotte dalle televisioni italiane potrebbe costituire l’occasione per un discorso storico sulle più vive ricerche linguistiche del mezzo e, nello stesso tempo, sul modo in cui l’istituzione televisiva ha inteso via via presentarsi al suo pubblico e coinvolgerne l’attenzione (pp. 18-19).


Riferimenti bibliografici

Arte e tecnologia (1964). Arte e tecnologia. Brochure del convegno, 27-29 giugno 1964. Firenze: Tipografia Giuntina.

Baglio, G. (1958). Giornalismo plastico. La nostra Rai, 2, febbraio, 40-41.

Barbicinti, B. (1962). “TV 7” il nuovo settimanale televisivo. Radiocorriere TV, 51, 16-22 dicembre, 19.

Bass, J. & Kirkham, P. (2011). Saul Bass: a life in film & design. Londra: Laurence King.

Bass, S. (1964). Titolazioni di un film. E altre idee. Pagina, 4, gennaio, 14-21.

Bettetini, G. (a cura di). (1985). Televisione: la provvisoria identità italiana. Torino: Fondazione Giovanni Agnelli.

Caramel, L. (1984). MAC Movimento Arte Concreta. Catalogo della mostra, aprile-giugno 1984. (Volumi 1-2). Milano: Electa.

Caramel, L. (1996). Il MAC Movimento Arte Concreta nella collezione della Banca Commerciale Italiana. Milano: Banca Commerciale Italiana.

Carboni, E. (1959). Pubblicità per Radiotelevisione. Milano: Silvana Editoriale d’Arte.

Casetti, F. & Di Chio, F. (2006), Analisi della televisione (6a ed.). Milano: Bompiani.

Casetti, F. & Odin, R. (1990). De la paléo- a la néo-télévision. Approche sémio-pragmatique. Communications, 51, 9-26.

Cavadini, L., Corà, B. & Di Pietrantonio, G. (a cura di). (2010). Il grande gioco. Forme d’arte in Italia. Catalogo della mostra, 24 febbraio – 26 settembre 2010. Cinisello Balsamo: Silvana Editoriale.

Cocchia, A. (1979). È nata la sigla della Terza Rete. Radiocorriere TV, 48, 25 novembre – 1 dicembre, 70-73.

“Design e mass media” (1965). “Design e mass media”. Op. Cit., 2, gennaio, 8-30.

Donat-Cattin, A. (1965). L’impaginazione televisiva. La nostra Rai, 5, maggio, 10-13.

Dorfles, G. (1965). Visualità tecnologica. Marcatré, 11-12-13, 109-111.

Dorlfes, G. (1979). La TV come canale d’una nuova espressività visuale. In Rai / Prix Italia Milano 1978. Le arti visuali e il ruolo della televisione (pp. 115-126). Atti del convegno, 12-13 settembre 1978. Torino: ERI.

Eco, U. (1961). La forma del disordine. In S. Morando (a cura di), Almanacco Letterario Bompiani 1962. Le applicazioni dei calcolatori elettronici alle scienze morali e alla letteratura (pp. 175-187). Milano: Bompiani.

Eco, U. (1962). Opera aperta. Forma e indeterminazione nelle poetiche contemporanee. Milano: Bompiani.

Eco, U. (1983). TV: la trasparenza perduta. In U. Eco, Sette anni di desiderio (pp. 163-179). Milano: Bompiani.

Forme programmate. (1965). Forme programmate. Documentazione del materiale raccolto dall’Istituto in occasione delle mostre organizzate per la celebrazione del V Centenario della introduzione dell’Arte della Stampa in Italia. Catalogo della mostra, settembre 1965. Torino: Politecnico di Torino, Facoltà di Architettura, Istituto superiore di Scienze e Arti Grafiche.

Gavioli, R. (1985). Racconti frettolosi e sinceri. In G. Bettetini (a cura di), Televisione: la provvisoria identità italiana (pp. 165-170). Torino: Fondazione Giovanni Agnelli.

Genette, G. (1989). Soglie. I dintorni del testo. Torino: Einaudi. (Pubblicato originariamente nel 1987).

Grasso, A. (2000). Storia della televisione italiana. Milano: Garzanti.

Grasso, A. (2008). Enciclopedia della Televisione (3a ed.). Milano: Garzanti.

“Intervento di Vito Molinari” (1985). In G. Bettetini (a cura di), Televisione: la provvisoria identità italiana (pp. 181-187). Torino: Fondazione Giovanni Agnelli.

“Introduzione” (1962). “Introduzione”. Pagina, 1, novembre, 4-5.

Lodolo, C. (2008), Intervista a Marco Giusti. In D. Ferraria (a cura di), Pascali. Disegni per la pubblicità (pp. 24-26). Catalogo della mostra, 29 febbraio – 30 aprile 2008. Roma: Galleria Emmeotto.

Lodolo, C. (2012). 32 anni di vita circa. Pino Pascali raccontato da amici e collaboratori. Siena: Carlo Cambi Editore.

[Lodolo, S.] (2006). Sigle TV. In Pino Pascali. Lavori per la pubblicità (p. 122). Catalogo della mostra, 18 novembre 2006 – 20 gennaio 2007. Siena: Carlo Cambi Editore.

“Mario Sasso: autoritratto. Una conversazione con Marco Maria Gazzano”. (1994). In M.M. Gazzano (a cura di), Mario Sasso. Architetture elettroniche, la città, la televisione (pp. 115-123). Roma: Sedac Edizioni.

Meneguzzo, M., Morteo, E. & Saibene, A. (2012). (a cura di). Programmare l’arte. Olivetti e le neoavanguardie cinetiche. Catalogo della mostra, Venezia, Negozio Olivetti, 30 agosto – 14 ottobre; Milano, Museo del Novecento, 26 ottobre – 17 febbraio. Milano: Johan & Levi editore.

Munari, B. (1962). La progettazione grafica. In S. Morando (a cura di), Almanacco letterario Bompiani 1963. La civiltà dell’immagine (pp. 34-35). Milano: Bompiani.

Nardelli, M. (2015). Munari Cinematico. In G. Rubino & M. Sanmicheli (a cura di), Munari Politecnico. “Fare dell’arte con qualunque mezzo”. Varese: Nomos Edizioni.

Nissim, R. (1964). Le sigle della TV. La nostra Rai, 6, giugno, 14.

Nova tendencija 3. (1965). Catalogo della mostra, 13 agosto – 19 settembre. Zagabria: Galerija suvremene umjetnosti.

Innocenti, V. & Re, V. (2004). Limina/ le soglie del film. X Convegno Internazionale di Studi sul Cinema. Udine: Forum.

Penati, C. (2015). The hearth of our times: Rai and the domestication of Italian television in the 1950s. Comunicazioni sociali, 1, 36-45.

Piccardo, A. (2012). L’avventura di Monte Olimpino. Il cinema di ricerca di Munari e Piccardo. In B. Di Marino, M. Meneguzzo, A. La Porta (a cura di), Cinema d’artista italiano 1912-2012. Lo sguardo espanso (pp. 87-90). Catalogo della mostra, 30 novembre 2012 – 3 marzo 2013. Cinisello Balsamo: Silvana Editoriale.

Piccardo, M. (1992). La collina del cinema. Como: Nodo Libri.

Pignotti, L. (1998). Anni Sessanta: poesia tecnologica, poesia visiva, Gruppo 70. In E. Mascelloni, Sarenco (a cura di), Poesia totale 1897-1997. Dal colpo di dadi alla poesia visuale (Vol. 2, pp. 185-189). Catalogo della mostra, giugno-settembre 1998. Colognola ai Colli: Adriano Parise Editore.

Re, V. (2006). Ai margini del film. Incipit e titoli di testa. Pasian di Prato: Campanotto Editore.

Senaldi, M. (2010). Tic Tac Tv. Pino Pascali artista mediale. In A. D’Elia (a cura di), Pino Pascali (pp. 86-95). Milano: Electa.

Servizio Documentazione e Studi (a cura di). (1964). Dieci anni di Televisione in Italia. Torino: ERI.

Simonelli, G. (1994). Le sigle televisive: nascita e metamorfosi. Torino: Rai-Nuova ERI.

“Studio di Monte Olimpino” (1964). “Studio di Monte Olimpino”. Pagina, 4, gennaio, 36-39.

Vinti, C. (2012). Fra grande e piccolo schermo. Per una preistoria dell’immagine in movimento. In G. Camuffo, M. Piazza & C. Vinti (a cura di), TDM 5: grafica italiana (pp. 359-361). Catalogo della V edizione del Triennale Design Museum, 14 aprile 2012 – 24 febbraio 2013. Mantova: Corraini.

Zane, M. (1998). Scatola a sorpresa: la Gamma Film di Roberto Gavioli e la comunicazione audiovisiva in Italia da Carosello ad oggi. Milano: Jaca Book.

Zatterin, U. (1965). TV7 l’antirotocalco. La nostra Rai, 5, maggio, 2-3.


Note    (↵ returns to text)

  1. Per un approfondimento sul Gruppo 70, fondato a Firenze da Lamberto Pignotti ed Eugenio Miccini, si rimanda a Pignotti (1998, pp. 185-189).
  2. In modo particolare gli atti del convegno Televisione: la provvisoria identità italiana del 1985, che ha dedicato una sezione ai “racconti brevi” come genere originale della televisione italiana (Bettetini, 1985), e il libro di Giorgio Simonelli Le sigle televisive. Nascita e metamorfosi (1994).
  3. Triennale di Milano, TDM5: Grafica italiana, a cura di Giorgio Camuffo, Mario Piazza, Carlo Vinti, 14 aprile 2012 – 24 febbraio 2013.
  4. Periodo che coincide con la direzione dei programmi di Sergio Pugliese.
  5. Neologismo coniato da Umberto Eco per definire la televisione italiana nel periodo del monopolio statale (1954-1975) (Eco, 1983, pp. 163-179). Per approfondire si veda anche Casetti & Odin (1990, pp. 9-26).
  6. Il “Secondo Programma” televisivo nasce nel 1961, mentre la Terza Rete Rai inizierà le trasmissioni nel 1979.
  7. Si vedano per esempio le puntate di sabato 10 agosto e di sabato 17 agosto 1957 (Catalogo Multimediale Teche Rai, Appuntamento con la novella, lettura di Giorgio Albertazzi, in onda alle ore 22:45).
  8. Per approfondire il tema dei titoli di testa cinematografici si rimanda agli studi di Valentina Re, in modo particolare al libro Ai margini del film. Incipit e titoli di testa (2006) e agli atti del convegno Limina/ le soglie del film tenutosi a Udine nel 2003 (Innocenti & Re, 2004).
  9. Per approfondire si vedano Simonelli (1994) e “Intervento di Vito Molinari” (1985).
  10. Per individuare la mano di Marcello Piccardo è stato prezioso l’aiuto del figlio Andrea Piccardo. In questi stessi anni Piccardo disegna le illustrazioni di un libro di Jole Giannini pensato come manuale integrativo al corso televisivo, pubblicato in diverse edizioni nel 1955, 1956, 1958 e 1963. Sono sicuramente a lui attribuibili anche le illustrazioni che nel corso della lezione televisiva supportano la didattica. Purtroppo non è stato possibile pubblicare le immagini della sigla per problemi inerenti i diritti riscontrati dalla Rai.
  11. Per approfondire la storia della casa di produzione Gamma Film si veda Zane (1998).Purtroppo non è stato possibile pubblicare le immagini della sigla per problemi inerenti i diritti riscontrati dalla Rai. Un breve estratto della sigla animata creata da Gavioli è visibile a questo link (da 1’30”).
  12. Tecnica d’animazione in cui viene ripreso un fotogramma alla volta. Visti in sequenza i diversi fotogrammi creano l’effetto di animazione e di movimento.
  13. Lo storyboard della sigla è pubblicato sul sito di Mario Sasso: http://www.mariosasso.net/#!/SIGLE00-NON-E-MAI-TROPPO-TARDI (ultimo accesso luglio 2016).
  14. Il marchio appare dal 1948 sulle pubblicità a stampa ideate da Carboni per la Rai (vedi Carboni, 1959).
  15. La sigla nel 1964 viene rielaborata come pregnante immagine di copertina del libro pubblicato dalla Rai in occasione dei primi dieci anni di trasmissioni televisive (Servizio Documentazione e Studi, 1964).
  16. La sigla è ad esempio attribuita a Erberto Carboni in Grasso (2008), mentre a Tito Varisco in Cavadini, Corà & Di Pietrantonio (2010).
  17. È presente invece lo studio per la sigla della Terza Rete televisiva, ideata da Carboni nel 1979. Su questo progetto si veda Cocchia (1979), in cui è pubblicata anche l’immagine della sigla di apertura delle trasmissioni, che nella didascalia viene attribuita a Carboni. La sigla di apertura non compare tra i progetti pubblicati in Carboni, 1959.
  18. Nella didascalia viene descritto come “disegno a tempera su acetato, 450 x 60 cm” (Caramel, 1984, vol. 1, p. 86). Non mi è stato possibile verificare eventuali documenti riguardanti questo progetto conservati nell’Archivio Tito Varisco, di cui è stata depositata presso il Politecnico di Milano solo la parte riguardante i progetti architettonici.
  19. Su questo tema si rimanda a Caramel (1985, 1996).
  20. CSAC – Centro Studi e Archivio della Comunicazione dell’Università di Parma, Fondo Erberto Carboni, Busta “E. Carboni Rai TV Studi, schizzi – anni 50”, COLL. 219/6.
  21. In una nota dell’Almanacco si legge che la fotografia a colori della copertina è stata fornita dall’IBM.
  22. Per un’analisi dei film prodotti e per ripercorrere l’esperienza umana oltre che professionale dello Studio si rimanda a Piccardo (1992) e Piccardo (2012). Per una riflessione sulla “cinematicità” di Munari si veda Nardelli (2015).
  23. Per un’analisi della mostra si veda Meneguzzo, Morteo & Saibene (2012).
  24. Arte programmata, 1962, soggetto di Bruno Munari, sceneggiatura di Marcello Piccardo, regia di Enzo Monachesi, musica di Luciano Berio; 16 mm, colore, sonoro, 10’, Archivio Storico Olivetti, Ivrea.
  25. Monte Olimpino 1963-1967, 1967; copia in 8 mm in bobina loop, b/n e colore, muto, 5’, Archivio Andrea Piccardo. Il filmato è stato realizzato come presentazione dello Studio in occasione della mostra degli architetti Castiglioni alla Allmark Gallery di New York.
  26. I film dello studio sono presentati in questi anni a diverse mostre in Italia e all’estero, su cui non è possibile in questa occasione soffermarsi, a volte introdotti in catalogo da un testo scritto da Bruno Munari. Il dattiloscritto di Munari da cui è stato estratto il testo pubblicato sul catalogo della mostra Nova tendencija 3, tenutasi a Zagabria nel 1965, è conservato nell’Archivio del Musej Suvremene Umietnosti Zagreb (Museo d’Arte Contemporanea di Zagabria).
  27. Per approfondire gli altri progetti nati dalla collaborazione tra Pascali e Lodolo si veda Lodolo (2012).
  28. Visto che il programma va in onda dal gennaio del 1963, la commissione della sigla potrebbe risalire all’anno precedente. Alcuni bozzetti datati 1961 provenienti dall’archivio Lodolo sembrerebbero far supporre una ideazione anteriore, che andrebbe però verificata con altre fonti. La “testata” di TV7 è pubblicata nel 1965 su La nostra Rai come opera grafica di Sandro Lodolo (Zatterin, 1965, p. 3).
  29. Cfr. Zatterin (1965, pp. 2-3). Su TV7 si veda anche Grasso (2000, pp. 145-147).
  30. Il film è uscito nelle sale italiane lo stesso anno.
  31. Si confrontino ad esempio i personaggi dei Killers o dei Posteros disegnati da Pascali con quelli della sigla di Saul Bass per il film Il giro del mondo in 80 giorni (Around the World in Eighty Days) di Michael Anderson del 1956 (cfr. Bass & Kirkham, 2011, p. 166).
  32. Dal 1968 cambierà nome in Rivista Rai. Per una introduzione sugli house horgan della Rai si vedano le schede pubblicate sul sito www.houseorgan.net.
  33. Nell’editoriale che apre il primo numero si legge infatti: “L’interessamento di Pagina si estenderà ben oltre i generi più abitualmente compresi nell’area della pubblicità. Tutto ciò che è soggetto della nostra quotidiana esperienza visiva ha una sua fisionomia più o meno espressiva, una sua più o meno piena funzionalità”. Tra i “prodotti” e gli “oggetti” che possono essere “presentati, vagliati e discussi” su Pagina vi sono anche “la tastiera di una macchina calcolatrice, il quadro-comandi di un televisore”, “il cortometraggio cinematografico e televisivo o la intitolazione di un film” (“Introduzione”, 1962, p. 4).
  34. Il convegno ha avuto il merito di recuperare e rileggere, per la prima volta in modo sistematico, il materiale televisivo delle origini, ponendo le basi per gli studi successivi sulla storia della televisione italiana.

Pixel e PAL: Progetti al computer per le emittenti televisive olandesi nei primi anni ottanta


Warning: Parameter 2 to qtranxf_postsFilter() expected to be a reference, value given in /web/htdocs/www.aisdesign.org/home/aisd/wp-includes/class-wp-hook.php on line 286

Questa ricerca ricostruisce varie storie progettuali e produttive di sigle televisive olandesi, vicende nelle quali pixel e PAL si sono incontrati per la prima volta a inizio anni ottanta, nel quadro di più ampie trasformazioni del sistema televisivo nazionale. L’articolo si basa sull’analisi di sigle e titoli che sono conservati in archivi audiovisivi e in collezioni private, su interviste con protagonisti dell’epoca e sull’esame di articoli apparsi in riviste di settore. Le storie progettuali illustrano i diversi approcci di designer e emittenti televisive rispetto al computer e al suo utilizzo nel design audiovisivo. Veronica, una delle prime organizzazioni televisive a fare uso del computer, scelse semplicemente di copiare modelli americani. Progettisti come Willem van den Berg e Carlo Delbosq cercarono di esplorare direzioni più significative, destreggiandosi fra high-tech e low-tech, budget grandi e piccoli, riferimenti espliciti e impliciti all’estetica del computer. Questi diversi approcci vengono letti nella cornice del particolare sistema mediatico olandese e dei cambiamenti cui questo andò incontro nel periodo considerato.


Questo articolo è disponibile solo in inglese.

Pixels and PAL: Computer design for Dutch broadcast television in the early 1980s

Total Design e il sistema Aesthedes: cambiare gli strumenti del graphic design in Olanda negli anni ottanta


Warning: Parameter 2 to qtranxf_postsFilter() expected to be a reference, value given in /web/htdocs/www.aisdesign.org/home/aisd/wp-includes/class-wp-hook.php on line 286

La storia del graphic design generalmente descrive l’arrivo del Macintosh come un evento che ha improvvisamente e inevitabilmente mutato l’attitudine e l’estetica progettuale. Che cosa succede se consideriamo quell’evento non un inizio ma una fase in un più lungo processo di transizione verso la progettazione al computer? Concentrandosi sull’Olanda, in questo articolo si sostiene che i designer erano già da prima influenzati dalla tecnologia del computer e che il loro atteggiamento verso questo nuovo strumento si è sviluppato nel tempo, come dimostra il confronto fra il lavoro di designer come Wim Crouwel – che ha tratto ispirazione dalle nuove tecnologie – e quello di progettisti quali Ootje Oxenaar, Peter Struycken e Jurriaan Schrofer, che hanno sperimentato il computer come effettivo ausilio per l’automazione produttiva. Il cuore dell’articolo è comunque la storia del sistema Aesthedes – un computer grafico che venne messo in commercio poco prima dell’avvento del Macintosh – e del suo utilizzo presso l’agenzia Total Design a inizio anni ottanta. La breve esistenza di Aesthedes consente di illuminare diverse fasi dell’approccio al computer dei progettisti grafici: dall’idea del computer come quintessenza della modernità al computer come fonte di ispirazione, fino al computer come effettivo strumento per automatizzare il tradizionale lavoro progettuale e come medium per esprimersi.


Questo articolo è disponibile solo in inglese.

Total Design and the case of the Aesthedes computer: changing the tools of Dutch graphic design in the 1980s

Qualcosa che non c’è più e qualcosa che non c’è ancora: l’avvento del computer e del digitale nelle pagine di Linea grafica, 1970-2000

L’articolo esamina la ricezione del computer e della rivoluzione digitale in Italia attraverso la lettura della rivista Linea grafica nel periodo 1970-2000. Lo spoglio condotto ha consentito di evidenziare l’apparire di filoni tematici e questioni, come pure esclusioni e silenzi, relativi all’avvento delle nuove tecnologie, offrendo spunti per ulteriori indagini e approfondimenti. L’analisi svolta illumina in particolare l’emergere di un discorso interno alla rivista che evolve da una considerazione primariamente strumentale del computer per la progettazione visiva al riconoscimento del mutamento qualitativo dell’orizzonte di produzione e consumo della grafica, con il configurarsi dell’ambiente digitale come dimensione immersiva e metafora della comunicazione tout court.


… alla fine di una fase storica, si fa più attento lo sguardo sul presente e sull’immediato futuro. E la fase che si conclude è quella dell’unicità, o della centralità assoluta del supporto cartaceo; è una perdita di egemonia. Si apre invece la fase della convivenza di supporti diversi, forse di un antagonismo, probabilmente di un’integrazione in continuo divenire. (2000/1e)

Con queste parole, Giovanni Baule salutava l’arrivo del nuovo millennio dalle pagine di Linea grafica,[1] la storica testata che egli aveva contribuito a rifondare, dopo quarant’anni dalla sua nascita (1946), e che dirigeva dal 1985. Quanto egli descriveva come un processo ormai compiuto, ovvero la coesistenza di supporti e media diversi con le cui specificità i progettisti grafici sono chiamati a confrontarsi, era stato oggetto di progressivo riconoscimento e di elaborazione all’interno della stessa rivista nei precedenti quindici anni.

Fin dalla sua costituzione, nell’immediato dopoguerra, Linea grafica aveva svolto un ruolo importante nell’esprimere e orientare l’individuarsi della figura del progettista grafico e della idea stessa di progettazione grafica in Italia, a lungo bilanciandosi fra diverse anime, fra tecnica e cultura, fra “mestiere” e “arte”, nonché fra tradizione e innovazione. Negli anni settanta, consumata nei fatti la separazione fra operatori della stampa e professionisti della progettazione, la rivista aveva ancora tentato di svolgere una funzione di collegamento, di favorire il dialogo. Nondimeno, i grandi cambiamenti che allora preoccupavano il mondo delle tipografie, come la fotocomposizione e la sempre più diffusa applicazione del computer, sembravano interessare poco i cosiddetti “creativi” (Schenone Garavoglia, 1974/5). A metà del decennio seguente, però, quando Linea grafica veniva avviata a un nuovo corso, l’elettronica e il computer stavano ormai bussando alla porta degli stessi progettisti grafici.

Prendendo atto della crescente complessità del sistema della comunicazione e dell’informazione dovuta all’ingresso in scena di nuove tecnologie, la direzione di Baule fin dall’inizio propone la rivista come osservatorio e spazio di discussione critica del “progetto della comunicazione visiva” oltre le “caselle della vecchia cassa gutenberghiana” (1986/1e). Tuttavia, ciò che in principio appare come il semplice moltiplicarsi della disponibilità di tecniche e linguaggi – che si tratta al più di imparare a conoscere e gestire (cfr. 1985/3e, 1987/1e) – progressivamente rivela una portata più radicale: un ribaltamento delle premesse e delle condizioni stesse della progettazione visiva che costringe a dare un nuovo senso al ruolo del graphic designer, a pensare una “nuova grafica”.

Questo articolo esamina la ricezione delle tecnologie elettroniche e digitali all’interno di Linea grafica nel periodo 1970-2000. Registrando l’apparire di filoni tematici e questioni, così come le assenze e i silenzi, lo spoglio condotto evidenzia le diverse risposte elaborate nella rivista in relazione alle sollecitazioni poste dall’apparire di nuovi dispositivi, supporti e media, e offre spunti per ulteriori approfondimenti dell’incontro fra cultura della grafica e computer nel contesto italiano. In particolare, l’analisi svolta permette di seguire un discorso che evolve dalla considerazione puramente strumentale del computer al riconoscimento del mutamento qualitativo dell’orizzonte di produzione e consumo della grafica, con il configurarsi dell’ambiente digitale quale dimensione immersiva e metafora di una comunicazione che alle soglie del 2000 appare sempre più in “flusso”, e rispetto alla quale il sostegno della tradizione e dei fondamenti della cultura grafica si fa sempre più incerto.

1. Gli anni settanta: una rivoluzione in atto, altrove

L’operatore grafico […] vive già da tempo a ridosso delle tecniche computer che, più che sperimentate, sono applicate alla fotoriproduzione delle immagini per la selezione a stampa, alla composizione e impaginazione dei testi e così via. (Pagliardini, 1985/1)

Come osservava Wando (Vando) Pagliardini, a metà anni ottanta il computer poteva essere considerato una presenza comune nei processi di produzione e riproduzione di testi e immagini. Eppure, benché l’elettronica fosse entrata di fatto nel loro orizzonte almeno da due decenni, i progettisti grafici avevano continuato a lungo a osservarla da una distanza di sicurezza, come un evento che in definitiva toccava altri lidi e altre professioni.

Dopo un quarto di secolo dalla sua fondazione (1946), Linea grafica non aveva più come interlocutore il tipografo-progettista che dentro l’officina avrebbe dovuto coniugare tecnica ed estetica, “esecuzione” e “creazione”, mestiere e arte. I lettori a cui la testata si rivolgeva erano ormai, in primo luogo, i “grafici delle agenzie, degli uffici pubblicità, delle direzioni artistiche editoriali, degli studi privati e industriali” (Che cosa, 1977/1; cfr. Linea grafica 76, 1976/1), figure attive all’esterno del mondo della tipografia con il quale, se mai, si confrontavano in veste di clienti (cfr. Dradi, 1977/5). Questa separazione di ruoli era stata rispecchiata e sostenuta dalla stessa rivista, attraverso vari cambi di direzione che, come raccontavano le testimonianze raccolte in occasione del venticinquesimo anniversario della testata (cfr. Mataloni, 1972/1), l’avevano portata a distanziarsi dagli interessi dell’industria della stampa per seguire più da vicino le diverse discipline che venivano affermandosi nell’ambito di competenza della grafica come strumento di comunicazione di massa – un processo che si considerava concluso in particolare con la direzione affidata a un uomo esterno all’officina, Giovanni Montanaro (direttore dal 1960 all’anno della sua morte, 1974).

Nonostante le ricostruzioni che i redattori facevano della storia e identità di Linea grafica, questa non aveva però completamente “voltato le spalle ai tipografi e ai fabbricanti di macchine”, come costoro, secondo quanto si scriveva, pur lamentavano (Montanaro citato da Mataloni, 1972/1). Piuttosto, due anime sembravano coesistere dentro la rivista. Prova ne sono, in primo luogo, le numerose inserzioni pubblicitarie, segnalazioni e recensioni di attrezzature, prodotti ed eventi che riguardano prevalentemente il comparto poligrafico più che quello progettuale e creativo – una presenza chiaramente necessaria alla sopravvivenza della testata, al punto da poter prendere lo spazio della copertina, come accade in concomitanza con una manifestazione di settore nel 1979 (si veda il fascicolo 1979/2, in occasione del GEC, mostra internazionale dell’industria grafica).[2] Prova ne sono altresì i vari articoli che – spesso collocati nella seconda parte dei singoli fascicoli – affrontano questioni tecniche, economiche, organizzative relative all’aggiornamento e alla gestione dell’industria della stampa: un settore che, negli anni settanta, anche in Italia, era posto di fronte a sfide notevoli, con la duplice prospettiva del passaggio dalla stampa tipografica alla stampa offset e dalla composizione a caldo alla fotocomposizione (o composizione a freddo), prima ottico-meccanica e poi a tubo a raggi catodici (CRT) e a raggio laser, nonché con l’espandersi delle possibilità di applicazione dell’elettronica e del computer a ogni fase di lavorazione (cfr. Foto composizione, 1975/5, e ancora Dradi, 1977/5; sulle diverse tecniche di composizione e fotocomposizione cfr. Fioravanti, 1984).

Di fronte a questo sconvolgimento non mancano nella rivista appelli per un coinvolgimento dei progettisti grafici. Se non che, la stessa ripetizione di questi inviti a conoscere e comprendere le nuove tecnologie segnala, più che la loro efficacia, la perdurante “rottura fra designers e stampatori”, per riprendere l’espressione utilizzata da un autore che, proprio per contrastare tale condizione, sottolineava l’importanza di considerare la stampa come un processo continuo che richiede conoscenze condivise e dialogo fra le diverse figure coinvolte (Clarke, 1972/3). Qualche anno dopo, Grazia Schenone Garavoglia (1974/5) – autrice di vari approfondimenti – lamentava l’indifferenza e l’ignoranza dei grafici in questi termini: “Da ormai quasi trenta anni si costruiscono macchine per fotocomposizione: eppure ben difficilmente è intervenuto in questo tipo di progettazione un grafico (e sono nate macchine compositrici troppo veloci o troppo versatili o troppo costose); ben raramente un grafico è stato presente ai vari convegni in cui si è discusso del futuro della stampa”. Aggiungeva del resto che “la scuola non ha insegnato ad alcuno di essi ad affrontare argomenti e problemi tecnici”. A farle eco è Lica Steiner che, annunciando nel 1978 l’intenzione della redazione di Linea grafica di dare spazio in ogni numero alle attività delle scuole, indicava la necessità di non tenere separati i corsi per operatori poligrafici e i corsi di comunicazione visiva, “perché oggi non è possibile pensare al grafico che a tavolino ‘crei’ una pagina, un manifesto, un pieghevole ecc. e non sia aggiornato sui mezzi di stampa, sul modo migliore per realizzare un originale che ne permetta la sua più economica produzione” (Steiner, 1978/1).

Anche Carlo Dradi, che era stato il primo direttore della rivista, costantemente attivo nell’informare e riflettere sui cambiamenti in corso, a fronte del mutato scenario tecnologico – di cui vedeva un effetto emblematico nella scomparsa della figura del proto, l’intermediario fra progettista e stampatore – insisteva a più riprese sull’importanza di “creare in primo luogo la figura del nuovo progettista, colui che sappia progettare conoscendo e sfruttando le possibilità delle fotocompositrici” come premessa “per una nuova estetica grafica” (1977/5). E tuttavia lo stesso Dradi, in due interventi apparsi l’anno successivo (1978/2 e 1978/5) nei quali informava i lettori di due incontri organizzati presso il Centro Studi Grafici, l’uno con un esperto di fotocomposizione e l’altro fra tecnici della stampa e un grafico pubblicitario (Daniele Usellini), prendeva atto che ormai la fotocomposizione poteva fare ogni cosa (“la fotocomposizione ci può dare la pagina come l’abbiamo progettata”) per cui al progettista, in definitiva, si richiedeva al più la massima precisione nella preparazione degli esecutivi e di conoscere i problemi che “gravitano attorno alla impaginazione” (1978/5).

Negli anni settanta, in breve, mentre le pagine più tecniche di Linea grafica raccontano di un cambiamento che, con l’applicazione dell’elettronica e del computer, stava investendo processi e professioni dalla fotoriproduzione delle immagini alla composizione, passando per la correzione e impaginazione dei testi, la “rivoluzione in atto” (Dradi, 1978/2) sembrava solo lambire il mestiere e l’operatività del progettista grafico, restando ancora lontana dalla sua scrivania.

Nel frattempo, comunque, fra articoli che si occupano di formazione e educazione, riconoscimento professionale, pubblicità, fotografia e arte, all’interno della rivista è possibile individuare alcuni primi segnali delle possibilità d’uso del computer più direttamente nel lavoro grafico, in funzione esecutiva e creativa.[3] Già nel 1972 Giancarlo Realini scriveva delle potenzialità della “ricerca grafica col calcolatore elettronico”, prendendo spunto dalle sue stesse sperimentazioni realizzate con plotter per la generazione di strutture complesse a partire da figure geometriche semplici. L’autore – scienziato ricercatore e docente della Scuola Politecnica del Design[4] – celebrava il calcolatore elettronico come “la macchina più straordinaria e potente attualmente a disposizione dell’uomo”. Sottolineando che le sue capacità operative dipendevano pur sempre dal controllo e dalle “istruzioni fornitegli dall’utilizzatore”, prefigurava che la diretta conoscenza del linguaggio della programmazione avrebbe potuto portare a scoprire nuovi “valori” (1972/3). All’epoca, del resto, osservava Realini, le attrezzature erano ancora costose e le difficoltà tecniche molte, una situazione che ne relegava l’utilizzo ancora ai confini della sperimentazione artistica.

Simili considerazioni faceva qualche anno dopo Attilio Giovannini, dal 1975 autore per Linea grafica di una consistente serie di interventi volti a delineare un “Contromanuale d’animazione”, ovvero a presentare e approfondire – spesso esaminando il lavoro di singoli autori – le varie tecniche impiegate nella cinematografia d’animazione, in particolare per la realizzazione di cortometraggi con apparecchiature e costi modesti. L’animazione era un settore che, per via delle lunghe procedure esecutive (come l’intercalazione), guardava certamente con grande attenzione all’ausilio del calcolatore. Nel 1977, dopo avere trattato le diverse tecniche meccaniche (1977/3), Giovannini esaminava in due articoli le diverse possibilità di utilizzo del computer in due direzioni, creativa ed esecutiva, esemplificandole attraverso il lavoro sperimentale di due artisti, rispettivamente John Whitney (1977/4) e Peter Foldes (1977/5). Nel caso di Whitney, autore di “sinfonie grafiche” – opere astratte di visualizzazione della musica (nelle immagini pubblicate si vedono sequenze del suo film Permutations 1968) – il computer era applicato per quel “tipo di animazione in cui progetto ed esecuzione si risolvono istantaneamente sotto lo stimolo della ispirazione”, aprendo una prospettiva che – commentava Giovannini – avrebbe potuto “svelare ai nostri occhi un mondo fino a ieri invisibile” e sviscerare i rapporti dell’arte “con i misteri matematici che regolano l’universo intero” (1977/4). Nel caso di Foldes, interessato viceversa all’animazione e alla metamorfosi figurative, il computer – utilizzato attraverso una penna elettronica su schermo – svolgeva piuttosto la funzione di ausilio. In entrambi i casi, concludeva comunque l’autore, “ci troviamo probabilmente solo agli inizi di un’evoluzione che avrà larghi sviluppi in futuro e che darà anche agli artisti la possibilità di avere la loro macchina per scrivere, non già con le parole ma con le immagini in movimento” (1977/5).

2. Gli anni ottanta: un nuovo strumento, nuove tecniche

Se lo strumento è già un mito, resta ancora indefinito l’orizzonte dove si incontrano professionalità nuove e tradizionali, ruoli tecnici e ruoli creativi, programmazione software e cultura del progetto. A una inutile indifferenza o a una fiducia risolutiva nel computer che è già moda, è preferibile una laica attenzione. Non tecnocrati, né creativi alchimisti, né stregoni apprendisti di nuove magie, è possibile continuare a essere grafici modesti tra masse di gente semplice pur con un nuovo strumento a disposizione. (Pagliardini, 1985/1a)

L’avvio degli anni ottanta segna una fase di incertezza e transizione per Linea grafica. L’esperienza nata in seno al Centro Studi Grafici si protrae, sempre più esile, fino all’inizio del decennio. Nel 1982 la testata viene rilanciata da un diverso gruppo redazionale (pur ereditando qualche presenza com Massimo Dradi, Attilio Giovannini e Luisa Rollier), con un altro editore, un differente formato[5] e soprattutto un nuovo orientamento. Benché il sottotitolo reciti “Progettazione, riproduzione, stampa”,[6] la nuova Linea grafica (destinata peraltro a cambiare due anni dopo) appare decisamente distante da interessi e questioni di prestampa e stampa e rivolta semmai a una congerie di professioni delle arti grafiche e del “disegno”, senza una chiara prospettiva in termini di design[7] e, invece, con una chiara impronta commerciale.

È proprio fra i numerosi redazionali e segnalazioni di eventi, corsi, aziende e prodotti che si trova in questo periodo traccia dell’emergere di un’inedita area di pertinenza grafica: la computergrafica, o “immagine computerizzata”, ovvero “eidomatica” (dalla combinazione di eidos, immagine, e informatica).

Nel 1983, per esempio, un articolo dal titolo “La grafica e il computer” (Raffaelli, 1983/5-6), dedicato al lavoro di una società romana, Schema, attiva dal 1980 nel settore, annuncia “una rivoluzione totale nel modo di fare comunicazione visiva” che tocca ogni ambito e professione, dal regista al fotografo, dal grafico all’architetto, al medico – secondo le parole di Guido Vanzetti, fondatore dell’azienda in questione cui si deve quello che è definito il primo film italiano d’animazione realizzato con il computer Pixnocchio. In questo articolo si trovano peraltro già poste alcune questioni destinate a caratterizzare la trattazione del computer per tutto il decennio: in particolare la necessità di demistificare il “dio computer”, di sottrarsi alla mitografia alternativamente celebrativa o catastrofista, da un lato rassicurando sul ruolo strumentale della tecnologia rispetto alla creatività del progettista (cfr. anche Dradi 1984/3-4 che riferisce di un incontro organizzato sul tema da Aiap), dall’altro superando la “barriera di incompatibilità che divide i tecnici dai creativi” (ancora Vanzetti) iniziando a conoscere e approfondire le possibili applicazioni del nuovo strumento, dal disegno tecnico alla grafica “business”, dalla cinematografia al CAD, passando per i videogame.[8]

Fig. 1 - Apertura dell’articolo di Massimo Dradi (1984/3-4).

Fig. 1 – Apertura dell’articolo di Massimo Dradi (1984/3-4).

Queste segnalazioni sono comunque solo sparsi segnali. Un deciso impegno verso la computergrafica prende corpo, viceversa, con la successiva, ulteriore, virata della testata, che nel 1985 assume nuova vita come Linea grafica: Rivista bimestrale di grafica e comunicazione visiva:[9] direttore responsabile Baule e art director Wando Pagliardini,[10] editore Azzurra Editrice, formato e veste grafica aggiornati per restituire spazio a testi e immagini (progetto Unistudio).
Fin dai primi numeri emerge un duplice obiettivo: da un lato riallacciarsi alla tradizione della rivista come spazio di informazione e di elaborazione critica (cfr. gli articoli dedicati alla storia della “grafica rivista”, nell’anno del suo quarantesimo anniversario, Baule & Pagliardini, 1986/1, 2 e 3), dall’altro posizionare la grafica come progetto di comunicazione visiva laddove quest’ultima, proprio per l’avvento di nuove tecnologie, è un universo di artefatti, supporti e media in continua espansione, ben oltre i confini della “grafica di tipografia” (1986/1e; cfr., fra altri, 1985/3e, 1987/1e, 1987/3e).

Nel primo editoriale, nell’elenco di temi che la redazione si propone di affrontare, accanto a immagine coordinata, grafica dei caratteri, tridimensionale, cinetica, editoriale, di pubblica utilità, fotografia e illustrazione compare anche “computer graphic [sic]” (1985/1e). Rispetto ad altri ambiti per i quali esiste già una tradizione consolidata, tuttavia, per il nuovo settore “resta ancora da capire come il professionista grafico userà tutte le caratteristiche di queste nuove tecniche”, come scrive Pagliardini impostando la questione (Pagliardini, 1985/1a; sulla retorica che circondava il computer cfr. anche Mazzanti, 1985/1 e Polistina, 1986/4). È questo gap che la rivista mira a colmare.

Il primo passo sembra essere quello della normalizzazione: avvicinare il computer come uno fra altri, già noti, strumenti a disposizione del progettista. Così, lo schermo altro non è che il “foglio bianco su cui scrivere e disegnare, la tela – e la tavolozza di colori – su cui dipingere”; i pixel definiscono la qualità dell’immagine non diversamente da quanto fanno “il retino tipografico” o “la grana in fotografia, il pigmento dell’aerografia”; e la possibilità di memorizzare e archiviare “immagini costruite in precedenza” in definitiva ripropone la grafica “come opera di assemblaggio”. Allo stesso tempo si riconoscono anche differenze e alterazioni del processo progettuale, che al computer implica un metodo “non più lineare [bozzetto, layout, esecutivo], ma studio delle variabili – feedback, modifica parametri – attorno a un modello di riferimento” (Pagliardini, 1985/1a).

Fig. 2 - Copertine dei primi due numeri del 1986.

Fig. 2 – Copertine dei primi due numeri del 1986.

Per tutti gli anni ottanta Linea grafica appare impegnata in un’opera di vera e propria alfabetizzazione e introduzione a vocaboli e competenze della computer image/computer graphics/computergrafica/eidomatica (sono i vari termini adottati in maniera intercambiabile), un’impresa che assume inizialmente toni tecnici e tecnicistici, con articoli affidati a esperti del settore, imprenditori e operatori di aziende impegnate nella realizzazione di software e in attività di formazione, progettisti e autori di manuali.[11]
Gli ambiti di applicazione che vengono affrontati prevalentemente negli articoli – che spesso, almeno nei primi numeri, contengono brevi ricognizioni storiche sul loro sviluppo, sono talvolta accompagnati da analisi di casi specifici, e sempre corredati di immagini e didascalie – sono da un lato quello della rappresentazione e dall’altro quello dell’animazione. Si scrive per esempio di simulazione e modellazione (Mazzanti, 1985/3; Pagliardini, 1985/3), di rappresentazione della conoscenza (Mastri, 1987/2), del design e dell’architettura (Polistina, 1986/5 e Marini & Brugnetti, 1985/6), e si affrontano olografia e realtà virtuale, generalmente al confine con ricerche e sperimentazioni artistiche (in particolare Capucci, 1987/2, 1989/1 e 1989/6). Per quanto riguarda l’animazione in ambito cinematografico e, soprattutto, televisivo, oltre a presentare casi internazionali di sigle televisive realizzate al computer (Mazzanti, 1985/1), si comincia a registrare il modificarsi della produzione anche in Italia, dove l’ingresso in scena di nuove strategie e tecniche portate delle emittenti private e commerciali, in specie quelle di Silvio Berlusconi (Colonetti, 1986/2), improntate al modello americano di comunicazione televisiva come “flusso” (Pagliardini, 1985/1b), provoca un rinnovato utilizzo del progetto grafico da parte delle reti pubbliche / Rai (Colonetti 1986/2). Nel 1987, in un articolo dal titolo significativo “Tanti pennelli in più” (Marcialis & Zanardi, 1987/3), pur segnalando che figure creative quali registi e grafici mancavano ancora di conoscenze tecniche aggiornate, si dichiarava che ormai nel campo dell’animazione l’utilizzo del computer aveva superato “la fase delle mere possibilità” e la computergrafica era “un pennello algoritmico da usare, sporcare, stravolgere e soprattutto da accostare ad altre tecniche” tradizionali.

Fig. 3 - Pagina interna dell’articolo di Marcialis & Zanardi (1987/3).

Fig. 3 – Pagina interna dell’articolo di Marcialis & Zanardi (1987/3).

Se l’utilizzo del computer nel campo dell’animazione si poneva in continuità con la più lunga tradizione della grafica in movimento, per quanto riguarda l’immagine al computer come rappresentazione e modellazione occasionalmente si tenta di esplicitare ed elaborare la sua relazione con i fondamenti e con la cultura del progetto. Così per esempio Tiziano Brugnetti, già autore di un contributo incentrato sugli aspetti tecnici del “colore eidomatico” (1985/4), ovvero il funzionamento e la gestione dei colori sui display grafici, nell’articolo “Il gioco delle tessiture” (1985/5) affronta la generazione di texture mediante computer, segnalandola come nuova prospettiva per il basic design nonché per applicazioni nel campo della moda.[12] Due numeri dopo è Giovanni Anceschi, con un intervento dal titolo “Choreographia Universalis”, a ricollegare l’eidomatica alla più lunga tradizione della scrittura notazionale, proponendola come una “unificazione di ogni forma di notazione” in cui “si fa scrittura ogni tipo di figura, passando attraverso le più diverse e adeguate interpretazioni formalizzanti (algoritmi), e previa la loro trasformazione in catene di istruzioni (programmi)” (Anceschi, 1986/1; cfr. Mastri, 1987/2). Un tentativo diverso, senza seguito, di inquadrare la computergrafica nella cultura del design viene l’anno seguente da Alessandro Polistina che, oltre a indicare l’utilità del computer per la produzione di immagini e interpretazioni visive di oggetti di design e dello spazio architettonico, propone di leggere la computergrafica specificamente come design postindustriale, ovvero un design sempre più legato all’idea di servizio pubblico e alla produzione e comunicazione dell’informazione.

In questi anni, accanto a vari articoli che esemplificano e illustrano sperimentazioni ed esplorazioni della grafica 2D e 3D e della realtà virtuale – spesso partendo da quanto viene presentato a manifestazioni internazionali[13] – occasionali incursioni in settori come i videogiochi (Guadagni, 1987/1; cfr. nello stesso numero, sull’influenza dei videogame sul libro a stampa, Bassi, 1987/1) e la “videografica” ovvero la grafica interattiva per i primi supporti al laser disponibili in commercio come cd-rom e dvd (Di Crosta, 1988/3) contribuiscono a raccontare un universo di applicazioni in espansione.

Ciò nonostante è probabile che in realtà fossero pochi nell’ambito della progettazione grafica a essersi avventurati a operare in questi campi, o intenzionati a farlo; e che, soprattutto, fossero pochi coloro che avevano diretto accesso a postazioni di computergrafica. Una conferma si trova in alcuni interventi di Carlo Branzaglia, un autore che in questi anni inizia a collaborare con Linea grafica aprendo al suo interno una significativa finestra di osservazione (anche propriamente visiva) su fenomeni ed esperienze meno convenzionali, relativamente marginali rispetto alla tradizione tipo-grafica, fra arte, moda, culture giovanili e underground. Interessato all’utilizzo sperimentale di tecniche produttive e riproduttive di grafica e immagini, come la xerografia, in alcuni articoli Branzaglia segnalava per esempio che la “ricerca sull’elaborazione di immagini mediante xerocopie si incontra con le immagini generate o rielaborate da computer in un interfacciamento inusuale”, generando “prodotti anomali e ‘confusi’ nei quali diventa difficile individuare i singoli passaggi tecnologici impiegati” (1988/2; cfr. inoltre 1988/5 e 1994). Ma notava anche che l’interazione di tecniche diverse era ancora un territorio sperimentale a causa della limitata disponibilità e diffusione di apparecchiature elettroniche.

Piuttosto, allorché le esigenze dei clienti e dei singoli progetti lo rendevano necessario, gli art director, i grafici e i pubblicitari potevano rivolgersi ai vari studi specializzati in “graphic e computer art” o in “computer graphics”: strutture che, come spiegavano i vari annunci e redazionali che cominciano a comparire in questi anni all’interno di Linea grafica, erano attrezzate con apparecchiature e software all’avanguardia per fornire ogni genere di elaborazione al computer, statica o dinamica, per audiovisivi, fumetti, grafica televisiva, pagine pubblicitarie, brochure, editoria così come – si elenca indistintamente – per convention, conferenze e presentazioni d’affari. (Si vedano per esempio gli annunci e i redazionali relativi a RGB Computer graphics, che è molto presente nella rivista, per esempio nei fascicoli 1987/1 e 2, 1989/1 e 2, 1989/3 e 5; e ancora Sigraph Servizi di Graphic e Computer Art e Animazione, nel fascicolo 1987/2; oppure Equart a cui viene dedicato nel 1986/6 un redazionale dal titolo “Videoarte e comunicazione”, dove si dichiara: “Nulla nella sostanza è veramente cambiato tranne nella metodologia progettale ed operativa ovvero nella capacità di creare, integrare e manipolare i segni. La nuova immagine è il prodotto-sintesi di questa trasformazione”.)

Fig. 4 - Doppia pagina pubblicitaria di RGB Computer graphics (1989/1).

Fig. 4 – Doppia pagina pubblicitaria di RGB Computer graphics (1989/1).

Scorrere gli annunci pubblicitari che appaiono in questo periodo in Linea grafica serve anche a illuminare, per confronto, una duplice assenza negli articoli che trattano dell’uso del computer: la tipografia digitale e la cosiddetta “editoria da scrivania” (desktop publishing). In merito alla tipografia, invero, nel 1985 un contributo di ampio respiro di Aldo Colonetti (1985/4) affrontava il tema della progettazione dei caratteri e del lettering “dal piombo al computer”. Ribadendo che “la cultura della tipografia non può essere soppiantata dalle nuove tecnologie”, l’autore rendeva conto di esperienze come il sistema TeX e Metafont di Donald Knuth[14] e la consulenza di Giancarlo Iliprandi per Honeywell Italia per la progettazione e il redesign di caratteri per stampanti seriali. L’analisi di Colonetti, tuttavia, restava nella cornice dei cambiamenti che riguardavano principalmente le aziende della fotocomposizione e stampa – come la Compugraphic, azienda spesso presente con annunci e segnalazioni nella rivista. Nulla o quasi viene invece detto in questo periodo dell’ondata rivoluzionaria che arrivava dall’altra parte dell’oceano. È significativo, per esempio, che nel recensire brevemente la mostra Pacific Wave che – curata da Giorgio Camuffo a Venezia – presentava per la prima volta in Italia la grafica californiana e il lavoro di autori come April Greiman e Clement Monk, si osservava certamente “l’alto grado di mescolanza dei linguaggi che misura fino alle conseguenze estreme la messa in libertà di parole e immagini nel grande gioco dell’impaginato”, superando “[i] vincoli e le inibizioni della tradizione gutenberghiana” (Mostre, 1988/2), ma non si faceva alcuna riflessione sulla natura elettronica e l’apparenza digitale dei lavori esposti, che pure erano esplicitamente dichiarate nel catalogo della mostra (cfr. Camuffo, 1987).

Se la tipografia digitale era ancora questione da fotocompositori, la cosiddetta “editoria da scrivania” – nelle pagine di Linea grafica – appariva distante dall’effettivo mestiere del progettista, considerata al più adatta a uffici e impiegati amministrativi, come quelli rappresentati nella pubblicità del “Sistema per l’Editoria Individuale” per i modelli PS/2 IBM (per esempio in 1988/4). È a figure in giacca e cravatta che viene promesso di poter diventare, appunto, “editori dalla propria scrivania” e di realizzare facilmente grafici, listini, diagrammi, relazioni e comunicati, potendo scegliere fra oltre quaranta caratteri tipografici (cfr. anche Maran, 1988/5, e Segnalazioni, 1989/1).[15] Il confronto con le pubblicità di forniture rivolte invece al lavoro creativo presenti in Linea grafica e, per uscire dalla rivista, con i vari manuali “del grafico” o “del design grafico” pubblicati in Italia proprio nella seconda metà degli anni ottanta, conferma che il computer non entrava ancora nell’ambiente di lavoro del grafico, o quanto meno era considerato uno strumento specialistico che, in definitiva, non alterava la cassetta degli attrezzi e i principi di base della progettazione (Baroni, 1986, p. 7), e che poteva servire, al più, in supporto o in alternativa alla fotocomposizione (Fioravanti, 1987, pp. 92-93).

Fig. 5 - Pagina interna dell’articolo di Aldo Colonetti (1985/4) in cui si mostra il lavoro di consulenza di Giancarlo Iliprandi per la Honeywell Italia; a destra pagina pubblicitaria del sistema di editoria da scrivania del modello PS/2 IBM (1988/4).

Fig. 5 – Pagina interna dell’articolo di Aldo Colonetti (1985/4) in cui si mostra il lavoro di consulenza di Giancarlo Iliprandi per la Honeywell Italia; a destra pagina pubblicitaria del sistema di editoria da scrivania del modello PS/2 IBM (1988/4).

Certamente la mancata discussione del desktop publishing era lo specchio di un accesso ancora limitato dei progettisti alle nuove tecnologie. Allo stesso tempo, questo silenzio e la concentrazione sulla computergrafica come un settore altro, da aggiungere a quelli già conosciuti, possono anche essere considerati il segno di un’esitazione ad affrontare i mutamenti formali e stilistici ma anche operativi e concettuali che il computer stava cominciando a portare fin dentro la più tradizionale roccaforte della grafica – la produzione editoriale e la tipografia –, cambiamenti che sarebbero divenuti più evidenti nel decennio successivo.

3. 1990-1995: Qualcosa che non c’è più e qualcosa che non c’è ancora

Parlando di grafica oggi, spesso ci riferiamo a qualcosa che non c’è più e a qualcosa che non c’è ancora. Da qui i sintomi di una instabilità disciplinare, di una figura e di un mondo professionale sfuggenti, inafferrabili. Ma i sintomi che avvertiamo segnalano una realtà più vicina al futuro di quanto non si creda. (1992/5e)

Sul finire degli anni ottanta vari editoriali di Linea grafica manifestavano una crescente preoccupazione in merito allo stato della grafica in Italia, descrivendo la condizione di una professione “inavvertita” e di una disciplina “disconosciuta” proprio mentre la comunicazione visiva si andava facendo diffusa, molteplice, complessa e anonima (cfr. 1988/1e, 1988/4e, 1989/2e, 1989/3e). Questa “contraddizione” diventa un leit motif nella rivista durante l’ultimo decennio del secolo, che viene aperto con la pubblicazione della Carta del progetto grafico: Tesi per un dibattito sul progetto della comunicazione (1990/1):[16] un documento sottoscritto da vari progettisti per reagire proprio a tale situazione, imputata, non da ultimo, alla diffusione di nuove tecnologie e di nuovi supporti che si pretendono “autosufficienti” e invece “sono bisognosi di direzioni, di scelte e orientamenti progettati” (Carta, punto 1).

Nei primi anni novanta gli editoriali sono una variazione sul tema, in cui si denuncia l’espansione e l’eterogeneità della comunicazione visiva, l’onnipresenza, lo “sfrangiamento” e la diaspora della grafica (1991/5e, 1992/2e), l’alterazione dei linguaggi e della natura stessa dei segni e dei supporti (1992/3e e 5e), la generale assenza di qualità (fra altri, 1994/5e), la standardizzazione e l’appiattimento dovuti all’automazione e democratizzazione della produzione comunicativa (1991/4e, 1992/6e), il disorientamento della cultura progettuale, la mancanza di riferimenti teorici, interpretativi e operativi adeguati all’incedere rapido delle tecnologie (fra altri, 1990/2e, 1992/3e, 1993/5e, 1995/6e), lo sfaldamento dei ruoli progettuali (1992/5e), la dispersione dell’unità disciplinare (1991/4e), la compressione dello spazio di riflessione così come dello spazio dei media tradizionali (1990/4e, 1994/5e; cfr. anche 1990/1e, 2e, 3e). Queste preoccupazioni si riverberano fascicolo dopo fascicolo, tratteggiando un orizzonte che appare tanto più incerto quanto più si cominciano a intuire le sfide della “internazionalizzazione” (1993/1e).
Il compito che la rivista si attribuisce in questo scenario è però di “cercare ‘in avanti’ le risposte sulla propria identità” (Baule 1990/1), di non cedere alla negazione o al catastrofismo (cfr. 1993/2e, 3e e 5e, 1994/1e e 1995/1e). “L’incontro del progetto grafico con nuove tecnologie, nuovi supporti, nuovi media e luoghi della comunicazione”, scrive Baule (1991/6e), “è un impatto necessario”. Alla progettazione visiva spetta infatti dare un orientamento alla tecnica, obiettivo che, come si sottolinea a più riprese, non è nuovo nella storia della grafica, giacché “ogni volta che innovazioni tecniche hanno modificato le procedure di produzione […] è spettato alla cultura grafica aprire una battaglia per quella qualità del prodotto che l’avanzamento tecnico consente ma non garantisce” (Baule, 1994/5; cfr. inoltre 1995/6e, e ancora Baule & Pagliardini, 1986/1, 2, 3).

Linea grafica si propone dunque di operare nel mezzo del cambiamento (si vedano fra gli altri editoriali 1991/5e, 1991/6e, 1992/3e, 5e e 6e, 1993/2e e 5e), cercando una nuova “misura” progettuale contro gli acritici entusiasmi e la retorica dell’innovazione, ridefinendo un bagaglio teorico e critico utile a discriminare e vagliare i nuovi artefatti e supporti, attingendo alle proprie radici disciplinari e al patrimonio storico; infine, lavorando attorno a una “doppia sensibilità: per il mutamento delle tecniche e per i suoi aspetti tradizionali” (1993/3e). È in questa direzione che, si dichiara ripetutamente, può nascere quella che viene variamente definita “nuova grafica” o “infografica” (come combinazione di informatica e grafica).[17]
In questo scenario ampliato, l’immagine al computer continua a essere oggetto di vari contributi. Accanto ad altri autori (Consalez, 1991/5; Arzuffi, 1992/6; Torri, 1992/5 che riferisce di esperienze europee; Anceschi, 1995/1 che ritorna sul basic design eidomatico), è soprattutto Pier Luigi Capucci a occuparsene, fino al 1994, affiancando ricognizioni dal panorama internazionale e considerazioni tecniche a riflessioni più ampie sui temi della rappresentazione, della simulazione, del virtuale e della polisensorialità (Capucci, 1990/1 e 3, 1991/1 e 5, 1992/1, 3 e 5, 1993/2 e 5, 1994/2 e 6). Fra l’altro, giudicando ormai superata la fase delle sperimentazioni, Capucci manifesta l’esigenza di elaborare un vocabolario e una critica specifici, non derivati dalla tradizione descrittiva delle arti pittoriche (Capucci, 1992/1). In alcuni articoli vengono anche affrontate questioni relative all’utilizzo di tecnologie elettroniche nel campo dell’immagine fotografica (per esempio Ziliani, 1995/4) e dell’illustrazione per l’editoria (Computergrafica, 1994/4), mentre si continua a informare sull’uso del computer nel campo dell’animazione televisiva e della videografica, con analisi della situazione internazionale (Mattei, 1991/3) e italiana (ancora Mattei, 1991/4, sulla “guerra” fra emittenti pubbliche e private, e Campana, 1992/3, che si occupa del lavoro di Ettore Vitale).

Fig. 6 - Apertura dell’articolo di Pier Luigi Capucci (1991/1).

Fig. 6 – Apertura dell’articolo di Pier Luigi Capucci (1991/1).

Durante la prima parte del decennio, tuttavia, il discorso complessivo sulla “nuova grafica” è primariamente volto a cogliere e illuminare il modificarsi dello scenario della comunicazione visiva oltre i media e i supporti già conosciuti (la pagina, il libro, la grafica a stampa), verso un panorama di tipologie e funzioni inedite che, se ancora non si danno completamente, già si preannunciano e lasciano intuire.
Nel terzo numero del 1991 viene esplicitamente introdotta la questione del design dell’interazione tra l’uomo e il computer, il progetto dell’interfaccia, nelle parole di Baule “il campo più interessante per le ‘nuove scritture’, la loro messa in pagina, la programmazione che le sostiene” (1991/3e). A sostanziare le dichiarazioni, nel fascicolo veniva ospitato un articolato intervento di Gui Bonsiepe che, nel presentare un’interfaccia da lui progettata per un sistema di gestione della corrispondenza elettronica, argomentava un approccio all’interazione incentrato non sugli aspetti strettamente tecnico-informatici ma, appunto, sull’interfaccia, dunque sulla grafica. Bonsiepe, d’altra parte, riconosceva che il settore oltrepassava “le frontiere delle tradizionali attività del grafico e delle sue competenze” e che i programmi di formazione delle scuole di grafica generalmente non fornivano la necessaria “competenza linguistica” (Bonsiepe, 1991/3).

Fig. 7 - Pagina interna dell’articolo di Gui Bonsiepe (1991/3) in cui si mostra il suo progetto di interfaccia per un sistema di comunicazione di posta elettronica.

Fig. 7 – Pagina interna dell’articolo di Gui Bonsiepe (1991/3) in cui si mostra il suo progetto di interfaccia per un sistema di comunicazione di posta elettronica.

Interazione e interfaccia – oltre a essere variamente richiamati negli editoriali come nuovo orizzonte della comunicazione visiva – sono successivamente oggetto di analisi in vari articoli dedicati a singoli progetti e prototipi di opere multimediali e di consultazione (cfr. Barbieri, 1993/1), talora nati come esercitazioni e tesi di laurea presso il Politecnico di Milano come, per esempio, punti informativi e strumenti di consultazione per gallerie e musei d’arte (si vedano Bucchetti 1991/3, 1994/5 e 1995/6; Cecarini, 1994/3). Di interfaccia si parla anche in riferimento a esperienze e progetti di realtà virtuale (Capucci 1990/1 e 1991/1; Consalez, 1991/5; cfr. inoltre Capucci, 1994/5).

Ancora nel 1994, con un intervento dal titolo significativo “Chi progetta le interfacce?”, Baule manifestava però l’urgenza di lanciare letteralmente un grido d’allarme: mentre da un lato invitava al confronto fra tecnici e grafici – “due culture a confronto” –, dall’altro sollecitava il progettista della comunicazione visiva a “riappropriarsi di un campo del progetto che gli appartiene”, perché la “complessità della ‘pagina’ multimediale non è riducibile ai tecnicismi” e la grafica non può intervenire come mero “decoro finale” o operazione di styling (Baule, 1994/5).

Più che un passo compiuto, effettivamente in questi anni la transizione verso i nascenti nuovi supporti, media e tipologie comunicative appare dalle pagine della rivista come un obiettivo programmatico da raggiungere. I “sistemi di editoria informatizzati”, la “comunicazione elettronica multimediale”, l’“editoria elettronica” – osservava Baule in vari testi – erano settori nei quali continuava a prevalere l’appiattimento su soluzioni tecniciste e che non avevano ancora acquisito “specificità applicative e caratteri propri”. Il grafico, l’“autore della visibilità”, da parte sua, doveva ancora assumere “la capacità di governare la transizione” oltre quanto già fatto dai tecnici (Baule 1993/3). Per procedere in tale direzione, ribadiva il direttore di Linea grafica, era necessario “emanciparsi dalla pura esecutività degli artefatti tradizionali” (1993/3). Allo stesso tempo, tuttavia, a fronte di un paesaggio ancora esiguo di realizzazioni cui riferirsi, il punto di partenza veniva proprio indicato nell’osservazione attenta del nuovo là dove esso si mescolava con l’esistente e il conosciuto. Il desktop publishing, la progettazione al computer di tradizionali supporti e media – in specie il libro, l’editoria – diventa allora il metro per misurare e comprendere la portata della sfida sempre più imminente.

È questo il tema che lo stesso Baule elabora in particolare in due interventi del 1993 (1993/3 e 5), prefigurando rivolgimenti e questioni che in pochi anni, con il diffondersi del web, sarebbero divenuti attuali. Nel primo, dal titolo “Infografica” egli descriveva la fase in corso come ultima di una serie di rivoluzioni che non si era ancora completata: se, infatti, con il desktop publishing l’informatica era entrata nelle procedure di impaginazione e produzione editoriale di artefatti grafici tradizionali a stampa, l’innovazione si era però fermata al “processo”. La soglia successiva sarebbe stata invece quella della “editoria elettronica avanzata”, con nuovi prodotti da inventare. (Per quanto riguarda il desktop publishing, peraltro, in questi anni aumentano le inserzioni pubblicitarie che aprono e chiudono la rivista – come quelle di Apple e di Delta, distributore in Italia di vari pacchetti – presentando prodotti hardware e software che sono chiaramente rivolti ai progettisti grafici, ai quali si promettono velocità di produzione, interfacce user-friendly, palette di strumenti ed effetti sempre più precisi e ricchi, e integrazione fra applicazioni per seguire tutte le fasi di sviluppo del progetto.)[18] Proprio i processi informatizzati, d’altra parte, permettevano secondo Baule di anticipare i futuri e più radicali mutamenti. Ben oltre gli effetti secondari di “stile comunicativo” e di linguaggio, prodotti dal desktop publishing, questi cambiamenti includevano la compressione della progettualità, dovuta all’avvicinarsi di progettazione ed esecuzione – con conseguente rischio, secondo l’autore, di abbandonarsi a un “creativismo di maniera, fondato sulla ricerca dell’effetto risolutivo, della soluzione ‘in tempo reale’” – e l’“effetto standard” ovvero la tendenza ad affidarsi alle soluzioni “prefabbricate” e ai “facili formulari per la realizzazione di artefatti grafici fortemente stereotipati: un approccio ‘per tutti’, dopo che gli strumenti grafici sono diventati di comune dominio”. Ma soprattutto si trattava del modificarsi della sostanza stessa della grafica, allorché la digitalizzazione stabilisce “un denominatore comune, una unità di codice [che] permette di trattare sullo stesso piano materiali di diversa origine consentendone la gestione trasversale” mentre la scrittura si fa “fluida” e sempre più “operativa”; e, ancora, della nuova modalità di relazione dell’utente con la comunicazione, con l’interattività che contraddistingue “la nuova multimedialità” e con l’emergere di “una vera e propria reciprocità della comunicazione”.

Fig. 8 - Pagina pubblicitaria di Delta (in 1990/2), distributore di software grafici, e di Apple Macintosh 8100/110 (in 1995/3).

Fig. 8 – Pagina pubblicitaria di Delta (in 1990/2), distributore di software grafici, e di Apple Macintosh 8100/110 (in 1995/3).

Due numeri dopo, con “Libri elettronici” Baule (1993/5) ritornava sul tema, da un lato concentrando lo sguardo sull’evolvere della “forma libro” dall’altro allargandolo sull’insieme del sistema della comunicazione. Il (futuro) libro elettronico viene descritto come un “contenitore d’informazioni”, una macchina governata dall’ipertestualità, che offre a una lettura “di consultazione” un testo fluido, dove la grafica trova una rinnovata funzione “peritestuale”[19] e il progetto diventa regia di un impaginato ipermediale. I nuovi libri o formati, sottolineava però l’autore, erano destinati a convivere, non già a sostituire quelli della tradizione tipo-grafica. Il panorama della comunicazione si prospettava dunque sempre più come una “catena multimediale”, con la compresenza/coesistenza/integrazione di media tradizionali ed elettronici, vecchi e nuovi, con “l’uno e l’altro [che] si modificano e si influenzano reciprocamente, nel travaso di forme e di funzioni”. Insomma, questo non ucciderà quello – il riferimento è a Notre Dame de Paris di Victor Hugo – ma, si ammoniva, la coesistenza non è “un semplice travaso di scritture” e la costruzione dell’interfaccia grafica dei nuovi artefatti doveva essere sorretta dall’invenzione di nuovi e specifici usi, funzioni e tipologie.

Nel frattempo, in attesa che la trasmigrazione verso nuovi supporti e la invenzione di nuove funzioni e forme si realizzino, un certo spazio è dedicato al nuovo statuto di immagini e testi, figure e parole, alla loro qualità di scritture portate su un unico piano dalla digitalizzazione (si vedano per esempio gli editoriali 1991/5e, 1992/4e e 5e, 1993/3e, 1994/3e e 4e; cfr. inoltre Lussu, 1991/5, e ancora Mastri 1987/2). In particolare per l’immagine si ripercorrono gli sviluppi concettuali e pratici della sua dematerializzazione, il dissolversi dei referenti, il decadere della distinzione fra originali e copie, e della idea di riproducibilità industriale: ormai ogni immagine nasce apocrifa, è già sempre una elaborazione, scriveva Baule, e l’“hyperimmagine è ora fonte di migliaia di immagini possibili” (Baule 1994/3).

Fig. 9 - Apertura dell’articolo di Giovanni Baule (1993/5) dal titolo “Libri elettronici”.

Fig. 9 – Apertura dell’articolo di Giovanni Baule (1993/5) dal titolo “Libri elettronici”.

In questi anni si comincia inoltre a trovare qualche segno di attenzione anche per la tipografia nel contesto digitale. Mentre da un lato si riferiva del ritorno alla materialità – “l’attenzione al segno manuale, alle calligrafie, ai supporti cartacei” come reazione alla dematerializzazione e alla virtualità dei supporti (1992/4e; cfr. 1998/2e) – alcuni contributi rendevano conto, più o meno direttamente, di tendenze ed esperienze provenienti dall’universo delle fonderie digitali. In un articolo di Mara Campana (1992/5) dedicato al lavoro dello studio Roger Black, attraverso immagini e didascalie si offrivano ragguagli su iniziative come la fonderia FontShop (una cui pubblicità compare nel fascicolo successivo 1992/6), le famiglie di caratteri FontFont e la rivista Fuse di Neville Brody e Jon Wozencroft. Nel numero successivo Campana (1992/6) trattava inoltre il lavoro di Piero De Macchi che, come informava un articolo apparso due fascicoli prima, era il responsabile per l’Italia del progetto DIDOT (Digitising and Designing of Type), un’iniziativa intrapresa dalla Comunità europea per recuperare il terreno perduto rispetto al predominio statunitense nel mercato delle font e dei relativi standard (Didot, 1992/4). A proposito della new wave d’oltreoceano, d’altra parte, un articolo di Giona Maiarelli (1994/1) segnalava già una sorta di ritorno all’ordine, il farsi strada di “un ripensamento delle forme estreme di comunicazione”. Dell’Italia si denunciava invece una certa arretratezza (cfr. Campana, 1992/5 e Didot, 1994/1), tuttavia a metà decennio Carlo Branzaglia (1995/2) nell’articolo “Caratteri e stile”, nel quadro di una ricognizione e riflessione sul proliferare di esperienze nel settore, informava anche su alcuni progetti nati in Italia come quelli di LCD, Fabrizio Schiavi, Piero De Macchi.

4. 1996-1999: Il laboratorio della transizione

Questi segnali sulla pelle dei media sono elementi fortemente rivelatori: sono tracce di superficie che testimoniano della rivoluzione sottotraccia del corpo dei media. Sono i segnali visibili che ci avvertono dello stadio di avanzamento di quel laboratorio della transizione che sta trasformando il mondo della comunicazione tradizionale in sistema digitale dei media tra loro integrati – il mondo della multimedialità. È ciò che abbiamo cominciato a chiamare Nuova Grafica. (1997/1e)

Al cinquantesimo anniversario della sua nascita Linea grafica arrivava con lo sguardo decisamente rivolto al futuro, o alle sua manifestazioni presenti, che sempre più occupano lo spazio delle copertine. “Sotto i nostri occhi” si osservava nel primo editoriale del 1996 è un “vero e proprio ribaltamento, di cui siamo solo agli inizi”, una mutazione del sistema della comunicazione simile a quello provocato dall’arrivo della stampa a caratteri mobili rispetto agli scriptoria (1996/1e). In un periodo che vede diffondersi Internet e il web, la descrizione dello scenario d’azione si arricchisce via via di nuovi contrassegni, che in alcuni casi vengono assunti come titoli di sezioni nel sommario e nelle pagine della rivista. Il sistema della comunicazione visiva è descritto come sempre più complesso e interconnesso, multimediale (1996/5e), globalizzato (1998/5e; Ceppi 1998/5), mutevole e in flusso (1999/1e), simile a un grande palinsesto (1999/1 e e 2e), costituito da segni effimeri e transitori (1996/6e), caratterizzato da un’estetizzazione diffusa (1998/6e) che comportava omologazione e perdita di qualità. Più volte si rimarcava che tuttavia è proprio dalle “nuove prestazioni consentite dall’informatizzazione delle scritture […] che la grafica ricomincia” (1996/2e), purché il progettista sappia essere non solo utilizzatore ma anche responsabile attivo dell’espansione dei mondi della comunicazione, capace allo stesso tempo di non farsi abbagliare dalla “favola digitale” e di abbandonare “ogni forma di conservazione che ancora imbavaglia non poco la nostra cultura del progetto” (1996/3e; cfr. 1997/4e). Mentre “le tecnologie informatiche spingono perché si risolvano i precedenti equilibri fra tecniche e forme comunicative, tra cultura tecnica e culture del progetto visivo”, ribadisce Baule, si va formando un microcosmo in cui si assiste alla “convivenza di elementi vecchi e nuovi”. E questa “confusione paradossale dell’epoca di mezzo è una condizione di forte vitalità, di palpabile mutamento, di occasioni irripetibili e di moltiplicazione delle possibilità” (1996/4e). In breve, i progettisti grafici, e Linea grafica per loro, si trovano a operare in un “laboratorio della transizione” (1996/4e, 1997/7e).

In questa cornice, la “nuova grafica” è in primo luogo “scrittura”: il tema già presente negli anni precedenti (cfr. ancora Lussu, 1991/5) diviene ora centrale. L’informatizzazione dei componenti della progettazione, testi e immagini, ha reso la loro contiguità e fusione un dato di partenza e non più un punto d’arrivo: da qui, “un cuore antico che è un cuore nuovo”, si tratta di ripensare e rifondare il progetto (1996/2e), una nuova sensibilità e una nuova etica (cfr. 1998/4e). La digitalizzazione “ha prodotto una rivoluzione copernicana: ha rimesso tutto sullo stesso piano, riconciliato gli opposti. Tradotte in una sequenza di bit, le immagini sono della stessa materia del testo; la scrittura è della stessa materia dell’immagine” (1998/2e; cfr. Giardina, 1999/1). Il piano della visione, si confermava, era ormai decisamente una “interfaccia”. I testi, si precisava, sono interattivi, “scritture operative, veri e propri ‘comandi’ per chiedere, per ottenere risposte”; a loro volta “i piani di scrittura si connettono ad altri piani fino a produrre ipertesti” (1996/2e). Allo stesso tempo si individuava l’emergere di nuove sensibilità percettive (1998/6e): la comunicazione si fa “breve” (1999/2; Baule, 1999/2), la lettura è sempre più “lettura di consultazione” (1997/3e; Baule 1997/3) e la visione è sempre più improntata a una accessibilità ininterrotta (1999/1e). Anche il dialogo con le immagini – “variabili o clonazioni” sempre nate “da altre immagini” (1998/4e) – assume i caratteri dell’interazione, e questo tipo di relazione diventa una costante del rapporto con il visivo, anche oltre i confini del digitale (1999/3e). (Sul ciclo di vita delle immagini digitali si veda in particolare Marini, 1997/3; cfr. Faletra, 1996/1, Segnalazioni, 1996/4, Campana, 1998/4 e 1999/5, Foto digitale, 1998/6; inoltre il primo fascicolo del 2000; per l’illustrazione cfr. Baroni 1999/4.) In questa cornice la grafica è dunque ipertestuale (1997/3e), svolge una funzione notazionale e segnaletica (1997/3e, 1999/1e e 4e; cfr. Bucchetti, 1997/2), si occupa di strutturare il palinsesto di ipertesti e di darvi accesso in profondità (1997/3e).

Il discorso sulla grafica come scrittura è sempre teso a contraddistinguerla dal linguaggio dell’informatica. La separazione di ruoli fra progetto della comunicazione e progettazione informatica è precisa, pur con l’auspicio di un loro dialogo. Se già nel 1996 Baule ribadiva che il compito del progettista della comunicazione è partire là dove il progettista informatico ha esaurito le sue possibilità (1996/4e), l’anno successivo interveniva specificamente su quello che reputava un grande equivoco: il “grado zero” dei testi/scritture. Discutendo idee espresse da Pierre Lévy – che nel suo Il virtuale riteneva che “il testo sussiste ma la pagina è superata” – e da Sherry Turkle in La vita sullo schermo – dove si giudicava che la veste grafica delle scritture occultava la verità tecnologica, facendo trionfare l’opacità sulla trasparenza – Baule ribadisce infatti:

C’è una differenza sostanziale tra la semplice organizzazione delle informazioni a base testuale e la loro comunicazione progettata. Una sorta di abbaglio originato dalla novità dei supporti dinamici riduce tutto al primo livello. Ma il testo, ogni testo, in quanto tale ha un volto tramite il quale si rende visibile e intellegibile un’identità che diventa scrittura. Non c’è una comunicazione a base digitale senza grafica. Se può esistere in termini funzionali sotto forma di memoria, sul piano comunicativo non esiste un testo allo stato puro – o virtuale – senza carattere, senza volto. Le scritture sono interfaccia. (1997/6e)

Mentre si riconosceva che la fase di “interiorizzazione” delle tecnologie (1996/1e, 1997/4e) non si era ancora compiuta, si dichiarava però anche varie volte che la novità tecnologica non poteva più essere accettata come giustificazione per la povertà progettuale o per la rinuncia a progettare (1996/4e, 1998/3e, 1999/4e e 6e; cfr. anche la sovraesposizione della tecnologia 1998/3e). “Più tecnologia significa ancora più esercizio critico, dunque non meno ma più progetto”, ammoniva ancora il direttore della rivista (1997/4e).

Guidare criticamente il designer, sottrarlo alla mitologia della disintermediazione e all’accettazione inconsapevole di “soluzioni prestabilite” dalla tecnologia (1997/4e e 5e), è il compito che in chiusura di decennio Linea grafica svolge attraverso un crescente numero di articoli.

La rivista fa dunque spazio all’esame di casi e tipologie della comunicazione multimediale, affiancando alla presentazione di progetti specifici l’impostazione di categorie e la discussione di tipologie di artefatti e funzioni, anche ritornando, a distanza di pochi fascicoli, sugli stessi temi – segnale appunto di una elaborazione in fieri. In questo sforzo di costruzione teorica e critica si attinge e rimanda in misura crescente a concetti e termini derivati da teorie dei media, della comunicazione, del design, della letteratura, dalla sociologia e, sempre più spesso, dalla semiotica. Così – negli editoriali di Baule in particolare, ma non solo – vengono chiamati in causa, esplicitamente o implicitamente, autori come Roland Barthes, Gérard Genette, Italo Calvino, Jose Saramago, Hans M. Enzensberger, Marshall McLuhan, Nicholas Negroponte, Tomás Maldonado, Armand Mattelart, per citarne alcuni.

Nella discussione della trasmigrazione dei contenuti su diversi supporti e delle loro specifiche funzioni, per alcuni anni sono oggetto di attenzione prodotti e opere multimediali su cd-rom e postazioni multimediali interattive, un settore che, come veniva osservato in una recensione dell’annual Multimedia graphics (Zapping, 1996/4), era ormai riconosciuto a tutti gli effetti parte del visual design, ma era altresì considerato in parte “inafferrabile e mutevole”, come si scriveva in un’altra segnalazione (Zapping, 1998/3a). Presentati in redazionali e brevi recensioni, o come accompagnamento iconografico di articoli che affrontano questioni più ampie, sono prodotti che danno accesso alla storia della musica, del cinema e della letteratura, ma anche romanzi ipertestuali, cataloghi e collezioni d’arte (Carrara, 1996/1, Segnalazioni, 1996/1, Gagliardi, 1996/2), giochi e storie interattivi per bambini con animazioni (si vedano per esempio CD oltre il gioco, 1995/5 e Segnalazioni, 1996/1b), raccolte fotografiche (Segnalazioni, 1996/4). Sono presentati anche iniziative editoriali e opere artistiche e grafiche originali, come la rivista digitale francese di cultura e spettacolo La Vague Interactive (Pizzol & Rovagnati, 1996/1) e i cd-rom di Elliott Earls (Branzaglia, 1997/5). Di tutti questi prodotti generalmente vengono descritti struttura e opzioni di navigazione e accesso ai contenuti, funzioni e strumenti disponibili, livelli di multimedialità e interattività, mentre raramente sono discusse le scelte strettamente grafiche e tipografiche. Una recensione più articolata di altre è quella che Marco Susani (1996/5) fa di “Un CD per il design”, dedicato ai protagonisti del design italiano e curato da Andrea Branzi. Susani ne elogia l’interfaccia – una sorta di “foglio fluido e tridimensionale” animato dalla presenza di elementi ipertestuali – perché mostra “linguaggio grafico e di navigazione originale che non ha riferimenti con le tendenze correnti delle Graphic User Interface […] né con le tendenze di grafica multimediale più diffuse […] che infarciscono ogni schermata di fondi e scenografie prevedibili e scontate”.

Fig. 10 - Apertura dell’articolo di Marco Susani (1993/5) in cui si recensisce “Un CD per il design”.

Fig. 10 – Apertura dell’articolo di Marco Susani (1993/5) in cui si recensisce “Un CD per il design”.

Ben presto, però, la scena viene occupata dal web che, in quanto luogo per eccellenza di trasmigrazione dei contenuti, riceve attenzione crescente nelle pagine della rivista. In particolare l’area della “grafica in rete” viene delineata nel fascicolo di maggio-giugno 1997 (solo nel 1999 entra in uso stabilmente l’espressione “web design”; si vedano Baule 1999/4 e 1999/6e; cfr. Libri, 1999/6). La realtà di questo settore, riconosceva Baule, era invero ancora immatura: rispetto alla favoleggiata multimedialità del cyberspazio, appariva ancora prevalente la dimensione testuale e ipertestuale – “i siti sono per lo più pagine di foliazione ipertestuale” – non immersiva. In termini semiotici, spiegava poi Ugo Volli nel suo articolo d’apertura “Ideografie dell’interazione” (1997/3), la grafica dell’interfaccia era sempre più “pragmatica” – “mostrare è sempre la premessa di un fare”. Seguivano quindi altri articoli che inauguravano una lunga serie di interventi volti a esaminare diverse tipologie e aspetti dei siti web. Fra gli altri, un interessante contributo di Valeria Bucchetti (1997/3) sollevava – a partire dalla segnalazione della pubblicazione Graphis New Media 1 a cura di Clement Monk – la questione del racconto “sulla pagina” dei “prodotti per i nuovi media”, e si soffermava sull’utilizzo di soluzioni notazionali per tradurre ed evocare graficamente “i percorsi ipertestuali e le scelte dell’interazione […] i modi e le forme della navigazione”. Questa direzione, però, non viene poi perseguita nelle pagine di Linea grafica dove i numerosi siti web presentati negli articoli sono per lo più illustrati con semplici immagini delle schermate, senza altro supporto informativo che le didascalie.

Fra i vari interventi dedicati da allora in avanti al web, Baule stesso iniziava concentrandosi sulla presenza e presentazione in rete dei media preesistenti, valutando che là dove media diversi si prolungano o entrano l’uno nell’altro l’esame delle specificità di supporti e funzioni potesse essere più eloquente. Baule comincia con i supporti editoriali: prima le riviste – il formato “fra quelli gutenberghiani [che] è forse il più assimilabile al modello digitale in rete” (Baule, 1997/3) – poi i quotidiani online (1998/1), per arrivare successivamente al libro, con la discussione dei siti di case editrici e librerie online (1999/1) – occasione per riflettere sulle ricadute del nuovo medium sulla progettazione e realizzazione dei tradizionali prodotti cartacei. Altri autori presentavano iniziative editoriali nate per la rete, o per esistere in maniera integrata fra analogico e digitale – per lo più progetti e prototipi pensati dall’interno della comunità dei progettisti o per veicolare online la cultura della comunicazione visiva, come la webzine Tlön (Branzaglia, 1997/3) e la rivista accademica poligramma (nata come tesi di laurea, Cerquetti, Limoli & Volpi, 1999/5). Accanto ai prodotti editoriali, Baule esaminava poi la traduzione online di altri formati: i programmi di news televisive (1998/1) e delle emittenti televisive (1998/5), e ancora il cinema e i film (1998/6). Per la trasposizione online di questi media, egli osserva che, laddove ci si sarebbe attesi il massimo di integrazione multimediale, in realtà si assisteva a una sorta di appiattimento di funzioni e omogeneizzazione d’immagine che contraddicevano l’identità degli emittenti – le reti televisive, le testate d’informazione – così come la spettacolarità dei prodotti originari – in specie i film.

Fig. 11 - Pagina interna dell’articolo di Giovanni Baule (1993/7) dedicato alle riviste in rete.

Fig. 11 – Pagina interna dell’articolo di Giovanni Baule (1993/7) dedicato alle riviste in rete.

Oltre all’intreccio dei media nella rete, ampio spazio è dedicato anche alla presenza online di aziende e prodotti, soprattutto per quel che essa comporta nel quadro della strategia d’immagine d’impresa e di marca. Si affrontano sia la costruzione di identità mediatica del prodotto, dell’“iperoggetto” (Baule, 1997/5), sia i siti aziendali (Baule, 1997/5 e 1998/4) anche secondo comparti specifici (come la moda 1999/6; questa indagine prosegue nei fascicoli del nuovo millennio). Anche per questo ambito, nondimeno, se da un lato si parla di una sorta di incontro predestinato con la rete, per un universo che punta tutto sulla comunicazione, dall’altro si segnala, nel confronto con tipologie preesistenti (vetrina e negozio, catalogo, brochure, pubblicità), una generale immaturità, una carente individuazione delle funzioni rivolte ai differenti pubblici – operatori interni, venditori e acquirenti – e una generale perdita di fascino del prodotto in rete (su questo punto cfr. Bucchetti, 1997/6).

Non mancano infine analisi dell’utilizzo del web in altri campi come quello del teatro (Trapani, 1997/3), dei musei (un primo accenno in Schianchi, 1998/3) e delle reti civiche, un settore quest’ultimo che, si dichiara, non ha precedenti tipologici e che mettendo al centro l’informazione e la partecipazione dell’utente/cittadino poteva costituire una nuova frontiera per la grafica di pubblica utilità (Bertolino, 1997/3, e Montefusco, 1997/4). Alcune segnalazioni spostavano inoltre lo sguardo sulla dimensione ludica del web (per esempoi Zapping, 1998/3b).

Alla riflessione sulla comunicazione in rete si affianca e alterna, come già accennato, anche quella relativa agli effetti e alle influenze che la rete e, più estesamente, la grafica ipertestuale producevano sulla grafica tradizionale a stampa. È quello che Baule definisce il “riflesso della multimedialità” che, come spiegava, aveva ricadute a diversi livelli. A un livello, osservava, si assiste al trasformarsi di artefatti grafici tradizionali che assumono nuove funzioni e altre le cedono a diversi supporti; a un altro livello c’è l’influenza “linguistica” per cui “le forme dell’impaginato su carta imitano le interfacce dei mezzi elettronici prendendone l’inflessione, riporducendo in superficie lo stile della tecnologia”; infine si ha il dispiegarsi di “effetti indotti dalla tavolozza della computergrafica” che provocano “[m]utamenti morfologici, destrutturazione del testo, impaginati come reti di funzioni” (vedi 1996/5e; ma cfr. anche 1997/1e, e per gli effetti del web sull’immagine delle emittenti televisive cfr. Baule, 1998/315).

In effetti in questi anni, nel rendere conto di esperienze internazionali e italiane, la rivista inevitabilmente si trova a documentare e presentare, attraverso l’apparato iconografico, il mutare e diffondersi di nuovi stili e tendenze, molti fra i quali mostrano – o ostentano – la loro origine informatica (cfr. 1999/3e). Ne offrono esempio, ancora una volta, le incursioni che Carlo Branzaglia – anche senza affrontare direttamente la questione del digitale – continuava a fare nelle fenomenologie della cultura giovanile, underground, della moda e della musica dove i segni della grafica informatizzata erano particolarmente esibiti (si vedano 1996/1, 2, 4 e 6, 1997/6, 1997/2). Più in generale, si cominciava a osservare una grafica che viene descritta come destrutturata, discontinua o sfumata (fuzzy), come osservava Antonella Giardina (1998/3 e 5). Là dove gli effetti stilistici intersecano le tipologie più tradizionali della grafica, ovvero i prodotti editoriali, il giudizio sugli esiti si fa però dubbioso e critico. E se Valeria Bucchetti (1997/2), discutendo della “ipertrofia peritestuale” della grafica anni novanta – ovvero dell’evocazione dalla grafica interattiva sui supporti a stampa – la giudicava infine come un pegno da pagare in un’epoca in cui i progettisti si trovavano a dover ridefinire i modi della leggibilità e “la propria sensibilità estetica”, più tranchant sul tema delle influenze formali e funzionali è invece il giudizio di Daniele Baroni. In un articolo in cui esaminava le sperimentazioni novecentesche della “immagine della complessità” (1997/5), arrivando al panorama contemporaneo – per intendersi, quello di riviste come Emigre, Metropolis, Interview e Octavo, e di autori come Scott Makela, Designers’ Republic e David Carson – egli non esitava a giudicare la complessità di lettura degli impaginati, e la ricercata illeggibilità, come causa di “uno stato di inquietudine e di ansia” nei lettori e arrivava a parlare di un manierismo “capace soltanto di produrre epigoni”, di un vero e proprio “virus”.

Fig. 12 - Pagine interne degli articoli di Daniele Baroni e di Carlo Branzaglia apparsi nel numero di settembre del 1997 (1997/5).

Fig. 12 – Pagine interne degli articoli di Daniele Baroni e di Carlo Branzaglia apparsi nel numero di settembre del 1997 (1997/5).

Uno sguardo al fascicolo di settembre del 1997, del resto, è particolarmente rivelatore della compresenza, dentro la rivista, di diverse anime e voci. Alcune pagine dopo l’articolo di Baroni, per esempio, Branzaglia presentava entusiasticamente il lavoro tipografico di Elliott Earls e i suoi cd-rom come opere d’arte totali, eredi della tradizione delle avanguardie storiche ma su base interattiva. In chiusura di decennio, fra l’altro, gli sviluppi del type design ricevono finalmente un più ampio e continuativo spazio. Accanto a interventi dedicati a riflettere ampiamente su tipografia e lettering (cfr. per esempio Baroni, 1997/1) è in particolare Alessio Leonardi dal 1997 a offrire un attento sguardo sulla scena internazionale e specialmente europea, attraverso cronache da manifestazioni come Typo (a Berlino) (1997/1), interviste e approfondimenti di singole figure ed esperienze come quelle di come Luc(as) De Groot (1997/3) e Adrian Frutiger (1997/5) e di studi come LettError (1998/6) (sulle nuove forme tipografiche cfr. anche Giardina, 1999/1, e Zapping, 1999/4).

Fig. 13 - Pagina interna dell’articolo di Alessio Leonardi (1998/6) dedicato al lavoro del duo LettError.

Fig. 13 – Pagina interna dell’articolo di Alessio Leonardi (1998/6) dedicato al lavoro del duo LettError.

Mentre si approssima il passaggio al nuovo millennio, tuttavia, nelle pagine di Linea grafica a dare l’occasione per riflettere sugli estremi sviluppi della comunicazione visiva è la televisione – ancora una volta è il vecchio, o il già noto, a permettere di immaginare il nuovo. Non solo si ritorna in vari articoli sulla grafica televisiva, fra sigle e scenografie digitali (Branzaglia, 1996/2; Grafica e computer, 1996/2; Campana, 1996/3 sul lavoro di Ettore Vitale; Leonardi, 1998/2, su quello di Jonathan Barnbrook; Baule, 1999/3), si presentano progetti per servizi interattivi per la televisione (ancora una tesi di laurea, per esempio, Caporaso & Giacomelli, 1996/6) e, come detto supra, si affronta la presenza online di emittenti e programmi televisivi. Ma soprattutto, a fronte di un web che dimostrava di non avere ancora trovato una stabilizzazione di funzioni e di essere ancora molto distante – non da ultimo per questioni tecniche – dalla promessa multimedialità, la televisione con il suo palinsesto ormai continuamente accessibile di programmi viene teorizzata come metafora del nuovo stadio della comunicazione, prefigurazione della vera natura della rete e delle sue possibilità. Riprendendo concetti già apparsi negli anni precedenti (cfr. Pagliardini, 1985/1; Colonetti, 1986/2), in editoriali e interventi apparsi in vari numeri nel 1999 (319-322) Baule torna più volte sull’idea della “comunicazione di flusso” e del “sistema generale del palinsesto” entro il quale si organizzano gli artefatti comunicativi, nello spazio e nel tempo. Di fatto, egli argomenta, è stata la televisione, ovvero la “neotelevisione” – derivata dal modello di televisione commerciale statunitense, e poi diffusa anche in Italia – a portare a “forme di emissione senza soluzione di continuità”, a mutare il regime di visibilità e spostare lo stato della comunicazione a favore di un sistema fluido. Nella comunicazione di flusso “nasce la visione ininterrotta e, con essa, una diffusa lettura di consultazione: mette radici la cultura dello zapping, il montaggio costruito in diretta dal fruitore, una navigazione sempre trasversale, e per segmenti, nell’universo della visione” (1999/1e). E ancora:

Oggi la diffusione della Rete come sistema esteso di contatti, come accessibilità ininterrotta, come offerta continua di canali, come infinita possibilità di interazione è alla base della comunicazione di flusso. L’integrazione di molti sistemi comunicativi preesistenti in un sovrasistema a controllo digitale va ancora di più in direzione della messa in rete globale e dei suoi flussi. La comunicazione allora non è più costituita da tanti eventi a sé stanti, funzionanti separatamente, fruibili e progettabili in quanto tali. Tutti gli artefatti si trovano immersi in un tessuto, una struttura spaziale e temporale all’interno della quale prendono forma.

Un’anticipazione di quello scenario che sarebbe ben presto diventata la rete nel nuovo millennio.

5. Una storia inavvertita

Ancora verso la fine del millennio vari editoriali e articoli in Linea grafica esprimevano preoccupazione per la perdita d’identità della progettazione grafica, per lo spaesamento innescato a vari livelli dall’informatizzazione della comunicazione e dalla tecnologia tout court, dalla democratizzazione degli strumenti di produzione grafica alla ibridazione dei media e del sistema degli oggetti (1999/5e), alla globalizzazione (1998/4e). “È la tecnologia che mina l’identità […] che mette in forse i ruoli consolidati” sintetizzava Baule (1998/1e; cfr. 1998/3e, e 6e). Di fronte a una rivoluzione che non accennava a fermarsi e prometteva ulteriori evoluzioni, si cominciava però a sentire la necessità di rivolgere “uno sguardo storico sul mondo del visual design”. In un articolo dal titolo “Grafica: una storia inavvertita?”, Baule osservava come il “bisogno di memoria storica si accentua di fronte alla perdita dei vincoli materiali nella progettazione grafica” e che “la distanza e la prospettiva” fornivano ormai la possibilità di raccontare una, anzi, più storie (Baule, 1998/3).

Oggi la distanza e la prospettiva impongono che lo sguardo sia rivolto anche a quel passato relativamente vicino in cui sono stati avviati grandi cambiamenti i cui effetti entrano nell’attualità. Questo articolo vuole essere un contributo in questa direzione. Lo spoglio di Linea grafica evidenzia l’evolversi, fra gli anni ottanta e novanta, di un’elaborazione discorsiva che mira ad accompagnare e orientare l’interiorizzazione delle tecnologie da parte dei progettisti, a confronto con un panorama di nuovi strumenti, supporti e media. Si tratta di uno sforzo che, nel periodo considerato, appare sempre sostenuto dalla concezione di una alterità fra progetto e tecnologia, di una separazione di ruoli e compiti fra designer e tecnici/informatici, pur nella necessità invocata del loro dialogo. Il “nuovo” viene progressivamente calato dentro o vicino la cultura del progetto. Se inizialmente sembra possibile una composizione in chiave strumentale e additiva (la computergrafica come nuove tecniche e diversi campi di specializzazione), in seguito, quando l’informatizzazione si rivela quale condizione immersiva di un universo mediatico espanso e integrato, la progettazione grafica sembra esserne travolta, costretta a ritrovare la propria posizione, a rivendicare la propria funzione, a farsi essa stessa “nuova”. La lettura dei diversi interventi che nella rivista si occupano di affrontare tali questioni (nonché il confronto con altri contributi presenti nella rivista, di cui non è possibile rendere conto in questa sede) illumina un discorso che, mentre si impegna programmaticamente a mantenere le continuità (terminologiche, concettuali, operative) con il “patrimonio storico”, con i “fondamenti” e la “tradizione” della grafica, si trova però via via costretto a elaborare quella che sempre più chiaramente si configura come una discontinuità radicale, di fronte alla quale tali riferimenti sembrano avere poco da offrire, almeno in termini operativi. In questo senso è significativo l’appello di Letizia Bollini (1998/3) a “ri-fondare” le comunicazioni visive, ad accordarsi sul loro significato, a procedere a una loro mappatura.

La ricostruzione presentata in questo articolo indubbiamente richiede ulteriori approfondimenti e contestualizzazioni, dentro e fuori Linea grafica. Si potrà per esempio procedere, per l’Italia, a confronti con altre pubblicazioni che all’epoca hanno alimentato la cultura grafica – per esempio Grafica e Quaderni Aiap e successivamente Progetto grafico, interne alla cultura del progetto,[20] e L’Italia Grafica e Graphicus, dal versante più tecnico del mondo della stampa – come pure a comparazioni con i discorsi elaborati in altri contesti nazionali e secondo diverse prospettive (e si veda in questo numero il contributo di Carlo Vinti; cfr. inoltre il testo di Giulia Ciliberto). Ancora si dovrà affiancare all’esame dei discorsi la documentazione e l’analisi delle pratiche interne alla professione e alla vita di studio (ancora in questo numero si vedano le interviste condotte da Michele Galluzzo), esaminando nel dettaglio diversi ambiti, dal web design all’animazione, passando per i videogiochi (cfr. in questo numero Isabella Patti). Gli spunti non mancano. Le storie da raccontare sono molte.


Riferimenti bibliografici

Nel testo principale e in bibliografia si è cercato di fare riferimento a tutti i contributi individuati in Linea grafica che, in maniera significativa, hanno affrontato questioni relative all’impatto del computer e del digitale. Pur con alcune esclusioni e mancanze, si può ritenere la lista di riferimenti uno spoglio della testata presso che esaustivo in relazione al tema e al periodo studiati.
Al fine di consentire una lettura più immediata dello spoglio svolto, sia nel testo sia nella bibliografia, si è deciso di derogare a vari criteri dello stile citazionale adottato da AIS/Design: Storia e ricerche (APA style), pur adottandolo in larga misura. Si è deciso innanzi tutto di distinguere in bibliografia fra i riferimenti alla rivista (A.) e riferimenti ad altre fonti (B.).
Per i primi si è scelto di organizzarli a un primo livello cronologicamente, per decennio, quindi alfabeticamente, secondo lo stile autore-data. Per contenere la lunghezza dei riferimenti si è deciso: di non ripetere il nome della rivista in ogni riferimento e non ripetere cognome e nome per gli autori di cui si riportano diversi contributi; di omettere l’indicazione dei mesi di pubblicazione e indicare viceversa nel riferimento breve, fra parentesi, il numero del fascicolo subito dopo l’anno. (A parte che nel periodo 1982-1984, quando la pubblicazione è irregolare, la rivista è bimestrale, dunque il primo numero corrisponde a gennaio/febbraio, il secondo a marzo/aprile e così via.) Per la numerazione dei fascicoli, a partire dal 1992 in copertina e dal 1996 anche nel sommario/colophon la rivista adotta la numerazione progressiva dalla fondazione della testata; si è scelto, tuttavia, di riferirsi sempre al numero del fascicolo all’interno dell’annata (che comunque appare sempre nella rivista, sul dorso o sul piatto della copertina). Nel corpo dell’articolo, inoltre, si è deciso di non specificare i numeri di pagina di eventuali citazioni, per non appesantire la lettura.
Sotto ciascun decennio sono dati per primi i riferimenti agli editoriali. Per contraddistinguere gli editoriali si è aggiunta la lettera “e” al numero del fascicolo. Nel corpo principale dell’articolo, là dove si rimanda agli editoriali, inoltre, generalmente non viene ripetuto il nome dell’autore che, almeno dal 1986, è sempre Giovanni Baule (nel periodo 1982-1984 gli editoriali sono inizialmente non firmati e successivamente a firma dei vari direttori; per gli anni settanta non sempre è presente un editoriale). Per articoli e redazionali senza autore il riferimento è dato a una versione abbreviata del loro titolo o al titolo della rubrica in cui compaiono.
Infine, non si riportano in bibliografia le pubblicità di cui nel testo dell’articolo è pur segnalata la presenza e posizione (sempre secondo il criterio anno/fascicolo); sono viceversa elencati redazionali e recensioni.

A. Riferimenti in Linea grafica

A.1 Anni settanta

Che cosa. (1977/1). Che cosa ci proponiamo, 2.

Clarke, E. P. (1972/3). Continuità del processo di stampa, 144-145.

Dradi, C.
— (1972/1a). Da Campo Grafico a Linea Grafica, 7-8.
— (1972/1b). 1946, il clisciografo primato italiano, 9.
— (1977/5). Una esperienza che non può ripetersi, 178-179.
— (1978/2). La fotocomposizione: una rivoluzione in atto, 69.
— (1978/5). Incontro con i grafici pubblicitari: ma servono?, 174.

Fenocchio, U. (1974/2). Milano: Mostra della Scuola Politecnica di Design, 78-81.

Foto composizione. (1975/5). Foto composizione o No?, 158-159.

Giovannini, A.
— (1975/2). Immagini di presa: Note di attualità sulla fotografia, il cinema e la TV, 84.
— (1977/3). Contromanuale d’animazione: introduzione all’animazione meccanica, 105-108.
— (1977/4). Contromanuale d’animazione: il “pianoforte” meccanico di Whitney / McLaren e Whitney, 105-108.
— (1977/5). Contromanuale d’animazione: il computer umanizzato di Peter Foldes, 185-188.

Il Premio Milano/Liegi. (1972/1). Il Premio Milano/Liegi e l’evoluzione della tipografia, 11-12.

Linea Grafica. (1972/1). Linea Grafica per la qualificazione del messaggio stampato all’interno delle aziende, 13.

Linea grafica 76. (1976/1). Linea grafica 76, 2.

Mataloni, F. (1972/1). Parlano i direttori di Linea Grafica, 14-17.

Notiziario (1976/6). Notiziario, 266.

Realini, G. (1972/3). La ricerca grafica col calcolatore elettronico, 120-121.

Schenone Garavoglia, G.
— (1974/5). Il ruolo del grafico nella comunicazione visiva, 210-211.
— (1976/6). Schede tecniche, 265.

Steiner, L. (1978/1). Un invito a confrontarsi, 2.

Un quarto di secolo. (1972/1). 1946-1971. Un quarto di secolo di Linea Grafica, 6.

A.2 Anni ottanta

Editoriali (dal 1986 a firma di Giovanni Baule)
— (1985/3e). [Editoriale], [2].
— (1986/1e). [Editoriale], [2].
— (1987/1e). [Editoriale], [2].
— (1987/3e). [Editoriale], [2].
— (1988/1e), [Editoriale], [2].
— (1988/4e). [Editoriale], [8].
— (1989/2e). [Editoriale], [6].
— (1989/3e). [Editoriale], [8].

Anceschi, G. (1986/1). Choreographia Universalis, 40-47.

Aziende. (1987/5). Aziende. Computer Image: Aesthedes, 65-67.

Bassi, B. (1987/1). Nei labirinti del romanzo interattivo, 50-54.

Baule, G. (1984/5-6). Figurarsi lo sport, 8-17.

Baule, G., & Pagliardini, W.
— (1984/7-8). Prima Biennale della grafica, 6-10.
— (1986/1). La grafica rivista. Il Risorgimento Grafico: l’arte della tipografia, 4-15.
— (1986/2). La grafica rivista. Campo Grafico: palestra della nuova grafica, 4-13.
— (1986/3). La grafica rivista. Linea grafica: la grafica, professione e progetto, 4-11.

Branzaglia, C.
— (1988/2). La copia e l’elettronica, 44-51.
— (1988/5). La grafica in copia, 38-43.

Brugnetti, T.
— (1985/4). Il colore eidomatico, 32-38.
— (1985/5). Il gioco delle tessiture, 34-39.

Capucci P. L.
— (1987/2). Intorno all’olografia, 34-45.
— (1989/1). Nuovi strumenti della rappresentazione, 54-61.
— (1989/6). La realtà restituita, 36-45.

Colonetti, A.
— (1985/4). Il carattere: l’ABC della grafica, 4-17.
— (1986/2). La sigla televisiva: il sipario come spettacolo, 22-31.

Di Crosta, M. (1988/3). Memorie ottiche, 44-49.

Dradi, M. (1984/3-4). A Bologna Una giornata tutta di graphic emotion, 24-29.

Gaggio, F. (1988/1). Prospettive della computer graphics, 30-37.

Guadagni, A. (1987/1). Le immagini dei videogiochi, 44-49.

Iliprandi, G.
— (1982/1). Una responsabilità collettiva, 24-25.
— (1983/1-2). Grafica e creatività, 20-23.

Lineagrafica Notizie. (1984/3-4). Lineagrafica Notizie [segnalazione del libro di Alessandro Polistina, Computer graphics, Cad, Elaborazione di immagini: sistemi ed applicazioni, Gruppo editoriale Jackson], 45.

Lineagrafica Report. (1984/10-11-12). Lineagrafica Report [“L’immagine computerizzata” e “Creatività e tecnologia”], 74-75.

Maran, G. (1988/5). Prospettive nell’editoria aziendale, 62.

Marcialis, N. (1989/2). Animazione tra manualità e computer, 46-51.

Marcialis, N., & Zanardi, N. (1987/3). Tanti pennelli in più, 46-53.

Marini, D. & Brugnetti, T. (1985/6). L’architettura digitalizzata, 28-31.

Mastri, M. (1987/2). L’immagine infinita, 46-55.

Mazzanti, M.
— (1985/1). ID Logos, 42-46.
— (1985/3). La costruzione del modello, 32-39.

Mostre. (1988/2). Mostre: Pacific Wave, California Graphic Design, 52.

Pagliardini, W.
— (1985/1a). Grafici e computer, 40-41.
— (1985/1b). La grafica nel televisore, 47.
— (1985/3). Simulare la guerra, simulare la pace, 33.
— (1985/4). Corso di grafica col computer [recensione del volume di Daniele Marini, Corso di grafica col computer, Milano: Fabbri], 62

Polistina, A.
— (1986/4). Computegrafica: mimesi o retorica?, 42-51.
— (1986/5). Computergraphica come design post-industriale, 40-47.

Raffaelli, L. (1983/5-6). La grafica e il computer: Una rivoluzione nel mondo della comunicazione visiva, con una introduzione di Guido Vanzetti, 34-37.

Redazionale. (1986/6) Prima delle segnalazioni tre pagine su fondo nero, un redazionale dal titolo “Videoarte e comunicazione”

Segnalazioni. (1989/1). Segnalazioni [Editoria da ufficio di F.E. Davis , J. Barry e W. Wiesenberg, Tecniche Nuove], 66.

Videoarte e comunicazione. (1986/6). Videoarte e comunicazione, 52-54.

A.3 Anni novanta

Editoriali (a firma di Giovanni Baule, dal 1992 con titolo proprio)
— (1990/1e). [Editoriale], [8].
— (1990/2e). [Editoriale], [8].
— (1990/3e). [Editoriale], [8].
— (1990/4e). [Editoriale], [8].
— (1991/3e). [Editoriale], [12].
— (1991/4e). [Editoriale], [12].
— (1991/5e). [Editoriale], [12].
— (1991/6e). [Editoriale], [12].
— (1992/2e). Onnipresenza, 8.
— (1992/3e). Misura, 8.
— (1992/4e). Materialità, 8.
— (1992/5e). Virtualità, 8.
— (1992/6e). Standardizzazione, 8.
— (1993/1e). Europa della grafica, 8.
— (1993/2e). Una nuova visibilità, 8.
— (1993/3e). La grafica sensibile, 8.
— (1993/5e). Nuova grafica, nuovi media, 8.
— (1994/1e). Transizioni, 8.
— (1994/3e). Elaborazioni, 8.
— (1994/4e). Parole/figure, 8.
— (1994/5e). Compressioni, 8.
— (1995/1e). Identità, 8. identità nuovi strumenti
— (1995/6e). L’arcipelago della grafica, 8.
— (1996/1e). Sotto i nostri occhi, 10-11.
— (1996/2e). La grafica ricomincia, 10-11.
— (1996/3e). La favola digitale, 10-11.
— (1996/4e). Laboratorio della transizione, 10-11.
— (1996/5e). Il riflesso della multimedialità, 10-11.
— (1996/6e). Segni del tempo, 10-11.
— (1997/1e). Il corpo della scrittura, 10-11.
— (1997/3e). La grafica in rete, 10-11.
— (1997/4e). Sulla ragione informatica, 10-11.
— (1997/5e). Tecnologia / formazione, 10-11.
— (1997/6e). Il testo senza volto, 10-11.
— (1998/1e). L’identità difficile, 10-11.
— (1998/2e). Le tracce, 10-11.
— (1998/3e). Alle soglie dell’infografica, 10-11.
— (1998/4e). Il paradosso digitale, 10-11.
— (1998/5e). Comunicazione globale, 10-11.
— (1998/6e). L’effetto Alka Seltzer, 12-13.
— (1999/1e). La grafica di flusso, 8-9.
— (1999/2e). Figli della comunicazione breve, 10-11.
— (1999/3e). L’immagine profonda, 10-11.
— (1999/4e). Comunicazione globale, 10-11.
— (1999/5e). Ibridi nella trama della comunicazione, 12-13.
— (1999/6e). Che cos’è il web design, 12-13.

Anceschi, G. (1995/1). Elementare e fondativo, 10-21.

Arzuffi, E. (1992/6). Figurazioni digitali, 54-61.

Barbieri, D. (1993/1). Progettare l’interazione, 10-21.

Baroni, D.
— (1996/5). Per quale lettura?, 12-23.
— (1997/1). La lettera riscritta, 12-21.
— (1997/5). L’immagine della complessità, 12-23.
— (1999/4). Illustrazione: dalla manualità all’elettronica, 26-35.

Baule, G.
— (1990/1). Un promemoria per la grafica italiana degli anni 90, 10.
— (1993/3). Infografica, 10-19.
— (1993/5). Libri elettronici, 10-21.
— (1994/3). Oltre la copia, 52-57.
— (1994/5). Chi progetta le interfacce?, 10-13.
— (1997/3). Riviste: una nuova trama, 16-23.
— (1997/4). L’altra faccia del quotidiano, 18-29.
— (1997/5). La marca e il prodotto: presentare, consultare, 24-33.
— (1997/6). Siti d’impresa, 12-21.
— (1998/1). L’immagine pallida delle news, 22-29.
— (1998/2). Il ritorno delle scritture, 12- 21.
— (1998/3). Grafica: una storia inavvertita?, 12-19.
— (1998/4). Siti di immagine, 12-21.
— (1998/5). Dalle reti alla Rete, 12-21.
— (1998/6). Il film nella rete, 14-23.
— (1999/1). Il libro nella Rete, 10-21.
— (1999/2). La neosigla, 14-25.
— (1999/3). Verso l’ipersigla, 14-25.
— (1999/4). WebDesign, 12-23.
— (1999/5). Lo specchio dell’interfaccia, 14-25.
— (1999/6). Siti di Moda, 14-23.

Bertolino, L. (1997/3). In rete con la città, 32-36.

Bollini, L. (1998/3). Comunicazioni visive, 20-21.

Bonsiepe, G. (1991/3). Il progetto dell’interfaccia, 14-24.

Branzaglia, C.
— (1995/2). Caratteri e stile, 44-55.
— (1996/1). Questioni di stile, 34-43.
— (1996/2). Segnali dal video, 12-21.
— (1996/4). Sopra la pelle lo stile, 12-21.
— (1996/6). Stili per la musica pop, 24-29.
— (1997/3). L’edicola virtuale, 60-64.
— (1997/5). Un catalogo per l’opera totale, 60-64.
— (1997/6). Prima del digitale, 44-49.
— (1999/2). Il mondo visto da altrove, 26-35.

Bucchetti, V.
— (1991/3). Punto informativo eidomatico per Malpensa, 25-27.
— (1994/5). Coordinare l’interfaccia, 14-19.
— (1995/6). Trame Virtuali, 26-33.
— (1997/2). Nuovi segni, 36-45.
— (1997/3). Interfacce su carta, 44-49.
— (1997/6). Una nuova raffigurazione, 36-43.

Campana, M.
— (1992/3). Grafico di rete, 48-55.
— (1992/5). La pagina e il computer, 38-45.
— (1992/6). Progetto scrittura, 48-53.
— (1996/3). Un sistema aperto, 36-39.
— (1996/6). Progetto scrittura, 48-53.
— (1998/4). Cyberealismo, 48-55.
— (1999/5). La foto scritta, 58-69.

Caporaso, G., & Giacomelli, M. (1996/6). Interfaccia per la tv interattiva, 46-53.

Capucci, P.L.
— (1990/1). Arte della comunicazione, 44-53.
— (1990/3). Tecnologie della creazione, 48-55.
— (1991/1). Ultime nuove immagini, 38-47.
— (1991/5). Comunicare con tatto, 44-51.
— (1992/1). Computer identities, 62-73.
— (1992/3). Mondi della computegrafica, 44-47.
— (1992/5). Rappresentazione e simulazione, 10-19.
— (1993/2). Mitologie virtuali, 22-31.
— (1993/5). Vita di mondi possibili, 48-57.
— (1994/2). Nuove dimensioni della comunicazione, 22-33.
— (1994/6). Interfacce non esclusive, 48-57.

Carrara, P. (1996/1). L’arte italiana in digitale, 50-53.

Carta del progetto grafico. (1990/1). Carta del progetto grafico: Tesi per un dibattito sul progetto della comunicazione, 10-11. Disponibile anche dal sito di AIAP (Associazione italiana design della comunicazione visiva), http://www.aiap.it/documenti/8046/71 (ultimo accesso agosto 2016).

Cecarini, S. (1994/3). Punto informativo per l’arte, 26-33.

CD oltre il gioco. (1995/5). CD oltre il gioco [Adventures with Edison, Bernard of Hollywood’s Marilyn], 61.

Ceppi, G. (1998/5). Immagine della globalizzazione, 22-31.

Cerquetti, G., Limoli, L., & Volpi, M. (1999/5). Un periodico integrato, 28-35.

Computergrafica. (1994/4). Computergrafica: L’illustrazione d’attualità, 46-51.

Consalez, L. (1991/5). Tra computer e animazione, 62-67.

Didot. (1992/4). Didot o della tipografia numerica, 62-65.

Faletra, M. (1996/1). Sulla fotografia virtuale, 55-67.

Foto digitale. (1998/6). Foto digitale: Reinventare la realtà, 58-67.

Gagliardi, I. (1996/2). La Gioconda digitale, 54-60.

Giardina, A.
— (1998/3). Grafica sfumata, 22-31.
— (1998/5). Immaginari dell’infografica, 40-46.
— (1999/1). Nuove forme tipo/grafiche, 26-35.

Grafica e computer. (1996/2). Grafica e computer: Tra cinema e televisione, 48-51.

Leonardi, A.
— (1997/1). Cronache dal mondo dei caratteri, 22-31.
— (1997/3). Verso il carattere totale, 50-59.
— (1997/5). Sulla carta, sui sassi, 50-59.
— (1998/2). La voce delle parole, 34-43.
— (1998/6). LettError, 24-33.

Libri. (1999/6). Libri: Colori e caratteri per lo schermo, 66-67.
Libri. (1999/6). Libri: Hypergraphics [di Roy McKelvey], 68-69.

L’illustrazione. (1994/4). L’illustrazione d’attualità, 46.

Lussu, G. (1991/5). La grafica è scrittura, 14-19.

Maiarelli, G. (1994/1). Nuovi riti della new wave, 30-41.

Marini, D. (1997/3). Il ciclo di vita delle immagini, 38-43.

Mattei, M.G.
— (1991/3). Identità videografica, 50-58.
— (1991/4). Il disegno del video, 54-63.

Montefusco, P. (1997/4). Un sistema per la rete civica, 30-37.

Pizzol, D., & Rovagnati, F. (1996/1). La Vague Interactive, 48-49.

Schianchi, F. (1998/3). I nuovi musei, 56-65.

Segnalazioni. (1992/2). Segnalazioni: Editoria da tavolo [Il Manuale del desktop publishing, di D. Hewson, J. Miles, J. Taylor, S. Heale, Zanichelli], 77.
Segnalazioni. (1996/1). Segnalazioni [NN’nNToyMakers, RedRhino e Palazzo Ducale di Mantova], 69.
Segnalazioni. (1996/4). Segnalazioni: Collezioni [Taglia & Incolla – Italian Photography & Digital Quality, Olivetti Telemedia e Fotografi Associati], 70.
Susani, M. (1996/5). Un CD per il design, 56-61.

Torri, G. (1992/5). Europa: grafica e computer, 34-43.

Trapani, P. (1997/3). La Scala Web, 24-31.

Volli, U. (1997/3). Ideografie dell’interazione, 12-15.

Ziliani, G. (1995/4). Foto-montaggi, 12-21.

Zapping. (1996/4). Zapping: Cento facce dell’interattività, 42-43.

Zapping. (1998/3a). Zapping: Il design dei new media, 32-33.

Zapping. (1998/3b). Zapping: Il giardino segreto [The Secret Garden of Mutabor], 64-65.

Zapping. (1999/4). Zapping: Caratteri indiscreti [2Rebels di Fabrizio Gilardino e Denis Dulude], 24-25.

B. Altri riferimenti

Anceschi, G. (1989). Scena eidomatica e Basic Design, il campo unificato della presentazione visiva, Quaderni Aiap, 13/14, 64-73.

Baroni, D. (1986). Il manuale del design grafico, Milano: Longanesi.

Baule, G.
— (2000/1). Il millennio di carta, 12-13.
— (2015/6). “La Carta del Progetto Grafico venticinque anni dopo. Una rilettura”, in AIS/Design: Storia e ricerche, http://www.aisdesign.org/aisd/la-carta-del-progetto-grafico-venticinque-anni-rilettura.

Branzaglia, C. (1994). Fotocopie: l’uso creativo della fotocopiatrice nella comunicazione visiva. Milano: Azzurra Editrice.

Camuffo, G. (1987). Pacific Wave: California Graphic Design. Udine: Magnus.

Colombo, F. (1990). Breve storia teorica della Computer graphics, Grafica, 9.

D’Ambrosio, G., & Grimaldi, P. (1990). Entrare in campo: la videografica di Convertino, 9.

Fioravanti, G.
— (1984). Grafica & Stampa. Bologna: Zanichelli.
— (1987). Il manuale del grafico. Bologna: Zanichelli.

Turchi, D. (1988). Chi ci aiuta a progettare? Il computer, al limite, Grafica, 6.


Note    (↵ returns to text)

  1. Nel corso dei decenni presi in esame per questo articolo, il nome della testata è variamente riportato sulle copertine, nei sommari e negli editoriali (linea grafica, Linea Grafica, Linea grafica, Lineagrafica). In questa sede si è deciso di uniformare la dicitura in Linea grafica.
  2. La copertina è una pubblicità realizzata da Studio BW Pubblicità per Macchingraf. A proposito della coesistenza di diverse anime nella rivista e della dipendenza di quest’ultima dagli annunci pubblicitari del settore poligrafico, si veda anche quanto scrivono Baule & Pagliardini (1986/3) secondo i quali tuttavia il fenomeno sarebbe limitato fino agli anni sessanta: “I due volti della pubblicistica di settore, quello dell’informazione tecnica e quello della esposizione del progetto, saranno destinati in Linea grafica, fino alla svolta degli anni Sessanta, a convivere contraddittoriamente; una convivenza che si fa via via più forzosa resa inevitabile dagli introiti pubblicitari provenienti dalle industrie del settore grafico”.
  3. Oltre ai testi di Realini e Giovannini menzionati di seguito si vedano anche alcune notizie riportate fra le segnalazioni e le “schede tecniche”. Per esempio nel 1975 nella rubrica “Immagini da presa: Note di attualità sulla fotografia, il cinema e la TV”, a cura dello stesso Giovannini si parla di “Annecy al computer”: si apprende che dalla X edizione delle Journées Internationales du Cinéma d’animation ad Annecy è emerso come “[l]’attenzione degli interessati in questi ultimi anni è stata particolarmente attratta dalle esperienze di animazione realizzate con il computer fra le quali si sono distinte quelle portate avanti presso il National Research Board of Canada da Peter Foldes” (Giovannini, 1975/2). Nel 1976, fra le schede a cura di Schenone Garavoglia, si parla di “Software la regina degli anni 80”; si riportano alcune proiezioni sul mercato dei software in espansione negli Stati Uniti e si fanno previsioni sul loro futuro per le telecomunicazioni: “in 24 anni computers e telecomunicazioni avranno eliminato i giornali. E per il 2000 i computers saranno divenuti la più importante industria USA che coinvolgerà il 90% dei lavoratori” e ancora “per 500$ la famiglia media sarà in grado di installare una transricevente sul tetto e ricevere, inviando un messaggio in codice, qualsiasi cosa, dai corsi universitari al più recente film pornografico” (Schenone Garavoglia, 1976/6). Nello stesso fascicolo, nel “Notiziario” si rende conto di un corso/seminario di impaginazione dei libri col computer promosso dalla Società Fotocomposizione Firenze/Milano con Olivetti, tenuto presso la Rizzoli, e durante il quale è stato presentato un programma realizzato da Datalab e dalla Fotocomposizione Firenze/Milano in base al quale “comunicando attraverso nastro magnetico all’elaboratore un testo corredato dalle dovute istruzioni (corpo tipografico, giustezza, altezza della pagina, rientranze, richiami di formato ecc.) esso restituisce sempre su supporto magnetico il testo correttamente impaginato, pronto per essere passato, dopo una conversione su nastro perforato, in fotocomposizione e quindi in stampa”. Si aggiunge che c’è la possibilità di collegarsi in remoto collegandosi al centro con terminali di trasmissione usando una linea telefonica.
  4. Cfr. l’articolo di Fenocchio (1974/2) dedicato alla Scuola Politecnica del Design di Nino Di Salvatore, nel quale si trova che Realini era parte del corpo docente e scienziato ricercatore di Euratom (Comunità europea dell’energia atomica).
  5. Il primo editore è Linea Editrice; poi, dal numero 4-5-6, Antonio Ghiorzo. Accanto a Roberto Maria Salardi, direttore responsabile, compaiono successivamente come direttori Francesca Nazzani Gallietti, nel 1983, e Cante Rossi, nel 1984. La presenza sulla copertina di alcuni numeri della scritta “Graphics World”, e la presenza di alcuni contributi di autori stranieri, farebbe pensare che alcuni articoli fossero tratti e tradotti dall’omonima rivista britannica. Non ho potuto trovare riscontro in merito a questa ipotesi.
  6. Titolo e sottotitolo cambiano temporaneamente nel 1983 – “Nuova Linea grafica: Design, colore, tecnica e cultura” – per poi tornare dal 1984/3-4 alla versione “Lineagrafica: Progettazione, produzione, stampa”.
  7. Nonostante la presenza di alcuni accorati interventi di Giancarlo Iliprandi incentrati sulla responsabilità e educazione dei graphic designer (1982/1 e 1983/1-2).
  8. In questa direzione si colloca per esempio anche l’attività di una azienda milanese, Eidos, e l’organizzazione corsi per “tecnici eidomatici” di cui si dà annuncio in un fascicolo successivo; si veda “L’immagine computerizzata” e “Creatività e tecnologia” in Lineagrafica Report (1984/10-11-12). Nella stessa pagina appare l’annuncio di corsi di formazione per “tecnici eidomatici”, un corso coordinato da Daniele Marini dell’Istituto di Cibernetica dell’Università di Milano e che coinvolge fra i docenti Giovanni Anceschi (allora DAMS, Bologna) e Tiziano Brugnetti proprio di Eidos.
  9. Dal 1992 Rivista internazionale di grafica e comunicazione visiva.
  10. Il primo articolo di Baule nella rivista è nel 1985/5-6, “Figurarsi lo sport”, mentre nel successivo fascicolo 7-8 appare un articolo firmato da Baule e Wando Pagliardini dedicato alla Prima Biennale di Cattolica e alla grafica di pubblica utilità.
  11. Fra i più presenti in questi anni, in particolare, Tiziano Brugnetti è della già citata Eidos (si veda supra nota 9); Daniele Marini, dell’Istituto di Cibernetica dell’Università di Milano, è autore di un Corso di grafica col computer (Milano: Fabbri) recensito da Pagliardini (1985/4), e ha anche organizzato corsi in Lombardia in collaborazione con Eidos; Massimo Mazzanti si occupa di grafica cinetica e computergrafica (il suo lavoro viene menzionato da Colonetti, 1986/2); Alessandro Polistina è autore di articoli in pubblicazioni specialistiche e curatore di un libro dal titolo Computer graphics e CAD per l’architettura e il territorio (Milano: Jackson, 1984), che viene segnalato in Lineagrafica Notizie (1984/3-4); Pier Luigi Capucci, che inizia a collaborare nel 1987 e contribuirà fino a metà anni novanta, si occupa invece dei rapporti fra arte e tecnologia.
  12. Presumibilmente questa direzione era stata sollecitata dallo stesso Anceschi. Come si evince da una segnalazione di un corso per “tecnici eidomatici” apparsa nella sezione Lineagrafica Report (1984/10-11-12) Brugnetti e Anceschi erano stati docenti nello stesso programma. Sul basic eidomatico cfr. inoltre Anceschi (1995/1 e 1989).
  13. Oltre agli articoli citati nel testo si vedano anche ricognizioni e report da eventi internazionali, così come segnalazioni e recensioni di manifestazioni e pubblicazioni, come Gaggio (1988/1), ancora Capucci (1989/1), Marcialis (1989/2).
  14. Nell’articolo Colonetti scrive che il sistema di Knuth era stato importato in Italia da Giovanni Canzii e Giovanni degli Antoni, docente presso l’Istituto di Cibernetica di Milano, per l’applicazione dell’informatica all’editoria.
  15. Fra l’altro anche in Linea grafica viene presentato il sistema Aesthedes di cui scrive Karin van der Heiden in questo numero nel suo articolo (si veda Aziende, 1987/5).
  16. Per una rilettura della Carta a distanza si veda in questa rivista Giovanni Baule (2015).
  17. Il termine “infografica” come combinazione di informatica e grafica, come precisa Baule in una nota dell’articolo omonimo (1993/3), è ricavato da René Berger, Il nuovo Golem, Milano 1992.
  18. Cfr. anche la recensione del Manuale del desktop publishing edito da Zanichelli in Segnalazioni (1992/2).
  19. Nei testi di Baule in particolare il riferimento alle categorie elaborate da Gérard Genette sono spesso presenti in questi anni, implicitamente o esplicitamente.
  20. Si vedano per esempio Turchi (1988), Colombo (1990), D’Ambrosio, G., & Grimaldi, P. (1990) e Anceschi (1989).

Visioni alla rincorsa del futuro: il cambiamento tecnologico nella rivista U&lc, 1973-1983


Warning: Parameter 2 to qtranxf_postsFilter() expected to be a reference, value given in /web/htdocs/www.aisdesign.org/home/aisd/wp-includes/class-wp-hook.php on line 286

Warning: Parameter 2 to qtranxf_postsFilter() expected to be a reference, value given in /web/htdocs/www.aisdesign.org/home/aisd/wp-includes/class-wp-hook.php on line 286

La rivista U&lc (Upper & lower case) è ricordata solitamente come spazio di messa in scena degli esperimenti tipografici di Herb Lubalin e dei caratteri prodotti dalla International Typeface Corporation. Approfittando dell’accessibilità online dell’intera collezione del quadrimestrale, questo articolo ne indaga un aspetto meno noto, ma per niente marginale nella sua storia: il tentativo di mediazione delle nuove tecnologie fotografiche, elettroniche e digitali verso un pubblico formato prevalentemente da grafici e art director. L’analisi si concentra sulla ricezione di vari sistemi e dispositivi elettronici e digitali nel decennio 1973-1983: sulle reazioni che questi provocavano e sulle questioni che sollevavano. Considerando sia le pagine editoriali sia gli annunci pubblicitari, lo spoglio condotto fa emergere lo sforzo costante di redattori, autori e aziende di tenere il passo con il ritmo delle trasformazioni in corso. A quella che viene subito percepita come una rivoluzione tecnologica si risponde con “visioni” proiettate nel futuro. Dietro tali visioni, tuttavia, emerge anche il senso di una rincorsa faticosa: il disagio e il disorientamento nei confronti di cambiamenti talmente rapidi da rendere spesso difficile una loro assimilazione.


1. Restare in contatto

Il graphic design rischia di diventare un anacronismo se non si mantiene in contatto con gli sviluppi della tecnologia. Il computer sembra destinato a rivoluzionare il graphic design […] ed è adesso, quando la tecnologia è ancora in piena evoluzione, che i designer devono prendere l’iniziativa per determinare gli sviluppi di questo nuovo strumento e medium. Se non lo faranno, molto probabilmente saranno costretti a subirlo, perché a dargli forma saranno altri senza alcuna cognizione delle classiche forme del design (citato in “Vision ’80s”, p. 50).[1]

Queste parole di grande lucidità sulla sfida posta dal computer ai graphic designer sono tratte da un articolo del Journal of the American Institute of Graphic Arts che commentava uno dei primi esperimenti realizzati da un grafico con il computer.[2] Ripubblicate nel numero speciale di U&lc “Vision ’80s”, tali parole introducono efficacemente lo spirito con cui il quadrimestrale lanciato nel 1973 dall’International Typeface Corporation (da ora ITC) affrontò l’avvento delle nuove tecnologie. Sfogliando virtualmente le sue pagine – oggi disponibili online sul sito www.fonts.com di Monotype Imaging[3] – colpisce infatti la percezione chiara che si aveva, fin dai primi numeri degli anni settanta, di una forte discontinuità tecnologica già in atto nella pratica del design grafico e della tipografia, e soprattutto l’urgenza nel fare appello ai designer perché prendessero atto dell’arrivo imminente di una vera e propria rivoluzione, facendo i conti con quel futuro che bussava alla porta.

L’ansia di tenere il passo con il ritmo delle trasformazioni tecnologiche ha accompagnato costantemente la vita di U&lc, sebbene non ne sia mai stato l’aspetto più appariscente. Normalmente infatti la rivista è ricordata per quella miscela eclettica di argomenti, curiosità visive e sperimentazioni tipografiche che – legati al gusto e all’immaginario di Herb Lubalin (1918-1981) – molto presto l’hanno resa un oggetto da collezione fra i designer (Berry, 2005). Di certo – a dispetto delle frequenti incursioni nella storia e nella tradizione – U&lc è nata con lo sguardo fermamente proiettato verso il futuro. Il breve editoriale di esordio, già nelle prime righe, faceva riferimento a progressi della tecnologia “talmente vasti e di difficile comprensione da mettere a dura prova l’immaginazione anche dei più creativi fra noi”. Al primo posto nel programma del quadrimestrale c’era la volontà di aggiornare costantemente su nuovi materiali, strumenti e metodi. La domanda di partenza era: “Come restare al passo? Come mantenersi in contatto con ciò che è attuale?”[4] (“Why U&lc?”, p. 2).

Upper & lower case. The International Journal of Typographics – di cui sono usciti più di cento numeri fino al 1999 – è nata nel 1973 con un obiettivo preciso: promuovere i caratteri tipografici della ITC, azienda fondata tre anni prima a New York da Lubalin insieme a Aaron Burns (1922-1991) e Edward Rondthaler (1905-2009).[5] Approfittando delle nuove opportunità offerte dalla fotocomposizione, l’ITC non forniva caratteri tipografici come prodotto fisico ma vendeva disegni di caratteri adattabili a sistemi e dispositivi diversi. Sebbene avesse un naturale interesse nel campo del design tipografico, la rivista – più che agli esperti di tipografia – si rivolgeva ai potenziali utilizzatori delle font rilasciate dall’ITC: in particolare, coloro che lavoravano negli studi di graphic design e nei reparti creativi delle agenzie di pubblicità. Come strumento di soft selling, U&lc era destinata non solo a pubblicizzare i caratteri, ma anche a educare, informare e intrattenere questo pubblico specifico (Rutter Key, p. 9). Per tale ragione, le sue pagine costituiscono una lente di osservazione efficace attraverso cui interpretare l’impatto delle nuove tecnologie sulla professione del graphic design.

Il periodo preso in considerazione in questo articolo è il primo decennio di vita della rivista, fino al 1983, quindi alle soglie della rivoluzione del personal computer e del desktop publishing. Focalizzandosi sulla ricezione delle tecnologie più che sulla cronaca delle trasformazioni, l’intento è ricostruire un momento cruciale di transizione durante il quale U&lc ha dato voce, da un lato, a entusiasmi e speranze e, dall’altro, a timori, cautele e resistenze di fronte a uno scenario non facilmente decifrabile, sempre più influenzato dall’elettronica e dal computer.

2. Informazione tecnica e pubblicità: l’in-house boom

Aaron Burns, nella prima pagina del numero d’esordio di U&lc, poneva l’accento su una serie di cambiamenti rivoluzionari (dalla composizione tramite raggio catodico al sistema OCR, fino alla tipografia al computer) che avrebbero presto reso possibile una “nuova arte tipografica” (1973, p. 3). Quel che la direzione si proponeva era di discutere tali novità tecnologiche nei fascicoli successivi della rivista (“More to Come from U&lc”, 1973). Tuttavia, con l’uscita del terzo numero i propositi iniziali furono leggermente ridimensionati: si prendeva atto della difficoltà del quadrimestrale nel coprire in profondità la miriade di novità che si affacciavano quasi quotidianamente nel settore. Il compito di informare e aggiornare i lettori sulla tecnologia veniva demandato allora a una sezione precisa della rivista, quella destinata agli annunci pubblicitari, che erano tutti specifici del settore. La tradizione tipicamente statunitense di utilizzare lunghi copy argomentativi e la disponibilità del pubblico a leggerli faceva sì che si invitassero i lettori a dedicare particolare attenzione alle pagine di pubblicità e persino a scrivere agli inserzionisti per chiedere informazioni supplementari (“Editorial”, 1974). Le ultime pagine del periodico erano viste quindi come uno spazio di educazione e informazione tecnica. Non a caso, nel mezzo della pubblicità, trovavano posto anche rubriche e glossari tecnici.

La presenza di pubblicità in un periodico già per sua natura promozionale era dovuta, oltre che all’immediato successo e diffusione di U&lc fra i grafici, all’opportunità di sfruttare a proprio vantaggio gli annunci di altre aziende: gli inserzionisti, infatti, quasi sempre sottolineavano la disponibilità delle font ITC nelle macchine compositrici, titolatrici e nei fogli di caratteri trasferibili che pubblicizzavano. C’è un altro aspetto, però, che accomuna molte pagine pubblicitarie comparse in U&lc durante gli anni settanta: l’insistente offerta – rivolta a studi, reparti creativi di agenzie, imprese editoriali o uffici aziendali – di prodotti in grado di sostituire del tutto o parzialmente operazioni affidate fino ad allora a strutture esterne.

Le case produttrici di macchine per la riproduzione fotografica di originali – dalle reprocamere fino alle fotocopiatrici – furono forse le prime a procedere in questa direzione. Invitando studi e agenzie a smettere di rivolgersi all’esterno per raggiungere risultati che potevano comodamente ottenere internamente, si prospettava la possibilità di cancellare le “attese infinite di ritiri e consegne”[6] (“Visual Graphics”, 1977) e naturalmente si puntava molto anche sul risparmio economico, comparando i 250 dollari spesi in copie fuori con i 100 dollari al mese per avere una macchina come il modello Duostat (“Visual Graphics”, 1975). Anche l’idea di ottenere il controllo sui processi di produzione, guadagnando indipendenza e libertà creativa, era un punto su cui si insisteva molto per attirare designer e art director.

Fig. 1 Pagine pubblicitarie in U&lc dell’azienda Itek per il Graphitek 430 System, 1976.

Fig. 1 Pagine pubblicitarie in U&lc dell’azienda Itek per il Graphitek 430 System, 1976.

Com’è noto, per quanto riguarda la composizione di titoli o testi brevi, il controllo sui dettagli era ottenuto in quegli anni principalmente grazie ai fogli di caratteri trasferibili. Letraset – l’azienda londinese che aveva introdotto nel 1961 il nuovo metodo (Lamacraft, 2013) – negli anni settanta continuava a insistere sull’arrivo della “libertà in tipografia”: da un lato, si compiaceva di aver consegnato nelle mani dei più esperti la possibilità di ottenere spaziature strette e di usare le legature, aspetti del gusto grafico di quegli anni fortemente rappresentati proprio dalla rivista U&lc. Dall’altro, nel 1978 lanciava un concorso come “The Liberated Letter” cui era invitato a partecipare chiunque fosse in grado di creare un lettering originale estendendo, condensando, curvando o modificando in altro modo i caratteri (Herb Lubalin era in giuria).

Fig. 2 Pagine pubblicitaria della Letraset in U&lc: “The Freedom of Typography” (1976) e “The Liberated Letter Contest” (1978).

Fig. 2 Pagine pubblicitaria della Letraset in U&lc: “The Freedom of Typography” (1976) e “The Liberated Letter Contest” (1978).

Una casa tradizionale come Mergenthaler Linotype per promuovere una delle prime offerte di “tipografia al computer” puntò proprio sul paragone con i trasferibili e – quasi a rincorrere la democratizzazione dei caratteri tipografici che di fatto Letraset andava realizzando – decretava che anche nella composizione di testi lunghi “tutti possono diventare superstar della tipografia”.

Fig. 3 “1, 2, 3. Everyone can be a Typographic Superstar”, pagina pubblicitaria della Mergen-thaler in U&lc, 1975. Dopo lo slogan il testo proseguiva: “La composizione compute-rizzata di Mergenthaler adesso ti offre il controllo tipografico che i trasferibili pensavi avessero esaurito”.

Fig. 3 “1, 2, 3. Everyone can be a Typographic Superstar”, pagina pubblicitaria della Mergenthaler in U&lc, 1975. Dopo lo slogan il testo proseguiva: “La composizione computerizzata di Mergenthaler adesso ti offre il controllo tipografico che i trasferibili pensavi avessero esaurito”.

Un’alternativa ai fogli di trasferibili erano le macchine titolatrici. Proposte come uno strumento meccanico, progettato però appositamente per “persone creative”, queste potevano risparmiare ai grafici la noiosa e lenta operazione di trasferimento lettera per lettera. Ne esistevano di vari tipi che consentivano di condensare, espandere e allargare, ridurre, concatenare, sovrapporre, comprimere e distorcere i caratteri. In tal modo, si potevano ottenere “più di 2.800 variazioni da una singola ed economica matrice” (“Visual Graphics”, 1975) senza correre il rischio di terminare le lettere.

Fig. 4 Ever Run Out of Let ers Maki g Headli es?, pagina pubblicitaria della Photovision in U&lc, 1975.

Fig. 4 Ever Run Out of Let ers Maki g Headli es?, pagina pubblicitaria della Photovision in U&lc, 1975.

All’inizio le case produttrici contemplavano ancora la possibilità che i clienti utilizzassero le titolatrici presso un servizio esterno per la composizione tipografica, ma ben presto cominciarono a proporne l’installazione in studi o agenzie per un prezzo che, nel 1974, si aggirava fra i 1.200 e i 1.700 dollari (“Photovision”). Gli slogan più comuni allora incitavano a entrare in possesso di una “personale fabbrica di titoli”, sottolineando che “fare le cose da soli significa farle al meglio”. È quanto prometteva Visual Graphics, che qualche anno dopo – per enfatizzare l’agilità e la relativa portabilità del suo Photo Typositor – mostrava un’operatrice al lavoro nel bel mezzo di Madison Avenue, aggiungendo che la macchina si poteva utilizzare anche in spiaggia o dovunque fosse disponibile una presa di corrente.

Fig. 5 Pagine pubblicitarie della Visual Graphics per Photo Typositor: Own Your Own Headline Factory (1975) e Make headlines on Madison Avenue (1978).

Fig. 5 Pagine pubblicitarie della Visual Graphics per Photo Typositor: “Own Your Own Headline Factory” (1975) e “Make headlines on Madison Avenue” (1978).

In quegli anni, anche le aziende produttrici di macchine da composizione tipografica cominciavano a produrre modelli più piccoli e maneggevoli, oltre che relativamente economici e facili da usare. Nel 1976, ancora Mergenthaler invitava a offrire in regalo la sua compatta Linocomp “all’art director che ha già tutto”,[7] consigliando di unire alla confezione, oltre a una dozzina di caratteri ITC, anche un corso rapido di dattilografia. In un altro annuncio su ben quattro pagine (un dialogo/sceneggiatura ambientato all’interno di un’agenzia pubblicitaria), un art director obiettava di non essere portato per le macchine, ma il rappresentante della Linocomp riusciva comunque a convincere abilmente lui e il resto dello staff dei vantaggi di comporre i testi in casa (1976).

In quest’azione persuasiva, era fondamentale insistere sulla facilità d’uso di tali macchine, che aumentava quanto più esse erano in grado di visualizzare la composizione del testo. Come si vedrà più avanti, le prime simulazioni a video soddisfacenti faticarono ad affermarsi. Tuttavia, già nel 1975, Varityper lanciava un suo modello di unità operativa con lo slogan “What you see is what you set”, anticipando di qualche anno il ben più noto WYSIWYG (What You See Is What You Get).[8]

Fig. 6 “What You See is What You Set”, pagina pubblicitaria (particolare) della Varytyper Di-vision per la fotocompositrice Comp/SetTM 500, in U&lc, 1975.

Fig. 6 “What You See is What You Set”, pagina pubblicitaria (particolare) della Varytyper Division per la fotocompositrice Comp/SetTM 500, in U&lc, 1975.

In quegli anni le macchine compositrici cominciarono a essere proposte non soltanto a studi editoriali o ad agenzie di pubblicità, ma anche, in generale, all’ambiente dell’ufficio. Nelle pagine di pubblicità di U&lc si potevano leggere previsioni di questo genere: “in un futuro non troppo distante, possiamo aspettarci che le macchine fotocompositrici saranno tanto comuni negli uffici come lo sono adesso le fotocopiatrici”[9] (“Alphatype”, 1978, p. 45). Grazie ai comandi sempre più intuitivi, a usare tali macchine poteva essere anche una segretaria senza alcuna nozione tipografica e spesso i messaggi pubblicitari si concentrarono proprio su tale figura femminile. Tutti gli sforzi erano diretti a dimostrare che con un addestramento molto breve e un po’ di pratica, una semplice dattilografa poteva trasformarsi “in uno dei più grandi compositori tipografici del mondo”.

Fig. 7 “Joyce Philips doesn't Know her Ascenders from her Descenders”, pagina publicitaria della Alphatype per la fotocompositrice Alphacomp, in U&lc, 1977.

Fig. 7 “Joyce Philips doesn’t Know her Ascenders from her Descenders”, pagina publicitaria della Alphatype per la fotocompositrice Alphacomp, in U&lc, 1977.

Pubblicità simili si susseguirono a lungo in U&lc, segnalando un fenomeno che Aaron Burns sintetizzò efficacemente parlando della nascita del (o della) typographist: una nuova figura in grado di fondere le operazioni di typing (dattilografia) e typesetting (composizione tipografica). L’introduzione dei software di word processing stava accelerando l’avvicinamento tra chi usava i dispositivi di videoscrittura e chi operava alla tastiera della macchina compositrice, offrendo a molti nuovi utenti l’accesso alla gestione della tipografia. I designer tipografici del futuro avrebbero dovuto fare i conti con un esercito di milioni di typographists (Burns, 1977, p. 43).

Fig. 8 “The Comp/Set Set Concept. Like a Type House at Your fingertips”, pagina pubblicitaria (particolare) della Varytyper Division per la fotocompositrice Comp/Set, in U&lc, 1975.

Fig. 8 “The Comp/Set Set Concept. Like a Type House at Your fingertips”, pagina pubblicitaria (particolare) della Varytyper Division per la fotocompositrice Comp/Set, in U&lc, 1975.

Il messaggio lanciato dalle aziende produttrici di macchine fotocompositrici era chiaro: il servizio tipografico poteva essere a portata di mano, anzi “letteralmente a portata di dita” (cfr. anche “Alphatype”, 1977; “Itek. Quadritek”, 1978). Questa direzione non poteva che destare inquietudine presso i servizi esterni di composizione tipografica, che si sentivano minacciati nelle proprie competenze dai cambiamenti in corso. La loro risposta non tardò ad arrivare. Ryder-types di Chicago, per esempio, riproponeva la figura di una segretaria alla tastiera ma questa volta le sue pretese di occuparsi della composizione tipografica si rivelavano catastrofiche: oltre all’occhio per lo stile tipografico, le mancava l’esperienza nel riconoscere gli errori. Così i testi composti internamente erano dovuti tornare in fretta “fuori”, alla Rydertypes, che finalmente aveva eseguito il lavoro come si deve (1978, p. 43). Un’altra strategia per difendersi era quella di offrire piena disponibilità, 24 ore su 24, assicurando anche nel cuore della notte, in pigiama, il servizio.

Fig. 9 “Not All of Tom Gray’s Work is done in a 3-Piece Suite”, pagina pubblicitaria della Ry-dertypes di Chicago in U&lc, 1978.

Fig. 9 “Not All of Tom Gray’s Work is done in a 3-Piece Suite”, pagina pubblicitaria della Rydertypes di Chicago in U&lc, 1978.

Strutture di intermediazione di vario genere rivolte a studi e agenzie continuarono a essere pubblicizzate a lungo nelle pagine di U&lc: non solo servizi di riproduzione e composizione tipografica ma anche piccole imprese che producevano diapositive per presentazioni ai clienti o studi di animazione che si concentravano sull’esecuzione di progetti audiovisivi. Nonostante ciò, è evidente che negli anni settanta fosse già in atto un processo di compressione della filiera produttiva, destinato a spazzare via, nel lungo periodo, molti servizi che operavano fra i designer e le strutture di produzione. Nel 1977, Edward M. Gottschall – già a capo dei Servizi di informazione e marketing dell’ITC – per definire il il cambiamento in corso parlò esplicitamente di “in-house boom” (p. 4), sostenendo che le operazioni di preparazione necessarie alla produzione grafica stavano facendo un viaggio all’indietro, muovendosi sempre più verso gli uffici editoriali, gli studi grafici, le agenzie di pubblicità e, non ultimo, il mondo dell’ufficio.

Le aziende che operavano nel settore grafico e tipografico (e i pubblicitari che lavoravano per loro) avevano già intuito largamente le direzioni verso cui portava questo cambiamento: alla relativa autonomia e libertà creativa che guadagnavano designer e art director, faceva da contraltare l’ampliamento degli utenti che potevano avere accesso alla tipografia e alla produzione grafica. Di questo complesso di fenomeni, intorno alla metà degli anni settanta, U&lc cominciò a occuparsi anche nelle sue pagine editoriali, provando a proiettare lo sguardo verso il futuro.

3. Vision ’77: convergenza, collisione e indifferenza

Il convergere sempre più evidente delle operazioni di digitazione (typing) e composizione tipografica (typesetting) cominciò presto a suscitare perplessità fra chi scriveva in U&lc. La tecnologia all’origine del word processing era la stessa che stava investendo la tipografia: il computer. Ora però la computazione, facendo irruzione nel mondo dell’ufficio, rischiava di consegnare l’antica arte di Gutenberg nelle mani di persone prive di competenze specifiche. La minaccia di uno stravolgimento drastico nel processo di produzione di un testo, che – saltando tutta una serie di passaggi intermedi, rischiava di avere effetti negativi sulla qualità – si associava al timore che impiegati e dattilografe avrebbero operato senza mettere nel lavoro alcuna sensibilità tipografica, per non parlare della componente creativa (Doebler 1975; Burns, 1975). In molti cominciarono a chiedersi allora che ruolo avrebbero avuto tecnici specializzati, tipografi esperti e soprattutto designer e art director, gli unici in grado di trasformare un testo in un’opera di tipografia fondata sul “buon gusto” (Doebler, 1975, p. 3).

Mentre si sottolineava la distinzione fra “ciò che è meccanico e ciò che è artistico nell’uso dei caratteri”,[10] provando a ristabilire la distanza fra ideazione e lavoro esecutivo, si invitavano ancora una volta i grafici a prendersi carico delle nuove tecnologie (Doebler, 1975) e ad aggiornarsi in modo da stabilire “nuovi standard qualitativi e parametri di gusto per le nuove meraviglie del computer”[11] (Burns, 1975, p. 4). U&lc decise subito di dare il suo contributo in tal senso, con il lancio di alcune pagine di informazione tecnica (Craig, 1976) tratte dal libro di James Craig, Production for the graphic designer (1974),[12] ma nella rivista si faceva sempre più strada la convinzione che fosse necessario mettere in campo uno sforzo maggiore. Le preoccupazioni di U&lc sulle conseguenze della tecnologia si legavano fortemente a quelle relative allo scarso riconoscimento del lavoro del graphic designer. Nel 1976 la rivista metteva al centro “il mistero dell’artista grafico” (“The Mystery of the Graphic Artist”), vale a dire il problema di un’attività che svolgeva un ruolo insostituibile nell’economia e nella società, senza che il pubblico se ne accorgesse.[13] Proprio in questo contesto compariva la prima menzione di una conferenza prevista per la primavera del 1977 al Rochester Institute of Technology di New York (Burns, 1976, p. 9). L’evento nel numero successivo (3/3) fu annunciato con il titolo di “Vision ’77: Communication TypoGraphics”, un convegno di tre giorni organizzato e supportato direttamente dall’ITC e finalizzato a far comprendere la rivoluzione tecnologica in corso (1976, p. 33).

“Vision ’77” era in realtà il terzo appuntamento di un simposio internazionale che si era già tenuto nel 1965 e nel 1969. Fra i sostenitori della prima edizione – “Vision ’65”, tenutasi alla Southern Illinois University – c’era stato l’International Center for Typographic Arts, diretto allora da Aaron Burns. In quel grande evento, artisti e designer come Max Bill e Richard Buckminster Fuller[14] avevano affrontato il futuro della comunicazione con una forte carica visionaria. La seconda edizione, “Vision ’69”, fu impostata intorno alla questione “la stampa è morta?”[15] (Schmidt, 1977, p. 36). Otto anni dopo, archiviata la domanda come retorica, “Vision ’77” si concentrò sulla rivoluzione in corso nella grafica e nella tipografia e il tema al centro dell’attenzione fu semplicemente: “Cosa significano per voi le nuove tecnologie?”[16] (“Just what do the new technologies mean to you?”, 1976, p. 33).

La conferenza, tenutasi al RIT di New York dal 16 al 19 maggio 1977, aveva uno scopo principalmente educativo ed era rivolta a un pubblico molto simile a quello di U&lc: “i consumatori finali: chi lavora con i caratteri tipografici”[17] (“Vision ’77”, p. 1). L’ITC e la sua rivista avevano individuato un vuoto di informazione tecnica non solo tra graphic designer, art director o type director, ma anche fra docenti, manager di produzione, promozione e vendita, dirigenti d’ufficio e professionisti del mondo editoriale. Fra i relatori invitati molti tecnici ed esperti del settore, ma anche alcuni designer fra cui Lou Dorfsman, Matthew Carter, Bob Gill, Colin Forbes e lo stesso Herb Lubalin.

Fig. 10 Il logo della conferenza “Vision ’77”, in U&lc (n. 3, settembre 1977).

Fig. 10 Il logo della conferenza “Vision ’77”, in U&lc (n. 3, settembre 1977).

Lo scenario che emergeva dagli interventi della conferenza – pubblicati in versione non integrale da U&lc nell’arco di due numeri (1977, 3 e 4, vol. 4) – era caratterizzato, innanzitutto, da ciò che Paul Doebler definiva come “convergenza e collisione”[18] (1977, p. 2). Da un lato, sotto la spinta della tecnologia elettronica e digitale, aree di intervento come word processing e composizione tipografica tendevano ad avvicinarsi e a fondersi; dall’altro, inevitabilmente entravano in conflitto perché appartenenti a tradizioni tecniche e culturali molto diverse. Grazie a macchine da composizione sempre più leggere e computerizzate, la tipografia, con le sue remote radici nell’officina dei primi stampatori – dopo essersi trasformata in una vera e propria industria – sembrava ormai scivolare velocemente verso “l’ufficio del futuro”, rischiando di disfarsi in un solo colpo di secoli di gloriosa tradizione fondata su processi artigianali e manifatturieri (Doebler, 1977).

Se nel mondo tipografico molti sembravano allarmati di fronte a tale rischio, l’ITC in realtà non aspettava altro che tuffarsi nell’enorme mercato dell’ufficio. Aaron Burns allora, nel suo intervento a “Vision ’77”, sosteneva che – di fronte all’espansione della tipografia ben oltre i confini delle graphic arts – la domanda da porsi era: “Come possiamo educare questo mercato di massa potenziale […] senza mandarli a scuola per imparare l’arte tipografica e i principi che guidano il design?”[19] (1977, p. 45). Egli vedeva la soluzione nella programmazione al computer di formati tipografici predefiniti: diversi tipi di layout disponibili all’interno di un menu. A suo giudizio, questa sorta di template – più che essere utili a velocizzare e automatizzare il processo di produzione di designer esperti – costituivano una grande opportunità di diffusione del “buon design” tra quel gran numero di nuovi utenti inesperti che si affacciava al mondo della tipografia. Sulla stessa linea era l’intervento di Victor E. Spindler, che proponeva modelli elettronici standard per annual report, cataloghi e materiali simili, poi selezionati in autonomia dai clienti e dal personale interno alle aziende (1977).

Un’altra nuova frontiera cui “Vision ’77” dava ampio spazio era quella delle macchine con display grafici interattivi, che promettevano maggiore controllo e facilità di accesso ai designer. Nonostante le diverse tecniche di prefigurazione possibili in studio, in quegli anni, il processo di preparazione dei materiali per la stampa richiedeva un grande sforzo di immaginazione da parte dei designer, che restavano “al buio” fin quando non venivano fuori le prime prove di stampa (Burns, 1976). Le macchine con display grafici consentivano, in una certa misura, di controllare direttamente la formattazione e la composizione del testo e in qualche caso anche l’impaginazione. Esistevano già alcuni sistemi che consentivano di sostituire le operazioni manuali di montaggio su pellicola (page make up) con il posizionamento, direttamente dal video-terminale, di blocchi di testo e illustrazioni. La maggioranza dei dispositivi, tuttavia, si limitava alla composizione del testo, visualizzando a schermo la formattazione (stili tipografici), i rapporti proporzionali, gli spazi di interlinea, le giustezze dei paragrafi e altri dettagli. Nessun sistema, però, permetteva ancora di simulare con precisione a video il carattere tipografico scelto (Seybold Breuer, 1977).

Tali macchine erano concepite ancora in massima parte per operatori specializzati, cui i designer normalmente davano istruzioni da eseguire. Ma nel 1977 era avvertito ormai come imminente l’arrivo di dispositivi più “soft” ed economici, i cui effetti erano visti ancora una volta su due piani: da una parte, “il modo in cui la pagina apparirà nella forma finale a stampa diventerà sempre più una prerogativa del designer piuttosto che del tipografo specializzato o dell’operatore di un terminale”.[20] Dall’altra, “per un nuovo gruppo di persone sarà possibile diventare ‘tipografi’, artisti o designer”,[21] disegnare annunci pubblicitari, e persino riviste e libri (Seybold Breuer, 1977, pp. 52-53). Intanto, l’art director John Peter, nel suo intervento a “Vision ’77”, esprimeva la consapevolezza che ruoli e competenze si rimettevano in discussione non soltanto nella relazione fra progetto e produzione grafica, ma anche ad altri livelli. Affascinato da quanto aveva ascoltato alla conferenza sull’incontro fra word processing e tipografia, egli preconizzava l’avvento di un figura ibrida, a metà fra il designer e l’editor, e sosteneva che il computer avrebbe innescato un processo virtuoso: “la macchina farà uscire finalmente l’artista dal retrobottega dell’editoria per farlo diventare a tutti gli effetti un membro del team editoriale”[22] e partecipare all’organizzazione e alla cura dei contenuti (Peter 1977, p. 54).

Ben diversi erano gli altri contributi portati a “Vision ’77” da designer. Il progettista tipografico Matthew Carter si limitò a dichiarare che non immaginava grandi trasformazioni nella forma e nella qualità dei caratteri ma casomai nel loro numero. Colin Forbes preferì addirittura parlare d’altro (“Graphic design in Europa” il titolo del suo intervento). Lo stesso Lubalin ritenne opportuno – dopo tanto spazio dato all’informazione tecnologica – ristabilire un equilibrio in favore dell’importanza del “tocco creativo” nella professione (1977, p. 62), e decise di chiudere il convegno con una selezione di brevi filmati opera di designer. Nel numero successivo di U&lc, Lubalin decise però di provare ad ascoltare meglio la voce di coloro che forse si erano sentiti meno nell’evento alla Rochester University. Inserì quindi in apertura una sua conversazione con quattro progettisti: Lou Dorfsman, Saul Bass, Bob Farber e Roger Ferriter. A essi domandò in che modo si sentivano influenzati dalle nuove tecnologie e se – riguardando alcuni loro lavori del passato – li avrebbero mai modificati, approfittando delle nuove possibilità tecnologiche (“Your Glazing is New”, 1978). Le risposte ricevute non lasciavano dubbi sul loro scarso interesse verso la questione: nessuno di loro era disposto a riconoscere che nel graphic design era in atto una rivoluzione tecnologica, ribadendo che l’unica cosa davvero importante nel design erano le idee. Bass fu addirittura tranchant nella risposta: “ti potrà sorprendere ma non penso che la questione che sollevi sia davvero di grande importanza”[23] (p. 3).

U&lc dunque non era riuscita a ottenere un riscontro soddisfacente dai designer, che evidentemente si entusiasmavano poco a quella che la rivista continuava a definire una rivoluzione. Nonostante ciò, negli anni successivi, di fronte al ritmo incalzante dei cambiamenti, il quadrimestrale non rinunciò alla sua missione di restare al passo con la tecnologia.

4. Help wanted: visioni per il nuovo decennio

Fig. 11 Prima pagina di U&lc (5/2) 1978. Illustrazione di John Alcorn.

Fig. 11 Prima pagina di U&lc (5/2) 1978. Illustrazione di John Alcorn.

Il numero di giugno 1978 di U&lc si apre con un’illustrazione di John Alcorn: un operatore al computer (significativamente montato sopra un tavolo da disegno), sul cui monitor compare un testo dal titolo “Cercasi aiuto”. L’articolo che si vede nel video è quello pubblicato due pagine più avanti nella rivista, dedicato a “nuove opportunità di carriera per graphic designer e persone creative”.[24] Secondo chi scriveva, infatti, presto dalle case editrici, dalle sedi dei grandi quotidiani e soprattutto dall’“ufficio del futuro”, a causa dell’ingresso di dispositivi computerizzati, sarebbero arrivate pressanti richieste di aiuto e collaborazione, aprendo le porte alla nascita di nuove figure professionali come il “direttore tipografico”, il “manager dell’informazione” o “il direttore delle comunicazioni” (“Help Wanted”, p. 3).

Fig. 12 Simulazione in U&lc di un annuncio di lavoro per il ruolo di “Typo-graphics Director” (5/2) 1978.

Fig. 12 Simulazione in U&lc di un annuncio di lavoro per il ruolo di “Typo-graphics Director” (5/2) 1978.

Dietro i toni ottimistici del testo, si nascondeva in realtà il timore che le nuove sfide poste dalla tecnologia trovassero impreparati i designer, cui si raccomandava di imparare a usare la tastiera e di guadagnare familiarità sia con la fotocomposizione computerizzata sia con i software di word processing. Con l’avvicinarsi del nuovo decennio, la rivista agì sempre più come se la richiesta d’aiuto, più che provenire dall’ufficio del futuro, arrivasse dagli stessi ambienti della grafica e della tipografia. Intensificò, infatti, le sue rubriche dedicate all’aggiornamento tecnologico e alla tipografia computerizzata (Gottschall, 1978; Doebler & Gottschall, 1979). Persino l’apertura dell’ITC Center di New York, nella primavera del 1980, fu annunciata come una risposta alla “nuova era della comunicazione grafica”, in cui a guidare sarebbero stati solo coloro in grado di “combinare nel modo migliore le capacità e la sensibilità del designer con le conoscenze sull’uso delle nuove tecnologie”[25] (“The ITC Center”, pp. 2-3). Infine, a gennaio dello stesso anno, si comunicava ai lettori della rivista l’uscita imminente di un numero speciale dal titolo “Vision ’80s”. Questa volta non si trattava del resoconto di una conferenza, ma di una pubblicazione autonoma: un report di 100.000 parole, risultato di 18 mesi di raccolta di informazioni in tutto il mondo, da quasi 200 aziende attive in diverse aree della grafica (Gottschall, 1980). A curare e a firmare come autore questo impegnativo lavoro di ricognizione fu Edward Gottschall, che di lì a poco, con la morte di Lubalin nel 1981, sarebbe diventato direttore della rivista.[26]

Fin nelle prime pagine di “Vision ’80s”, dominava la percezione di un crescente disorientamento tra gli esponenti del mondo grafico, cui si domandava direttamente: “Siete confusi? Le nuove tecnologie vi fanno sentire bene o male? […] Le avvertite come uno stimolo o come una minaccia?” (Gottschall, 1980, p. 2).[27] Non a caso il riferimento teorico principale da cui partì Gottschall fu il libro di Alvin Toffler Future Shock, che nel 1970 aveva denunciato come una condizione drammatica dell’uomo contemporaneo il disagio dovuto ai continui mutamenti dovuti al progresso tecnologico. Lo slogan scelto per “Vision ’80s” fu allora “adattarsi al cambiamento” (p. 141). Il corposo fascicolo nasceva dalla convinzione che “il rendimento delle persone migliora quando sanno cosa li aspetta”[28] (p. 141) e mirava a coprire il vuoto di informazione e consapevolezza, concentrandosi su due azioni combinate: la cronaca del presente e la previsione del futuro.

Fig. 13 Doppia pagina del numero speciale di U&lc “Vision ’80s”.

Fig. 13 Doppia pagina del numero speciale di U&lc “Vision ’80s”.

Il report era organizzato in 16 sezioni, che seguivano le fasi di origine, produzione e distribuzione del processo di comunicazione grafica, passaggi destinati in modo crescente a essere collegati elettronicamente: dal momento di creazione delle parole e delle immagini fino alla loro ricezione da parte del pubblico. In verità, non sempre i contenuti seguivano rigorosamente tale struttura: le informazioni erano state raccolte sfogliando rapidamente pubblicazioni del settore o visitando le fiere dedicate alla tecnologia grafica, e si presentavano in modo a volte frammentario, altre ripetitivo, spesso riportate direttamente con lunghe citazioni, senza alcuna rielaborazione delle fonti di origine.

Partendo dalla constatazione che – a distanza di soli tre anni – i contributi di “Vision ’77” suonavano ormai sorpassati, le quasi 150 pagine di report provavano comunque a mettere ordine nella mole di informazioni che investivano quotidianamente il settore grafico, con l’obiettivo, da un lato, di tranquillizzare i designer e, dall’altro, di scuotere la loro coscienza: “Il fatto è che davvero non avete scelta. Chiunque si occuperà di grafica negli anni ottanta dovrà stare al passo con la tecnologia in rapido mutamento […]”[29] (p. 3).

Fig. 14 Pagina di “Vision ’80s” (particolare): con un gioco di parole, si tentava di convincere i lettori che qualcosa di potenzialmente terrificante (Terrifying) poteva forse essere visto anche come meraviglioso (Terrific).

Fig. 14 Pagina di “Vision ’80s” (particolare): con un gioco di parole, si tentava di convincere i lettori che qualcosa di potenzialmente terrificante (Terrifying) poteva forse essere visto anche come meraviglioso (Terrific).

Fig. 15 “Vision ’80s” esordiva con una sequenza in ordine alfabetico di 26 pagine (composte ognuna con un diverso carattere ITC), contenenti brevi citazioni di autori classici della letteratura, della filosofia e della scienza.

Fig. 15 “Vision ’80s” esordiva con una sequenza in ordine alfabetico di 26 pagine (composte ognuna con un diverso carattere ITC), contenenti brevi citazioni di autori classici della letteratura, della filosofia e della scienza.

È possibile individuare quattro concetti chiave nella linea di interpretazione di “Vision ’80s”: velocità, libertà creativa, facilità d’uso e multifunzionalità.
“La velocità sta diventando un elemento del talento”[30] – si affermava già nell’introduzione (p. 39). Idee come rapidità, compattezza, brevità, efficienza e ottimizzazione dei costi erano presentate come conseguenze immediate dell’uso del computer non solo nel processo di produzione grafica ma nello stesso lavoro creativo. Si prevedeva che anche grafici e art director avrebbero dovuto sottostare a una logica stringente, dominata dalla richiesta di maggiore produttività. In questo quadro – ancora molto influenzato da una matrice di pensiero modernista[31] – si ricordava che i designer inseguivano da tempo condensazione e immediatezza, e nutrivano un forte interesse per le nozioni di programmazione e automazione. Sorprende poco allora che come strumento operativo e modello concettuale, non si trovasse riferimento migliore della griglia modulare. Ma soprattutto, si immaginava per il designer un ruolo fondato su competenze tecniche e manageriali: “I designer che non si adegueranno o che rifiuteranno questi strumenti del futuro diventeranno ‘designer-artisti’ che lavoreranno da soli, unicamente per la propria soddisfazione personale”[32] (p. 42).

Forse proprio per compensare tale prospettiva quasi tecnocratica, “Vision ’80s” si soffermava ampiamente anche sulla libertà creativa offerta dai nuovi mezzi. La crescente velocità e produttività, secondo Gottschall, avrebbe portato automaticamente anche a maggiore creatività, perché sarebbe stato possibile mettere le idee in forma grafica “alla velocità del pensiero”[33] (p. 101). Illustratori e altri “creatori di immagini”, per esempio, avrebbero presto compreso che i nuovi strumenti del mestiere consentivano di cercare soluzioni che altrimenti non avrebbero mai preso in considerazione. Occorreva usare i dispositivi elettronici con immaginazione per farli diventare “uno stimolo creativo e una fonte di idee”[34] (p. 45). Gottschall e i suoi collaboratori di U&lc si avventurarono persino in una polemica con Seymour Chwast, fra i fondatori dei Push Pin Studios, che qualche anno prima si era pronunciato contro l’uso dei calcolatori, giudicandoli fattori di disumanizzazione e omologazione che avrebbero prodotto soluzioni sempre più uniformi, fino a generare solo a due tipi di progettisti: “uno per fare la roba svizzera e un altro per i lavori tipo corsivo Bookman[35] (p. 45). La risposta, a nome di tutta la rivista, era in netto disaccordo: “Le nuove tecnologie sono solo strumenti; i computer non creano idee né le limitano, ma spesso espandono le possibilità creative per realizzare le idee”[36] (p. 45).

Collegato al concetto di libertà creativa era quello di accessibilità e facilità d’uso. Su questo aspetto, le previsioni contenute nel report erano inevitabilmente viziate da ciò che all’epoca era effettivamente disponibile sul mercato. È significativo che il celebre prototipo del Dynabook sviluppato da Alan Key allo Xerox Parc – anticipazione di tanti dispositivi di oggi portatili, multifunzione e intuitivi da usare – si guadagnasse a stento una colonna di testo nel report (p. 47).[37] Gran parte delle pagine del numero speciale descrivevano macchine piuttosto ingombranti, ma con interfacce sempre più semplici: sistemi professionali dedicati alla grafica, gli unici con i quali si immaginava che in futuro avrebbero avuto a che fare i designer. In particolare, era dato ampio spazio alle piattaforme per creare “videoart” e grafica animata come il Dolphin, con cui nel 1973 si era cimentato il grafico Sam Antupit.[38] Nell’articolo dedicato all’esperimento che si è già citato in apertura, pubblicato originariamente nella rivista dell’AIGA e poi largamente riportato in “Vision ’80s” (pp. 47-50), il sistema era definito “a diretto controllo analogico”[39] (p. 47) perché non prevedeva per l’utente necessità di programmazione e consentiva di creare un’immagine su schermo, posizionarla, spostarla, colorarla e animarla con relativa facilità, aggiungendovi anche il suono. Ciò che si evidenziava era che Antupit – alla sua prima esperienza con il computer – era riuscito a ottenere risultati molto interessanti adottando un metodo semplice, non diverso da quello con cui normalmente risolveva qualsiasi altro problema di design. Il suo esperimento di animazione di una A maiuscola in Helvetica Medium rendeva la tipografia una forma viva, dinamica ed elastica, ma soprattutto dimostrava le potenzialità creative del computer: “Siamo di fronte letteralmente a una macchina elettronica per le idee. Moltiplica le opzioni tra cui un designer può scegliere secondo la sua sensibilità e il suo gusto”[40] (p. 50).

Fig. 16 Immagini pubblicate in “Vision ’80s” dell’esperimento di Sam Antupit con il computer Dolphin.

Fig. 16 Immagini pubblicate in “Vision ’80s” dell’esperimento di Sam Antupit con il computer Dolphin.

L’articolo su Antupit, a firma Ilina Stranberg, era un appello appassionato rivolto ai designer affinché rompessero pregiudizi e diffidenze verso il computer, e “Vision ’80s” lo rilanciava volentieri in un momento in cui si prevedeva una disponibilità sempre maggiore di strumenti economici e facili da usare,[41] anche nel settore specifico della tipografia, a proposito del quale si faceva un breve cenno ai due progetti allora in corso: Ikarus di Peter Karow e Metafont di Donald Knuth[42] (pp. 112-118; cfr. in questo numero l’articolo di Luciano Perondi e l’articolo di Robin Kinross).

L’aspetto forse più importante su cui soffermava l’attenzione di “Vision ’80s” era la progressiva multifunzionalità dei singoli dispositivi, ovvero l’integrazione e fusione di tecnologie, operazioni e fasi di lavorazione diverse. Presto la tecnologia per produrre lastre da stampa non sarebbe stata troppo diversa da quella delle fotocopiatrici da ufficio, mentre uno stesso terminale, oltre a essere collegato a molti database, sarebbe servito per una molteplicità di scopi (p. 143). Venivano descritte macchine in grado di “comporre” insieme ai caratteri tipografici anche immagini (p. 69); sistemi in grado di acquisire, archiviare, modificare e processare elementi grafici, e persino di inviare agli stampatori l’intero impaginato per via elettronica (p. 57). Virtualmente, allo stesso terminale, una sola persona poteva immettere contenuti, editarli, metterli in forma tipografica e anche archiviarli (p. 58). Anche se le sezioni di “Vision ’80s” erano divise in passaggi sequenziali, in un panorama di questo tipo, si era costretti ad ammettere che i confini fra operazioni un tempo nettamente distinte come scrittura, revisione, composizione tipografica, impaginazione, stampa, spedizione delle copie ecc. si erodevano progressivamente. L’era del “one-system-does-it-all” non era ancora giunta, ma era considerata quanto mai imminente: “Tutti i pezzi sono già qui e la sfida tecnologica degli anni ottanta sarà quella di metterli insieme in un unico sistema con un prezzo adatto al mercato di massa”[43] (p. 63).

Queste parole indovinavano molti degli sviluppi seguenti, ma per altri versi, la visione degli anni ottanta costruita da U&lc restava ancorata a schemi e modelli del passato. Il nuovo processo di comunicazione grafica – per quanto potesse apparire veloce, creativo, di facile accesso e sempre più condensato in poche fasi e dispositivi multifunzionali – era immaginato all’interno di un contesto caratterizzato dall’installazione di apparecchiature professionali ingombranti, pensate appositamente per la grafica. Il mondo dei Personal Computer era il grande assente nelle pagine di “Vision ’80s”. Citato sporadicamente solo in relazione all’ufficio, è evidente che non lo si considerava adatto ai professionisti del design e della tipografia.
L’offerta sempre più economica di macchine da ufficio che consentivano di gestire dettagli tipografici come la spaziatura fra le parole, il kerning o l’interlinea – più che lasciar presagire l’avvento di analoghi dispositivi e software adatti allo studio del designer – alimentava il timore della diffusione di stampati di cattiva qualità (p. 101). U&lc provava a contrapporre a queste paure una visione rassicurante: presto manager e dirigenti d’ufficio – proprio grazie alla familiarità guadagnata con la tipografia per mezzo della tecnologia – avrebbero cominciato a comprendere la necessità di ricorrere a un designer, offrendogli una posizione di rilievo nella loro organizzazione. Gottschall giungeva addirittura a preconizzare una sorta di “scalata creativa” dei designer alle posizioni di top management, analoga a quella che avevano effettuato gli art director negli anni sessanta all’interno delle agenzie pubblicitarie (p. 101).

Dunque, nel 1980, si faceva ancora molta fatica a collocare una figura come quella disegnata da John Alcorn – il grafico seduto al computer – nel suo piccolo studio professionale. Piuttosto lo si immaginava integrato in una grande organizzazione, con un ruolo specifico dentro l’“ufficio del futuro” altamente automatizzato (pp. 132-137). Le incertezze e gli interrogativi in ogni caso restavano e in “Vision ‘80s” dominava una percezione piuttosto allarmata della situazione: come avrebbero fatto il grafico e l’art director a conservare il controllo del proprio lavoro? In quale punto del processo, e con quale strategia, sarebbero riusciti a esercitarlo? Cosa ne sarebbe stato della qualità della produzione grafica?

Fig. 17 Una delle ultime pagine di “Vision ’80s” che presenta una serie di interrogativi sul futuro.

Fig. 17 Una delle ultime pagine di “Vision ’80s” che presenta una serie di interrogativi sul futuro.

Un lunga serie di punti interrogativi senza risposta affollavano le ultime pagine del report, che si congedavano dai lettori avvertendoli che i contenuti del numero speciale si stavano “già dissolvendo rapidamente in quanto visione” e trasformandosi in realtà. L’epilogo di “Vision ’80s” adottava una strategia tipica di U&lc: l’ironia.

Fig. 18 Pagine finali di “Vision ’80s” con illustrazioni di Andrzej Dudzinski, che dipingeva uno scenario fantascientifico vagamente retro.

Fig. 18 Pagine finali di “Vision ’80s” con illustrazioni di Andrzej Dudzinski, che dipingeva uno scenario fantascientifico vagamente retro.

Fin dall’esordio, Gottschall aveva messo le mani avanti avvertendo i lettori della transitorietà di ogni informazione tecnologica:[44] se il ritmo impressionante dell’innovazione impediva a una pubblicazione quadrimestrale di tenere il passo, allora il tentativo successivo (“Vision ’90”) forse sarebbe arrivato ai lettori per via elettronica (pp. 35-36 ). Il report si concludeva proprio con la simulazione di una mail elettronica scritta nel 2020 da qualcuno che – incuriosito e divertito dall’idea di futuro di 40 anni prima – provava a condividerlo, non senza segnalare quanto fosse pieno “di dettagli su cose che sono già obsolete”[45] (p. 147).

4. Conclusioni: “l’imminente sta accadendo”

Un bel mattino ti alzi dal letto, ti metti i tuoi jeans, sorseggi un po’ di caffè e ti dirigi verso il tuo studio. Ma quando arrivi, il tuo spazio di lavoro ha subito una completa metamorfosi. È praticamente irriconoscibile. Non ci sono più i tavoli da disegno, così come sono spariti i cartoncini, le squadrette, le matite, i Rapidographs, i colori e i pennelli, gli inchiostri, le penne, l’aerografo, la macchina per le copie fotostatiche, il visore per le diapositive, i lucidi, le cassettiere per l’archiviazione, i taglierini, la colla ecc. ecc. Al loro posto una serie di ingranaggi elettronici – tavolette digitali, penne elettroniche, video terminali con tastiere e monitor a colori. No, non si tratta di uno scenario da incubo o di un film di fantascienza su un futuro lontano. È la previsione di eventi imminenti nel mondo della grafica. Anzi, per dire l’esatta verità, “l’imminente” sta già accadendo (Muller 1982a, p. 22).[46]

L’esordio di questo articolo del 1982 segnala la percezione di una svolta ormai inevitabile: il computer stava per arrivare nello studio dei designer, anzi in alcuni casi era già arrivato. Negli anni ottanta U&lc cominciò a occuparsi costantemente proprio di tali casi. Per lo più si trattava ancora di studi di animazione e broadcasting, oltre che di laboratori presenti all’interno di università, ma in ogni caso l’atteggiamento cambiò: dopo tante informazioni tecniche e tentativi di vedere il futuro, l’accento iniziava a spostarsi sul presente e sui risultati, provando a raccontare concretamente il passaggio “dalle matite ai pixel” (Muller, 1983b). Nel n. 3 del 1982 la rivista dedicava la sua sezione a colori interamente ad una rassegna di esempi che rispondeva alla semplice domanda “quale grafica si può fare con il computer?”[47] (Muller, 1982b). Si faceva strada in questa occasione la consapevolezza che il computer non si sarebbe presentato affatto ai designer come strumento difficile o magico, e che era necessaria anzi un’opera di demistificazione (Muller, 1982b; vedi anche Chaves Cortes, 1982).

Fig. 19 Connecting Dots, prima pagina di U&lc (9/3), 1982. Nelle otto pagine a colori del numero si provava a far passare l’idea che il computer non faceva altro che connettere dei punti: uno strumento come un altro, per quanto potente.

Fig. 19 “Connecting Dots”, prima pagina di U&lc (9/3), 1982. Nelle otto pagine a colori del numero si provava a far passare l’idea che il computer non faceva altro che connettere dei punti: uno strumento come un altro, per quanto potente.

Da questo momento in poi, la posizione della rivista si assestò su un doppio binario: da un lato, si presentavano costantemente casi di computer art, manipolazione digitale dell’immagine e animazione per la TV (Muller, 1983a; Chaves Cortes, 1982); dall’altro, per quanto proseguissero gli aggiornamenti tecnologici con nuove rubriche (“Report from Technopolis”, 1983), si abbandonò quasi del tutto la questione della composizione tipografica e dell’impaginazione al computer. Eppure, nel 1982 U&lc aveva decretato definitivamente l’arrivo dell’era digitale in tipografia: la fotocomposizione, per quanto potesse sembrare ancora nella sua infanzia, aveva ormai i giorni contati (“The Digital Era”, p. 3).

Nel decennio che si è preso in considerazione (1973-1983), non solo una parte dei contenuti editoriali, ma tutta l’identità di U&lc e la sua stessa veste grafica erano strettamente collegati alla rivoluzione tecnologica in corso, che come prima conseguenza aveva la graduale scomparsa del sistema gutenberghiano. Lubalin era convinto che i metodi fotografici e foto-elettronici consentissero di ritornare alla compattezza e flessibilità della scrittura manuale e calligrafica, se non addirittura al ritmo fluido della lingua orale, eliminando “difetti” della composizione a caldo come “troppo spazio fra le lettere, troppo spazio fra le parole, troppo spazio fra le righe”[49] (“Your glazing is new”, 1978, p. 24). Anche Aaron Burns riteneva che la liberazione dalle “manette” del piombo avesse aperto ai designer grandi opportunità creative nella composizione tipografica (1973, p. 3). Nel 1993, Steven Heller ha scritto che i primi numeri della rivista hanno svolto – nel momento di passaggio definitivo dal metallo alla fotocomposizione – un ruolo sperimentale simile a quello che stava ricoprendo allora, negli anni del digitale, Emigre (p. 27).

U&lc, tuttavia, cercò in tutti i modi anche di leggere in anticipo la rivoluzione successiva che si stava preparando: i cambiamenti che avrebbe portato nella grafica e nella tipografia il computer. Nel suo primo decennio di vita, la rivista dell’ITC ha provato a intuire la direzione del cambiamento e le sue reazioni costituiscono una fonte preziosa per comprendere il modo in cui sono state interpretate e vissute le origini dell’era elettronica e digitale in tipografia. Attraverso le sue pagine si comprende che alcuni fenomeni oggi evidenti hanno radici lontane, o comunque sono stati percepiti con largo anticipo negli anni settanta: da una parte, per esempio, il lento spostamento verso lo studio del designer dei mezzi di produzione, che già prometteva maggiore controllo, indipendenza e integrazione con il lavoro editoriale; dall’altra, l’apertura del mondo della grafica e della tipografia, la sua progressiva accessibilità a un pubblico di non professionisti del settore, che già suscitava interesse insieme a reazioni allarmate. Per altri versi, appare chiaro che queste e altre trasformazioni, pur avvertite come fattori di forte discontinuità, venivano spesso lette con categorie concettuali appartenenti al passato, facendo riferimento a un immaginario dominato, per esempio, dalla razionalizzazione del lavoro all’interno di grandi organizzazioni.

Le “visioni” di U&lc assumevano spesso la forma di un appello rivolto a designer e art director perché non si facessero trovare impreparati e si prendessero carico dei cambiamenti tecnologici. Tuttavia, mentre nelle pagine del quadrimestrale si susseguivano aggiornamenti e previsioni, i designer sembravano restare indifferenti a tale sforzo educativo, guardando ancora il computer come uno strumento distante dalla propria quotidianità di lavoro. È significativo che alla fine del 1983 – sottolineando come il design e la tecnologia stessero rapidamente integrandosi[48]U&lc sollecitasse urgentemente un’azione educativa mirata nelle scuole di grafica (“Editorial”), in un momento in cui la questione cominciava a essere al centro dell’attenzione (Poggenphol, 1983). Appariva ormai chiaro che i grafici avrebbero potuto usare anche home computer per il proprio lavoro (Chaves Cortes, 1983; “Report from Technopolis”, 1983a/b) e nella seconda metà degli anni ottanta la rivista cominciò a ospitare le prime pubblicità di software grafici. L’avvento del desktop publishing non mancò di essere segnalato nella rivista, per quanto distrattamente (“Editorial”, 1982), ma la redazione mantenne una posizione diffidente nei confronti dei sistemi non professionali.[50] Di fronte a innovazioni ormai troppo distanti dal mondo tipografico nel quale era nata l’ITC, U&lc fu costretta quantomeno a rallentare la propria rincorsa.


Riferimenti bibliografici

Riferimenti in U&lc

I numeri della rivista sono accompagnati dal n. del volume dopo il segno /, per facilitare la loro ricerca online.

Articoli

Burns, A. (1973). Typography and the New Technologies. 1/1, 1, 3.

Burns, A. (1975). The gigo principle! Garbage in typography? 3/2, 4.

Burns, A. (1976). The Mistery of the Graphic Artist. 1/3, 9.

Burns, A. (1977). The Future of Typography. 3/4, 42-46.

Cafflish, M. (1974). The Interdependence of Technique and Typography. 2/1, 1 e 24.

Carter, M. (1977). How Typesetting Technology Affects Typeface Design. 3/4, 49-51.

Chaves Cortes, C. (1982). Computer Tools for Graphic Artists. 4/9, 45.

Chaves Cortes, C. (1983). Computer Graphics and you: developments of interest to artists and graphic designers. 3/9, 45.

Chaves Cortes, C. (1987). Computer Graphics for Graphic Designers. 3/14, 37.

Craig, J. (1976-). Fy(t)y. For your (Typographic) Information. 4/3, 52-53.

Doebler, P. (1975). Word Processing, Typography, and the Gigo Principle. 3/2, 1, 3 e 42-43.

Doebler, P. (1977). The Word. 4/4, 2-5.

Doebler, P. & Gottschall, E. (1979). Fy(t)y. For your (Typographic) Information. 1/6, 71-72.

“Editorial” (1974). 3/1, 2.

“Editorial” (1982). 4/9, 2.

“Editorial” (1983). 4/10, 3.

Forbes, C. (1977). Graphic Design in Europe. 4/4, 61-62.

Gottschall, E. (1977). Orientation. Perspectives. 3/4, 3-4 e 42.

Gottschall, E. (1978). Fy(t)y. For your (Typographic) Information. 3/5, 62 e 65.

Gottschall, E. (1980) Are you confused? 1/7, 2.

Gottschall, E. (1980). “Vision ’80s” (numero speciale). 2/7, 1-147.

Gottschall, E. (1982). The Computer, the King and the General. 4/9, 22.

Heller, S. (1993). U&lc: A case Study in Art Direction. 1/20, 26-30.

“Help Wanted”. (1978). 2/5, 3.

“Just what do the new technologies mean to you?”. (1976). 3/3, 33-35.

Lubalin, H. (1977). Essential: the Creative Touch. 4/4, 62.

“More to Come from U&lc”. (1973). 1/1, 20.

Muller, M. (1982a). Artists in Wonderland or Graphics by Computer. 2/9, 22-25.

Muller, M. (1982b). Connecting Dots or Graphics by Computer. 3/9, 36-43.

Muller, M. (1983a). Almost Instant Graphics – the Phenomenon of TV News Graphics. 2/10, 12-15.

Muller, M. (1983b). From Pencils to Pixels. Artist Barbara Nessim Explores the New Tool. 4/10, 36-44.

Peter, J. (1977). Viewpoints: The Designer/Editor. 4/4, 53-54.

“Report from Technopolis”. (1983a). 2/10, 28-29.

“Report from Technopolis”. (1983b). 3/10, 22-23.

“Report from Technopolis”. (1983c). 4/10, 24-25.

Rutter Key, J. (1993). Today the Pages of U&lc. 1/20, 9.

Schmidt, K. F. (1977). Typographics. 3/4, 46-47.

Seybold Breuer, P. (1977). Page/Area Makeup. 3/4, 51-53.

Spindler, V. (1977). Programmed Design. 3/4, 53-56.

“The Digital Era”. (1982). 1/9, 3.

“The ITC Center”. (1978). 4/6, 2-3.

“The Mystery of the Graphic Artist: or Why 200.000.000 People Need an Art Education?”. (1976). 1/3, 1 e 7-11.

“Vision ’77: Communication TypoGraphics”. (1977). 3/4, 1.

“Why U&lc?”. (1973). 1/1, 1.

Wood, M. (1993). From Paste Up to Pixel: U&lc Production Evolution. 1/20, 14-15.

“Your Glazing is New & your Plumbings’s Strange, but otherwise I Perceive no Change”. (1978). 1/5, 2 e 24.

Annunci pubblicitari

“Alphatype Corporation”. (1977). 1/4, 46.

“Alphatype Corporation”. (1977). 2/4, 48-49.

“Alphatype Corporation”. (1978). 2/5, 45-46.

“Duostat system”. (1975). 2/2, 42.

“Edstan Studio”. (1975). 2/2, 44.

“Itek Graphitek 470 System”. (1976). 1/3, 48-49.

“Itek – Quadritek”. (1978). 4/5, 59.

“Letraset”. (1976). 2/3, 42.

“Letraset”. (1978). 3/5, 51.

“Merghentaler Linotype”. (1975). 2/3, 36.

“Merghentaler. Linocomp”. (1976). 1/3, 52.

“Merghentaler. Linocomp”. (1976). 2/3, 43-46.

“Photovision”. (1974). 3/1, 41.

“Photovision”. (1976). 1/3, 35.

“Photovision”. (1977). 1/4, 42.

“Rydertypes”. (1978). 2/5, 43.

“Rydertypes”. (1978). 3/5, 52.

“Varityper”. (1975). 1/2, 39.

“Varityper”. (1977). 1/4, 43.

“Visual Graphics Corporation. Duo Stat”. (1975). 2/2, 42.

“Visual Graphics Corporation. Photo Typositor 3000”. (1975). 2/2, 35.

“Visual Graphics Corporation. Pos One 4000”. (1977). 1/4, 45.

“Visual Graphics Corporation. Photo Typositor”. (1978). 3/5, 45.

Generali

Armstrong, H. (2016). Digital Design Theory. Princeton Architectural Press.

Berry, J. (2005). U&lc : Influencing Design & Typography. New York: Mark Batty Publisher.

Craig, J. (1974). Production for the Graphic Designer, Watson-Guptill; New York, Pitman, London.

Dalla Mura, M. (2016). Storia digitale e design
http://www.maddamura.eu/blog/language/it/storia-digitale-e-design-1/

Lamacraft, J. (2013). Rub-down Revolution. Eye, 86
http://www.eyemagazine.com/feature/article/rub-down-revolution

Poggenpohl, S. (1983). Creativity and Technology. STA Design Journal, 14-15. (Ora in Armstrong, H., 2016, pp. 58-61).

Toffler, A. (1970). Future Shock. New York: Random House.


Note    (↵ returns to text)

  1. “Graphic design could become an anachronism if it doesn’t maintain itself with the rest of technology. Just as computers have revolutionized typesetting and musical composition, they seem destined to similarly affect graphic design. Now, while computer technique is still developing, designers must take more initiative in the shaping of this new tool and medium. If they don’t, they might well have to put up with it as it is shaped by others who do not share their expertise in the classic forms of design”.
  2. L’articolo, del 1973, era a firma di Ilina Stranberg e riguardava in particolare il sistema Dolphin con cui si era cimentato Sam Antupit (vedi paragrafo 4).
  3. Monotype Imaging nel 2000 ha acquisito il marchio ITC. I fascicoli sono scaricabili in formato PDF in versione a bassa e alta risoluzione. Il caricamento online è opera di Allan Haley e si è concluso nel 2012. Soltanto due numeri della collezione non risultano disponibili. La disponibilità online di documenti e intere collezioni di riviste è una situazione sempre più frequente per storici e ricercatori, che offre vantaggi indiscutibili (basti pensare al fatto che le scansioni sono realizzate in modo da consentire la ricerca testuale), ma pone anche una serie di interrogativi del tutto nuovi (cfr. Dalla Mura, 2015).
  4. “New technological advances so vast and difficult to comprehend, that they strain the imagination of even the most knowledgeable and creatively gifted among us”; “How to keep up? How to stay in touch with what is current?”.
  5. Burns e Rondthaler (rispettivamente presidente e “chairman of the board” dell’azienda) figurano nei i primi otto anni come direttori della rivista insieme a Lubalin, che ne fu art director fino alla sua scomparsa nel 1981 (cfr. Heller, 1993).
  6. “Endless waiting for pick-ups and deliveries”.
  7. “What do you give the art director who has everything? A Mergenthaler Linocomp”.
  8. Non è chiaro quando ci sia stata la prima applicazione dell’espressione in ambito informatico, ma di certo era una locuzione già diffusa in inglese in vari contesti, fra cui anche quello pubblicitario.
  9. “In the not-too-distant future, you can expect to see phototypesetting machines as common in the office as copiers are today”.
  10. “Vital distinction between what is mechanical and what is artistic in the use of type”.
  11. “Quality standards and taste levels must be established first for the new computer ‘marvels’”.
  12. Il volume è citato di continuo nelle pagine di U&lc come esempio eccellente di divulgazione della tecnica verso i designer. Suoi estratti comparvero in numerosi fascicoli della rivista.
  13. La rivista annunciava che di tali temi – soprattutto sotto il profilo dell’educazione – si sarebbe occupato di lì a poco un convegno promosso dall’Art Directors Club di New York.
  14. L’evento era organizzato da Will Burtin con Lou Dorfsman ed erano presenti anche, fra gli altri, Eugenio Carmi, Wim Crouwel, Edward Hamilton, Franco Grignani, Willem Sandberg, Herbert Spencer.
  15. “Is print dead?”.
  16. “Just what do the new technologies mean to you?”.
  17. “The ultimate consumers who work with type”.
  18. “Conversion and collision”.
  19. “How can we educate this potential mass market of millions of future typographists without sending them all to school to learn about typographic art and design principles?”.
  20. “The final appearance of the page, the form of the output, will become more and more the province of the designer, rather than of the skilled typographer or the operator of an input/editing terminal”.
  21. “New tools will make it possible for a whole new group of people to become ‘typographers’ as well as artists and designers”.
  22. “The machine will free the artist from the back room and make him a full member of the editorial team – a visual managing editor”. Peter, titolare della John Peter Associates, Inc. lavorava come art director presso McCall’s ed era già stato più volte presidente del New York Art Directors Club.
  23. “This may surprise you, but I don’t think the issue you raise is of any great moment”.
  24. “New career opportunities on horizon for graphic designers or creative people with an interest in typography”.
  25. “We in graphic communications are entering a new era. The leaders in the next decade will be those who best combine design skills and sensitivities with a knowledge of how to use the new technologies”. Il Centro, situato vicino alla sede dell’ITC a New York, apriva con una galleria, una sala per seminari e un mini-teatro.
  26. Gottschall assunse la direzione di U&lc formalmente con il n. 3 del 1981. Egli era autore e editor di “Vision ‘80s” con l’assistenza di Juliet Travison dell’ITC. L’art director del numero era Jurek Wajdowicz, designer presso la Lubalin, Burns & Co. Nel colophon si sottolineava che tutti i testi erano stati digitati in ufficio tramite programmi di word processing e salvati in floppy disk prima della composizione tipografica (p. 38).
  27. “Are you confused? Do the new technologies get you up, or down? […] Do you feel challenged or threatened by them?”.
  28. “Performance improves when the individual knows what to expect”. La citazione era tratta direttamente dal volume di Toffler.
  29. “The fact of the matter is, you really have no choice. Anyone involved in graphics in the ’80s will have to keep up with the rapidly changing technology of the ’80s”.
  30. “Speed is becoming an element of talent”.
  31. Si veda, solo a titolo di esempio, il testo di Ladisnav Sutnar Visual Design in Action (in Armstrong, 2016) che cita fra l’altro il volume di W. J. Eckert e Rebecca Jones Faster, Faster: A Simple Description of a Giant Electronic Calculator and the Problems it Solves (McGraw-Hill, 1955).
  32. “Those designers who will not adjust to or who reject these future tools will become ‘fine artist-designers’ who will work alone and for their own satisfaction”.
  33. “As fast as they can think”.
  34. “In addition to speeding production, an electronic device, when used with imagination, can be a creative stimulus and a source of ideas”.
  35. “One to do the Swiss stuff, and one to do the Bookman Cursive jobs”. Le frasi riportate erano state pronunciate da Chwast in occasione della fiera “Graphic Arts in Industry” a San Francisco, nel 1978.
  36. “The new technologies are only tools; computers do not create concepts. They can expand, and need not limit, the creative options for executing concepts”.
  37. Nel report si specificava che il Dynabook era concepito per un pubblico vario di musicisti, architetti, scrittori, medici, avvocati, commercialisti, dirigenti, casalinghe e studenti.
  38. Membro dei Push Pin Studios, assistente di Henry Wolf, art director di Esquire dal 1964 al 1968, ha lavorato anche per Harper’s Bazaar, Show, Vogue, Mademoiselle, House & Garden.
  39. “Direct control analog system”.
  40. “It’s literally an electronic idea machine. It multiplies options for the designer’s taste and judgment”.
  41. Il prezzo dei sistemi di impaginazione, nel 1980, si aggirava dai 60.000 ai 150.000 dollari, ma la previsione era che nel giro di pochi anni sarebbero arrivati fra i 20.000 e 35.000 (p. 71).
  42. Un breve annuncio relativo a un libro di Donald Knuth sui sistemi da lui elaborati (Tex and Metafont. New Directions in Typesetting, TMB, Digital Press) era già comparso nel numero precedente di U&lc (1/7, p. 73).
  43. “All the pieces are already here, and putting them together in one system at a mass-market price is a technical challenge for the ’80s”.
  44. In coda al numero compariva già un’appendice in cui si inserivano gli aggiornamenti dell’ultim’ora. Nei numeri seguenti sarebbero seguite continue integrazioni.
  45. Il giudizio era interamente autoironico da parte di Gottschall: “Vision ’80s” era considerato nel 2020 “a rather unimaginative piece, full of details about things that are already obsolete”.
  46. “One fine morning you roll out of bed, slip into your jeans, slurp some coffee and head for the studio. But when you arrive, your workspace has metamorphosed into something quite unrecognizable. The drawing tables are gone. Likewise the tracing pads, T-squares, pencils, Pentels, paints, brushes, inks, pens, airbrush, photostat machine, slide viewers, lucies, storage files, paper cutters, rubber cement, etc., etc., etc. In their place is an array of electronic gear – digitizing tablets, electronic pens, video display terminals with keyboards and TV color monitors. No, this is not a scenario for a nightmare or a science fiction movie about the distant future. It is a forecast of imminent events in the world of graphic arts. To be perfectly truthful, the ‘imminent’ is already happening”.
  47. “What can you do, graphically, on the computer?”.
  48. “Too much space between letters, too much space between words, too much space between lines”.
  49. “Design and technology are becoming one”.
  50. Maryrose Wood, nel numero uscito nel 1993 in occasione del ventesimo anniversario di U&lc, evidenziava le resistenze del reparto che produceva la rivista all’ITC a passare all’uso di PC e Mac per la tipografia. Solo all’inizio degli anni novanta U&lc si convertì pienamente ai metodi di produzione digitali.

“Design By Numbers”: John Maeda e la computazione applicata al graphic design

Design By Numbers (DBN) è stato un pionieristico esperimento pedagogico svolto da John Maeda nella seconda metà degli anni novanta presso il Media Lab del Massachusetts Institute of Technology. Partendo dal presupposto secondo cui il computer, più che un semplice strumento, fosse da considerare come il principale mezzo di produzione ed elaborazione visuale dell’era contemporanea, il laboratorio ebbe l’intento di familiarizzare i graphic designer con i linguaggi di programmazione informatica intrinsecamente sottostanti al funzionamento dei media digitali. Il contributo ricostruisce l’esperienza dal punto di vista sia storiografico che pedagogico, dapprima contestualizzandola nella vicenda evolutiva del Media Lab, in secondo luogo analizzandone gli apparati didattici veri e propri, e infine esaminando l’impatto culturale di un progetto educativo che, nella sua globalità, ha svolto un ruolo significativo nel favorire l’accessibilità e l’assimilazione delle nuove tecnologie da parte della comunità del graphic design.


1. L’avvento dei media digitali fra opportunità operative e limitazioni cognitive

Studying DBN is a first step to take–not a final step.

A partire dagli anni ottanta del ventesimo secolo, la diffusione dei sistemi digitali ha modificato radicalmente il modo di concepire e praticare il graphic design. Se pensiamo all’impatto che, nei secoli passati, lo sviluppo di determinate tecnologie – come ad esempio la stampa a caratteri mobili e la fotografia – ha avuto sull’evoluzione delle pratiche legate alla progettazione di artefatti visuali, l’introduzione del computer sembra aver generato, nell’arco di pochi decenni, ricadute ancora più significative. Come ha rilevato Lev Manovich in The Language of New Media (2002, p. 43), la cosiddetta “rivoluzione digitale” ha interessato l’ambito della comunicazione visiva in misura maggiore rispetto a qualunque altra innovazione tecnologica del passato, coinvolgendo la disciplina nella sua globalità e ridefinendone ogni forma ed espressione: sia nella messa a punto dei criteri di gestione delle informazioni – semplificando enormemente le operazioni relative alla loro acquisizione, manipolazione, archiviazione e distribuzione – che nella codifica degli approcci progettuali – consentendo un grado di multimedialità precedentemente impensabile nell’integrazione simultanea di testi, immagini, animazioni e spazio.

Questa transizione ha svolto un ruolo determinante anche nella riformulazione delle competenze specifiche del settore: se, in precedenza, l’intervento dei graphic designer era limitato solo ad alcune delle fasi costitutive dei processi di progettazione e produzione, come tappa all’interno di un percorso frammentato in una serie di passaggi specialistici, “le tecnologie orientate al desktop publishing hanno fornito ai singoli operatori l’opportunità di controllare la maggior parte – se non addirittura la totalità – di tali aspetti” (Meggs & Purvis, 2016, p. 571). Pur ampliando i margini disciplinari del settore, tuttavia, il ricorso alla mediazione dei software ha generalmente distolto i progettisti dall’acquisire dimestichezza con le procedure intrinsecamente numeriche sottostanti alla logica funzionale dei media digitali. Gli attuali strumenti di elaborazione grafica convertono pratiche originariamente analogiche attraverso dati, funzioni e variabili, con possibilità di manipolazione e revisione pressoché illimitate, celando tali processi dietro interfacce che, a scapito di un’innegabile immediatezza e intuitività di esecuzione, precludono la reale cognizione di ciò che sta avendo luogo dietro le quinte dello schermo (Lupton & Phillips, 2008).

Alla luce della pervasività con cui le tecnologie digitali hanno contribuito a ridefinire l’attività progettuale, già da diversi anni si è iniziata a evidenziare la necessità di integrare alcuni fondamentali principi di alfabetizzazione informatica all’interno del bagaglio formativo dei graphic designer (McCoy, 2005): una problematica a tutt’oggi di grande interesse e attualità, che alcune esperienze della storia recente, come quella di Design By Numbers (DBN), possono aiutarci ad approfondire e indirizzare. DBN è stato un pionieristico esperimento didattico concepito e condotto dal designer statunitense John Maeda durante la seconda metà degli anni novanta presso il Media Lab del Massachusetts Institute of Technology (MIT). Partendo dal presupposto secondo cui il computer, più che un semplice strumento, fosse da interpretare come il principale mezzo di produzione ed elaborazione visuale dell’era contemporanea, l’intento del laboratorio fu, come vedremo, quello di indurre i graphic designer a prendere maggiore familiarità con i linguaggi di programmazione, assumendo in tal modo consapevolezza della “molteplicità di operazioni e interazioni possibili al di là del repertorio in continua crescita dei formati digitali preconfezionati” (Maeda, 1999, p. 20).

Fig. 1 - Design By Numbers, copertina del volume.

Fig. 1 – Design By Numbers, copertina del volume.

2. Il Media Lab del MIT: nuovi linguaggi per un’estetica della computazione

Per comprendere a fondo la vicenda di Design By Numbers, occorre in primo luogo contestualizzarla all’interno del peculiare scenario pedagogico individuato dal Media Lab del MIT, di cui l’esperienza recupera ed elabora alcune delle istanze fondative. Ideato congiuntamente dall’informatico Nicholas Negroponte e dall’ingegnere Jerome Wiesner, esponenti di spicco nel panorama scientifico internazionale operativi già da tempo nell’ambito del MIT, il Media Lab apre i battenti nel 1985 con l’intento di istituirsi come polo di eccellenza e avanguardia nella ricerca dedicata al rapporto delle nuove tecnologie con l’individuo e la società. Prefigurando come i nuovi sistemi informatici e digitali avrebbero profondamente condizionato ogni aspetto della vita quotidiana, l’attività del Media Lab ha riguardato fin dal principio la messa a fuoco di nuovi orizzonti di confluenza fra “interfaccia umana e intelligenza artificiale” (Negroponte, 1995, p. 224): intendimento programmatico che, nel corso degli anni, è stato declinato assecondando un’attitudine dal carattere fortemente interdisciplinare, centrata sullo sviluppo di progetti situati all’intersezione fra tecnologia, scienza, arte e design.

Sul finire degli anni ottanta, da studente di ingegneria informatica presso il MIT, John Maeda accede al Media Lab frequentando il Visible Language Workshop, laboratorio sperimentale sull’applicazione delle tecnologie digitali al graphic design gestito della carismatica e lungimirante figura di Muriel Cooper, che già dai primi anni del decennio aveva teorizzato come la transizione all’era dell’informazione implicasse necessariamente la ricerca di “nuovi processi di comunicazione, nuovi linguaggi visivi e verbali e nuove dinamiche di conoscenza, apprendimento e produzione” (citato da Reinfurt, 2007, p. 9).[1] Nello stesso periodo, entrando casualmente in possesso di una copia di Thoughts on Design di Paul Rand, Maeda rimane affascinato dalla padronanza linguistica, formale e spaziale sulla quale il graphic designer statunitense incentra il proprio metodo di progettazione.[2] Guidato da questi riferimenti, Maeda inizia a delineare un nuovo paradigma teoretico e applicativo per la disciplina, in cui il ruolo del computer non è semplicemente quello di uno strumento-salva-tempo ma quello, piuttosto, di un medium-arricchito-dal-tempo, in grado di ampliare, se non propriamente ridefinire, i confini tradizionali del graphic design orientato alla stampa (Maeda, 1995).

Nel 1996 Maeda entra a sua volta a far parte del Media Lab come responsabile dell’Aesthetics + Computation Group (ACG), un programma di ricerca volto a sondare le potenzialità espressive determinate dall’interazione fra le infrastrutture digitali e i sistemi di visualizzazione delle informazioni.[3] È qui che ha luogo l’esperienza di DBN, con lo scopo di integrare la pratica del graphic design con “l’arte della programmazione al computer, o della computazione” (Maeda, 1999, p. 14). Anche in questo senso l’esperimento si ricollega a una delle idee portanti in accordo alle quali si è storicamente allineata la missione scientifica del Media Lab, quella di pensiero computazionale: originariamente introdotto dal matematico Seymour Papert, attivo presso il MIT negli anni sessanta e settanta, tale concetto designa la capacità di formulare istruzioni in un linguaggio che possa essere implementato efficacemente da un qualunque elaboratore di dati (sia esso umano o artificiale), ponendosi al centro di una visione profondamente democratica del progresso tecnologico, secondo cui “la gente comune non debba essere esclusa dai nuovi processi di costruzione della cultura, ma rappresentarne parte integrante” (Papert, 1980, p. 4).

Nello specifico, Papert introduce il concetto facendo riferimento a LOGO, il linguaggio di programmazione fortemente orientato alla grafica da lui sviluppato per facilitare ai bambini l’assimilazione di nozioni basilari di logica, geometria e aritmetica.[4] Non è certamente casuale che l’esperienza di DBN richiami quella di LOGO sotto molteplici punti di vista: in entrambi i casi, infatti, il formato didattico ruota interamente attorno a un linguaggio di programmazione concepito per favorire, principalmente attraverso l’elaborazione e la manipolazione di contenuti visuali, la comprensione di principi e procedure di carattere astratto. La differenza sostanziale è rilevabile piuttosto sul piano dei destinatari a cui i due distinti approcci fanno riferimento: nel volume che raccoglie e documenta le regole fondamentali del linguaggio da lui formulato, Maeda esplicita con chiarezza come questo sia specificatamente indirizzato a “graphic designer, artisti e altri operatori [delle discipline] visuali” (1999, p. 14), secondo un modello educativo che attribuisce allo sviluppo del pensiero computazionale un ruolo strumentale per l’insegnamento e l’apprendimento dei principi sottostanti alla progettualità della rappresentazione.

3. Design by Numbers: un’officina di sperimentazione sul design computazionale

Contraddistinto da un’inclinazione dichiaratamente sperimentale, l’approccio didattico alla base di DBN non ha lo scopo di fornire ai propri utenti competenze di programmazione particolarmente avanzate, quanto piuttosto di introdurli alla scoperta del computer quale effettivo medium di ricerca e sperimentazione progettuale. Tale approccio è declinato attraverso tre principali componenti che, se considerate nel loro insieme, danno luogo a un sistema integrato:

– un linguaggio di programmazione, associato all’ambiente operativo che ne consente la scrittura e l’implementazione;

– un manuale che, attraverso esempi e istruzioni dettagliate, guida i lettori nell’apprendimento del suddetto linguaggio;

– un insieme di strumenti e materiali di supporto, utile a riproporre il formato anche in contesti esterni a quello del Media Lab.

La prima componente del sistema coincide con il linguaggio di programmazione stesso, appositamente progettato per principianti e pertanto caratterizzato da un funzionamento intuitivo, una sintassi elementare e un numero di comandi limitato, oltre che dalla possibilità di compilazione in quattro lingue differenti.[5] A differenza di molti altri casi (come, ad esempio, quelli dei più noti BASIC, C, JAVA, LISP o PYTHON), DBN non appartiene alla categoria dei linguaggi di programmazione generici: infatti, nella prospettiva secondo cui “solo acquisendo le capacità necessarie per programmare […] sarà possibile comprendere il ruolo centrale che il computer è destinato a svolgere nel futuro del graphic design” (1999, p. 13), il linguaggio ideato da Maeda si rivolge espressamente agli esponenti della disciplina, contraddistinguendosi per un’immediata facoltà di trasposizione visuale dei dati implementati via codice sotto forma di elaborazioni grafiche statiche e animate. Per essere utilizzato, DBN necessita del proprio specifico ambiente operativo, un software gratuito e multipiattaforma che può essere scaricato e installato sul proprio computer, oppure fruito direttamente sul web tramite l’impiego di un qualunque browser.

La seconda componente è rappresentata da un volume, edito nel 1999 e intitolato a sua volta Design By Numbers, che illustra passo dopo passo un insieme di comandi e procedure attraverso cui è possibile utilizzare DBN per generare e modificare immagini, argomentando al tempo stesso le motivazioni culturali per cui la capacità di programmare dovrebbe entrare a far parte della formazione dei graphic designer contemporanei. Il libro è organizzato in venti capitoli, la cui suddivisione e sequenza riflette il tentativo di Maeda di tradurre i principi basilari della programmazione secondo categorie afferenti a una dimensione essenzialmente visuale: alcune di queste, come il punto, la linea, il tempo e la ripetizione, si rifanno a concetti storicamente consolidati nella tradizione del graphic design; altre invece, come il numero, la variabile, la funzione, l’istruzione condizionale, fanno più esplicitamente riferimento alla messa in atto di procedure di carattere computazionale. Tuttavia, solidale ai cosiddetti “ritardati matematici” (1999, p. 14), il manuale pone enfasi minima sulla cognizione di tale disciplina, introducendo concetti che non vanno generalmente oltre il livello di complessità dell’algebra che si apprende alle scuole superiori.

03_dbn

04_dbn

Fig. 2-5 <i>Design By Numbers</i>, pagine interne del volume.

Fig. 2-5 – Design By Numbers, pagine interne del volume.

La terza componente è costituita da un insieme di apparati di supporto, pensato per facilitare l’adozione del linguaggio anche da parte di educatori esterni al Media Lab interessati a integrare il formato di DBN all’interno della propria attività didattica. La risorsa più significativa consiste in una piattaforma digitale, accessibile gratuitamente online, ottimizzata per consentire ai docenti di pubblicare e valutare agevolmente gli esercizi assegnati, e agli studenti di caricare e aggiornare il proprio lavoro all’interno di un server condiviso con il resto della classe. La stessa piattaforma è inoltre dotata di un sistema di revisione dei contenuti secondo il quale gli elaborati inseriti dagli studenti possono essere valutati dai docenti in modalità sia individuale che collettiva. Direttamente dal sito web dedicato, è inoltre possibile consultare diversi materiali di approfondimento relativi al progetto fra cui, ad esempio, una lista di FAQ inerenti alla gestione dei supporti formativi, una galleria dedicata alla presentazione di immagini e animazioni prodotte con DBN, un glossario dei principali concetti sottostanti alla logica del linguaggio specifico e, con esso, della pratica della programmazione.[6]

06_dbn

Fig. 6-7 - Design By Numbers, apparati didattici.

Fig. 6-7 – Design By Numbers, apparati didattici.

La predisposizione delle tre componenti costitutive del sistema si dipana nel corso di vari anni a partire dal 1996, quando Maeda assume il controllo dell’ACG e inizia a svolgervi una serie di corsi dedicati all’insegnamento dei fondamenti del design computazionale. Caratterizzate da un’impronta spiccatamente laboratoriale, tali esperienze configurano un contesto educativo del tutto particolare, volto ad assecondare i partecipanti nella messa a punto del proprio profilo artistico e professionale favorendoli al tempo stesso nella ricerca individuale e nella reciproca interazione (Maeda, 2002).[7] È in questo clima che, con un approccio corale e partecipativo attuato in stretta collaborazione con i propri studenti, dal 1998 in poi Maeda a inizia a implementare il linguaggio di programmazione e i relativi apparati di supporto: un processo di graduale perfezionamento e semplificazione che, attraverso lo sviluppo e il rilascio di tre differenti versioni di DBN, prosegue fino al 2003, anno in cui lo stesso ACG è interessato da una vera e propria rifondazione, assumendo la denominazione di Physical Language Workshop (PLW) e spostando il baricentro della propria indagine sul tema dei network digitali e dei sistemi di comunicazione da essi determinati.[8]

4. Conclusioni

Se considerata in retrospettiva, l’impostazione alla base di DBN può apparire ormai sorpassata e non priva di ingenuità. Già da alcuni anni, infatti, non è più così inusuale riscontrare cognizioni di programmazione più o meno approfondite da parte dei graphic designer, e, d’altro canto, tale competenza ha iniziato a ricevere una maggiore considerazione dal punto di vista sia formativo che professionale. A sua volta, rispetto agli strumenti di elaborazione grafica oggi a disposizione, il linguaggio di programmazione che risiede al centro dell’approccio concepito da Maeda presenta numerose limitazioni tecniche e funzionali, che riguardano aspetti quali l’impostazione delle dimensioni dell’area di disegno, la scelta dei formati di esportazione, i settaggi di ottimizzazione per la stampa. D’altra parte è necessario tenere presente come, solo fino a pochi anni fa, la capacità di programmare fosse limitata a un numero estremamente esiguo di praticanti: ed è innanzitutto in questo senso che la vicenda di DBN assume rilevanza storica per l’evoluzione del graphic design, anticipando le profonde ricadute che la diffusione delle nuove tecnologie avrebbe determinato negli anni a venire sull’insegnamento e la pratica della disciplina (Bonnett, 2000).

Il valore culturale dell’esperimento si è espresso anche attraverso una serie di ricadute dirette, sia a breve che a lungo termine. Oltre a costituire una tappa fondamentale nella definizione del pensiero progettuale di Maeda – che avrebbe trovato riscontro e sviluppo nelle teorie successivamente espresse fra le righe di pietre miliari come Maeda@Media, Creative Code e The Laws of Simplicity –, il progetto riscosse fin da subito un notevole consenso da parte della comunità del graphic design, confermata dall’attribuzione di diverse onorificenze e menzioni, l’adozione in varie istituzioni attive nel panorama internazionale,[9] e, non da ultimo, l’apprezzamento di Paul Rand in persona (Maeda, 1995). Un altro, importante esito dell’esperienza è rappresentato da Processing, il noto linguaggio di programmazione sviluppato a partire dal 2001 da due studenti dell’Aesthetics + Computation Group, Ben Fry e Casey Reas: orientato a favorire una maggiore alfabetizzazione digitale nel campo delle discipline visuali e, allo stesso tempo, una maggiore alfabetizzazione visuale nel campo delle discipline scientifiche e tecnologiche (Fry & Reas, 2007), Processing rappresenta un diretto discendente di DBN, utilizzato oggi da migliaia di studenti, docenti, professionisti e ricercatori.

Da un punto di vista più strettamente pedagogico è rilevante come, individuando nella programmazione un canale privilegiato di sperimentazione e ricerca progettuale, Maeda abbia saputo mettere a punto un approccio caratterizzato da un livello di accessibilità tali da risultare effettivamente in grado di “assecondare gli aspiranti graphic designer nel prendere distanza dagli standard sempre più affermativi imposti dall’impiego dei software commerciali” (Carpo, 2012, p. 187). Un ulteriore aspetto che vale la pena sottolineare fa riferimento alla considerazione della matematica come componente fondativa del graphic design: a partire dai primi anni del nuovo millennio, tale disciplina ha trovato sempre maggiore applicazione nel contesto della progettualità contemporanea, come è possibile riscontrare negli approcci di natura algoritmica e parametrica che oggi comunemente osserviamo. Oltre ad aver prefigurato tali tendenze, va indubbiamente riconosciuta a Maeda l’intuizione secondo cui non sia possibile padroneggiare opportunamente gli strumenti digitali senza un’effettiva cognizione dei principi computazionali intrinseci al loro stesso funzionamento (Özcan & Akarun, 2001).

E appare in tal senso significativo come, proprio a partire dalla messa a fuoco di un insieme di primitive di derivazione matematica e geometrica, Maeda abbia centrato il proprio metodo didattico sulla composizione di un vocabolario di principi basilari strumentali alla pratica di uno specifico saper fare progettuale. In questa prospettiva, l’operazione di DBN si riallaccia a una tradizione che, dal Bauhaus in poi, ha animato l’esperienza delle più importanti scuole di design del Novecento, seppure in questo caso non sia in gioco lo sviluppo di competenze motorie e manuali, quanto piuttosto quello di cognizioni matematiche e informatiche. Intento, questo, cui Maeda si rivolge con un’attitudine sperimentale e induttiva dal sapore “paradossalmente artigianale” (Antonelli, 1999, p. 11), elaborando un approccio in grado di incorporare e riflettere, nei suoi vari aspetti, il carattere specifico dei media in esso coinvolti: un approccio che, ruotando letteralmente intorno alla codifica di un nuovo linguaggio, asseconda quel delicato equilibrio fra arte, scienza e tecnologia che, nella teoria educativa di Moholy-Nagy (1947), individua una condizione fondamentale per la messa in atto di una corretta visione della progettualità.


Riferimenti bibliografici

Antonelli, P. (1999). Foreword. In J. Maeda, Design By Numbers (pp. 9-11). Cambridge, MA: MIT Press.

Bonnet, J. (2000). Design By Numbers (John Maeda). Journal of the Association of History and Computing, 3(1). Disponibile presso: http://hdl.handle.net/2027/spo.3310410.0003.118 [10 settembre 2016].

Carpo, M. (2012). The Digital Turn in Architecture 1992-2012. Hoboken, NJ: John Wiley & Sons.

Fry, B. & Reas. C. (2007) Processing: a programming handbook for visual designers and artists. Cambridge, MA: MIT Press.

Lupton, E., & Phillips, J. C. (2008). Graphic Design: The New Basics. New York, NY: Princeton Architectural Press.

Maeda, J. (1995). Time Graphics. MDN Magazine, 26. Disponibile presso: http://www.maedastudio.com/1995/mdn1/index.php [10 settembre 2016].

Maeda, J. (1999). Design By Numbers. Cambridge, MA: MIT Press.

Maeda, J. (2002). Design education in the post-digital age. Design Management Journal (Former Series), 13, 3, 39–45.

Manovic, L. (2002). The Language of New Media. Cambridge, MA: MIT Press.

McCoy, C. (2005). Education in an Adolescent Profession. In S. Heller, The education of a graphic designer. New York: Allworth Press.

Meggs, P. B., & Purvis, A. W. (2016). Meggs’ History of Graphic Design. Hoboken, NJ: John Wiley & Sons.

Moholy-Nagy, L. (1947). Vision in motion. Chicago, IL: Paul Theobald.

Negroponte, N. (1995). Being Digital. London: Hodder & Stoughton.

Özcan, O., & Akarun, L. (2001). Mathematics and Design Education. Design Issues, 17(3), 26-34.

Papert, S. (1980). Mindstorms. Children, Computers, and Powerful Ideas. New York, NY: Basic Books, Inc.

Reinfurt, D. (2007). This stands as a sketch for the future. Muriel Cooper and the Visible Language Workshop. New York, NY: Dexter Sinister.


Note    (↵ returns to text)

  1. Per maggiori approfondimenti sulla figura di Muriel Cooper e sulla vicenda del VLW si rimanda alle informazioni presenti nella seguente pagina web: http://museum.mit.edu/150/115 (ultimo accesso per tutte le pagine online consultate 10 settembre 2016).
  2. In merito al fortuito “incontro” di John Maeda con la filosofia progettuale di Paul Rand si rimanda alla seguente intervista: http://acg.media.mit.edu/events/rand/ideamag.html
  3. Per maggiori approfondimenti sulla vicenda dell’ACG si rimanda si rimanda alle informazioni presenti nella seguente pagina web: http://acg.media.mit.edu/.
  4. Per maggiori approfondimenti sulla figura di Seymour Papert e sull’esperienza di LOGO si rimanda alla seguente pagina web: http://el.media.mit.edu/logo-foundation/.
  5. Nello specifico, inglese, francese, spagnolo e giapponese.
  6. Seppur con alcune limitazioni dettate dall’obsolescenza dei formati nativi originariamente impiegati nell’esperimento, la maggior parte delle risorse citate all’interno del paragrafo è ancora consultabile e disponibile per il download presso il sito web ufficiale di DBN: http://dbn.media.mit.edu/.
  7. Gli studenti partecipanti all’ACG fra il 1996 e il 2003 furono: Chloe Chao, Peter Cho, Elise Co, Rich DeVaul, Ben Fry, Megan Galbraith, Simon Greenwold, Matt Grenby, Nanako Ishido, Bill Keays, Omar Khan, Axel Kilian, Reed Kram, Golan Levin, Justin Manor, Elizabeth Marzloff, Patrick Menard, Max Planck, Allen Rabinovich, Afsheen Rais-Rohani, Casey Reas, Jared Schiffman, James Seo, David Small, Phillip Tiongson, Connie van Rheenen, Tom White, Sagara Wickramasekara.
  8. Per maggiori approfondimenti sulla vicenda del PLW si rimanda si rimanda alle informazioni presenti nella seguente pagina web: http://plw.media.mit.edu/.
  9. Il formato di DBN fu adottato presso le seguenti istituzioni: AIGA (USA), Designskolen Kolding (Danimarca), Fabrica (Italia), Icograda (Corea), Musashino Art University (Giappone) e Parsons School of Design (USA).