Ricerca, sostenibilità e innovazione a cura di Filippo Angelucci

torna su

Morfogenesi computazionale e manifattura digitale nell’architettura temporanea per la musica1
Sergio Pone, Bianca Parenti
PDF

Abstract
La ricerca tratta dell’”Architettura per la musica da camera negli spazi aperti” e si riferisce al paradigma del “progetto complesso per la costruzione semplice”: si utilizzano strumenti informatici realizzati ad hoc con i metodi della morfogenesi computazionale per arrivare a un progetto di scena acustica che massimizzi le prestazioni acustiche e che sia anche costruibile usando elementi prodotti con la digital manufacturing. La fase sperimentale avviene attraverso la realizzazione di un prototipo ogni anno (dal 2012 a oggi) fatta nel quadro di un workshop didattico dedicato agli studenti di architettura in cui la scena è costruita (con operazioni molto semplificate), sottoposta a prove strumentali e infine testata attraverso un programma di concerti tenuti da artisti di fama internazionale.

Parole chiave:
PE6-12          Morfogenesi computazionale; software parametrici
PE8-10          Tecnologia di produzione e ingegnerizzazione dei processi
PE8-12          Progettazione sostenibile
PE8-13          Costruzioni leggere
                       Acustica

 

Il quadro di riferimento
Dal 1982 (anno di uscita della prima versione di Autocad) a oggi il mondo della produzione dell’architettura ha completato il suo passaggio dalle attrezzature analogiche agli strumenti digitali.
«I primi mainframe commerciali sostituirono alcune funzioni di bilancio e statistica nelle grandi aziende e nelle istituzioni governative; i primi PC IBM sostituirono alcune funzioni di segreteria. Nessuno di questi cambiò il mondo» (Anderson, 2013). Analogamente l’introduzione dei software per ufficio, di quelli per la computazione e i programmi di CAD non hanno rivoluzionato l’Architettura: hanno solo reso più veloce e più comoda la procedura per la redazione di un progetto.
È solo da pochi anni che alcune architetture mostrano una dipendenza diretta dalla strumentazione digitale che le ha generate: la loro forma e, in alcuni casi, la loro struttura non sarebbero pensabili e gestibili con metodi analogici. Il nuovo paradigma si riferisce all’ambiguo termine di progettazione parametrica. L’ambiguità risiede nel fatto che a questa parola si associano due pratiche differenti che discendono da storie e atteggiamenti culturali diversi. La prima, sia per anzianità che per livello di diffusione, è quella che si riferisce alla parametrizzazione di una ricca libreria di elementi architettonici del progetto che quindi si compone di parti variabili in qualsiasi momento e la cui variazione prevede, in automatico, l’aggiornamento delle parti vicine e dei dati dimensionali, materiali, etc. a esse associati. La seconda applica lo stesso tipo di variabilità alla forma delle parti, e, di conseguenza, alla geometria globale del sistema. La prima famiglia di software nasce per gestire i progetti “ordinari”, per organizzare in modo sempre più efficiente il prodotto “tipico” di uno studio professionale affiancato dai suoi consulenti specialistici. La seconda serve per gestire i progetti la cui forma non rientra tra quelle abituali, in cui è necessario applicare una procedura specifica per individuare la soluzione ottimale; progetti che, spesso, per la loro originalità assurgono agli onori della pubblicistica specializzata. Questa ottimizzazione rientra in una ulteriore categoria di tool informatici, che “aggiungono”, ai software parametrici del secondo tipo, la possibilità di generare soluzioni diverse, modificando i parametri di variazione assegnati, e di scegliere tra queste quella che risponde meglio a una o più prestazioni individuate. La pratica che ne deriva viene comunemente chiamata “morfogenesi computazionale”.
La caratteristica fondamentale della progettazione parametrica e della morfogenesi computazionale è quella che il tipo di istruzioni da impartire al computer non sono più finalizzate a ottenere un risultato unico bensì famiglie di risultati tra loro confrontabili. Questo richiede un atteggiamento progettuale di natura più complessa che trasforma, almeno in parte, l’”operatore” in un “programmatore”. La differenza è che l’operatore chiede al computer di effettuare un’operazione per la quale è stato programmato da qualcuno prima di lui, mentre il programmatore ha la possibilità di chiedere al computer di eseguire gruppi di operazioni a seconda di input variabili che producono soluzioni diverse. Il primo impartisce un comando e ottiene una soluzione, il secondo imposta un algoritmo all’interno del quale la soluzione deve trovarsi. L’operatore usa strumenti digitali ancora guidati da un pensiero analogico, il programmatore usa strumenti digitali e li guida con il pensiero computazionale. «Computational thinking – sostiene Jeannette Wing docente di informatica, considerata la madre del pensiero computazionale – is the thought processes involved in formulating a problem and expressing its solution(s) in such a way that a computer – human or machine – can effectively carry out» (Wing, 2014). Fino alla diffusione della progettazione parametrica la formulazione del problema e la sua soluzione avvenivano tutte nel cervello del progettista che poi “disegna” il risultato con il computer. Con i nuovi strumenti la posizione dei problemi continua ad avere una matrice completamente umana, mentre la loro soluzione passa in parte al computer. Questo consente di porre problemi più complessi (non più difficili) che la mente dell’uomo non è in grado di risolvere per l’immensa quantità di calcoli richiesta. Per esempio consente di attivare i processi di ottimizzazione descritti sopra: da questi discendono alcune architetture che non somigliano a nulla di tutto quello che è stato costruito prima. Insomma, una piccola rivoluzione che cambia in misura notevole il modo di pensare al progetto e inizia a cambiare anche le architetture che ne discendono.
Se nel campo del progetto di architettura è in atto una piccola rivoluzione per dare all’era digitale la “sua propria architettura”, un’altra rivoluzione, ben più estesa, mette in discussione le basi stesse dell’economia mondiale. Jeremy Rifkin sostiene che «un nuovo sistema economico - il Commons collaborativo - sta facendo il suo ingresso sulla scena mondiale. È la prima affermazione di un nuovo paradigma economico da quando vennero alla ribalta il capitalismo e il socialismo» (Rifkin, 2014). I Commons di Rifkin, per altri la sharing economy, sostituiscono alla segretazione delle informazioni, che nell’era dell’industria porta all’inevitabilità del brevetto, la condivisione di idee e progetti tipica della Grande Rete.
E in modo ancora molto embrionale i nuovi artigiani, che qualcuno già chiama “artigiani 2.0”, rosicchiano piccole quote di mercato ai colossi industriali. Internet consente a piccoli produttori di raggiungere il pubblico senza i grandi investimenti pubblicitari richiesti in passato per televisione e stampa, e la loro offerta è spesso resa più appetibile dalla vicinanza tra luogo di produzione e luogo del consumo, riferendosi all’ormai popolare concetto del “chilometro zero”. Queste piccole realtà economiche sono un gruppo variegato ed eterogeneo che va dal piccolo produttore di birra artigiana, che inizia per gioco scaricando dalla rete le informazioni (che qualcun altro ha condiviso) per fare una distilleria domestica in garage, alle produzioni dell’agro-alimentare di nicchia miracolosamente sopravvissute all’impatto dell’industrializzazione/globalizzazione e oggi “adottate” da portali e siti che fanno della difesa dell’artigianato di qualità una loro bandiera comunicativa. Ma includono anche quelli che Chris Anderson, a lungo direttore della rivista Wired, chiama “Maker”, termine che in italiano si traduce con “artigiani digitali”. La modalità si chiama «digital manufacturing, ovvero – spiega Stefano Micelli – la possibilità di saldare in modo crescente le attività di progettazione al computer con quelle di produzione» (Micelli, 2016). Saldatura che avviene attraverso «la diffusione di nuovi strumenti per la produzione digitale (le stampanti 3D, le tecnologie per il taglio laser o le nuove macchine a controllo numerico) oggi disponibili a costi sempre più contenuti. Questa nuova generazione di tecnologie per la manifattura digitale contribuisce a una “democratizzazione” dei processi produttivi, i cui principali beneficiari sono gli artigiani in grado di far evolvere il proprio saper fare e il proprio modo di stare sul mercato» (Micelli, 2016): appunto gli “artigiani digitali”.
All’interno di questo fenomeno, come spesso accade, l’architettura e l’edilizia entrano con un po’ di ritardo. Sono recenti alcune esperienze in cui la notevole complessità della costruzione impone la necessità di ricorrere alla digital manufacturing; e sono recentissimi i casi in cui questa produzione di elementi costruttivi ha rinunziato al potente (ma costoso) supporto dell’industria per utilizzare quello degli artigiani evoluti oppure per usare i FabLab2 o, ancora per essere autogestita dalla comunità dei futuri utenti della costruzione. Il caso esemplare di quest’ultima variante è WikiHouse, il progetto/programma creato da Alastair Parvin che così lo descrive: «Non occorre nessuna competenza di costruzione tradizionale (fig. 1). (…) È lo stesso modo in cui si sono costruiti edifici per secoli prima della Rivoluzione Industriale nelle comunità contadine in cui tutti collaboravano alla costruzione dei granai. (…) Tutti i contenuti di WikiHouse sono pubblicati con licenza Creative Commons, e adesso cominciamo a vedere in tutto il mondo gruppi che li scaricano, li usano, li modificano, li aggiustano, ed è incredibile. Siamo consapevoli che WikiHouse è una risposta molto modesta, ma è una risposta modesta a una questione molto importante, ovvero che oggi nel mondo le città che crescono più velocemente non sono città fatte di grattacieli. Sono città che in un modo o nell’altro sono costruite dai loro abitanti» (Parvin, 2013). Ancora lo sharing, quindi, questa volta applicato a un procedimento che usa una CNC, fresa capace di tagliare pannelli di multistrato o di OSB con tagli ortogonali alla faccia del pannello, per produrre pezzi bidimensionali che aggregati tra loro, con spine, cunei e tinot, formano strutture di dimensioni maggiori e quindi anche una piccola unità abitativa. Una casa progettata grazie alla collaborazione di una collettività globale, i cui pezzi sono prodotti in locale con tecnologie accessibili e relativamente economiche ed è assemblata in cantiere tramite operazioni talmente semplificate da essere compatibili con l’autocostruzione (fig. 2).

Definizione e sviluppo della ricerca
Da alcuni anni un gruppo interdisciplinare di studiosi3 facente capo al Diarc (Dipartimento di Architettura dell’Università di Napoli Federico II) si occupa di un tema di ricerca molto di nicchia ma “naturalmente” compatibile con le due grandi tematiche presentate in precedenza: le architetture temporanee per gli spettacoli di musica da camera negli spazi aperti. Il gruppo si forma intorno all’attività della Summer School di Villa Pennisi in Musica che ogni agosto si tiene nell’omonima villa di Acireale (Ct) e che propone un Workshop per la costruzione appunto di una scena per l’amplificazione acustica negli spazi aperti e contemporaneamente le Masterclass dei principali strumenti della musica da camera tenute da musicisti di fama mondiale. Per sette giorni gli allievi architetti lavorano a costruire la scena e gli allievi musicisti, insieme ai loro maestri, lavorano per “costruire” le esibizioni che si terranno poi dall’ottavo al tredicesimo giorno. Il piano formativo della sezione Architettura (ArchLab) condivide da sempre il programma di WikiHouse e si fonda su una progettazione molto accurata, che fa uso di metodi anche molto sofisticati per ottenere una fase costruttiva estremamente semplificata tale da consentire l’autocostruzione: lo slogan è high-tech-design e low-tech-construction (fig. 3).
Dal 2012 le varie versioni della scena acustica ReS (REsonant String shell), sono state costruite a Villa Pennisi ma progettate nel corso dell’anno precedente per ottenere risultati sempre migliori. In effetti il progetto discende da una vera e propria ricerca che ogni anno si arricchisce di nuovi elementi elaborati dalla Research Unit o ispirati dalla scarna letteratura in materia e implementa (anche attraverso notevoli modificazioni) la forma e il sistema costruttivo della scena. I quindici giorni sono la fase sperimentale della ricerca in cui nei primi giorni si prepara l’esperimento e nei secondi si fanno i due tipi di verifiche che la disciplina acustica consente: quella strumentale e quella percettiva, utilizzando la contemporanea presenza di esperti dell’ascolto (i musicisti). ReS è pensata come una vera e propria macchina scenica per la musica ed è realizzata con materiali economici e tecniche elementari; è reversibile e per sua natura sostenibile (fig. 4).
Il concept iniziale prende spunto dallo studio della forma dei vecchi grammofoni; come questi ReS proietta e orienta il suono verso la platea ed è costituita da due sistemi integrati: una struttura portante realizzata con portali reticolari in legno di abete e un insieme di pannelli che, con i loro 20 kg/m2, hanno la capacità di riflettere il suono e quindi di indirizzarlo verso la platea. La parte acustica della shell è composta da quattro dispositivi base aggiunti di volta in volta nelle varie versioni che si sono succedute: la Main Shell responsabile dell’acustica di base, i pannelli regolabili a sbalzo verso la platea chiamati Cilias per migliorare l’ascolto delle ultime file, il Diffusive Bottom realizzato per migliorare il benessere degli esecutori, e l’Array, filtro dedicato alle alte frequenze e composto da una serie di piccoli pannelli sospesi sulla testa dei musicisti (fig. 5).
Nelle prime due versioni di ReS l’azione di ricerca è stata compiuta ipotizzando la soluzione da sperimentare a partire dalle conoscenze e dall’esperienza degli studiosi del settore e testandola con adeguati software di verifica acustica presenti sul mercato che ne hanno consentito anche alcuni piccoli miglioramenti già in fase di progetto. La scena ipotizzata e poi realizzata durante la Summer School veniva poi testata con un dodecaedro, sorgente omnidirezionale appositamente creata per questo tipo di prove, e con la procedura dell’Impulse response capace di registrare (con particolari microfoni e con un software ad hoc) le condizioni di ascolto in vari punti della platea per tutte le frequenze udibili dall’orecchio umano (fig. 6).
I rilevamenti effettuati, utilizzando appositi questionari compilati dai musicisti e da altri esperti presenti durante le esecuzioni, hanno dato risultati soddisfacenti e hanno confermato le caratteristiche evidenziate con i rilievi strumentali (Pone, Di Rosario, 2013).
Con Villa Pennisi in Musica 2014 il gruppo di ricerca inizia a utilizzare la morfogenesi computazionale, limitatamente alla definizione delle prestazioni dell’array sospeso sulla testa dei musicisti e fa uso delle regole dell’acustica geometrica – in particolare del metodo del ray-tracing – per prefigurare l’incremento di pressione sonora generato dalle riflessioni che i pannelli proiettano verso gli ascoltatori e che si somma al suono diretto rendendolo più forte ma anche più ricco e piacevole (fig. 7). Questo dispositivo può essere “sensibile” al variare delle formazioni che si esibiscono nella scena.
La procedura di ottimizzazione impostata presenta come fitness (funzione/obiettivo) la minimizzazione della somma delle aree prive di riflessioni e della somma delle aree in cui se ne sovrappongono due (o più) provenienti da pannelli diversi e utilizza come genoma (variabili) l’orientamento delle varie file di pannellini e la loro distanza dal suolo. Il tool che gira in Grasshoppertm, plug-in di Rhinocerostm, genera diverse soluzioni facendo ruotare i pannelli: ne calcola le prestazioni e, con l’add-on Galapagos, le confronta e seleziona la forma che offre la migliore risposta4. La buona copertura della platea raggiunta dalle diverse configurazioni dell’array (che ogni sera viene settato in funzione della formazione chiamata a esibirsi) consente di percepire con leggerissimo anticipo le frequenze alte e crea quindi un migliore equilibrio (balance) del suono di insieme (nelle edizioni precedenti a quella del 2014 si era sempre registrata una leggera prevalenza delle frequenze medio-basse che aveva in parte “coperto” le frequenze alte rendendone meno chiaro l’ascolto).
Con l’edizione del 2015, che produce ReS 4.1, il gruppo di ricerca riporta tutto l’esperimento pienamente all’interno delle logiche descritte nella prima parte di questo articolo: il progetto della versione da realizzare nell’edizione di VPM 2015 è stato costruito con un software non commerciale elaborato ad hoc nel quadro di una tesi di laurea discussa nella Facoltà di Architettura di Napoli5 (con la quale è stato costruito il prototipo 4.0 che anticipa molte delle soluzioni adottate nella versione successiva). Questo programma invece di usare la metodologia del ray-tracing usa quella dell’image source che considera il percorso dei “raggi” sonori dall’orecchio dello spettatore (receiver point) allo strumento che li emette (sound source), o direttamente o attraverso prime e seconde riflessioni avvenute sui pannelli della shell acustica. Questa procedura, solo apparentemente anomala, consente di considerare esclusivamente i raggi “efficaci” scartando tutti quelli che non raggiungono nessun obiettivo. La notevole riduzione del numero dei raggi da considerare consente di far entrare nel gioco dell’ottimizzazione tutti gli elementi attivi della scena: la main shell, le cilias e l’array.
Per realizzare il nuovo software non commerciale, che gira sempre sotto l’accoppiata Rhinoceros-Grasshopper, è stato necessario scrivere alcuni comandi in Pythontm con l’obiettivo di contenere ulteriormente i tempi per la generazione di ogni soluzione. Il genoma di questo procedimento di morfogenesi computazionale fa variare il rapporto tra gli assi dell’ellisse circoscritto ai portali poligonali da cui è composta la struttura, il numero di segmenti che formano il poligono, la distanza tra i portali e il loro numero. La fitness è semplicemente la massimizzazione della sommatoria di tutti i valori di SPL (Sound Pressure Level) letti in corrispondenza di tutti i receiver points considerati, con la totale esclusione di quelli che non arrivano a un risultato minimo stabilito (Pignatelli, Di Rosario, Colabella, Pone, 2015).
L’applicazione del procedimento di ottimizzazione propone una geometria che consente di ottenere un decadimento molto contenuto della SPL anche a una considerevole distanza dal palco e permette quindi di coprire una platea di 550/600 spettatori contro il massimo di 250 ottenuti con le precedenti soluzioni ancora in parte analogiche. Cambia in modo sostanziale anche la struttura portante della shell, che si trasforma da struttura reticolare a una formata da elementi “a cassone”. Questi sono composti con masselli nella parte superiore e inferiore e pannelli di multistrato sagomati ad hoc sui fianchi. Le membrature strutturali sono solo tre: un grande arco, situato in corrispondenza del boccascena, e due “costole” a semi-arco appoggiate a terra da un lato e contro l’arco principale dall’altro, che in pianta formano una “V” (fig. 8). A questa struttura sono agganciati i pannelli riflettenti attraverso cime nautiche pre-tensionate che, in fase di cantiere, assumono la funzione di un paranco tradizionale a sei carrucole. Questo antico dispositivo (già perfettamente descritto da Vitruvio) consente di sollevare agevolmente i pannelli riflettenti e di tenerli in posizione durante il tempo di esercizio della scena.
Sia i pannelli che costituiscono i fianchi degli elementi strutturali che quelli riflettenti sono sagomati con una CNC a tre assi, quindi attraverso la digital manufacturing (fig. 9). Il complesso meccanismo finalizzato alla definizione della forma della shell dialoga quindi naturalmente con un sistema produttivo altrettanto complesso che può garantire, senza nessun particolare aggravio, l’esatta esecuzione dell’opera. Il sistema di quotatura dei grafici, che determina la posizione nello spazio dei componenti, è direttamente dedotto dal modello 3D e quindi se le parti sono prodotte correttamente e il loro assemblaggio è preciso, la forma finale della costruzione non potrà che essere perfettamente congruente con quella di progetto e quindi ne riprodurrà esattamente le prestazioni, in questo caso, strettamente connesse alla geometria del sistema (fig. 10). D’altronde la tecnica produttiva richiede di attivare il protocollo ormai noto come File-to-Fabrication in cui, senza la mediazione di altre intelligenze, alcuni grafici di progetto dialogano direttamente con le macchine utensili che producono i componenti. Questo consente di produrre elementi costruttivi molto precisi e implica un nuovo atteggiamento culturale da parte dei progettisti che assumono su di loro tutte le responsabilità del buon funzionamento dell’assemblaggio in cantiere. Comprendere appieno i contenuti di un progetto complesso e poi trovarsi a realizzarlo nelle vesti del carpentiere equivale, per gli studenti di architettura, ad attraversare dall’inizio alla fine uno straordinario percorso formativo condizionato dai modi di progettare e costruire nati direttamente dai grandi cambiamenti che il digitale sta proponendo al mondo dell’architettura.


Note

1. La prima parte di questo articolo è scritta da Sergio Pone e la seconda da Bianca Parenti.
2. Nel 2001 al Massachusetts Institute of Technology (MIT), Neil Gershenfeld, direttore dal 1998 del  Center for Bits and Atoms (CBA), coordina un corso dal titolo: How to Make (almost) Anything. Nasce lì il primo FabLab della storia … È ancora Gershenfeld a spiegare che questa rete di laboratori fa parte di un largo maker movement fatto da high-tech/do-it-yourselfers che stanno democratizzando l’accesso ai modi in cui oggi produciamo beni.
3. Il gruppo del Diarc è formato da Sergio Pone (coordinatore ArchLab) e da Ph.D. arch. Sofia Colabella, Ph.D. arch. Bianca Parenti, arch. Daniele Lancia, Davide Ercolano e si avvale delle collaborazioni dell’ing. Serafino Di Rosario fino al 2015 Senior Acoustic Consultant di Buro Happold (Londra) e del maestro David Romano spalla dei secondi violini all’Orchestra dell’Accademia Nazionale di Santa Cecilia (Roma).
4. La versione di ReS 3.0 del 2014 è stata insignita nel 2015 del Peter Lord Award che l’IOA (Institute of Acoustics of UK, London) riconosce ogni anno alla migliore realizzazione nel campo dell’architettura per l’acustica.
5. G. Lucci, G. Mirra, E. Pignatelli, Computational Morphogenesis and Fabrication of an Acoustic Shell for Outdoor Chamber Music, tesi di laurea in Tecnologia dell’Architettura all’Università di Napoli Federico II, relatore prof. S. Pone, correlatori prof. A. Pugnale, ing. S. di Rosario, Ph.D. arch. S. Colabella, Ph.D. arch. B. Parenti.

 

Gli autori

Sergio Pone (Napoli, 1958), Architetto, PhD in Tecnologia dell’Architettura presso il Politecnico di Milano, è professore associato presso il DiARC (Dipartimento di Architettura) dell’Università di Napoli Federico II dove è titolare del “Laboratorio di Costruzioni” e tiene un corso dal titolo “Modellazione e Prototipazione”. Le sue ricerche riguardano tecnologie innovative in legno (in particolare sulle strutture derivanti dalla “flessione attiva”), l’architettura per la musica e la digital manufacturing. 
Coordina da 5 anni la sezione architettura della Summer School di Villa Pennisi in Musica all’interno della quale guida la ricerca su ReS (Resonant String Shell), scena acustica per concerti di musica da camera negli spazi aperti, premiata nel 2015 con Il Peter Lord Award dall’IOA (Institute of Acoustics of UK) di Londra.
Per i tipi di Franco Angeli è autore di L’idea di struttura e per quelli di Alinea di Gridshell. I gusci a graticcio in legno tra innovazione e sperimentazione.
Bianca Parenti (Napoli, 1977), Architetto, PhD in Tecnologia dell’Architettura presso l’Università di Napoli Federico II è fondatrice di Gridshell.it. Tra i suoi interessi di ricerca le strutture innovative in legno, l’architettura per la musica e le strutture per la gestione del ciclo di rifiuti solidi urbani.
È da 5 anni docente del workshop di architettura inserito nella Summer School di Villa Pennisi in Musica all’interno della quale ha partecipato alla ricerca su ReS (Resonant String Shell), scena acustica per concerti di musica da camera negli spazi aperti, premiata nel 2015 con Il Peter Lord Award dall’IOA (Institute of Acoustics of UK) di Londra. È autrice di numerosi paper e saggi sul tema delle strutture innovative in legno e sul tema dell’acustica in architettura.

 

Riferimenti bibliografici

Anderson C. (2012), Makers. Il ritorno dei produttori, tr.it. Rizzoli, Milano, 2013.
Wing J. (2014), “Computational Thinking Benefits Society, in  40th Anniversary Blog of Social Issues in Computing.
Rifkin J. (2014), “La rivoluzione industriale e il ‘futuro a costo 0”, in L’Espresso, settembre 2014.
Micelli S. (2016), Fare e innovare. Il nuovo lavoro artigiano, il Mulino, Bologna, 2016.
Parvin A. (2013), Architecture for the people, by the people, Ted talk.
Pone S., Di Rosario S. (2013), “Concordia parvae res crescunt”, in atti di Abitare il Futuro. Abitare il nuovo/abitare di nuovo nei tempi di crisi, 2° edizione di Abitare il Futuro, Clean, Napoli.
Lucci G., Mirra G., Pignatelli E. (2015), “Computational Morphogenesis and Fabrication of an Acoustic Shell for Outdoor Chamber Music”, tesi di laurea in Tecnologia dell’Architettura all’Università di Napoli Federico II, relatore prof. S. Pone, correlatori prof. A. Pugnale, ing. S. di Rosario, Ph.D. arch. S. Colabella, Ph.D. arch. B. Parenti.
Pignatelli E., Di Rosario S., Colabella S., Pone S. (2015), “A wooden acoustic shell for open-air chamber music concert”, in Proceedings of the International Association for Shell and Spatial Structures (IASS) Future Visions, 17 - 20 August 2015, Amsterdam, The Netherlands.