RAID controller DP-500-AA

Avete la necessità di avere tanto spazio a disposizione, ma nel case non potete inserire altri dischi?
Il computer non supporta i port multiplier? O non ce la farebbe a gestire il RAID in software? O non ha abbastanza porte SATA disponibili?
Non avete da spendere un capitale ed i box RAID vi hanno sempre fatto paura per i prezzi? Ecco una soluzione dove il grosso del costo non è dato dal sistema RAID ma dai dischi.

L'alternativa sarebbe stata un port multiplier (più una controller che lo supportasse: non tutte lo gestiscono). Ma il costo raggiungeva livelli veramente eccessivi, oltre a dover "boxare" il tutto o nel case del PC (se ci sta...) o in un case separato, con ulteriore aggravio di costi.
Considerando che un port multiplier semplice (senza gestione del RAID) costa intorno ai 90€, quando mi sono imbattuto nell'offerta del DP-500-AA per circa 120€ + IVA e spedizione, mi sono deciso al volo.

Per provarlo ho giusto 4 dischi WD Green da 2TB acquistati in momenti diversi in negozi diversi proprio per realizzare un RAID domestico su cui tenere le immagini ISO dei miei DVD (da vedere col WD-TV Live o col FreeAgent Theater+ senza dover ogni volta tirare fuori il disco originale). 3 dei dischi erano ancora imballati, mentre sul quarto avevo già iniziato a mettere le ISO. Alla prossima fiera acquisterò il quinto disco per collaudare anche l'espansione online del RAID. I dischi sono scesi dai 119€ del primo ai 78.80€ del quarto, e probabilmente il quinto costerà ancora meno.

So che i WD green non sono l'ideale per i RAID, ma volendo tenere il sistema attivo il più possibile i consumi sono più importanti delle prestazioni pure. I WD green, da specifiche, richiedono 6W cadauno. Quindi 5 dischi sono 30W. Altri dischi, più performanti (come i WD black), arrivano a consumare il doppio. Visto che comunque il canale di uplink è da 150Mbit (e le prestazioni della controller sono da verificare) non vale la pena di esagerare con le prestazioni dei dischi.

Inseriti i 3 dischi liberi ed avviata la creazione del RAID in background, procede a circa il 2%/h. Purtroppo, se durante la ricostruzione l'unità viene spenta, deve ricominciare da capo!

Al momento è in corso la sincronizzazione iniziale. Appena terminata effettuerò i test delle prestazioni e, in seguito, il test dell'espansione online.

Pro:

  • Prezzo contenuto (io l'ho pagato 163.50€ compresa la spedizione tramite UPS)
  • Estrema versatilità di configurazione
  • Visibile come disco unico o come vari dischi
  • Supporta anche il RAID6 (doppia parità: tollera il guasto simultaneo di due dischi)
  • Possibilità di gestire volumi con livelli RAID diversi
  • Fornito con una scheda PCI a 2 porte (interna ed esterna)

Contro:

  • Formattazione proprietaria dei dischi: se si guasta, o ne avete un altro sotto mano o dite addio ai dati!
  • Non si può espandere oltre i 5 dischi
  • Consumi notevoli (26W da "spento", fino a 80 durante la fase di accensione coi tre dischi, 59W durante la ricostruzione del RAID)
  • Non conserva lo stato di avanzamento della ricostruzione del RAID, obbligando di fatto a tenerlo acceso fin quando non è completa (2 giorni e qualche ora per un RAID5 da 4TB)
  • La controller PCI fornita non supporta eventuali port multiplier
  • Peso (quasi 10kg) e dimensioni (la base è analoga ad un normale case da PC, l'altezza è di circa 6 bay da 5¼", ovvero 261(altezza) x 180(larghezza) x 390(profondità) cm) decisamente notevoli
  • Non è possibile rinominare l'unità: nel caso ne usiate più di una, dovete accertarvi di accedere a quella giusta! L'interfaccia web non vi aiuta.

Attenzione! MOLTO importante!
Ci ho perso la testa per un tot, credendo che fosse guasto, mentre invece era solo un errore di configurazione!

In pratica, il box non veniva riconosciuto, emettendo una serie di errori:

ata10: link is slow to respond, please be patient (ready=-19)
ata10: COMRESET failed (errno=-16)
ata10: hard resetting link
ata10: COMRESET failed (errno=-16)
ata10: reset failed, giving up

Le ho pensate tutte: la controller, il cavo, la scheda nello scatolo... Poi, rileggendo il manuale, mentre parla di come configurare un volume set, dice di usare il canale IDE 1 (da "Modify Volume Set", selezionate il volume set e impostate "IDE Channel:IDE Drive#" a 1:0 (probabilmente, se avete più volume set, dovrete usare Drive# diversi). Fatto! Riconosciuto al primo colpo!
Fiu! Stavo per rimandarlo indietro... A volte leggere bene tutto il manuale è utile!

0
Il tuo voto: Nessuna

Commenti

Opzioni visualizzazione commenti

Seleziona il tuo modo preferito per visualizzare i commenti e premi "Salva impostazioni" per attivare i cambiamenti.

Testing

immagine di NdK

Prima di tutto ho formattato il VolumeSet da 4TB in RAID5 ottenuto dal raidset di 3 dischi da 2TB con XFS. Terminata la formattazione, l'unità è stata montata in /mnt/BigRAID.

A disco "pulito" ho lanciato due esecuzioni di Bonnie++:

[root@arwen ~]# bonnie++ -u 0:0 -d /mnt/BigRAID/
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
arwen.csshl.org  4G   419  68  8215   2  6774   2   733  64 86771  16 100.3   6
Latency             40961us    1729ms    1326ms   23319us   23000us    1430ms
Version  1.96       ------Sequential Create------ --------Random Create--------
arwen.csshl.org     -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   388   3 +++++ +++   454   3   630   4 +++++ +++   427   3
Latency               382ms    5450us     239ms     221ms    4781us    1371ms
1.96,1.96,arwen.csshl.org,1,1296520267,4G,,419,68,8215,2,6774,2,733,64,86771,16,100.3,6,16,,,,,388,3,+++++,+++,454,3,630,4,+++++,+++,427,3,40961us,1729ms,1326ms,23319us,23000us,1430ms,382ms,5450us,239ms,221ms,4781us,1371ms
[root@arwen ~]# bonnie++ -u 0:0 -c 2 -d /mnt/BigRAID/
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   2     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
arwen.csshl.org  4G   310  60  8375   2  6594   2   967  75 87578  16 101.1   6
Latency             54796us    1227ms    1331ms   41283us   18556us     268ms
Version  1.96       ------Sequential Create------ --------Random Create--------
arwen.csshl.org     -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   453   3 +++++ +++   539   3   449   3 +++++ +++   420   3
Latency               193ms    4539us     289ms     377ms    4415us     354ms
1.96,1.96,arwen.csshl.org,2,1296517059,4G,,310,60,8375,2,6594,2,967,75,87578,16,101.1,6,16,,,,,453,3,+++++,+++,539,3,449,3,+++++,+++,420,3,54796us,1227ms,1331ms,41283us,18556us,268ms,193ms,4539us,289ms,377ms,4415us,354ms

Poi ho effettuato la copia dei file dal primo 2T al RAID. Le prestazioni sono abbastanza in linea con quanto capisco del test con Bonnie++: intorno agli 8MB/s. Decisamente deludenti. Non che sperassi di saturare i 150MB/s del canale SATA, ma per lo meno avere prestazioni migliori che con un disco solo (speravo intorno agli 80MB/s)...

Se non riesco a migliorare le prestazioni in altro modo, mi sa che dovrò bypassare il RAID del box in favore di md (RAID software), usando la controller come semplice port multiplier. Questo avrebbe anche il desiderabile effetto collaterale di rendere i dischi utilizzabili anche se si dovesse guastare il box. Da verificare anche a livello prestazionale non appena avrò disponibile il quinto disco.

Il tuo voto: Nessuna

Prestazioni

Il tutto che prestazioni ha?
grazie+ciao

Il tuo voto: Nessuna

Scarse...

immagine di NdK

Come scritto in fondo all'altro commento, col firmware originale e file grossi (ci tengo le ISO non ricompresse dei miei DVD, quindi file da 7GB, mediamente), si arriva intorno agli 8MB/s.

Ho appena aggiornato il firmware con quello disponibile sul sito ProWare (v1.48 del 2010/01/04) ed effettuando un po' di tuning di XFS, sono arrivato a circa 10.5MB/s con stripe di 8kB. Buono se si vuole solo esportare su rete 100Mbps (la si satura), molto meno buono se si ha bisogno di un'unità grossa per fare montaggi video.

Se si configurano i dischi in Pass-Throught, poi, pare proprio che serva una controller che supporti i port multiplier. Purtroppo ne quella in dotazione, ne un'altra che ho, ne la motherboard li supportano: il disco configurato "passante" pare semplicemente "scomparire" e non c'è modo di vederlo.

Analogamente se si intendono creare più volumi: occorre un'altra controller. Fortunatamente, quelle montate sulle ultime motherboard pare che supportino i port multiplier.

Quando cambierò motherboard effettuerò ulteriori test, sia per il RAID nativo, che per i dischi in Pass-Throught, che per il RAID software (dm e lvm).

Stay tuned (ma non trattenere il fiato: credo di non cambiare mobo prima di marzo)!

Il tuo voto: Nessuna

Piccola correzione

immagine di NdK

Ehm... devo ammettere una piccola svista: ho dato le prestazioni per scarse, ma sono scarse solo quelle in scrittura!
Come chiunque sappia leggere l'output di Bonnie++ avrà notato, in lettura supera i 75MB/s, confermando che può essere un ottimo dispositivo per archiviare contenuti che variano raramente.
Non è invece indicato per sistemi che richiedano buone performance anche in scrittura (per es. per ospitare database).

L'ultimo test è appena terminato: ho voluto escludere la possibilità che il collo di bottiglia fossero la CPU, il bus PCI o la controller in dotazione. Questo è il risultato ottenuto su una motherboard Gigabyte 890XA-UD3 con un AMD Phenom II X4 840 ed 8GB di RAM DDR3-1333, collegando il box ad una delle porte eSATA onboard:

[root@arwen ~]# bonnie++ -u 0:0 -d /mnt/BigRAID/
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
arwen.csshl.org 16G   899  55 11302   0  7882   1  4154 106 87099   6 126.2   4
Latency              5343us    1027ms    2033ms   16650us     113ms    1248ms
Version  1.96       ------Sequential Create------ --------Random Create--------
arwen.csshl.org     -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   568   1 +++++ +++   560   1   374   1 +++++ +++   584   1
Latency               447ms    1890us     161ms     276ms     350us     352ms
1.96,1.96,arwen.csshl.org,1,1299683389,16G,,899,55,11302,0,7882,1,4154,106,87099,6,126.2,4,16,,,,,568,1,+++++,+++,560,1,374,1,+++++,+++,584,1,5343us,1027ms,2033ms,16650us,113ms,1248ms,447ms,1890us,161ms,276ms,350us,352ms

Se in scrittura si ferma a poco più di 11MB/s, in lettura arriva ad 87MB/s, quasi sufficienti per saturare una LAN Gigabit in condizioni realistiche.

Se qualcuno ha idea di come migliorare le prestazioni in scrittura, per favore me lo faccia sapere!

Il tuo voto: Nessuna

JBOD CONFIGURATION

HO COMPRATO IL DP-500AA E NELLE SUE FUNZIONI RAID SONO PIUTTOSTO SODDISFATTO MA NON MI RIESCE DI IMPOSTRARLO COME JBOD OVVERO FAR RICONOSCERE AL MIO SISTEMA 5 HARD DISK SEPARATI L'UNO DALL'ALTRO INDIPENDENTI FRA LORO.
COME POSSO FARE??? HELP ME PLEASE

Il tuo voto: Nessuna

Domanda non banale come sembrava

immagine di NdK

La modalità JBOD, così come la creazione di più volumi, richiede una controller in grado di gestire i port multiplier. Quella in dotazione non è in grado di farlo.
Oltretutto non ho idea se sia supportata la modalità FBS o solo la CBS (molto più lenta dato che prima di poter inviare un comando ad un altro disco deve aspettare che sia terminato il comando in corso).

Fortunatamente c'è una bella tabellona che indica quali funzioni sono supportate da ogni controller. Basta che trovi la tua controller e sai cosa supporta.

Se invece ti risultasse che la tua controller supporta i port multiplier, può essere un problema di configurazione del DP500... Hai impostato correttamente "IDE channel" e "Drive #" ? Magari prova con altri valori...

E se hai novità, postale pure! Potrebbero essere utili ad altri!

Io cercherò di provare aggiungendo un VolumeSet al RaidSet principale non appena termina l'espansione (strano, risulta più veloce la migrazione con l'aggiunta del quinto disco che non l'inizializzazione...). Questione di alcune ore.

[edit]
Finalmente è terminata la creazione della nuova unità ed ho potuto fare alcune prove.
In effetti pare che sia visibile solo l'unità 1:0... La mia controller (sulla Gigabyte AM3 890XA-UD3) è una JMicron JMB362 che, stando alla tabella suindicata, supporta solo CBS. Appena possibile proverò a collegare il box, con un cavetto adattatore, ad una delle porte connesse al SouthBridge (AMD SB850) che supportano FBS.

Il tuo voto: Nessuna

ARGH!

immagine di NdK

Mi hanno risposto dall'assistenza Proware.
Si scusano tanto, ma il DP-500 prevede l'esportazione di un solo volume (quello con IDE channel=1 e Drive#=0). Gli altri non sono visibili.

Quanto alle prestazioni, mi ha inviato un benchmark dove si evidenziano ottime prestazioni su file medio-piccoli (fino a 4M) con elevato parallelismo (20 job) e cache write-back: più di 70MB/s. Peccato che la cache write-back sia sconsigliata per filesystem journaled, NTFS compreso: in caso di mancanza di tensione si perderebbero sia i metadati che i dati ancora in cache, con corruzione grave del filesystem.

Per un mailserver sarebbe abbastanza adatto. E probabilmente anche per un DB server (basta usare chunk di 4M per ottenere 40MB/s in random write). Peccato che a me serva per conservarci file di vari giga... Meno male che le prestazioni in lettura sequenziale sono comunque buone, quindi il "danno" si limita ad impiegare un po' più tempo per caricare le immagini ISO.

Ho comunque segnalato le cose da correggere. Non so se lo faranno, ma allo stato attuale è un acquisto non consigliato, se non per esigenze particolari.

Ho anche chiesto per accedere ai dischi direttamente (collegandoli alla mobo in caso di guasto del DP-500)... Vedremo cosa risponderà.

A proposito delle risposte: non velocissime, ma (finora) entro 24 ore. Arrivano nel primo pomeriggio, intorno alle 14... quando in Corea sono le 21... Mah!

Il tuo voto: Nessuna

Andiamo male

immagine di NdK

Oggi altra risposta.

Intanto mi è stato chiarito che il DP-500 è un modello vecchio e (mia interpretazione) poco supportato.

Per la questione dei volumi: la controller gestisce anche un'interfaccia IDE (Host 0 ), portando a 2 il numero totale di volumi esportabili. Ma con un cavo IDE esterno... Una possibilità sarebbe l'uso di un bridge IDE-USB, ma rimane in ogni caso una porcheria.

La possibilità di accesso ai dischi al di fuori del DP-500 è esclusa. Perfino nei modelli più recenti che lo hanno sostituito.
Comunque, perfino nel DP-403UA manca la batteria tampone per la cache.

Mi sembra una presa per i fondelli.

Dati tutti i punti a sfavore:

  • Lentezza
  • Impossibilità di recupero dei dati senza sostituire l'unità con una uguale (fino a quando sarà disponibile...)
  • Possibilità di creare un solo volume
  • Consumo troppo elevato

mi sento decisamente di dire ACQUISTO DECISAMENTE SCONSIGLIATO senza prova preventiva / DO NOT BUY w/o testing!. Ovvero: potrebbe anche essere ciò che vi serve, ma ci credo poco.
Piuttosto meglio una mini-ITX con rete gigabit e 5 porte SATA (+1 IDE per CF) come la "ZOTAC G43ITX-A-E LGA 775 Intel G43 HDMI Mini ITX Intel" oppure una "Jetway JNC9C-550 Fanless Dual Core Atom Mini-ITX Board with Dual LAN, 4x SATA and Daughterboard Expansion" a cui aggiungere 2GB di RAM ed una bella scheda "Jetway 4x SATA Port Module". Su mini-itx.com la Jetway viene a costrare circa 270€, a cui aggiungere 8 bay SATA hot-swap (se interessano... con quello che costano, per quanto mi riguarda posso tollerare un po' di downtime per sostituire un disco guasto), un case, una CF per il SO ed un po' di tempo per configurare il tutto. La tentazione è davvero forte.

Il tuo voto: Nessuna

Parziale rettifica

immagine di NdK

Come si può notare da quest'ultimo test che ho effettuato:

bonnie++ -d /mnt/BigRAID/ndk/tmp/ -u 0:0
Using uid:0, gid:0.
Writing a byte at a time...done
Writing intelligently...done                    
Rewriting...done
Reading a byte at a time...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Create files in sequential order...done.
Stat files in sequential order...done.
Delete files in sequential order...done.
Create files in random order...done.
Stat files in random order...done.
Delete files in random order...done.
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
arwen.csshl. 32160M  1765  97 65088   4 31253   3  3514  81 92262   7 160.9   9
Latency              4534us     227ms     228ms     109ms   55032us    1007ms
Version  1.96       ------Sequential Create------ --------Random Create--------
arwen.csshl.org     -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  4376  14 +++++ +++  4969  14  4992  16 +++++ +++  4721  15
Latency             20140us     117us   11402us   10939us      53us    9279us
1.96,1.96,arwen.csshl.org,1,1309468479,32160M,,1765,97,65088,4,31253,3,3514,81,92262,7,160.9,9,16,,,,,4376,14,+++++,+++,4969,14,4992,16,+++++,+++,4721,15,4534us,227ms,228ms,109ms,55032us,1007ms,20140us,117us,11402us,10939us,53us,9279us

ora le prestazioni in scrittura sono abbastanza soddisfacenti: più di 64MB/s, confermate anche dall'uso pratico.

Peccato che questo sia dovuto alla cache write-back, potenzialmente meno sicura della write-throught... C'è da dire che, comunque, la scrittura rimane quasi sincrona: meno di un secondo dopo aver completato il trasferimento multi-gigabyte, i dischi tornano a riposo. Probabilmente, per evitare problemi, basterebbe un UPS con un supercondensatore al posto della batteria...

Il tuo voto: Nessuna

Pensando in grande...

immagine di NdK

... non serve spendere capitali per uno storage bello grosso!

Con un bel case come il Norco RPC-4220 (20 dischi dati + 2x2.5" per il SO + 1 drive ottico, circa 400€) o il Norco RPC-4224 (24 dischi dati, ma niente spazio per drive ottico, circa 450€) si ha un'ottima base di partenza.

Da aggiungere una bella controller (anche non RAID, se si vuole usare il RAID software) con abbastanza porte. Oppure un semplice cavetto che "converte" 4 porte SATA sulla motherboard in un unico connettore (ma se vi bastano 4 dischi meglio che vi orientiate su soluzioni decisamente più economiche Smile ).

Molto bella (ma costosa: circa 600€), con RAID HW, la HighPoint RocketRAID 2760A che si adatta perfettamente al 4224. Oppure la Adaptec 2805, che però ha solo 2 porte SFF-8087 e comunque costa quasi 200€ (quindi per avere la gestione dei 24 dischi ne servirebbero 3 e costerebbe quanto la RocketRAID, ma occupando 3 slot PCI-X 8x... che non ci sono su molte motherboard! ).

Nel caso servisse aggiungere ulteriori dischi, si può aggiungere un "cassetto" DS-1500 (15 dischi con port-multiplier: 3 connettori eSATA), DS-24E (24 dischi, port multiplier interno e quindi un solo connettore SFF-8088) o DS-24DR (24 dischi, 6 connettori SFF-8088). Ovviamente serve anche una controller adeguata, peccato che la maggior parte di quelle con connessioni SFF-8088 siano particolarmente costose e di difficile reperibilità. Molto interessante la LSI SAS 9200-8e per usare fino a due DS-24E (per un totale di 72 dischi, ovvero 148TB raw o 120TB facendo RAID6 di blocchi di 12 dischi).

Per un sistema praticamente pronto ci si può anche rivolgere al Synology DS2411+, che a fronte di un costo iniziale di circa 1300€ (senza dischi) offre una soluzione discretamente potente per ospitare 12 dischi. È possibile l'espansione a 24 dischi, anche se costa quasi quanto un altro NAS. Il pro è che non ci si deve sbattere, il contro è che la gestione dei dischi credo sia proprietaria.

Nota: i prezzi del materiale Norco sono quelli di CyberShop comprensivi di IVA ma esclusa spedizione. Non escludo che si possa trovare lo stesso materiale a meno! Ma ocio ai dazi, se si acquista fuori dalla CE!

[edit] Ho trovato anche la HighPoint DC7280 DATACenter HBA 32x SATA PCI-E 2.0 x8, a "soli" 460€ circa. Magari non avrà le prestazioni di altre più blasonate (comunque da dimostrare... soprattutto se non si usa il RAID proprietario ma ci si appoggia al RAID software), ma con "solo" 3 slot PCIe 8x (disponibili su molte motherboard) si possono gestire 96 dischi senza bisogno di port multiplier... ovvero 4 baie da 24...

Per chi non lo sapesse:

  • SFF-8087: 4 connessioni SATA su unico cavo, versione interna
  • SFF-8088: 4 connessioni SATA su unico cavo, versione esterna (con sicura)
Il tuo voto: Nessuna

Opzioni visualizzazione commenti

Seleziona il tuo modo preferito per visualizzare i commenti e premi "Salva impostazioni" per attivare i cambiamenti.
Realizzato con Drupal, un sistema open source per la gestione dei contenuti