Stats Tweet

ITINERARI - SVILUPPO E PROGRESSO - LA SECONDA RIVOLUZIONE INDUSTRIALE

UNA TECNOLOGIA DEL TUTTO NUOVA

Uno dei più grandi problemi della moderna società industriale è stato ed è tuttora la crescente richiesta di energia per usi produttivi. Il carbone fossile come fonte di energia ha rappresentato nell'Ottocento uno dei fattori determinanti dell'eccezionale sviluppo dell'Occidente, e la macchina a vapore, che come combustibile utilizzava appunto il carbone, è rimasta un po' il simbolo di questa fase dell'industrializzazione. Ma nell'età del vapore sono cominciate le ricerche che avrebbero permesso l'utilizzazione di una forma di energia anche più vantaggiosa del vapore: l'elettricità. L'elettricità è facilmente trasportabile a basso costo e a lunga distanza; i motori che fa funzionare sono molto meno voluminosi di quelli a carbone e più facili e comodi da regolare; l'elettricità, infine, è una forma di energia ricavabile da fonti diverse e teoricamente inesauribili, a differenza del carbone, le cui riserve nel sottosuolo sono limitate.
Alcuni fenomeni elettrici e magnetici erano conosciuti da tempo ma, facendo riferimento a un mondo non accessibile all'osservazione diretta, risultavano difficilmente collegabili fra di loro e la loro interpretazione restava incerta. Sulle origini e sulla natura dell'elettricità e del magnetismo correvano le ipotesi più disparate, tra cui quella che attribuiva alla materia una specie di anima formata da una sostanza sottilissima che, a seconda che si allontanasse dal corpo o ne rientrasse, respingeva o attirava rispettivamente altri corpi leggeri che si trovassero nelle vicinanze. Furono soprattutto la scoperta del magnetismo terrestre e l'invenzione della bussola, che risalgono pressappoco al XII secolo, ad accendere negli studiosi l'interesse per questo genere di fenomeni. Diversi trattati furono dedicati all'argomento, ma ben poco di conclusivo fu scritto fino al XVI e al XVII secolo, ossia fino alla nascita della moderna scienza sperimentale. Nell'anno 1600 William Gilbert, uno dei maggiori esponenti del nuovo indirizzo scientifico, pubblicò il De magnete, un'opera che utilizzava in modo massiccio la ricca esperienza accumulata anche in questo campo da tecnici, artigiani e marinai e che ebbe larghissime ripercussioni nel mondo della ricerca. Vale la pena di notare a questo proposito che l'attrazione magnetica terrestre fu oggetto di studio prima dell'attrazione gravitazionale e che anzi, in virtù delle molte analogie (entrambe, per esempio, si esercitano a distanza), ha fornito una sorta di modello per le prime teorie sulla gravità.
Quanto alle utilizzazioni pratiche dell'elettricità e del magnetismo (salvo le ricerche indirizzate a migliorare le prestazioni della bussola) non ve ne furono fino al Settecento. Nel Settecento, tuttavia, le osservazioni si intensificarono e gli esperimenti con l'elettricità diventarono di moda, perfino nei salotti, sui teatri o nelle piazze, come oggetto di intrattenimento, giacché con semplici apparati (le prime macchine elettriche erano poco più che giocattoli) si ottenevano effetti spettacolari, tanto più eccitanti per il pubblico quanto meno se ne conoscevano le ragioni. Sul finire di quel secolo l'invenzione della pila aprì un settore tecnologico completamente nuovo, quello connesso all'uso della corrente elettrica, che è il primo che appartenga per intero all'era industriale. La corrente elettrica, passando in un filo metallico, può riscaldarlo e servire così come sorgente di calore, può renderlo incandescente come nelle lampadine e servire come sorgente di luce, può, soprattutto, azionare un motore e fornire energia meccanica. La pila rappresenta uno dei più grandi passi compiuti dall'uomo nel campo delle realizzazioni scientifiche, sia per le numerose applicazioni che ha ancora ai nostri giorni, sia per l'enorme impulso che come generatore di corrente diede allo studio dell'elettricità.
L'atomo, che è formato da un nucleo di cariche positive o protoni, e da un uguale numero di cariche negative o elettroni disposte intorno al nucleo, è tenuto insieme da forze nucleari e da forze elettriche che ne fanno una struttura molto solida. In certi elementi (il ferro, il rame, i metalli in genere) succede però che alcuni elettroni, meno saldamente legati degli altri al nucleo, riescano facilmente ad allontanarsi dal loro atomo e si muovano all'interno del materiale a cui appartengono. In un pezzo di ferro per esempio vi è un gran numero di elettroni (una «nuvola» di elettroni) che, anziché restare uniti ai loro rispettivi atomi, si muovono abbastanza liberamente all'interno del pezzo di ferro stesso e alcuni di essi riescono anche ad uscirne.
Un filo di ferro rispetto ai suoi elettroni si comporta un po' come un tubo pieno d'acqua: come possiamo pompare acqua in un tubo, così possiamo «pompare» elettroni in un filo di ferro; gli elettroni che si muovono lungo il filo formano la corrente elettrica. E come il tubo è un conduttore d'acqua, così il filo di ferro è un conduttore di elettricità. Vi sono vari modi per ottenere questo «pompaggio» di elettroni, ossia per generare la forza che fa muovere gli elettroni producendo corrente elettrica e che appunto è chiamata forza elettromotrice. I dispositivi che hanno oggi larga applicazione pratica sono però essenzialmente: la pila, che produce una corrente continua (ossia gli elettroni si muovono sempre nella stessa direzione); l'alternatore, che produce una corrente alternata (ossia gli elettroni si muovono come uno stantuffo, avanti e indietro); la dinamo, che deriva dall'alternatore ma produce una corrente continua.
La pila è quel piccolo oggetto ben noto che fa funzionare le radioline, i giocattoli elettrici e molti altri apparecchi di cui facciamo quotidianamente uso. È una scatoletta di energia semplice e sorprendente allo stesso tempo. Cerchiamo di capire cosa succede dentro questa scatoletta. Abbiamo detto che i materiali come il ferro, il rame e generalmente i metalli hanno al loro interno una nuvola di elettroni liberi, e che di questi elettroni alcuni riescono a uscire dal pezzo di metallo cui appartengono. Man mano che gli elettroni escono dal pezzo, questo si carica positivamente giacché in esso gli elettroni rimasti sono meno numerosi dei protoni.

Vi sono alcuni metalli che si caricano di più e altri di meno. Se mettiamo a contatto un pezzo di un metallo molto carico, ossia che ha perso molti elettroni, con uno meno carico, succede che gli elettroni del secondo sono attratti dalla carica elettrica positiva del primo e passano dal secondo al primo provocando così una corrente elettrica che però si esaurisce non appena i due materiali hanno raggiunto lo stesso livello di carica, e cioè quasi istantaneamente. Ma se, come Alessandro Volta ha fatto alla fine del Settecento, fra i due metalli mettiamo una soluzione di un certo acido o di un certo sale e uniamo fra loro gli altri estremi dei due metalli che chiamiamo «poli», o direttamente, o mediante un terzo metallo (per esempio un filo di rame), la corrente continua a fluire per un certo tempo. Possiamo dire che l'energia chimica della soluzione, si trasforma nell'energia elettrica che troviamo disponibile ai poli.
La prima pila di Volta consisteva in due pezzi di metallo, rispettivamente di rame e di zinco, che pescavano in una tazza riempita con acqua salata o con un acido diluito ed era detta infatti «pila a tazza»; collegando i due pezzi di metallo fra loro la corrente percorreva il filo di collegamento dal polo negativo al polo positivo, mentre nell'acqua salata (o nella soluzione acida) la corrente si spostava dal polo positivo al negativo completando il circuito. I metalli, infatti, non sono i soli conduttori di elettricità: essi sono conduttori solidi o, come anche vengono chiamati, conduttori di prima classe. Una seconda classe di conduttori è rappresentata appunto dalle soluzioni chimiche, nelle quali la corrente non è trasportata dagli elettroni, ma dagli ioni (che, come si ricorderà, sono atomi o gruppi di atomi dotati di carica elettrica).
Al tempo di Volta concetti come quelli di elettrone, di ione, ecc., non erano stati ancora formulati e quindi l'interpretazione dei fenomeni elettrici non ne teneva conto. Volta tuttavia ebbe il merito di rilevare il diverso comportamento dei conduttori di prima e di seconda classe e di scoprire che mentre un circuito di conduttori di una sola classe non dava luogo ad una corrente elettrica durevole, la loro combinazione era in grado di farlo. Naturalmente le pile che troviamo oggi in commercio sono molto differenti dalla pila di Volta, ma le leggi fisiche su cui si basano sono le stesse; sono cambiati solo gli elementi usati e il tipo di confezione, che per la sua praticità e comodità, dà alla pila grandi possibilità di diffusione e grande versatilità d'impiego.

L'ELETTRICITÀ

La materia è formata da atomi che hanno dimensioni così piccole da essere quasi inimmaginabili; gli atomi furono pensati dapprima come le parti ultime in cui si poteva dividere la materia stessa, e solo in tempi relativamente recenti si è arrivati alla conclusione che gli atomi sono formati da particelle ancora più piccole (protoni, elettroni, ecc.), organizzate secondo leggi ben definite. Anche se non sono propriamente indivisibili, gli atomi sono però strutture molto compatte. A fare dell'atomo una struttura compatta e difficilmente divisibile agiscono le forze nucleari, di cui torneremo a parlare, e le forze elettriche, che sono quelle che qui ci interessano.
La forza elettrica, che in prima approssimazione possiamo immaginare (e fu in effetti immaginata) simile alla forza di gravità, è quella che nell'atomo, attorno a un nucleo formato da un certo numero di protoni, fa muovere un uguale numero di elettroni. A differenza della gravità, però, la forza elettrica agisce in modo che, mentre un elettrone e un protone si attraggono fra di loro, due elettroni o due protoni si respingono. Abbiamo insomma due differenti tipi di particelle a cui diamo il nome di cariche elettriche elementari, che possiamo considerare una opposta all'altra e che per comodità indichiamo col segno + (i protoni) e col segno - (gli elettroni); le cariche di segno opposto si attraggono e le cariche dello stesso segno si respingono.
Prendiamo un oggetto qualsiasi, per esempio una pallina di vetro; questa pallina è formata da un enorme numero di atomi, che a loro volta sono formati da un certo numero di elettroni e protoni. Se riuscissimo a separare in due gruppi distinti tutti gli elettroni da una parte e tutti i protoni dall'altra, i due gruppi di particelle si attirerebbero con una forza gigantesca sufficiente a sollevare un intero palazzo e anche più. È impossibile separare tutti i protoni da tutti gli elettroni di un oggetto. È possibile invece sottrarre alcuni elettroni agli atomi che si trovano sulla superficie dell'oggetto stesso. Poiché inizialmente gli elettroni sono in numero eguale ai protoni, se asportiamo degli elettroni ci sarà un eccesso di protoni. L'effetto elettrico dei protoni eccedenti non sarà più neutralizzato da quello uguale e contrario degli elettroni che abbiamo asportato e l'oggetto stesso risulterà carico positivamente Esso dunque attirerà altri oggetti con carica negativa (ossia con carica opposta alla sua) e respingerà quelli con carica positiva (ossia con carica uguale alla sua).
Prendiamo un bastoncino di vetro e strofiniamolo con un panno di lana ben asciutto. Proviamo poi ad avvicinare il nostro bastoncino ad alcuni pezzettini di carta: i pezzettini di carta saranno attratti dal nostro bastoncino. Avviciniamo il panno di lana ad un altro mucchio di pezzettini di carta (che sceglieremo di colore diverso dai primi per distinguerli meglio): anche il panno di lana attirerà i pezzettini di carta. È successo che strofinando il bastoncino di vetro con il panno di lana alcuni elettroni del bastoncino sono passati sul panno, sicché questo si è caricato negativamente, mentre il bastoncino si è caricato positivamente. Avvicinando poi il bastoncino o il panno ai pezzetti di carta, anche questi si sono caricati elettricamente e sono stati attratti rispettivamente dal bastoncino e dal panno.
Se ripetiamo l'esperimento con un bastoncino di ceralacca anziché di vetro, si produrranno gli stessi fenomeni, ma con questa differenza: che nello strofinamento gli elettroni passeranno dal panno al bastoncino di ceralacca, sicché il panno risulterà carico positivamente e il bastoncino negativamente. Anche questa volta avremo scelto pezzetti di carta di colore diverso per distinguerli facilmente dai precedenti.
Per verificare che il bastoncino di vetro e quello di ceralacca hanno acquistato cariche elettriche di segno diverso (positiva il vetro, negativa la ceralacca) e che il panno usato per strofinare il vetro si è caricato in modo opposto a quello usato per strofinare la ceralacca, basta avvicinare i pezzetti di carta dei vari colori che entrando in contatto dei bastoncini e dei panni si sono a loro volta caricati elettricamente. Osserviamo innanzitutto che i pezzetti di carta dello stesso colore si respingono: essi infatti sono dotati di cariche elettriche uguali. I pezzetti di carta che sono entrati in contatto con il bastoncino di vetro e quelli che sono entrati in contatto con il bastoncino di ceralacca si attirano: essi dunque hanno cariche opposte e ciò conferma che anche i bastoncini hanno cariche opposte. Anche i pezzetti di carta che hanno toccato i due panni di lana si attirano. Ciò significa che i panni hanno acquistato cariche opposte. I pezzetti che hanno toccato il vetro e quelli che hanno toccato il panno usato per strofinare la ceralacca si respingono: evidentemente hanno cariche elettriche dello stesso segno. Allo stesso modo si respingono i pezzetti di carta che hanno toccato la ceralacca e quelli che sono stati in contatto con il panno usato per strofinare il vetro. Infine si attirano i pezzetti di carta che sono entrati in contatto con i bastoncini (di vetro o di ceralacca) e quelli che sono entrati in contatto con i panni rispettivamente usati per strofinarli. Ciò conferma che il bastoncino e il panno nello strofinio acquistano cariche di segno opposto.

IL MAGNETISMO

Fra le tante stranezze della natura è stata per secoli inclusa la misteriosa proprietà della magnetite, un minerale di ferro che attira con una forza abbastanza consistente il ferro stesso, l'acciaio e altri metalli. Ciò che gli antichi non sospettavano era che la proprietà di attrarre il ferro, oltre che della magnetite, fosse una caratteristica del nostro stesso pianeta che, oltre la forza di attrazione gravitazionale ha anche una forza di attrazione magnetica. Prendiamo una comune calamita, che non è altro che una sbarra di acciaio diritta o a ferro di cavallo che ha acquistato la proprietà della magnetite per mezzo di un opportuno trattamento, e facciamo alcune semplici esperienze. Proviamo a immergere la nostra calamita in un mucchietto di limatura di ferro: notiamo subito che la limatura rimane attaccata alla calamita; la limatura però non si distribuisce in maniera uniforme ma risulta molto più densa alle due estremità opposte della calamita. La forza magnetica infatti si esercita solo lungo una direzione ben precisa e si concentra sulle due estremità (dette poli) del nostro oggetto magnetico, sia esso la calamita, un pezzo di magnetite, o la Terra stessa.
Prendiamo ora alcuni aghi da cucito che sono fatti d'acciaio e avviciniamone uno alla nostra calamita: l'ago resterà appeso a una estremità della calamita, attratto dalla forza magnetica. Appoggiamo ora un secondo ago all'estremità libera del primo: questo a sua volta attrarrà il secondo ago, e se ripetiamo altre due o tre volte l'operazione, otterremo una catena di quattro o cinque aghi appesa alla calamita. Se proviamo a staccare la catena dalla calamita vedremo che la proprietà magnetica si è trasmessa a tutti gli aghi della catena che ora sono diventati delle piccole calamite. Supponiamo di aver sempre messo la cruna di un ago in alto a contatto con la punta dell'ago precedente; se proviamo ora ad avvicinare le crune di due aghi magnetizzati fra di loro notiamo che non solo le due crune non si attraggono ma anzi si respingono: come per le cariche elettriche, i poli magnetici si attraggono se sono opposti e si respingono se sono dello stesso tipo.
Prendiamo una tazza piena d'acqua e cerchiamo di appoggiare sulla superficie uno dei nostri aghi magnetizzati; dopo qualche tentativo in cui l'ago andrà inesorabilmente a fondo, se sapremo usare un'estrema delicatezza forse riusciremo a depositare l'ago sulla superficie senza che sprofondi e avremo costruito così una rudimentale bussola. L'ago si disporrà secondo una determinata direzione e, comunque faremo girare la tazza, l'ago tornerà a disporsi lungo la stessa direzione.
Come abbiamo accennato, la Terra è essa stessa una grossa calamita, i cui poli magnetici coincidono coi poli di rotazione terrestre e, quindi, il polo Nord della Terra attirerà il polo Sud del nostro ago magnetico e viceversa.

DALLA PILA AI MOTORI ELETTRICI

Le pile forniscono solo modeste quantità di energia e sono quindi utilizzate solo per piccoli apparecchi. Quando occorre una notevole quantità di energia si ricorre a generatori di corrente più potenti: le «dinamo» e gli «alternatori». Per passare dalla pila alla dinamo è stato necessario trovare la connessione (la cui esistenza si sospettava da tempo) tra il magnetismo e l'elettricità.
Già dalla metà del Settecento si sapeva che una scarica elettrica poteva magnetizzare una barra di ferro: era un indizio che tra magnetismo ed elettricità doveva esserci una qualche connessione. Nel 1819 il fisico danese Hans Christian Oersted fece un'importante scoperta: mentre stava facendo delle dimostrazioni scientifiche, il filo di una pila voltaica gli cadde di mano e finì sopra una bussola; l'ago magnetico allora deviò dalla sua posizione naturale e solo quando Oersted interruppe la corrente, l'ago tornò a indicare il Nord. Era la conferma che tra magnetismo e elettricità esisteva una precisa relazione.
La scoperta di Oersted ebbe immediatamente un'applicazione pratica: se una corrente elettrica faceva deviare un ago magnetico dalla sua posizione naturale, la deviazione di un ago magnetico poteva indicare l'esistenza di una corrente elettrica e poteva misurarne l'intensità. Nacque così il «galvanometro», che nella sua forma più semplice è costituito appunto da un ago magnetico circondato da un avvolgimento di filo metallico nel quale passa la corrente che si vuol misurare.
In quegli stessi anni il fisico francese Arago e il suo connazionale Ampère (il suo nome è ben noto perché è stato dato all'unità di misura della corrente elettrica) dimostrarono nel modo più convincente che una spirale di filo metallico attraversata da una corrente continua fornita da una pila si comporta esattamente come una barra magnetica: la limatura di ferro per esempio è attirata dalla spirale finché dura il passaggio di corrente nel filo. Nel 1825 lo stesso Ampère formulò l'ipotesi che il magnetismo fosse effetto di piccole correnti elettriche circolari presenti nei corpi magnetici e dovute al moto delle più minute particelle dei corpi stessi.
Gli esperimenti decisivi nel campo dell'elettromagnetismo furono però quelli dell'inglese Faraday. Era noto da tempo che una calamita è capace di magnetizzare un pezzo di ferro posto nelle sue adiacenze. Questo fenomeno si chiama «induzione magnetica» dove il termine induzione sta a indicare un'azione a distanza, ossia un'azione che un corpo esercita su un altro corpo con il quale non è in contatto. Poiché gli esperimenti di Oersted e di Ampère avevano dimostrato che una corrente elettrica si comporta come un magnete, Faraday immaginò che lo stesso effetto di induzione si potesse ottenere usando una corrente elettrica al posto della calamita. Immaginò anche che, mediante induzione, un magnete potesse generare una corrente elettrica in un conduttore posto nelle sue vicinanze. Per verificare queste sue intuizioni Faraday condusse alcuni esperimenti che segnarono una svolta rivoluzionaria non solo nel pensiero scientifico, ma anche, per le applicazioni che ne derivarono, nel campo delle tecniche industriali.
Faraday avvolse due distinti rocchetti di filo metallico intorno ad un anello di ferro. Uno dei due rocchetti era collegato ad un generatore di corrente (pila), l'altro ad un rilevatore di corrente (galvanometro). Nel primo circuito (quello collegato alla pila) inserì un interruttore. Quando, azionando l'interruttore, Faraday apriva o chiudeva il circuito, il galvanometro rivelava la presenza di una corrente istantanea nel secondo circuito. L'apertura del primo circuito faceva spostare l'ago del galvanometro in un senso, la chiusura nel senso opposto: nel secondo circuito, insomma, aprendo e chiudendo ripetutamente il primo circuito, si generava una «corrente alternata».
Era così dimostrato che il passaggio di una corrente elettrica in un avvolgimento di filo metallico generava (induceva) una corrente elettrica in un avvolgimento vicino. Con questa particolarità però: che nel secondo avvolgimento la corrente indotta si rivelava solo al momento di aprire o di chiudere il primo circuito. Essa insomma nasceva in corrispondenza di un mutamento nel primo circuito. Con altri esperimenti Faraday dimostrò che questo mutamento poteva essere ottenuto, oltre che aprendo o chiudendo il primo circuito, anche muovendolo o comunque variando in esso l'intensità della corrente. Infine Faraday dimostrò che il circuito inducente (ossia quello collegato alla pila) poteva essere sostituito da un magnete: fece ruotare tra i poli Nord e Sud di un magnete un disco di rame e collegò l'asse e i bordi del disco a un galvanometro: durante la rotazione del disco il galvanometro mostrava che nel disco stesso si generava una corrente indotta. Era nato così il primo generatore elettromagnetico di corrente.
I generatori elettromagnetici di corrente subirono diverse modificazioni e occorse parecchio tempo prima che potessero essere usati nella produzione e nell'industria. Essenzialmente però ogni dinamo risulta costituita da un conduttore (un disco di rame o un rocchetto di filo metallico o una serie di rocchetti) che ruota in un campo magnetico (ossia in una porzione di spazio in cui, per la presenza di un magnete, agisce una forza magnetica). Naturalmente gli stessi effetti si possono ottenere se, tenendo fermo il conduttore, si fa ruotare il magnete.
Abbiamo visto che il movimento di un magnete genera in un conduttore una forza elettromotrice in grado di muovere e di produrre corrente elettrica; è questo il principio dell'alternatore. Girando, il magnete volge alternativamente il Nord e il Sud verso il conduttore, sicché in questo conduttore (solitamente un avvolgimento di filo meccanico) si genera una corrente diretta ora in un senso ora nell'altro con lo stesso ritmo della rotazione del magnete (corrente alternata). Il motore elettrico si basa sullo stesso principio della dinamo, preso al contrario: se la rotazione di un magnete genera in un conduttore una corrente alternata, una corrente alternata fatta passare nel filo conduttore arrotolato attorno a un magnete dovrà generare una forza tale da provocare la rotazione del magnete stesso.
Una corrente elettrica genera un campo magnetico che agisce su un magnete come il campo magnetico terrestre agisce sull'ago di una bussola; se la corrente fosse continua l'unico effetto sarebbe quello di orientare il magnete lungo una direzione fissa determinata dalla direzione della corrente; una corrente alternata invece genera un campo magnetico che cambia continuamente direzione col cambiare della corrente e costringe quindi il magnete a seguire questa direzione e a girare attorno a se stesso. Si può quindi trasformare l'energia elettrica in energia meccanica, realizzando un motore che risulta estremamente più maneggevole di quello a vapore.
Se pensiamo ai vecchi mulini ad acqua o a vento che rappresentavano l'unico sistema ideato fino a due secoli fa per azionare i vari tipi di macchine senza ricorrere alla forza degli uomini o degli animali, possiamo renderci conto di quali enormi passi siano stati compiuti dall'uomo sulla strada dello sfruttamento delle risorse naturali. Ma la forza idraulica che muoveva i vecchi mulini resta ancora oggi una preziosa sorgente di energia. Nelle centrali idroelettriche la forza dell'acqua viene usata per muovere le turbine, che a loro volta mettono in azione le dinamo, che a loro volta producono corrente elettrica, che a sua volta, trasportata per mezzo di fili nei luoghi dove è più conveniente utilizzarla, viene ritrasformata in forza meccanica per mezzo di motori elettrici; possiamo dunque dire che è sempre la forza di un fiume o di una cascata a muovere le macchine di una moderna industria. Anche il carbone (insieme ad altri combustibili fossili) non ha perso il suo ruolo giacché nelle centrali termoelettriche svolge lo stesso ruolo che in quelle idroelettriche è riservato all'acqua.

Il carbone come l'acqua è una fonte di energia primaria, giacché lo troviamo direttamente in natura. L'energia elettrica, invece, non è una fonte, ma solo una forma di energia: è il frutto di una trasformazione di energia operata dall'uomo. Solo disponendo di una fonte primaria di energia possiamo muovere le macchine che producono l'energia elettrica; l'uomo non crea energia, ma può solo trasformare un certo tipo di energia in un'altra. Ci si può chiedere allora perché mai l'energia delle fonti primarie, come l'acqua o il carbone, non venga utilizzata direttamente, nella sua forma originaria, senza trasformarla in elettricità: sarebbe un modo per risparmiare energia, visto che ogni trasformazione comporta una certa perdita. In altre parole: se devo far girare un mulino, non sarebbe meglio, come si faceva un secolo fa, collegare le macine a una ruota idraulica o a una macchina a vapore piuttosto che a un motore elettrico, che deve essere allacciato alla rete di distribuzione, nella quale circola una corrente, che è prodotta da una centrale, i cui generatori (alla fin fine) sono mossi, appunto, o dall'acqua o dal vapore?
La risposta è (evidentemente): no. I vantaggi dell'elettricità e dei motori elettrici sono principalmente costituiti dalla facilità di trasporto, di distribuzione e di utilizzazione dell'energia e dalla versatilità del loro impiego. Volete una riprova? Provate a immaginare un aspirapolvere o un frullino mossi da una ruota idraulica o da una macchina a vapore!
Generatore elettromagnetico di corrente di Faraday


LA CHIMICA

Uno degli aspetti caratteristici della seconda rivoluzione industriale è stato lo sviluppo dell'industria chimica. I progressi in questo settore hanno avuto ripercussioni un po' dovunque, dall'agricoltura all'industria, dalla medicina alla produzione bellica, e hanno contribuito alla radicale trasformazione del costume e della vita di tutti i giorni. Pensiamo per esempio alla illuminazione a gas: l'industria del gas illuminante era sorta su basi empiriche sul principio del secolo utilizzando il carbone come materia prima; nei decenni successivi, avvalendosi della ricerca di laboratorio, riuscì ad aumentare considerevolmente il potere illuminante del gas di carbone. Le conseguenze dell'impiego del gas per l'illuminazione furono di eccezionale importanza: adoperato dapprima nelle fabbriche per utilizzare le ore della sera e della notte, consentì la riorganizzazione dei turni in tutte le industrie in cui lavorazione continua risultasse possibile e opportuna; usato poi per l'illuminazione delle strade e delle abitazioni private, cambiò l'aspetto notturno delle città e contribuì non poco a modificare le abitudini di vita della gente.
La diffusione di massa dei giornali, un'altra delle grandi novità nella cultura e nei modi di vita dei Paesi occidentali, fu resa possibile dalla produzione di carta a basso costo. La crescente richiesta di carta determinata dalla diffusione della cultura aveva stimolato fin dai primi anni del secolo la ricerca di materie fibrose a buon mercato che potessero sostituire i tradizionali stracci, ormai decisamente insufficienti ad assicurare un adeguato volume di produzione. Nella seconda metà del secolo furono trovati procedimenti per ottenere dal legno, per mezzo di acidi ed altri reagenti chimici, la cellulosa. La carta di cellulosa poteva essere prodotta in grandi quantità e a costi relativamente modesti, presupposto per l'affermazione di una grande industria editoriale e del primo dei moderni mezzi di informazione (in inglese: mass media, dove media è il plurale del latino medium = «mezzo»), i giornali a grande tiratura. La cellulosa era poi suscettibile di diverse utilizzazioni; la celluloide fu inventata nel 1864.
Molte produzioni ricevettero un deciso impulso dalle nuove tecniche chimiche. La tecnica della placcatura, ad esempio, che consiste nel ricoprimento di oggetti con sottile strato di metallo, talvolta prezioso (argentatura o doratura), sfruttava la tecnica della elettrolisi. Importantissima, poi, fu la scoperta dei coloranti artificiali, che cominciarono a sostituire quelli naturali, estratti cioè da piante, dopo la metà del secolo: nel 1856 William H. Perkin (1838-1907) sintetizzò il primo colorante all'anilina e presto altri se ne aggiunsero. L'industria tessile se ne avvantaggiò enormemente perché i nuovi coloranti sintetici si potevano produrre in quantità illimitate, erano meno costosi e di migliore qualità.
Ma i successi maggiori furono probabilmente quelli ottenuti nel settore della chimica organica. Fino ai primi decenni dell'Ottocento si pensava che le sostanze organiche formassero un mondo assolutamente separato da quello delle altre sostanze: mentre queste ultime potevano essere prodotte artificialmente dall'uomo, le prime sembravano sfuggire al suo controllo, tanto che per la loro sintesi si ipotizzava la necessità di una misteriosa vis vitalis (forza vitale) che naturalmente esulava dalle possibilità dei laboratori. Ma nel 1828 il chimico tedesco Friedrich Wöhler (1800-1882) riuscì a preparare artificialmente l'urea (sostanza organica contenuta nell'urina) per sintesi di sostanze inorganiche, abbattendo la barriera che esisteva tra queste due branche della chimica. Oggi si possono produrre in laboratorio circa due milioni di composti organici; tuttavia la distinzione tradizionale tra chimica inorganica ed organica ha ancora una sua validità, perché se è vero che nessuna «forza vitale» presiede alla costituzione delle sostanze organiche che sono aggregati atomici come i composti inorganici, esse possiedono tuttavia delle proprietà comuni che le fanno considerare un gruppo particolare (e straordinariamente numeroso) di sostanze, ben differenziato da tutte le altre.
Lo sviluppo degli studi di chimica organica cominciò ad estendere l'influenza dalla scienza moderna a nuovi campi quali l'agricoltura, l'alimentazione, la medicina e la chirurgia. Le tecniche agricole ebbero una svolta rivoluzionaria grazie specialmente alle ricerche del grande chimico tedesco Justus von Liebig, che nel 1840 pubblicò l'opera Chimica organica applicata all'agricoltura e alla fisiologia delle piante, dove dava un elenco delle sostanze chimiche presenti nei vegetali ed affermava vigorosamente la necessità di restituire ai terreni coltivati i minerali che le piante avevano assorbito. L'uso di fertilizzanti chimici, che aveva già cominciato ad affermarsi empiricamente, ne venne incoraggiato: ai nitrati del Cile e al guano peruviano si aggiunsero i sali potassici di giacimenti scoperti da poco (soprattutto nelle montagne dell'Harz, in Germania). A questi fertilizzanti si affiancarono poi i primi fertilizzanti artificiali, ottenuti spesso come sottoprodotti di altri processi industriali: fosfati dalle scorie dell'industria dell'acciaio, liquidi ammoniacali dalle officine del gas, ecc.
Collegato da vicino alla chimica organica, lo studio dei processi di fermentazione stava facendo fare intanto passi da gigante alla microbiologia sotto la guida di uno dei maggiori scienziati dell'epoca, il francese Louis Pasteur (1822-1895). Egli scoprì che le fermentazioni sono dovute all'azione di micro-organismi, e dimostrano tra l'altro che le malattie del vino sono causate da fermenti e che possono essere combattute per mezzo di un debole riscaldamento (pastorizzazione), dando così un grande aiuto alle aziende enologiche. Di peso ancora maggiore per l'industria alimentare fu l'invenzione e la diffusione della margarina. L'insufficiente produzione dei grassi alimentari tradizionali di fronte all'aumentata richiesta indusse l'imperatore Napoleone III a bandire un concorso per trovare un surrogato del burro: il chimico Mège-Mouriès preparò verso il 1860 una miscela di grassi animali, trattata in modo che avesse caratteri (aspetto, colore, odore, gusto) simili a quelli del burro. L'uso della margarina si estese rapidamente in tutta Europa e poi nel resto del mondo, e la sua produzione subì molti cambiamenti: oggi ai grassi animali vengono aggiunti o sostituiti grassi vegetali.
Anche la medicina deve molto alla chimica: a parte la biochimica e la chimica fisiologica (che si sono sviluppate specialmente nel nostro secolo gettando una nuova luce sui processi vitali e le manifestazioni patologiche), le nuove scoperte hanno interessato soprattutto i settori della farmaceutica e della chirurgia. Per quanto riguarda i farmaci, l'Ottocento fu il secolo del progressivo affermarsi degli alcaloidi e in generale dei farmaci chimici, nuovi o anche tradizionali, ma preparati in modo più accurato con le nuove tecniche della chimica (per esempio: oppio, digitalina; e specialmente utile il chinino, contro la malaria). La chirurgia fece nel corso del secolo dei progressi veramente straordinari; essi furono dovuti a varie cause, quali un diverso atteggiamento di medici e scienziati verso le operazioni chirurgiche (fino al Settecento esse venivano affidate a tecnici di grado inferiore, con scarsa preparazione scientifica) e il generale risveglio degli studi medici, specie dell'anatomia e della patologia. Ma la chimica organica ebbe un ruolo determinante in questi progressi mettendo a disposizione dei chirurghi anestetici (composto dal prefisso anche ha valore privativo e dal greco àisthesis = «sensibilità»: sostanze che inducono assenza di sensibilità e perciò di dolore) e antisettici (dal greco sépsis = «putrefazione»: sostanze che impediscono le infezioni).
Concludiamo questa rapida rassegna delle realizzazioni della chimica industriale nel secolo XIX accennando alla dinamite, il più importante degli esplosivi nati nell'Ottocento. Nel 1846 il chimico piemontese Ascanio Sobrero aveva scoperto la nitroglicerina, un estere della glicerina di formula C3H5(NO3)3, liquido oleoso e incolore; la facilità di esplosione al minimo urto la rendeva pericolosissima, di difficile lavorazione e di ancor più difficile uso. Negli anni dopo il 1860 lo svedese Alfred Nobel ne tentò la produzione industriale, con varia fortuna (la sua prima piccola fabbrica venne distrutta da un'esplosione), finché nel 1867 riuscì a produrre un esplosivo dalle prestazioni molto migliori, mescolando alla nitroglicerina (75 per cento in peso) della farina fossile assorbente (25 per cento). La farina fossile è una roccia friabile e farinosa, costituita da gusci silicei di innumerevoli e microscopiche alghe, le diatomee. Egli chiamò dinamite (dal greco dynamis = «forza») questo esplosivo che si presenta come una materia plastica ed ha il vantaggio di poter essere trasportato e manipolato con relativa sicurezza. La dinamite a farina fossile e gli altri esplosivi a base di nitroglicerina (che prendono il nome collettivo di dinamiti) trovarono molteplici applicazioni, non solo belliche: ad esempio nella perforazione di gallerie e nei lavori in miniera.

REAZIONI CHIMICHE

Le reazioni chimiche sono le trasformazioni che modificano chimicamente le sostanze, alterandone la struttura molecolare. I tipi di reazioni più importanti sono quelle di combinazione (o sintesi) nelle quali due corpi semplici o composti si uniscono a formare sostanze più complesse:



quelle di decomposizione (o analisi) nelle quali le sostanze composte si scindono negli elementi o in composti più semplici:


e infine quelle di sostituzione nelle quali un componente sostituisce un altro:



Non tutte le reazioni avvengono con la stessa facilità e può essere necessario sottoporre le sostanze reagenti a particolari trattamenti e condizioni che facilitino o provochino la reazione voluta. In generale i reagenti devono essere mischiati insieme il più intimamente possibile, e ciò si ottiene (se sono solidi) polverizzandoli e mescolandoli o, più spesso, sciogliendoli nell'acqua: le sostanze sciolte infatti si possono considerare polverizzate quanto più non è possibile, la suddivisione arrivando a dimensioni molecolari e sub-molecolari. Abbastanza numerose sono anche le reazioni facilitate dall'aumento della pressione; altre avvengono solo in presenza della luce.
Molto spesso ha un'importanza decisiva la temperatura: aumentando la temperatura aumenta infatti la velocità di reazione (cioè la rapidità con cui le sostanze si trasformano). Ora in certi casi a temperatura normale la trasformazione è così lenta che in pratica è come se non avvenisse: per esempio un miscuglio di idrogeno ed ossigeno si trasforma in acqua anche a temperatura ambiente (circa 20 gradi C), ma così lentamente che in 50 miliardi di anni ne verrebbe trasformato solo circa il 15 per cento! Se aumentiamo la temperatura aumenta la rapidità della trasformazione, finché a circa 70 gradi C idrogeno e ossigeno si combinano istantaneamente con una esplosione (il loro miscuglio è perciò detto gas tonante). Inoltre, portando la temperatura al di sopra di un certo valore, talvolta molto alto, i solidi diventano liquidi, e molte volte è necessario lavorare proprio sui liquidi: così nella metallurgia (per esempio nella produzione delle leghe) è indispensabile trattare i metalli allo stato liquido.
Particolare interesse ha l'uso dei «catalizzatori», sostanze che, in certe reazioni, aggiunte ai reagenti ne favoriscono la trasformazione. Alla fine dei processi i catalizzatori si trovano inalterati e il loro effetto perciò non è di prendere parte alle reazioni, ma solo di aiutarle. I catalizzatori si trovano inalterati e il loro effetto perciò non è di prendere parte alle reazioni, ma solo di aiutarle. I catalizzatori permettono l'utilizzazione industriale di reazioni chimiche altrimenti di nessuna utilità pratica. Un esempio è la produzione sintetica dell'anidride solforica per ossidazione dell'anidride solforosa:

2 SO2 + O2 --> 2SO3

Il processo è troppo lento per essere sfruttato, ma si riesce a produrlo con molta rapidità in presenza di un catalizzatore detto «spugna di platino» (platino finemente suddiviso depositato su un supporto).
Un posto particolare occupa l'applicazione dell'elettricità alla chimica: certe reazioni si provocano per esempio facendo scoccare una scintilla elettrica; noi vogliamo però parlare soprattutto della «elettrolisi». Abbiamo detto prima che le sostanze sciolte nell'acqua si suddividono fino a raggiungere dimensioni molecolari e sub-molecolari; ora precisiamo che quando alcune sostanze come gli acidi, le basi e i sali (dette «elettroliti») sono in soluzione, le loro molecole che si sono disperse nel solvente sono in parte dissociate in particelle ancora più piccole dette «ioni» che possono essere atomi o gruppi di atomi, dotati però di cariche elettriche, positive e negative. L'acido solforico, per esempio, in soluzione si dissocia in ioni-idrogeno positivi e ioni SO4 negativi:



(lo ione SO4 ha due cariche negative).
L'idrossido di sodio (soda caustica) si dissocia in ioni-sodio positivi (gli ioni metallici sono sempre positivi) e in ioni-ossidrile negativi:



Ebbene, se facciamo passare la corrente elettrica in una soluzione di un elettrolita, avviene la sua elettrolisi (= scomposizione per mezzo della corrente elettrica). Possiamo capire quello che succede pensando di immergere nella soluzione due sbarrette conduttrici, collegate ai morsetti di una pila (elettrodi): una sbarretta sarà dunque elettricamente positiva, l'altra negativa. Gli ioni presenti nella soluzione sotto l'azione di forze elettrostatiche migrano verso le sbarrette e precisamente (poiché cariche di segno opposto si attraggono) gli ioni positivi si indirizzeranno verso l'elettrodo negativo, gli ioni negativi verso quello positivo; giunti agli elettrodi gli ioni perdono le loro cariche elettriche e diventano neutri. Questo metodo è usato tra l'altro per ottenere metalli purissimi.

LA CHIMICA DEL CARBONIO

Tutte le sostanze organiche sotto l'azione del calore carbonizzano, mostrando così che il loro componente fondamentale è il carbonio. La chimica organica è perciò la chimica del carbonio, i cui atomi hanno la particolarità di legarsi tra di loro in modi molto diversi, formando lunghe catene aperte o anelli chiusi e dando luogo perciò ad un enorme numero di composti. Gli atomi di carbonio (di valenza 4) possono legarsi tra loro scambiandosi una sola valenza (e lasciandone libere 3) o 2 (lasciandone libere 2) o 3 (lasciandone libera una), e formare catene aperte o chiuse:





Le valenze libere vengono saturate da altri atomi o gruppi atomici. La classificazione dei composti organici è molto complessa: accenniamo solo ai più semplici.
Gli idrocarburi sono sostanze organiche formate solo da carbonio e idrogeno. Si dividono in varie serie:

serie delle paraffine:





Più brevemente l'etano si può scrivere:




Allo stesso modo i composti successivi della serie, che si ottengono aggiungendo al composto precedente il gruppo CH2, si scrivono:





serie dell'etilene:



serie dell'acetilene:



serie aromatica (in cui gli atomi di carbonio formano anelli chiusi): il composto più semplice è il benzolo (C6H6):




Composti di carbonio, idrogeno ed ossigeno sono: gli alcooli (tra cui l'alcool etilico che si ottiene dalla distillazione del vino e la glicerina; simili agli alcooli sono i fenoli); le aldeidi (tra cui la formaldeide) e i chetoni (tra cui l'acetone); gli acidi organici (come l'acido formico e l'acido acetico); gli eteri (come l'etere etilico, usato come anestetico); gli esteri (che si ottengono dalla reazione di un alcool con un acido, organico o inorganico; quando derivano da acidi inorganici contengono nella loro molecola anche atomi di altri elementi come il cloro, lo zolfo, l'azoto. Accanto ad esplosivi come la nitroglicerina, comprendono altri composti che hanno odore gradevole, simile a quello dei vari frutti e che per questo vengono prodotti e venduti come essenza di frutta); i grassi (olii, che sono liquidi, e grassi propriamente detti, solidi; numerosi nel regno animale e vegetale, sono miscugli di esteri della glicerina); i carboidrati (tra cui gli zuccheri come il glucosio, il fruttosio, il saccarosio, il lattosio; e inoltre l'amido e la cellulosa). Composti di carbonio, idrogeno e azoto sono le ammine (da una di esse, l'anilina, si ricavano molte sostanze coloranti). Composti di carbonio, idrogeno, ossigeno e azoto sono le ammidi (tra cui l'urea) e gli ammino-acidi (che sono i costituenti di base delle molecole delle sostanze proteiche). Tra i composti più complessi ricordiamo gli alcaloidi (sostanze stupefacenti, velenose e medicinali come morfina, chinina, cocaina, strichinina, nicotina, caffeina) e infine le proteine,costituenti fondamentali degli organismi viventi (composte tutte di carbonio, idrogeno, ossigeno e azoto e alcune inoltre di altri elementi come zolfo, fosforo, ferro, magnesio).

NUOVI MATERIALI

Rientra tra i successi della chimica ottocentesca la disponibilità di nuovi materiali per la fabbricazione di manufatti o per la costruzione di edifici, dalla celluloide, a cui abbiamo accennato, al cemento e all'acciaio. In alcuni casi, come per il cemento o l'acciaio, non si trattava di materiali nuovi in assoluto: la novità stava piuttosto nella loro diffusione, dovuta essenzialmente alla drastica riduzione dei costi di produzione.
Nel campo delle costruzioni fino alla metà del Settecento, i materiali più diffusi in Europa erano stati il legno e la pietra. La pietra, assai più costosa del legno, era prevalentemente impiegata nella costruzione delle abitazioni più ricche, delle opere pubbliche e degli impianti militari. La scarsità del legname da costruzione, dovuta anche alla grande (e crescente) richiesta proveniente dai cantieri navali, e l'alto costo della pietra stimolò la loro progressiva sostituzione con i mattoni. In alcune opere (ad esempio ponti, tunnel, ecc.) venne usato il ferro o la ghisa, che i progressi della siderurgia avevano fatto diventare un materiale relativamente poco costoso e di lunga durata. Negli anni Venti e Trenta dell'Ottocento cominciarono ad essere impiegati il cemento e il calcestruzzo (un miscuglio di cemento e di materiali inerti, come sabbia, pietrisco o ghiaia) che dovevano diventare i materiali più diffusi nell'edilizia. Intorno alla metà del secolo entrò in uso il cemento armato, risultante dall'immersione nel cemento di bacchette, verghe o travi di ferro, che stimolò lo sviluppo in verticale degli edifici, come del resto fece l'uso di travi in acciaio (il primo edificio con struttura interamente in acciaio fu costruito a Chicago nel 1890 e negli anni seguenti sorsero i primi grattacieli).
Il cemento è costituito essenzialmente di calce, silice, allumina e altri ossidi in quantità definite. Si dice idraulico per la sua capacità di far presa sott'acqua. Il rapporto tra i costituenti basici (gli ossidi di calcio e magnesio) e quelli acidi (silice e allumina) è detto «modulo di idraulicità» e da esso dipende la velocità di presa e la resistenza del materiale. Alcune terre naturali, prevalentemente silicee, impastate con calce, forniscono cementi idraulici noti fin dall'antichità. Gli antichi Romani, ad esempio, pur facendo ampiamente ricorso ai mattoni, costruivano prevalentemente i loro edifici in calcestruzzo e ottenevano un ottimo cemento mescolando alla calce una pietra vulcanica che abbonda nei pressi di Roma, la pozzolana, che ancora in età moderna era assai richiesta (e costituiva oggetto di esportazione) specialmente per la costruzione di impegnative opere di ingegneria idraulica.
I cementi moderni si ottengono con la cottura di miscele omogenee in proporzioni determinate di calcare ed argilla. I materiali di partenza, finemente macinati, vengono riscaldati in forni a ciclo continuo per iniezione di gas caldi che creano un gradiente di temperatura da 300 gradi C (entrata) a 1400 gradi C (uscita). Durante la permanenza nel forno a temperature crescenti si verificano reazioni complesse tra cui la formazione di silicati e alluminati di calcio e la successiva incipiente fusione (sinterizzazione) degli stessi, con produzione di granuli duri detti clinker che, una volta polverizzati, costituiscono il cemento. Il processo di indurimento del cemento per azione dell'acqua, o «presa», è dovuto a fenomeni chimici e fisici di natura complessa ed avviene in tempi variabili da pochi minuti, nei cementi cosiddetti a presa rapida, a parecchi giorni nei cementi a presa lenta. A questo secondo tipo appartiene il cemento comunemente più usato, detto «Portland», per la sua somiglianza con il calcare compatto della omonima penisola.
L'acciaio, come sappiamo, è una lega di ferro e carbonio, dove il carbonio entra per una percentuale che va dallo 0,1 all'1,8: le leghe che contengono una percentuale di carbonio superiore (fino al 6 per cento) si dicono «ghisa». Più aumenta il contenuto di carbonio e più il metallo risulta duro: la ghisa è dunque più dura dell'acciaio, che a sua volta è più duro del ferro puro (ossia con un contenuto di carbonio inferiore allo 0,1 per cento), che si dice, appunto per la sua malleabilità, «dolce». La ghisa, però è molto fragile, si spezza facilmente e quindi non può essere lavorata: la si può utilizzare (e fu largamente utilizzata soprattutto nella prima fase dell'industrializzazione) solo gettandola in forme. Il ferro dolce, d'altra parte, è troppo tenero: se la ghisa si spezza, il ferro dolce si piega. L'acciaio presenta i pregi di entrambi: è duro, malleabile, duttile, elastico.

Il metodo tradizionale per ottenere acciaio, come abbiamo visto a suo luogo, era quello della cementazione, con il quale al ferro veniva aggiunto una certa quantità di carbonio mediante ripetuti riscaldamenti con carbone di legna. La diffusione del carbonio nel ferro era tutta via solo superficiale e occorreva una lunga lavorazione per ottenere acciaio di buona qualità: se ne produceva dunque in piccole quantità e a costi molto alti. A metà Settecento un costruttore di orologi, Benjamin Huntsman (1704-1776), aveva introdotto in Inghilterra il metodo, già usato in India, di produrre acciaio riscaldando ferro con carbone di legna in crogiuoli. La qualità di questo acciaio era nettamente superiore a quella dell'acciaio cementato tradizionale. In più, il metodo del crogiuolo consentiva la fabbricazione di pezzi di notevole formato: anche se i singoli crogiuoli erano di piccole dimensioni, era possibile, muovendo con sapiente regia una gran massa di operai, riscaldarne in contemporanea in speciali camere di fusione un buon numero (alcune decine o addirittura alcune centinaia) per poi versarli nella forma in rapida successione, come una colata continua. Nonostante la progressiva diminuzione dei costi di produzione realizzata nella prima metà dell'Ottocento, l'acciaio a crogiuolo risultava ancora troppo caro per i normali usi industriali e in pratica fu impiegato solo nella fabbricazione di cannoni (in guerra, lo abbiamo già constatato, non si bada a spese), un settore nel quale si doveva affermare decisamente (nonostante che il suo primo cannone in acciaio fosse risultato un fiasco clamoroso esplodendo durante il collaudo) l'impresa tedesca dei Krupp.
La svolta decisiva nella produzione dell'acciaio può essere emblematicamente datata al 13 agosto del 1856, quando Henry Bessemer (1813-1898) presentò alla British Association for the Advancement of Science la memoria intitolata Sul modo di produrre ferro malleabile e acciaio senza combustibile. Era l'uovo di Colombo. Tradizionalmente per ottenere ferro dalla ghisa, ossia per sottrarre carbonio alla ghisa, si riscaldava quest'ultima coprendola di carbone; Bessemer pensò invece di immettere nel metallo fuso un semplice getto d'aria calda che eliminava il carbonio il quale, a sua volta, funzionando da combustibile, manteneva fuso il metallo. In questo modo, non solo si riduceva drasticamente il costo del combustibile, ma i tempi di lavorazione si riducevano in maniera impressionante, nell'ordine di 50 o di 100 volte.
Era davvero una rivoluzione. Anche se le sue proprietà fisiche erano pressappoco le stesse da millenni, un acciaio a così basso costo era davvero un materiale nuovo. Al procedimento Bessemer si aggiunsero rapidamente altri metodi, come quello Martin-Siemens (1870 circa) e quello Thomas (1879), che realizzarono un'ulteriore riduzione dei costi. In particolare il metodo Thomas consentì di utilizzare minerali di ferro (come erano in prevalenza quelli francesi e tedeschi) contenenti fosforo ed altre impurità che i convertitori Bessemer non erano in grado di eliminare. La disponibilità di acciaio a buon mercato ha avuto una tale importanza nello sviluppo tecnico ed economico dell'Occidente che la seconda rivoluzione industriale è stata a buon diritto definita «l'età dell'acciaio».

LA DILATAZIONE TERMICA

Molti dei lettori si sono certo accorti osservando le rotaie di una ferrovia, che i tronchi di rotaia non sono saldati l'uno all'altro ma sono staccati, separati da un intervallo di un centimetro circa. È un accorgimento indispensabile perché quando la temperatura aumenta i tronchi di rotaia si allungano e bisogna lasciar loro lo spazio necessario perché possano farlo liberamente: se fossero saldati insieme l'allungamento provocherebbe delle deformazioni.
Come le rotaie di una ferrovia, tutti i corpi in generale si dilatano con l'aumento della temperatura, e si contraggono con una sua diminuzione. Non tutte le sostanze, però, si dilatano nella stessa misura, ma certe più e certe meno. Perché si abbia un'idea dell'entità della dilatazione termica, diamo l'allungamento che subiscono sbarre di varie sostanze lunghe un metro, quando la temperatura aumenta di 100 gradi C:

 Alluminio         2,4 mm
 Ferro             1,2 mm
 Piombo            2,9 mm
 Platino           0,9 mm
 Rame              1,6 mm
 Marmo             0,7 mm
 Porcellana        0,3 mm
 Vetro             0,9 mm
 Vetro di quarzo   0,05 mm

Nella costruzione di macchine, strumenti di precisione, e anche nella costruzione di edifici occorre tener conto della dilatazione termica dei diversi materiali. Il fatto che il vetro e il platino si dilatino nella stessa misura, permette per esempio la saldatura col vetro di fili di platino, mentre fili di altri metalli, saldati col vetro, dilatandosi in modo diverso, si deformerebbero fino a rompere il vetro.
Anche il ferro e il cemento si dilatano nello stesso modo: per questo si possono associare nella tecnica del cemento armato.

L'IMPRESA TEDESCA DEI KRUPP

I Krupp erano mercanti di qualche peso a Essen, nella Ruhr, già sul finire del XVI secolo. All'inizio del Seicento uno di loro, Anton, sposò una certa Gertrud, figlia di un fabbricante d'armi: di lì cominciò la secolare vocazione dei Krupp per le armi. La famiglia, però, si impose decisamente in questo campo solo con Alfred (1812-1887), che ingrandì le sue officine nella Ruhr e fu tra i primi a costruire cannoni in acciaio. I suoi cannoni avevano il difetto di scoppiare, ma Alfred dapprima promise ai suoi clienti (principalmente lo zar di Russia e il re di Prussia) di rimborsare il costo dei cannoni che scoppiavano e poi trovò il modo di farli funzionare ed anzi di farli diventare i migliori del mondo. Il re di Prussia, diventato imperatore di Germania dopo aver sconfitto Austria e Francia, dichiarò di dover molto delle sue vittorie ad Alfred. Le industrie Krupp furono sommerse da una valanga di commesse da ogni parte del mondo, compresi gli Stati Uniti e l'allora lontanissimo e misterioso Giappone. In breve però Stati Uniti e Giappone impararono a costruirsi da soli i cannoni di cui avevano bisogno e, non essendoci grosse guerre nel mondo, la Krupp passò un brutto momento. L'imperatore di Germania, riconoscente, corse in aiuto di Alfred e la sua azienda tornò più forte di prima. Agli inizi del Novecento la Krupp contava 70.000 dipendenti che si raddoppiarono negli anni della prima guerra mondiale e arrivarono a 250.000 alla vigilia della seconda guerra mondiale.

Quanto ad Alfred, morì settantacinquenne solo, abbandonato dal figlio e dalla moglie, che non sopportavano più la sua tirannide familiare. Fu sepolto di sera, alla luce delle torce accompagnato da una spettacolare fiaccolata di dodicimila dipendenti.
Alfred Krupp (1812-1887)


MACCHINE TERMICHE

Le macchine termiche si possono classificare in:

A) motori termici (assorbono energia termica producendo lavoro meccanico) che a loro volta si suddividono in:
I) motori a combustione esterna (nei quali la combustione avviene fuori del motore stesso), come la macchina a vapore e le turbine;
II) motori a combustione interna (nei quali la combustione avviene internamente al cilindro), come i motori a scoppio, il motore Diesel e i motori a reazione;

B) apparecchi di refrigerazione o frigoriferi (assorbono energia meccanica utilizzandola per far passare calore da un corpo a temperatura bassa ad uno a temperatura più alta).

Il principio di funzionamento delle turbine è semplice e del tutto simile a quello delle turbine ad acqua. Una ruota munita di pale viene fatta girare velocemente da un getto di vapore (turbine a vapore) o di gas (turbine a gas) caldi, prodotti da una combustione. I motori a turbina sono semplici, efficienti e di grande potenza. Sono usati nelle centrali termoelettriche per mettere in moto i rotori degli alternatori e nella propulsione di navi (turbonavi) e soprattutto di aerei (la turboelica è una turbina a gas che mette in moto l'elica dell'aeroplano; il turboreattore è un motore a reazione azionato da una turbina).
Le macchine frigorifere sfruttano successive liquefazioni ed evaporazioni di un fluido (in genere ammoniaca) ad opera di una pompa azionata da un motore: durante la fase di evaporazione il fluido assorbe calore dall'ambiente in cui si trova, e lo raffredda.


MOTORI A COMBUSTIONE INTERNA

Verso la fine dell'Ottocento il motore a vapore, scoperto da più di un secolo, era stato perfezionato nei limiti del possibile, compatibilmente con le possibilità tecnologiche del tempo. Perché lo si potesse utilizzare vantaggiosamente nella produzione industriale, però, era necessario collegarlo a un certo numero di macchine operatrici o sfruttarlo per lavori di una certa entità; in altre parole era un motore conveniente solo per fabbriche di una certa dimensione. In più, era ingombrante, richiedeva locali attrezzati e condizionava in maniera spesso imbarazzante la distribuzione degli spazi e la successione delle operazioni nella fabbrica. Quanto ai trasporti, proprio in ragione del peso e dell'ingombro, la macchina a vapore non era applicabile a vetture e mezzi di trasporto individuali: in questo settore sembrava che l'era del cavallo non dovesse tramontare mai.
Durante tutto il secolo XIX, ma specialmente nella sua seconda metà, si moltiplicarono gli studi per realizzare una macchina motrice più piccola, più comoda e più a buon mercato che potesse essere utilizzata anche da artigiani e piccole imprese industriali o che, nelle grandi fabbriche, risultasse meno d'impaccio e che, infine fosse utilizzabile nella locomozione.
A queste caratteristiche rispondevano sia i motori elettrici, sia i motori a scoppio. I loro inventori erano spesso preoccupati dai fenomeni di concentrazione industriale in atto ed erano mossi nelle loro ricerche dal desiderio di costruire apparati che rafforzassero la piccola industria nei confronti del grande capitale. L'effetto reale fu assai diverso, giacché motori elettrici e motori a scoppio furono il terreno d'elezione delle nuove colossali concentrazioni industriali (basta ricordare le industrie automobilistiche).
Perché il motore elettrico diventasse uno strumento economicamente interessante occorreva che fosse disponibile corrente elettrica a costi modesti. Questa condizione fu realizzata, intorno al 1880, con la nascita delle prime centrali elettriche per l'illuminazione. Quella di Milano risale al 1883, e appunto in questo periodo venne messo a punto da Galileo Ferraris un motore in grado di sfruttare la corrente elettrica che era ormai a portata di mano.
Quanto ai motori termici, a partire dalla metà del secolo ne furono ideati alcuni, e nel 1877 il tedesco Nikolaus August Otto mise a punto un motore a quattro tempi che, perfezionato da altri, fu in sostanza il prototipo del motore a scoppio. Il motore a scoppio presenta molti vantaggi sulla macchina a vapore: è facile da avviare e raggiunge subito le condizioni di perfetto funzionamento, è leggero e poco ingombrante ed ha un buon rendimento (per un motore termico): circa 0,30. Viene usato soprattutto come motore di piccoli mezzi di locomozione (motociclette e automobili). Un inconveniente è però che per il suo funzionamento è necessario usare un combustibile pregiato come la benzina.
Verso la fine dell'Ottocento l'ingegnere tedesco Rudolf Diesel mise a punto il motore a iniezione (detto comunemente motore a Diesel) che può usare combustibili più scadenti della benzina (nafta e olio pesante) ed è più semplice e robusto del motore a scoppio. È però più pesante e ingombrante: viene utilizzato in autocarri, navi, sommergibili, e negli impianti fissi.

IL MOTORE A SCOPPIO

Un motore a scoppio consta di due parti: un carburatore dove vengono mescolate aria e benzina polverizzata, a formare la miscela esplosiva, e un cilindro. Nel cilindro scorre uno stantuffo a tenuta perfetta; attraverso la biella B e la manovella M il movimento rettilineo in su e in giù dello stantuffo viene trasformato in moto rotatorio e trasmesso poi (in un autoveicolo) alle ruote. Nella parte superiore del cilindro (testata) sboccano due tubi: uno lo mette in comunicazione col carburante, l'altro con l'esterno (tubo di scappamento). L'apertura e la chiusura dei due tubi sono regolate da due valvole: la valvola di aspirazione A e la valvola di scarico S (comandate automaticamente dal movimento del motore). Sempre nella testata si trova una candela C dotata di due puntine metalliche tra le quali si può far scoccar una scintilla elettrica.
Il funzionamento del motore a scoppio avviene in quattro tempi o fasi:
1° tempo (fase di aspirazione: lo stantuffo viene abbassato e automaticamente la valvola di aspirazione A si apre (mentre l'altra resta chiusa). Il movimento dello stantuffo risucchia la miscela del carburatore aspirandola nel cilindro.
2° tempo (fase di compressione): la valvola A si chiude, e lo stantuffo sale comprimendo la miscela nella camera di scoppio.
3° tempo (fase di scoppio e di espansione): a valvole sempre chiuse, tra le puntine della candela C scocca una scintilla che produce l'accensione e l'esplosione della miscela che espandendosi spinge violentemente in basso lo stantuffo.
4° tempo (fase di scarico): si apre la valvola di scarico S attraverso cui escono i gas prodotti dalla combustione, i cui residui vengono completamente espulsi dalla risalita dello stantuffo.
È evidente che solo la terza fase (di scoppio) è attiva, cioè solo in questa fase il motore produce lavoro, spingendo in basso lo stantuffo. Le altre fasi sono passive e i movimenti dello stantuffo avvengono solo perché il motore messo in moto dalla fase di scoppio, continua per inerzia a muoversi, utilizzando l'energia acquistata nella fase attiva.
Il motore di una automobile e costituito abitualmente da quattro cilindri, in modo che ce ne sia sempre uno in fase attiva: l'effetto di inerzia è poi agevolato da un volano, un pesante disco d'acciaio che assorbe energia durante la fase attiva per restituirla nelle fasi passive.
Schema: le fasi del motore a quattro tempi

Principio di funzionamento del motore a scoppio

IL MOTORE DIESEL

Nel motore Diesel, quando la valvola di aspirazione A è aperta, viene risucchiata nel cilindro aria pura, che poi viene compressa ad una forte pressione (30-40 atmosfere), riscaldandosi. A questo punto il carburante (nafta) viene iniettato e polverizzato per mezzo di un iniettore nell'aria compressa e calda e la miscela si accende spontaneamente per effetto dell'alta temperatura. Non c'è quindi bisogno della candela, organo delicato che si sporca facilmente impedendo lo scoccare della scintilla se il carburante non è puro e lascia residui. Ecco perché il motore Diesel può usare carburanti meno pregiati. Seguono le fasi di espansione e di scarico. Data la forte pressione della miscela, il cilindro deve essere molto più robusto di quello usato nel motore a scoppio.
Schema: le fasi del motore Diesel


LA CATENA DI MONTAGGIO

Alla fine dell'Ottocento l'automobile era forse uno dei beni di consumo più complicati prodotti dall'industria. Era composta di molte parti (un impianto elettrico, un motore a scoppio, un apparato meccanico per la trasmissione del movimento alle ruote, un telaio portante, una carrozzeria, e poi freni, sospensioni, ruote, sterzo, ecc.), ognuna delle quali era costituita da numerosi elementi fatti dei materiali più diversi (ferro, acciaio, rame, gomma, ecc.). Lunghi e complicati erano poi i procedimenti necessari per mettere assieme, ossia per montare tutte queste parti. Difficili da costruire, e di non facile manutenzione, le automobili erano anche molto costose. Considerate in origine oggetti di lusso e quasi delle stravaganze, avevano un mercato ristretto: ancora nel 1904 la fabbrica americana Olds, considerata all'avanguardia nel settore, non superava il ritmo di 5000 vetture all'anno.
Le prime automobili erano costruite in modeste officine meccaniche dotate solo delle principali macchine utensili (torni, frese, trapani) e di una rudimentale attrezzatura per fondere e colare il metallo. Era un modello di organizzazione quasi artigianale fondato sulla collaborazione di un gruppetto di tecnici e di operai altamente qualificati. I pochi esemplari prodotti erano, per così dire, «fatti a mano», spesso diversi l'uno dall'altro. Via via però che l'automobile veniva perfezionata, resa, cioè, più confortevole, più sicura e funzionale cominciò ad interessare un pubblico molto più vasto dei pochi, spericolati ed eccentrici clienti degli inizi. Si trattava pur sempre di un mercato riservato ai ricchi, ma la produzione di tipo artigianale era ormai insufficiente a coprire la domanda. Le officine si ingrandirono, occuparono enormi capannoni, si riempirono di macchine utensili più sofisticate, cominciarono a impiegare un numero consistente di operai.
Anche l'organizzazione del lavoro dovette cambiare con il crescere delle dimensioni delle imprese e del volume della produzione. Nelle vecchie officine tecnici e operai svolgevano in collaborazione mansioni diverse e complesse; nelle nuove fabbriche restava un forte nucleo di operai qualificati, ma il lavoro degli altri venne sempre più suddiviso in mansioni semplici in modo che per svolgerle non fossero necessari né un lungo addestramento, né un'abilità particolare. Da un lato il livello di qualificazione della maggioranza degli operai tendeva ad abbassarsi; dall'altro le macchine utensili diventavano sempre più specializzate, ossia venivano sempre più spesso progettate e costruite appositamente per la lavorazione di questo o quel pezzo. Si passava così da un tipo di organizzazione del lavoro che lasciava largo spazio alla creatività personale e nel quale ciascuno aveva ben presente il prodotto finale che contribuiva a produrre, a un lavoro in serie, prevalentemente ripetitivo, in cui a ogni operaio era affidato un compito circoscritto e sempre uguale, di cui talvolta ignorava addirittura il significato e la collocazione nel complessivo processo di produzione. In questa nuova organizzazione del lavoro la funzione di riunire e coordinare le mansioni produttive disperse e parcellizzate (ossia ridotte in piccole parti) si concentrava in sostanza nella fase conclusiva del montaggio dei vari pezzi.
Anche se la tendenza verso questo nuovo modello produttivo era presente in tutta l'industria automobilistica e più in generale in tutta l'industria manifatturiera, la sua realizzazione è essenzialmente legata al nome dell'ingegnere americano Henry Ford (1863-1947), che, al di là della clientela tradizionale, ebbe il coraggio di guardare ad un mercato nuovo, praticamente illimitato: quello delle classi medie. Per conquistarlo era necessario abbassare i prezzi e perciò contenere i costi, eliminare gli sprechi, ridurre i tempi di lavorazione. La sua fabbrica di automobili, la Ford Motor Company, fondata a Detroit nel 1903, è diventata il simbolo di un'era nuova del capitalismo, fatta di efficienza e di ritmi produttivi senza precedenti, ma anche di una straordinaria intensificazione dello sfruttamento del lavoro operaio.
Ford aveva costruito la sua prima automobile nel 1893; nel 1908 lanciò il suo nuovo modello, il «modello T», la prima automobile «alla portata di tutti»: un altro segno dei tempi, il simbolo affascinante di un'epoca di benessere diffuso. Fino al modello T le automobili erano state confezionate quasi «su misura» secondo le esigenze dei clienti, che avevano la possibilità di scegliere tra molte varianti possibili, un po' come si fa quando si va dal sarto per farsi tagliare un vestito anziché comprarlo bell'e fatto al grande magazzino. Ford introdusse invece nella produzione della nuova auto una completa standardizzazione, costruendo ogni parte dell'automobile ed ogni suo accessorio secondo modelli fissi.
In verità la standardizzazione era una tendenza caratteristica dell'industria americana che, a partire almeno dagli anni Ottanta, ne aveva fatto la sua arma migliore nella guerra contro l'industria inglese, orientata piuttosto ad offrire al pubblico una vasta gamma di prodotti differenziati, di ottima qualità, ma anche, inevitabilmente, a prezzi più alti. Gli industriali americani erano persuasi di dovere e di potere in qualche modo «educare» la propria clientela e non esitavano ad usare le maniere forti: nell'industria siderurgica, ad esempio, era consuetudine imporre prezzi punitivi ai clienti che richiedevano prodotti non conformi agli standard usuali. Ford assunse la standardizzazione come strumento e simbolo di una razionalizzazione integrale del ciclo produzione-consumo, mettendoci una buona dose di arroganza nel presumere di interpretare i bisogni del consumatore meglio del consumatore stesso. È nota la sua battuta a proposito del colore delle sue auto: «I miei clienti possono scegliere il colore che vogliono, purché sia il nero».
Per accelerare i ritmi di produzione adeguandoli alla nuova domanda di automobili Ford introdusse una innovazione, destinata a modificare radicalmente l'organizzazione del lavoro e dello spazio all'interno della fabbrica moderna: la catena di montaggio. Per la verità, anche in questo caso Ford non faceva che adattare all'industria meccanica e alla produzione di automobili un principio già conosciuto e applicato altrove, e per esempio nei giganteschi macelli di Chicago. Qui le bestie da squartare, appese a un gancio, scorrevano su una rotaia e passavano da un lavorante a un altro, ciascuno dei quali eseguiva sulla carcassa una distinta operazione. Al termine del processo l'animale era completamente squartato. In questo caso potremmo dire che si trattava di una catena «di smontaggio», nel senso che i pezzi venivano via via staccati e asportati. Ma lo stesso procedimento poteva essere utilizzato nel montaggio di pezzi costruiti separatamente.
Ford cominciò ad applicare questa procedura dapprima a singole parti dell'automobile, poi al montaggio dei pezzi. Questi scorrevano su una catena (una rotaia o un nastro trasportatore) e gli operai compivano su di essi le singole operazioni richieste, senza muoversi dal proprio posto. I ritmi di lavorazione potevano essere aumentati accelerando la velocità di scorrimento della catena, i tempi morti si riducevano al minimo, la produttività cresceva. Fu così possibile diminuire ulteriormente i prezzi, il che provocò un ulteriore allargamento del mercato. La produzione della Ford, che era di circa 1700 automobili nel 1903, salì a 200.000 dieci anni dopo, a 300.000 nel 1914, a oltre mezzo milione nel 1918. Nel 1924 oltre la metà delle automobili circolanti nel mondo era uscita dalle fabbriche Ford.
Dati i micidiali ritmi di lavoro imposti dalla catena di montaggio il problema era come tenere legati gli operai alla fabbrica. Ford lo risolse con una mossa a sorpresa: nel 1914 raddoppiò i salari. Per compensi così elevati, superiori a quelli di ogni altra fabbrica, non mancava gente disposta a sopportare i ritmi di lavoro richiesti. Una volta la moglie di un operaio scrisse a Ford:

... La vostra catena di montaggio è un aguzzino di schiavi! Si lavora lavora lavora e si deve tenere il ritmo, anche se uno non si sente bene, ha fitte di dolore dappertutto, come mio marito, e deve stare a sentire un capo che a furia di "Dio qui" e "Dio lì" gli dice di sbrigarsi, come un aguzzino di schiavi... È vero che quei cinque dollari al giorno sono una benedizione, ma se li guadagnano, oh se se li guadagnano!...

Poiché, però, anche gli alti salari non bastavano ad assicurare una manodopera stabile e sottomessa, Ford concepì il proposito di «riformare» gli uomini, ossia di costruire un nuovo tipo d'uomo capace di adattarsi ai nuovi ritmi di lavoro. A questo scopo creò uno speciale ufficio incaricato di controllare la vita privata dei dipendenti, in modo che non sperperassero le loro energie, mantenessero abitudini di vita tradizionale, conducessero un'esistenza tranquilla: nulla doveva turbare il loro rendimento in fabbrica. Allo stesso scopo dovevano servire le scuole, le associazioni ricreative, le istituzioni previdenziali e benefiche create da Ford: l'operaio doveva identificarsi con la ditta da cui dipendeva, doveva adottarne gli obbiettivi e lo stile di vita, abituarsi a fare affidamento sulla sua protezione.
Anche qui niente di nuovo, salvo le dimensioni inconsuete dell'esperimento. La letteratura pedagogica del Sette e dell'Ottocento, a cominciare dai massimi autori, come Rousseau e Pestalozzi, era piena di figure di padroni filantropi e di industriali benefattori, intenti ad addestrare i propri dipendenti, mediante ingegnosi sistemi di premi e castighi, ad una vita di duro ma salutare lavoro, liberandoli dai vizi tradizionalmente attribuiti ai poveri (la pigrizia, la sfrenatezza, l'ingordigia, la slealtà) e insegnando loro le virtù borghesi dell'alacrità, della parsimonia, della moderazione. Più concretamente il progetto di Ford riprendeva gli espedienti paternalistici di certi vecchi padroni, che nella fasi iniziali dell'industrializzazione, nel reclutare manodopera per le proprie fabbriche, si erano trovati con una massa sterminata di proletari riottosi ed affamati, ma con un numero davvero piccolo di buoni e docili operai e che, anche con un'oculata amministrazione della beneficenza, avevano tentato di insegnare ai primi la disciplina e di legare stabilmente i secondi al loro lavoro. Quei pionieri avevano dovuto formare una classe operaia per un sistema industriale primitivo e, per così dire, ancora tutto da inventare. Ford doveva riformare la gente (la classe operaia, ma anche i consumatori) per adattarla ad un sistema industriale evoluto. A parte la disparità delle risorse impiegate, i metodi erano pressappoco gli stessi.

STANDARD

Il termine inglese standard = «norma», «modello» è entrato da tempo nell'italiano corrente, sia come aggettivo, per indicare che qualcosa è stato costruito in serie, secondo moduli fissi (per es.: un apparecchio standard) sia come sostantivo, per indicare il livello o l'entità media di qualche cosa (per es.: lo standard di vita degli Italiani, lo standard di lavoro degli operai giapponesi e simili). Standardizzare vuol dire uniformare la produzione, unificando i modelli, le dimensioni e le forme dei prodotti. La standardizzazione e una condizione della fabbricazione in serie.

IL CONTROLLO DEL LAVORO

L'invenzione del telaio a vapore, della ferrovia, della sgranatrice meccanica per il cotone hanno segnato una grandiosa trasformazione nei modi di produzione. La figura dell'artigiano è rapidamente sparita dai settori produttivi che contavano, mentre i contadini venivano strappati in un modo o nell'altro dai campi e inseriti nella vita di fabbrica. È sorto così il moderno proletariato industriale. La differenza tra gli operai di fabbrica e gli artigiani non stava solo nella diversità degli strumenti che usavano per produrre, ma anche e soprattutto nel fatto che gli operai di fabbrica avevano perso quel controllo sul proprio lavoro, che gli artigiani tradizionali avevano sempre esercitato; e lo aveva perso perché la proprietà dei mezzi di produzione era passata nelle mani dei capitalisti.
Dal momento in cui si è manifestata la separazione tra i produttori e i mezzi di produzione, il controllo del lavoro è divenuto uno degli aspetti centrali del processo produttivo. Inizialmente questo controllo si era espresso nella concentrazione degli operai in fabbrica, nell'imposizione di regole di comportamento più o meno severe, nella fissazione di precisi orari di lavoro (la vita dell'operaio, a differenza di quella dell'artigiano o del contadino, che seguiva la successione del giorno e della notte, della luce e del buio, è scandita dalla sirena della fabbrica che segnala l'inizio e la fine del lavoro). Era un controllo pesante, attraverso il quale il padrone cercava di garantirsi che il lavoro che doveva esser fatto fosse fatto nel modo migliore e nel più breve tempo possibile, ma che lasciava all'operaio una certa autonomia circa il come lavorare in concreto.
Le macchine, naturalmente, condizionavano strettamente i movimenti dell'operaio, che doveva adeguarsi al loro ritmo di funzionamento. Era osservazione comune che nella fabbrica capitalistica non era la macchina a servizio dell'uomo, ma l'uomo a servizio della macchina: l'operaio, è stato detto, era una semplice appendice della macchina. E tuttavia i singoli gesti di lavoro, il modo di afferrare un attrezzo, per esempio, o di azionare un comando, o di spostare un pezzo sul banco, rientravano nella sfera di decisioni propria dell'operaio. Molti operai, poi, possedevano un patrimonio personale di esperienze, del quale erano gelosi custodi, ma che rappresentava anche per il padrone una risorsa da utilizzare. Dopo anni di lavoro gli operai conoscevano i segreti delle macchine meglio di chiunque altro, compresi gli ingegneri che le avevano progettate. Grazie a questa esperienza e al rispetto che sapevano ispirare anche nei capi, gli operai qualificati potevano regolare i propri ritmi di lavoro senza che nessuno, entro certi limiti, osasse interferire. I sorveglianti potevano multarli se li sorprendevano a violare i regolamenti di fabbrica (per esempio a fumare), ma non potevano imporre loro i movimenti o i gesti da compiere per fare il loro lavoro, perché gli operai ne sapevano di più.
Contro questo residuo di autonomia si indirizzarono, sul finire dell'Ottocento, gli sforzi di razionalizzazione del lavoro in fabbrica volti a massimizzarne l'efficienza e la produttività. Il più sistematico autore di simili sforzi fu l'ingegnere americano Frederick Winslow Taylor, che vi si impegnò fin dagli anni Ottanta. Taylor diede un tale impulso alla riorganizzazione del lavoro, da essere considerato «il pioniere della più grande rivoluzione avvenuta nella divisione del lavoro». La rivoluzione di Taylor consisteva nel prescrivere al lavoratore l'esatta maniera in cui ogni operazione doveva essere compiuta. Per farlo occorreva scomporre il lavoro in operazioni e gesti elementari, studiare accuratamente ogni operazione dal punto di vista della massima economia di tempo e di fatica, e infine ricomporre la sequenza delle operazioni con l'eliminazione dei tempi morti e dei gesti inutili.
A questa ricerca si è dato il nome di organizzazione o direzione scientifica del lavoro. L'uso dell'aggettivo «scientifico», non deve trarre in inganno. Non si trattava di trovare delle leggi universali, valide in qualunque situazione. Le condizioni in cui tali regole potevano valere erano quelle della fabbrica capitalistica in una particolare fase della sua evoluzione tecnica, e lo scopo di Taylor e del taylorismo nello scomporre e ricomporre il lavoro era appunto di sottrarre all'operaio ogni capacità di controllo sul processo produttivo per trasferirla alla direzione (tecnici, capi, ecc.). In questo senso il taylorismo era un modo di approfondire quella separazione dei produttori dai mezzi di produzione che è la caratteristica originaria del modo di produzione capitalistico, costituiva cioè un nuovo e in un certo senso definitivo tentativo di espropriazione: l'operaio da semplice «appendice della macchina» diventava lui stesso una specie di macchina.
Taylor si impegnò a lungo in questa opera di scomposizione, analisi, controllo del lavoro. Si dedicò anche alla divulgazione dei suoi principi mediante scritti e discorsi. I suoi metodi incontrarono larghi consensi tra imprenditori, tecnici, ingegneri, ma anche qualche riserva. Alcune sue dichiarazioni sugli scopi «umanitari» della direzione scientifica del lavoro (che doveva far produrre di più ma anche rendere più felici gli operai) furono considerate ingenue, e qualcuno mise in dubbio la possibilità o l'opportunità di applicare fino in fondo i metodi da lui elaborati. Ma la sostanza del suo insegnamento è servita quasi ovunque come guida per la riorganizzazione del lavoro industriale.

LA REGISTRAZIONE DEI SUONI E DELLE IMMAGINI

Una delle caratteristiche più interessanti della nostra epoca è costituita dalla possibilità di registrare e di riprodurre a volontà suoni ed immagini. A dir la verità, siamo talmente immersi in un mezzo continuo di suoni e di immagini (un po' come è l'aria per gli uccelli o l'acqua per i pesci) da non riuscire neppure a concepire la possibilità di farne a meno. E invece fino a un secolo fa circa il solo strumento per registrare suoni e immagini e per conservare in qualche modo il ricordo del passato era la scrittura e il disegno. Nessuno, allora era disposto a dare facile credito a nuove invenzioni in questo campo. Quello che accadde a Thomas Alva Edison quando, il 12 marzo del 1878, presentò il suo fonografo all'Accademia delle Scienze di Parigi è indicativo. Non appena dall'imbuto cominciarono a uscire i primi suoni di una brano parlato, gli accademici presero a gridare: «Impostore! Non si prende in giro l'Accademia di Francia!». Il segretario dell'Accademia afferrò Edison per la gola, non per strozzarlo, naturalmente, ma perché immaginava così di smascherare quello che tutti avevano preso per il trucco di un ventriloquo. Ma mentre il segretario dell'Accademia teneva stretta la gola di Edison, la macchinetta, imperterrita, continuò a funzionare e dopo il brano parlato uscirono addirittura le note di una marcetta. Gli accademici dovettero arrendersi all'evidenza.
In verità un primitivo sistema di «scrittura» dei suoni era stato escogitato agli inizi dell'Ottocento dall'inglese Thomas Young, che aveva legato a un diapason una puntina metallica che scriveva su un cartoncino annerito con fumo: aveva ottenuto così un segno corrispondente alla nota da cui, però, non era in alcun modo possibile riprodurre il suono. A questo obbiettivo nei decenni seguenti diversi inventori puntarono i propri sforzi, ma solo Edison seppe costruire un apparato funzionante: il fonografo (dal greco foné = «voce» e grapho = «scrivo»). Il fonografo è costituito da un imbuto che raccoglie, potenzia e incanala i suoni verso una membrana di cartapecora collocata sul fondo, facendola vibrare; la membrana, attraverso una puntina di acciaio, incide un solco su un cilindro d'ottone coperto di stagno che ruota e, contemporaneamente, avanza lungo un asse a vite mediante un meccanismo a orologeria. Quando il cilindro viene rimesso nella posizione di partenza e la puntina ripercorre il solco, la membrana torna a vibrare e produce suoni che vengono infine amplificati dall'imbuto.
Edison, che era anche un uomo d'affari, capì che quella macchinetta poteva produrre, oltre ai suoni, un mucchio di quattrini. Fondò la Edison Phonograph Company che prima organizzò una serie di fortunatissimi spettacoli teatrali, e poi, introdotti numerosi perfezionamenti, si lanciò nella produzione industriale di cilindri incisi. Ai primi del Novecento, tuttavia, il fonografo di Edison fu scalzato da un'altra invenzione, il grammofono (dal greco grammos = «segno» e foné = «voce»), che, brevettato nel 1887 dal tedesco Emil Berliner, incideva su dischi anziché su cilindri. I dischi, che erano dapprima di vetro verniciato e poi di cera, permettevano una resa del suono nettamente migliore, ma il successo decisivo venne quando, nel 1897, lo stesso Berliner trovò il modo di stampare i dischi in un numero illimitato di copie mediante una matrice di rame ottenuta con procedimento galvanico dall'incisione originale.
La registrazione e la riproduzione delle immagini avevano anticipato di qualche decennio quelle dei suoni. Il principio della camera oscura era noto da moltissimo tempo. Studiata da Leonardo da Vinci, la camera oscura era stata perfezionata nel XVI secolo da Gerolamo Cardano e soprattutto dal letterato e fisico napoletano Giambattista della Porta, a cui si deve la prima camera oscura portatile (1593): dotata di un obiettivo (una lente convergente), offriva immagini molto luminose e precise. La camera oscura restò però un semplice congegno curioso finché non si trovò il modo di fissare le immagini. Dapprima si ricorse a disegnatori che seguivano i contorni delle figure prodotte nella camera, ma il problema fu veramente risolto solo tra il 1820 e il 1840 dai francesi Nicéphore Niepce (1765-1833) e Jacques Daguerre (1787-1851). I chimici erano a conoscenza da tempo che la luce provoca delle alterazioni su certe sostanze annerendole (o rischiarandole). Niepce pensò di sostituire la parete della camera oscura su cui si forma l'immagine, con una lastra di metallo ricoperta da uno strato di una di tali sostanze: le zone illuminate avrebbero così subito la trasformazione chimica rimanendo più scure (o più chiare) delle zone non illuminate e fissando perciò l'immagine negativa (o positiva, a seconda della sostanza impiegata).
Il procedimento, in teoria, sembrava abbastanza semplice; purtroppo, come spesso accade, cercando di tradurlo in realtà si incontrarono molte difficoltà, e fu solo dopo parecchi anni di tentativi che Mepce riuscì, nel 1826, ad ottenere la prima fotografia (dal greco: phos, photos = «luce» e gràphein = «scrivere, disegnare»), usando come materiale fotosensibile del bitume di Giudea che alla luce imbianca. Per ottenere fotografie con questo procedimento gli occorrevano però delle pose di parecchie ore. Incoraggiato comunque da questo sia pur modesto risultato, prosegui le ricerche con l'aiuto del pittore Daguerre; e fu proprio costui, dopo la morte del collega, a cogliere i frutti del lungo lavoro. Egli utilizzò in luogo del bitume di Giudea lo joduro d'argento, con un procedimento che necessitava di una posa di qualche minuto soltanto. Nacquero così i «dagherrotipi», le prime fotografie di interesse pratico (1838). Anch'essi davano direttamente l'immagine positiva, e consentivano perciò un unico esemplare per ogni soggetto.
L'inglese W.H. Talbot ottenne poco dopo il primo negativo; da allora i progressi tecnici furono rapidi e continui: ci limitiamo ad accennare alla introduzione della gelatina fotosensibile al bronzo d'argento (J. Burgess, 1873), alla sostituzione della lastra con rulli di pellicola (G. Eastman, 1888) e al perfezionamento degli elementi ottici, con obiettivi sempre migliori. Nel Novecento la riduzione dei costi e la costruzione di apparecchi di piccolo formato, che si giovavano delle recenti innovazioni (luminosità degli obbiettivi, alta sensibilità della gelatina e quindi tempi di posa ridottissimi, automaticità di molte operazioni), fecero uscire la fotografia dagli studi dei professionisti e la misero a disposizione di una larga massa di dilettanti in ogni circostanza e in quasi ogni condizione di luminosità.
Un apparecchio fotografico, come abbiamo detto, in linea di principio funziona come una camera oscura. Quando scattiamo una foto la luce per un breve periodo di tempo penetra nella macchina, forma l'immagine sulla pellicola sensibile e la impressiona: i grani di bromuro d'argento sotto l'azione della luce infatti si decompongono in argento e bromo, e l'argento finemente suddiviso si presenta annerito; questo annerimento però è talmente scarso da non essere avvertibile ad occhio nudo e si parla perciò di immagine «latente». Per liberare questa immagine nascosta, occorre sviluppare la pellicola: questa operazione, che bisogna eseguire al buio, consiste nell'asportazione del bromo che si è separato, per mezzo dell'azione chimica di certe soluzioni. A questo punto nelle parti impressionate c'è l'argento annerito, ma in quelle non impressionate c'è ancora il bromuro d'argento; la pellicola invece è trasparente. Ora finalmente l'immagine è stabile e permanente, e costituisce la «negativa». Basta metterla su una pellicola non impressionata, illuminarla e ripetere poi sulla seconda pellicola tutte le operazioni di sviluppo per avere la «positiva», che riproduce fedelmente l'oggetto fotografato. Così da una negativa si possono ricavare quante positive si vogliono, pur di ripetere altrettante volte quest'ultima fase.
Notevolmente diverso e più complicato è il problema di ottenere fotografie a colori. I vari metodi, pur variando notevolmente, sono basati sull'osservazione che tutti i colori esistenti in natura possono essere riprodotti combinando tra loro tre colori fondamentali: il rosso, il verde e il blu. Il primo procedimento realizzato fu quello della tricromia di Ducos du Hauron (1869), cui seguirono il metodo di Lippman (1891), quello dei fratelli Lumière (1903) ed altri ancora. Tutti questi erano però metodi poco pratici e poco sensibili; soltanto in anni abbastanza recenti, dopo il 1935, il problema della fotografia a colori poté dirsi veramente risolto.
Sezione di macchina fotografica

Il cinematografo (dal greco: kinema = «movimento», e gràphein = «scrivere», «disegnare») ha avuto una lunga preistoria, fatta di svariati e ingegnosi tentativi di produrre immagini in movimento. Naturalmente la maggior parte degli strumenti escogitati a questo scopo sono ormai da tempo dimenticati, ma essi furono i primi incerti risultati di idee e procedimenti che, sviluppatisi faticosamente, sono sfociati nelle moderne tecniche cinematografiche. Antenata del cinematografo si può considerare la lanterna magica nota già nel XVII secolo, la quale permetteva di proiettare su uno schermo un'immagine fissa. Dopo che fu scoperto nel secolo XVIII il fenomeno della persistenza dell'immagine sulla retina dell'occhio umano per circa un quindicesimo di secondo, cominciò ad essere studiata la possibilità di costruire strumenti che dessero immagini in moto. Se si riesce a presentare all'occhio immagini fisse in rapida successione di un soggetto che si muove, in modo che la successiva gli appaia quando la precedente persiste ancora sulla retina, egli avrà infatti l'impressione di una immagine dotata di movimento.
Parecchi tentativi furono fatti in questa direzione: il primo strumento di un certo interesse fu il fenachinoscopio, inventato dal belga Plateau nel 1829, che consisteva in un disco su cui erano disegnate le successive fasi di una azione e che veniva fatto girare in modo da riprodurre il movimento. Ma fu solo dopo l'invenzione della fotografia e soprattutto dopo che i suoi progressi furono tali da permettere di fotografare una successione veloce di immagini, che fu riconosciuta in tutta la sua portata l'importanza di questi studi. Le difficoltà che si frapponevano alla costruzione di strumenti in grado di riprodurre sullo schermo una scena analizzata da una macchina fotografica furono a poco a poco superate, finché nel 1895, i fratelli Louis e Auguste Lumière poterono presentare a Parigi la prima proiezione cinematografica.
I fratelli Lumière, inventori del cinema

L'apparecchio dei fratelli Lumière serviva sia per la ripresa che per la proiezione e la sua frequenza era di 16 fotogrammi al secondo. La tecnica attuale è diversa. I fotogrammi sono stati portati a 24 al secondo e le due operazioni di ripresa e di proiezione sono eseguite da apparecchi ben distinti: la macchina da presa è una macchina fotografica nella quale la pellicola viene trascinata automaticamente a scatti rimanendo esposta alla luce e quindi impressionata quando è ferma, e restando al buio per mezzo di un otturatore quando viene trascinata: in un secondo ci sono perciò 24 trascinamenti e 24 scatti e vengono impressionati 24 fotogrammi successivi. L'apparecchio di proiezione segue i principi della vecchia lanterna magica, ma anche qui naturalmente la proiezione avviene ad intervalli, cosicché sullo schermo si succedono 24 proiezioni al secondo, che l'occhio avverte come una sola immagine continua, in movimento.
Il successo del cinematografo è stato immediato e clamoroso: col cinema è nata una nuova forma di espressione artistica e si è sviluppato un nuovo, importante settore industriale. Fin dal primo decennio del secolo sono stati prodotti film di una certa lunghezza, comici, sentimentali o fantastici (la produzione era allora prevalentemente francese) e hanno cominciato a funzionare le prime sale cinematografiche stabili. Prima della Grande guerra il cinema si era ormai affermato in tutta Europa e in America. Il conflitto mondiale esaltò un'altra delle grandi possibilità del cinema: quella di servire come strumento singolarmente efficace di documentazione e di propaganda. Un nuovo mezzo di comunicazione di massa si aggiungeva così alla tradizionale carta stampata. Tra le due guerre mondiali sarebbe venuta la volta della radio e dopo la seconda guerra mondiale quella della televisione.
Terminata la Grande guerra, iniziò il predominio del cinema americano: Hollywood nei pressi di Los Angeles, in California, dove si concentrò l'industria cinematografica americana, divenne rapidamente la capitale mondiale del cinema. Nel 1927 Il cantante di jazz, un film musicale, inaugurò l'era del film sonoro. Le difficoltà tecniche da superare non erano state piccole: il problema di sincronizzare i suoni con l'azione del film è stato risolto registrandoli su una «colonna sonora», una strisciolina che si affianca ai fotogrammi sulla pellicola. Dopo l'avvento del sonoro i perfezionamenti tecnici nel campo della cinematografia sono stati innumerevoli: basta ricordare il film a colori, i sistemi di proiezione su schermo panoramico, i progressi nella riproduzione dei suoni, ecc.

THOMAS ALVA EDISON

Nato nel 1847 e morto nel 1931, Thomas Alva Edison impiantò il suo primo laboratorio quando aveva ventun anni. Nella sua vita brevettò circa 1500 invenzioni (pressappoco un'invenzione ogni due o tre settimane), tra le quali il microfono a carbone (1876), che permise a Bell la realizzazione del telefono, il fonografo (1877), la lampadina elettrica a filamento di carbone (1879), una delle tappe fondamentali nella storia dell'illuminazione, il cinetoscopio (1899), uno dei primi apparecchi per la visione delle pellicole cinematografiche. Nel 1883 scopri l'effetto termoionico (o «effetto Edison»), che è all'origine delle moderne tecnologie elettroniche. Fu sua l'idea di centralizzare la produzione di energia elettrica: nel 1882 con l'aiuto finanziario dell'arcimilionario americano J. Pierpont Morgan costruì la sua prima centrale a New York e fondò la società Edison per la produzione e la distribuzione di energia elettrica. Edison è stato definito il più geniale inventore di tutti i tempi dopo Archimede, ma quando gli fu chiesto in che cosa consistesse il genio rispose: «In un 1 per cento di ispirazione e in un 99 per cento di traspirazione» (e cioè sudore, fatica, applicazione).

LA NUOVA FRONTIERA DELLA VISIONE: LA VIDEOREGISTRAZIONE

Sul finire degli anni 40, la televisione aveva conosciuto negli Stati Uniti una diffusione di dimensioni eccezionali, superando rapidamente, nelle preferenze del pubblico la radio e il cinema. A quel tempo i programmi televisivi, sia giornalistici che d'intrattenimento, erano di regola trasmessi in diretta, il che escludeva ogni possibilità di montaggio, e trasformava il minimo contrattempo in un grosso problema. Per poter essere ritrasmesso in altre zone degli Stati Uniti con fuso orario differente, il programma veniva filmato su pellicola con un procedimento costoso, poco pratico di scarso rendimento qualitativo (la sola NBC arrivava ad impiegare in un mese ben 46 Km di pellicola). Nel 1951 Jack Mullin presentò per la Bing Crosby Enterprises, un primo tipo di videoregistratore magnetico; nel 1953 anche la RCA presentò un suo sistema di videoregistrazione, ma nessuno dei due sistemi era ancora soddisfacente. Data infatti la maggior ricchezza delle informazioni contenute in un segnale video rispetto ad un segnale audio, le frequenze da registrare erano molto più elevate. Poiché, in quei primi modelli il nastro era scandito dalla testina nel senso della lunghezza (come i registratori audio), la velocità di scorrimento richiesta era talmente alta (fino a 9 metri al secondo), che una bobina di dimensioni enormi durava solo pochi minuti. Nel 1952 la AMPEX costituì un gruppo di ricerca per studiare la possibilità di realizzare un videoregistratore di tipo radicalmente nuovo. L'idea di partenza era quella di sostituire la testina fissa con una serie di testine montate su un tamburo rotante, in modo da poter ridurre la velocità effettiva di scorrimento del nastro, aumentandone però contemporaneamente la velocità relativa alle testine. Il gruppo, guidato da Charles Ginsburg, dette nell'ottobre una prima dimostrazione ai dirigenti della ditta, ma la qualità delle immagini restava ancora scarsa. Si procedette allora a una serie di modifiche strutturali con un intento prettamente sperimentale (nel 1953 venne realizzato un nuovo sistema, nel quale le tracce erano registrate da quattro testine poste su una delle due facce piane del tamburo rotante, ma l'immagine riprodotta risultava discontinua; nel 1954 si sperimentò un nuovo sistema nel quale il nastro largo 2 pollici veniva avvolto, nel senso della larghezza intorno al tamburo dove vi erano montate le testine; nel 1955 si pensò di sostituire nella codifica del segnale video dal metodo in modulazione di ampiezza in modulazione di frequenza, metodo in seguito perfezionato da Ray Dolby - diventato famoso più tardi per l'invenzione del sistema di riduttore di rumore "Dolby system" - che elaborò un nuovo metodo FM semplificato, con il quale fu possibile ottenere risultati fortemente incoraggianti). Nel 1956, risolti i numerosi problemi tecnici, si riuscì ad ottenere una qualità d'immagine del tutto soddisfacente e nello stesso anno il prototipo del videoregistratore AMPEX VR1000 (soprannominato "quadruplex" per la presenza di quattro testine) venne presentato ufficialmente a Chicago in occasione del convegno della National Association of Radio and Television Broadcasters. Il successo fu subito grandissimo. Il 30 novembre 1956 la CBS irradiava la prima trasmissione videoregistrata della storia. Era l'inizio di una nuova epoca nella storia della televisione. Si erano create le basi, inoltre, per l'avvio di un processo di ricerca che avrebbe portato alla creazione di apparecchi specifici per la riproduzione e la videoregistrazione domestica. Negli anni Settanta il nastro venne dimezzato in larghezza, ulteriormente rimpicciolito all'inizio degli anni Ottanta con l'introduzione della cassetta (U-matic in ambito professionale, Betamax e VHS in ambito domestico).

ARRIVA IL DVD, IL VIDEO DISCO DIGITALE

Nel 1998, dopo essere stato lanciato sul mercato giapponese e americano, il DVD (ovvero video disco digitale) è arrivato anche in Italia.
Per gli addetti ai lavori, il video disco digitale è considerato una vera rivoluzione nel campo delle telecomunicazioni. In un dischetto, molto simile ai normali compact disc, possono essere registrate fino a quattro ore di immagini, suoni ad alta fedeltà, giochi elettronici dalla grafica sofisticata o applicazioni multimediali di facile e veloce consultazione.
La novità è rappresentata dal fatto che i segnali sono registrati in formato digitale e compressi con lo standard MPEG (Motion Pictures Experts Group). Questo sistema, adottato a livello internazionale dai principali centri di ricerca pubblici e privati che si occupano di telecomunicazioni, permette di comprimere le informazioni digitali senza diminuirne il livello di qualità.
Le normali musicassette e videocassette, registrate in formato analogico, utilizzano il nastro magnetico e sono pertanto soggette all'usura e alla rottura. Il DVD garantisce invece una durata pressoché illimitata.
Come dimensioni, i dischetti DVD sono uguali ai normali cd-rom (120 millimetri di diametro per 1,2 di spessore), ma possono contenere una quantità di informazioni fino a 14 volte superiore.
Anche il sistema di scrittura e lettura dei dati è identico: il disco viene inciso con una serie di microscopici fori e viene letto da un laser che rileva il raggio di luce di ritorno traducendone la variazione dell'intensità in suoni o immagini secondo il sistema binario.
Nel DVD i fori sono molto più piccoli: dai 0,83 micrometri del cd-rom si passa ai 0,4 micrometri del DVD (per micrometro si intende una misura pari a un cinquantesimo del diametro di un capello). Questo permette di registrare un numero decisamente superiore di piste, aumentando la quantità di informazioni (un DVD contiene in media 0,5 gigabit per centimetro quadrato contro lo 0,1 di un normale cd).
Ma non si tratta solo di un vantaggio in termini quantitativi: sul DVD, per esempio, è possibile registrare scene riprese contemporaneamente da più angolazioni, realizzare fino a otto differenti doppiaggi del film e inserire sottotitoli in oltre trenta lingue diverse.
Il lettori DVD sono anche applicabili sul computer, con prezzi anche più contenuti rispetto ai videoregistratori.

LA MODERNIZZAZIONE E LA GUERRA

La Grande guerra è stata una specie di prova generale e insieme un potente fattore di accelerazione delle trasformazioni che avevano investito il mondo tra l'Otto e il Novecento nel corso della cosiddetta «seconda rivoluzione industriale». Durante la guerra, infatti, queste trasformazioni assommarono i loro effetti modificando i modi della vita quotidiana, le relazioni tra gli uomini e le stesse esperienze mentali di milioni di persone in tutto il mondo. Ciò di cui gli uomini hanno fatto esperienza tra il 1914 e il 1918 non era solo la guerra moderna, ma la modernità del mondo: un mondo pieno di prodigi e di sinistre minacce, in cui si potevano realizzare imprese straordinarie (si pensi alla conquista del cielo attraverso l'aviazione) e stragi senza precedenti, nel quale c'erano la produzione di serie e il mercato di massa, la diffusione della scrittura e dei consumi, la moltiplicazione delle immagini, delle informazioni e delle merci. Si può dire che la guerra ha cambiato gli uomini facendo passare sotto i loro occhi e imprimendo sul loro stesso corpo tutti i segni del nuovo che il mondo industrializzato aveva prodotto.
La modernità della Grande guerra si coglie naturalmente in primo luogo nella novità degli armamenti. L'enorme uso di acciaio che si fece in guerra (per cannoni, corazze per le navi, fortificazioni, ecc.) non sarebbe stato pensabile senza gli sviluppi della moderna siderurgia (uno dei settori trainanti dello sviluppo industriale a partire dall'ultimo Ottocento). Allo stesso modo il gas, che per i suoi effetti raccapriccianti ha avuto il compito di riassumere emblematicamente nella memoria della gente l'orrore della Grande guerra, era il prodotto di un altro dei settori trainanti nell'età della seconda rivoluzione industriale: l'industria chimica. La novità delle armi usate nella Grande guerra consisteva soprattutto nel perfezionamento e nell'applicazione su larga scala di armi già introdotte nei decenni precedenti, come le mitragliatrici e i cannoni di grosso calibro. Ma non mancarono novità assolute come i carri armati, impiegati dagli anglo-francesi a partire dal 1916, e che solo nella seconda guerra mondiale avrebbero avuto un impiego massiccio e un ruolo determinante. Nel corso della Grande guerra si sviluppò notevolmente anche l'aviazione, nata da pochissimo tempo e rimasta fino a quel momento in uno stadio ancora pionieristico, sperimentale e sportivo: resi più sicuri e prodotti in serie, gli aerei furono usati in compiti di ricognizione, di controllo dei tiri di artiglieria e di mitragliamento delle posizioni nemiche. Un impiego esteso ebbero anche i sommergibili, prodotto complesso delle nuove tecnologie.
La novità degli armamenti non era tuttavia che l'aspetto più appariscente della modernità della guerra. Non meno importanti erano le trasformazioni degli apparati logistici, di propaganda e di mobilitazione. Trasportare e mantenere sui fronti milioni di uomini per tempi assai lunghi, spostarli all'occorrenza da un settore all'altro, rifornirli di armi, munizioni, vettovaglie, vestiti, medicinali, trascinare nel fango o sui pendii delle montagne decine o centinaia di pezzi di artiglieria pesante, ecc. erano operazioni molto complesse che richiedevano l'impiego di mezzi straordinari.
Per i trasporti furono impegnati a fondo i sistemi ferroviari, che avevano avuto un grande sviluppo nella seconda metà dell'Ottocento e che erano già stati largamente utilizzati in altre guerre con caratteristiche di modernità, come quella di secessione americana o quella russo-giapponese. Le vecchie reti ferroviarie furono potenziate e modificate in relazione alle necessità belliche e l'enorme aumento del traffico richiese una riorganizzazione generale del servizio. Ma alle ferrovie si affiancarono le auto e i camion, che proprio in coincidenza della guerra (e per sopperire ai bisogni della guerra) cominciarono a essere prodotte in grande serie e vennero adattate a una quantità di usi speciali (autoambulanze, autoblindate, ecc.).
Tutti gli eserciti dovettero poi dotarsi di un impressionante apparato sanitario, le cui articolazioni arrivavano fino alle prime linee (posti di medicazione, ospedali da campo, unità chirurgiche mobili, ecc.). Un tale apparato costituiva il supporto necessario del più gigantesco macello che si fosse mai visto nella storia. Per avere un'idea dell'enorme sforzo organizzativo compiuto in questo settore si pensi alla necessità di smaltire quotidianamente montagne di cadaveri, di sgomberare migliaia di feriti e di malati, di mantenere un minimo di condizioni igieniche in un ambiente, come quello della trincea, ingombro di escrementi e di materie putrescenti. Si pensi anche alla necessità di curare rapidamente feriti e malati per rimandarli al più presto in linea e di tenere sotto stretta sorveglianza i sani perché, nella speranza di sfuggire alla guerra, non simulassero malattie o non si ferissero da soli (autolesionismo).
Un enorme sviluppo ebbero anche i servizi postali. I soldati, quotidianamente esposti a rischi e disagi di ogni genere, vivevano al fronte una drammatica esperienza di spaesamento e provavano un bisogno tormentoso di comunicare con le famiglie lontane. Milioni di lettere e di cartoline, scritte per lo più da gente che per la prima volta si cimentava con questo mezzo di comunicazione, dovevano viaggiare ogni giorno da e per i fronti di guerra. Ci si può stupire come in condizioni del tutto eccezionali una tale massa di corrispondenza potesse essere smaltita (dopo essere passata al vaglio della censura militare) senza determinare ingorghi spaventosi, con perdite tutto sommato assai limitate e con tempi che, se allora apparivano spaventosamente lunghi (in Italia una lettera impiegava tre o quattro giorni per arrivare dal fronte a Roma), oggi, nonostante la situazione di pace e le tecnologie avanzatissime, farebbero l'orgoglio delle nostre poste. Anche la telefonia ebbe per la prima volta larga applicazione nelle operazioni di guerra: posare o riparare le linee telefoniche diventò uno dei servizi più rischiosi e più necessari al fronte e un'intera generazione di Europei si familiarizzò con il telefono proprio nelle trincee.
In sostanza la guerra si rivelò un sistema molto complesso, che conservava molte funzioni della vita civile, ma modificate e stravolte negli scopi, nell'ambientazione e nelle dimensioni. Per far funzionare questa macchina era necessario adottare quei criteri di razionalità e di efficienza che si stavano da tempo sperimentando nell'industria. Alla fin fine la distruzione di massa era soggetta alle stesse regole della produzione di massa e richiedeva gli stessi accorgimenti organizzativi. A sua volta l'esperienza della morte vissuta al fronte su scala industriale condizionava i modi di vivere e di produrre nelle retrovie e all'interno dei Paesi belligeranti: le diverse forme di mobilitazione della manodopera e di irregimentazione della popolazione civile messe in atto dai governi nel corso del conflitto con il pretesto dell'emergenza bellica, anticiparono quelle forme di disciplina sociale che nei decenni successivi i regimi totalitari avrebbero imposto come strutture permanenti della convivenza civile.
Anche per quanto riguarda l'impiego e il controllo delle energie umane, l'inquadramento e la mobilitazione delle masse, la guerra adottò o suggerì, infatti, pratiche nuove. Specialmente nella seconda parte del conflitto furono largamente utilizzati metodi di propaganda e di formazione del consenso che attingevano ai nuovi mezzi della comunicazione sociale e soprattutto alle tecniche pubblicitarie. Tali furono, ad esempio, i manifesti murali e le gigantografie con cui si tappezzarono le città in continue campagne di sostegno dello sforzo bellico. Tra i soldati mobilitati, poi, al fronte e nelle retrovie, ebbero un impiego di massa due strumenti nuovissimi: il grammofono e il cinematografo. La ripresa e la proiezione cinematografiche ebbero una certa applicazione nell'addestramento dei militari e le tecniche di scomposizione dei movimenti di lavoro caratteristiche del taylorismo furono utilizzate anche nella riabilitazione dei soldati traumatizzati. Nelle corsie degli ospedali, per i feriti immobilizzati a letto, si pensò persino di proiettare film sul soffitto per consentire la visione anche da posizione supina.
È stato soprattutto per effetto della guerra che molti aspetti del nuovo mondo industriale sono entrati nell'esperienza di milioni di uomini che fino a quel momento erano stati toccati solo in modo marginale o indiretto dai processi di industrializzazione. La violenza e l'intensità senza precedenti del fuoco di artiglieria suggeriva, ad esempio, la supremazia delle macchine sull'uomo e dell'artificio sulla natura: molti soldati hanno sottolineato nelle loro testimonianze l'effetto di smarrimento che era provocato dal vivere per un tempo prolungato in quel rombo assordante, che cancellava e rendeva estranei, improbabili, quasi assurdi i suoni più familiari, come quello delle campane. Le vampe dell'artiglieria e le esplosioni dei proiettili unite ai razzi e ai riflettori elettrici usati per illuminare di notte le posizioni nemiche disegnavano giochi di luce mai visti prima. Il riferimento d'obbligo era ai fuochi artificiali delle sagre paesane, ma la sproporzione dei fenomeni era tale da far apparire grottesco ogni paragone. Oltre all'illuminazione artificiale, anche le caratteristiche della guerra di trincea contribuivano ad annullare l'elementare distinzione tra il giorno e la notte. La notte poteva essere più luminosa del giorno, ma soprattutto era il tempo della veglia, del lavoro massacrante (a scavare camminamenti e trincee, a stendere reticolati e fili telefonici, a spostare corpi, munizioni ed armi) e dello sfinimento, mentre di giorno, ogni tanto, si riposava.
Al fronte, tanto nel paesaggio quanto nelle abitudini quotidiane, l'ordine artificiale sostituiva l'ordine naturale (o tradizionale, quello, in ogni caso, a cui si era abituati). Un'esperienza analoga di sradicamento era stata vissuta per tutto il corso dell'industrializzazione da un gran numero di emigranti e di contadini inurbati, che avevano dovuto adeguarsi ad ambienti estranei e avevano dovuto adottare i ritmi della vita cittadina e del lavoro di fabbrica. Ma qui quell'esperienza veniva riproposta su scala, ancora una volta, incomparabilmente più vasta e nelle condizioni estreme determinate dalla presenza ininterrotta della morte: milioni di uomini di ogni condizione sociale furono sottoposti tutti insieme, contemporaneamente, a questa sorta di brutale lavaggio del cervello, di «rieducazione» (se così si può dire) alla modernità. E dopo la guerra un po' dovunque il manufatto industriale continuò a sostituire, nel bene e nel male, i prodotti della natura e della tradizione: l'auto sostituiva la vecchia carrozza, il trattore la coppia di buoi, e, in migliaia di infelici sopravvissuti alla guerra, protesi sempre più sofisticate le parti distrutte dei corpi umani.