UNA TECNOLOGIA DEL TUTTO NUOVA
Uno dei
più grandi problemi della moderna società industriale è
stato ed è tuttora la crescente richiesta di energia per usi produttivi.
Il carbone fossile come fonte di energia ha rappresentato nell'Ottocento uno dei
fattori determinanti dell'eccezionale sviluppo dell'Occidente, e la macchina a
vapore, che come combustibile utilizzava appunto il carbone, è rimasta un
po' il simbolo di questa fase dell'industrializzazione. Ma nell'età del
vapore sono cominciate le ricerche che avrebbero permesso l'utilizzazione di una
forma di energia anche più vantaggiosa del vapore: l'elettricità.
L'elettricità è facilmente trasportabile a basso costo e a lunga
distanza; i motori che fa funzionare sono molto meno voluminosi di quelli a
carbone e più facili e comodi da regolare; l'elettricità, infine,
è una forma di energia ricavabile da fonti diverse e teoricamente
inesauribili, a differenza del carbone, le cui riserve nel sottosuolo sono
limitate.
Alcuni fenomeni elettrici e magnetici erano conosciuti da tempo
ma, facendo riferimento a un mondo non accessibile all'osservazione diretta,
risultavano difficilmente collegabili fra di loro e la loro interpretazione
restava incerta. Sulle origini e sulla natura dell'elettricità e del
magnetismo correvano le ipotesi più disparate, tra cui quella che
attribuiva alla materia una specie di anima formata da una sostanza sottilissima
che, a seconda che si allontanasse dal corpo o ne rientrasse, respingeva o
attirava rispettivamente altri corpi leggeri che si trovassero nelle vicinanze.
Furono soprattutto la scoperta del magnetismo terrestre e l'invenzione della
bussola, che risalgono pressappoco al XII secolo, ad accendere negli studiosi
l'interesse per questo genere di fenomeni. Diversi trattati furono dedicati
all'argomento, ma ben poco di conclusivo fu scritto fino al XVI e al XVII
secolo, ossia fino alla nascita della moderna scienza sperimentale. Nell'anno
1600 William Gilbert, uno dei maggiori esponenti del nuovo indirizzo
scientifico, pubblicò il De magnete, un'opera che utilizzava in modo
massiccio la ricca esperienza accumulata anche in questo campo da tecnici,
artigiani e marinai e che ebbe larghissime ripercussioni nel mondo della
ricerca. Vale la pena di notare a questo proposito che l'attrazione magnetica
terrestre fu oggetto di studio prima dell'attrazione gravitazionale e che anzi,
in virtù delle molte analogie (entrambe, per esempio, si esercitano a
distanza), ha fornito una sorta di modello per le prime teorie sulla
gravità.
Quanto alle utilizzazioni pratiche dell'elettricità
e del magnetismo (salvo le ricerche indirizzate a migliorare le prestazioni
della bussola) non ve ne furono fino al Settecento. Nel Settecento, tuttavia, le
osservazioni si intensificarono e gli esperimenti con l'elettricità
diventarono di moda, perfino nei salotti, sui teatri o nelle piazze, come
oggetto di intrattenimento, giacché con semplici apparati (le prime
macchine elettriche erano poco più che giocattoli) si ottenevano effetti
spettacolari, tanto più eccitanti per il pubblico quanto meno se ne
conoscevano le ragioni. Sul finire di quel secolo l'invenzione della pila
aprì un settore tecnologico completamente nuovo, quello connesso all'uso
della corrente elettrica, che è il primo che appartenga per intero
all'era industriale. La corrente elettrica, passando in un filo metallico,
può riscaldarlo e servire così come sorgente di calore, può
renderlo incandescente come nelle lampadine e servire come sorgente di luce,
può, soprattutto, azionare un motore e fornire energia meccanica. La pila
rappresenta uno dei più grandi passi compiuti dall'uomo nel campo delle
realizzazioni scientifiche, sia per le numerose applicazioni che ha ancora ai
nostri giorni, sia per l'enorme impulso che come generatore di corrente diede
allo studio dell'elettricità.
L'atomo, che è formato da un
nucleo di cariche positive o protoni, e da un uguale numero di cariche negative
o elettroni disposte intorno al nucleo, è tenuto insieme da forze
nucleari e da forze elettriche che ne fanno una struttura molto solida. In certi
elementi (il ferro, il rame, i metalli in genere) succede però che alcuni
elettroni, meno saldamente legati degli altri al nucleo, riescano facilmente ad
allontanarsi dal loro atomo e si muovano all'interno del materiale a cui
appartengono. In un pezzo di ferro per esempio vi è un gran numero di
elettroni (una «nuvola» di elettroni) che, anziché restare
uniti ai loro rispettivi atomi, si muovono abbastanza liberamente all'interno
del pezzo di ferro stesso e alcuni di essi riescono anche ad uscirne.
Un
filo di ferro rispetto ai suoi elettroni si comporta un po' come un tubo pieno
d'acqua: come possiamo pompare acqua in un tubo, così possiamo
«pompare» elettroni in un filo di ferro; gli elettroni che si muovono
lungo il filo formano la corrente elettrica. E come il tubo è un
conduttore d'acqua, così il filo di ferro è un conduttore di
elettricità. Vi sono vari modi per ottenere questo «pompaggio»
di elettroni, ossia per generare la forza che fa muovere gli elettroni
producendo corrente elettrica e che appunto è chiamata forza
elettromotrice. I dispositivi che hanno oggi larga applicazione pratica sono
però essenzialmente: la pila, che produce una corrente continua (ossia
gli elettroni si muovono sempre nella stessa direzione); l'alternatore, che
produce una corrente alternata (ossia gli elettroni si muovono come uno
stantuffo, avanti e indietro); la dinamo, che deriva dall'alternatore ma produce
una corrente continua.
La pila è quel piccolo oggetto ben noto che
fa funzionare le radioline, i giocattoli elettrici e molti altri apparecchi di
cui facciamo quotidianamente uso. È una scatoletta di energia semplice e
sorprendente allo stesso tempo. Cerchiamo di capire cosa succede dentro questa
scatoletta. Abbiamo detto che i materiali come il ferro, il rame e generalmente
i metalli hanno al loro interno una nuvola di elettroni liberi, e che di questi
elettroni alcuni riescono a uscire dal pezzo di metallo cui appartengono. Man
mano che gli elettroni escono dal pezzo, questo si carica positivamente
giacché in esso gli elettroni rimasti sono meno numerosi dei
protoni.
Vi sono alcuni metalli che si caricano di più e altri di meno. Se mettiamo a
contatto un pezzo di un metallo molto carico, ossia che ha perso molti
elettroni, con uno meno carico, succede che gli elettroni del secondo sono
attratti dalla carica elettrica positiva del primo e passano dal secondo al
primo provocando così una corrente elettrica che però si esaurisce
non appena i due materiali hanno raggiunto lo stesso livello di carica, e
cioè quasi istantaneamente. Ma se, come Alessandro Volta ha fatto alla
fine del Settecento, fra i due metalli mettiamo una soluzione di un certo acido
o di un certo sale e uniamo fra loro gli altri estremi dei due metalli che
chiamiamo «poli», o direttamente, o mediante un terzo metallo (per
esempio un filo di rame), la corrente continua a fluire per un certo tempo.
Possiamo dire che l'energia chimica della soluzione, si trasforma nell'energia
elettrica che troviamo disponibile ai poli.
La prima pila di Volta
consisteva in due pezzi di metallo, rispettivamente di rame e di zinco, che
pescavano in una tazza riempita con acqua salata o con un acido diluito ed era
detta infatti «pila a tazza»; collegando i due pezzi di metallo fra
loro la corrente percorreva il filo di collegamento dal polo negativo al polo
positivo, mentre nell'acqua salata (o nella soluzione acida) la corrente si
spostava dal polo positivo al negativo completando il circuito. I metalli,
infatti, non sono i soli conduttori di elettricità: essi sono conduttori
solidi o, come anche vengono chiamati, conduttori di prima classe. Una seconda
classe di conduttori è rappresentata appunto dalle soluzioni chimiche,
nelle quali la corrente non è trasportata dagli elettroni, ma dagli ioni
(che, come si ricorderà, sono atomi o gruppi di atomi dotati di carica
elettrica).
Al tempo di Volta concetti come quelli di elettrone, di ione,
ecc., non erano stati ancora formulati e quindi l'interpretazione dei fenomeni
elettrici non ne teneva conto. Volta tuttavia ebbe il merito di rilevare il
diverso comportamento dei conduttori di prima e di seconda classe e di scoprire
che mentre un circuito di conduttori di una sola classe non dava luogo ad una
corrente elettrica durevole, la loro combinazione era in grado di farlo.
Naturalmente le pile che troviamo oggi in commercio sono molto differenti dalla
pila di Volta, ma le leggi fisiche su cui si basano sono le stesse; sono
cambiati solo gli elementi usati e il tipo di confezione, che per la sua
praticità e comodità, dà alla pila grandi
possibilità di diffusione e grande versatilità
d'impiego.
L'ELETTRICITÀ
La materia è formata da atomi che
hanno dimensioni così piccole da essere quasi inimmaginabili; gli atomi
furono pensati dapprima come le parti ultime in cui si poteva dividere la
materia stessa, e solo in tempi relativamente recenti si è arrivati alla
conclusione che gli atomi sono formati da particelle ancora più piccole
(protoni, elettroni, ecc.), organizzate secondo leggi ben definite. Anche se non
sono propriamente indivisibili, gli atomi sono però strutture molto
compatte. A fare dell'atomo una struttura compatta e difficilmente divisibile
agiscono le forze nucleari, di cui torneremo a parlare, e le forze elettriche,
che sono quelle che qui ci interessano.
La forza elettrica, che in prima
approssimazione possiamo immaginare (e fu in effetti immaginata) simile alla
forza di gravità, è quella che nell'atomo, attorno a un nucleo
formato da un certo numero di protoni, fa muovere un uguale numero di elettroni.
A differenza della gravità, però, la forza elettrica agisce in
modo che, mentre un elettrone e un protone si attraggono fra di loro, due
elettroni o due protoni si respingono. Abbiamo insomma due differenti tipi di
particelle a cui diamo il nome di cariche elettriche elementari, che possiamo
considerare una opposta all'altra e che per comodità indichiamo col segno
+ (i protoni) e col segno - (gli elettroni); le cariche di segno opposto si
attraggono e le cariche dello stesso segno si respingono.
Prendiamo un
oggetto qualsiasi, per esempio una pallina di vetro; questa pallina è
formata da un enorme numero di atomi, che a loro volta sono formati da un certo
numero di elettroni e protoni. Se riuscissimo a separare in due gruppi distinti
tutti gli elettroni da una parte e tutti i protoni dall'altra, i due gruppi di
particelle si attirerebbero con una forza gigantesca sufficiente a sollevare un
intero palazzo e anche più. È impossibile separare tutti i protoni
da tutti gli elettroni di un oggetto. È possibile invece sottrarre alcuni
elettroni agli atomi che si trovano sulla superficie dell'oggetto stesso.
Poiché inizialmente gli elettroni sono in numero eguale ai protoni, se
asportiamo degli elettroni ci sarà un eccesso di protoni. L'effetto
elettrico dei protoni eccedenti non sarà più neutralizzato da
quello uguale e contrario degli elettroni che abbiamo asportato e l'oggetto
stesso risulterà carico positivamente Esso dunque attirerà altri
oggetti con carica negativa (ossia con carica opposta alla sua) e
respingerà quelli con carica positiva (ossia con carica uguale alla
sua).
Prendiamo un bastoncino di vetro e strofiniamolo con un panno di lana
ben asciutto. Proviamo poi ad avvicinare il nostro bastoncino ad alcuni
pezzettini di carta: i pezzettini di carta saranno attratti dal nostro
bastoncino. Avviciniamo il panno di lana ad un altro mucchio di pezzettini di
carta (che sceglieremo di colore diverso dai primi per distinguerli meglio):
anche il panno di lana attirerà i pezzettini di carta. È successo
che strofinando il bastoncino di vetro con il panno di lana alcuni elettroni del
bastoncino sono passati sul panno, sicché questo si è caricato
negativamente, mentre il bastoncino si è caricato positivamente.
Avvicinando poi il bastoncino o il panno ai pezzetti di carta, anche questi si
sono caricati elettricamente e sono stati attratti rispettivamente dal
bastoncino e dal panno.
Se ripetiamo l'esperimento con un bastoncino di
ceralacca anziché di vetro, si produrranno gli stessi fenomeni, ma con
questa differenza: che nello strofinamento gli elettroni passeranno dal panno al
bastoncino di ceralacca, sicché il panno risulterà carico
positivamente e il bastoncino negativamente. Anche questa volta avremo scelto
pezzetti di carta di colore diverso per distinguerli facilmente dai
precedenti.
Per verificare che il bastoncino di vetro e quello di ceralacca
hanno acquistato cariche elettriche di segno diverso (positiva il vetro,
negativa la ceralacca) e che il panno usato per strofinare il vetro si è
caricato in modo opposto a quello usato per strofinare la ceralacca, basta
avvicinare i pezzetti di carta dei vari colori che entrando in contatto dei
bastoncini e dei panni si sono a loro volta caricati elettricamente. Osserviamo
innanzitutto che i pezzetti di carta dello stesso colore si respingono: essi
infatti sono dotati di cariche elettriche uguali. I pezzetti di carta che sono
entrati in contatto con il bastoncino di vetro e quelli che sono entrati in
contatto con il bastoncino di ceralacca si attirano: essi dunque hanno cariche
opposte e ciò conferma che anche i bastoncini hanno cariche opposte.
Anche i pezzetti di carta che hanno toccato i due panni di lana si attirano.
Ciò significa che i panni hanno acquistato cariche opposte. I pezzetti
che hanno toccato il vetro e quelli che hanno toccato il panno usato per
strofinare la ceralacca si respingono: evidentemente hanno cariche elettriche
dello stesso segno. Allo stesso modo si respingono i pezzetti di carta che hanno
toccato la ceralacca e quelli che sono stati in contatto con il panno usato per
strofinare il vetro. Infine si attirano i pezzetti di carta che sono entrati in
contatto con i bastoncini (di vetro o di ceralacca) e quelli che sono entrati in
contatto con i panni rispettivamente usati per strofinarli. Ciò conferma
che il bastoncino e il panno nello strofinio acquistano cariche di segno
opposto.
IL MAGNETISMO
Fra le tante stranezze della natura
è stata per secoli inclusa la misteriosa proprietà della
magnetite, un minerale di ferro che attira con una forza abbastanza consistente
il ferro stesso, l'acciaio e altri metalli. Ciò che gli antichi non
sospettavano era che la proprietà di attrarre il ferro, oltre che della
magnetite, fosse una caratteristica del nostro stesso pianeta che, oltre la
forza di attrazione gravitazionale ha anche una forza di attrazione magnetica.
Prendiamo una comune calamita, che non è altro che una sbarra di acciaio
diritta o a ferro di cavallo che ha acquistato la proprietà della
magnetite per mezzo di un opportuno trattamento, e facciamo alcune semplici
esperienze. Proviamo a immergere la nostra calamita in un mucchietto di limatura
di ferro: notiamo subito che la limatura rimane attaccata alla calamita; la
limatura però non si distribuisce in maniera uniforme ma risulta molto
più densa alle due estremità opposte della calamita. La forza
magnetica infatti si esercita solo lungo una direzione ben precisa e si
concentra sulle due estremità (dette poli) del nostro oggetto magnetico,
sia esso la calamita, un pezzo di magnetite, o la Terra stessa.
Prendiamo
ora alcuni aghi da cucito che sono fatti d'acciaio e avviciniamone uno alla
nostra calamita: l'ago resterà appeso a una estremità della
calamita, attratto dalla forza magnetica. Appoggiamo ora un secondo ago
all'estremità libera del primo: questo a sua volta attrarrà il
secondo ago, e se ripetiamo altre due o tre volte l'operazione, otterremo una
catena di quattro o cinque aghi appesa alla calamita. Se proviamo a staccare la
catena dalla calamita vedremo che la proprietà magnetica si è
trasmessa a tutti gli aghi della catena che ora sono diventati delle piccole
calamite. Supponiamo di aver sempre messo la cruna di un ago in alto a contatto
con la punta dell'ago precedente; se proviamo ora ad avvicinare le crune di due
aghi magnetizzati fra di loro notiamo che non solo le due crune non si
attraggono ma anzi si respingono: come per le cariche elettriche, i poli
magnetici si attraggono se sono opposti e si respingono se sono dello stesso
tipo.
Prendiamo una tazza piena d'acqua e cerchiamo di appoggiare sulla
superficie uno dei nostri aghi magnetizzati; dopo qualche tentativo in cui l'ago
andrà inesorabilmente a fondo, se sapremo usare un'estrema delicatezza
forse riusciremo a depositare l'ago sulla superficie senza che sprofondi e
avremo costruito così una rudimentale bussola. L'ago si disporrà
secondo una determinata direzione e, comunque faremo girare la tazza, l'ago
tornerà a disporsi lungo la stessa direzione.
Come abbiamo
accennato, la Terra è essa stessa una grossa calamita, i cui poli
magnetici coincidono coi poli di rotazione terrestre e, quindi, il polo Nord
della Terra attirerà il polo Sud del nostro ago magnetico e
viceversa.
DALLA PILA AI MOTORI ELETTRICI
Le pile forniscono solo modeste
quantità di energia e sono quindi utilizzate solo per piccoli apparecchi.
Quando occorre una notevole quantità di energia si ricorre a generatori
di corrente più potenti: le «dinamo» e gli
«alternatori». Per passare dalla pila alla dinamo è stato
necessario trovare la connessione (la cui esistenza si sospettava da tempo) tra
il magnetismo e l'elettricità.
Già dalla metà del
Settecento si sapeva che una scarica elettrica poteva magnetizzare una barra di
ferro: era un indizio che tra magnetismo ed elettricità doveva esserci
una qualche connessione. Nel 1819 il fisico danese Hans Christian Oersted fece
un'importante scoperta: mentre stava facendo delle dimostrazioni scientifiche,
il filo di una pila voltaica gli cadde di mano e finì sopra una bussola;
l'ago magnetico allora deviò dalla sua posizione naturale e solo quando
Oersted interruppe la corrente, l'ago tornò a indicare il Nord. Era la
conferma che tra magnetismo e elettricità esisteva una precisa
relazione.
La scoperta di Oersted ebbe immediatamente un'applicazione
pratica: se una corrente elettrica faceva deviare un ago magnetico dalla sua
posizione naturale, la deviazione di un ago magnetico poteva indicare
l'esistenza di una corrente elettrica e poteva misurarne l'intensità.
Nacque così il «galvanometro», che nella sua forma più
semplice è costituito appunto da un ago magnetico circondato da un
avvolgimento di filo metallico nel quale passa la corrente che si vuol
misurare.
In quegli stessi anni il fisico francese Arago e il suo
connazionale Ampère (il suo nome è ben noto perché è
stato dato all'unità di misura della corrente elettrica) dimostrarono nel
modo più convincente che una spirale di filo metallico attraversata da
una corrente continua fornita da una pila si comporta esattamente come una barra
magnetica: la limatura di ferro per esempio è attirata dalla spirale
finché dura il passaggio di corrente nel filo. Nel 1825 lo stesso
Ampère formulò l'ipotesi che il magnetismo fosse effetto di
piccole correnti elettriche circolari presenti nei corpi magnetici e dovute al
moto delle più minute particelle dei corpi stessi.
Gli esperimenti
decisivi nel campo dell'elettromagnetismo furono però quelli dell'inglese
Faraday. Era noto da tempo che una calamita è capace di magnetizzare un
pezzo di ferro posto nelle sue adiacenze. Questo fenomeno si chiama
«induzione magnetica» dove il termine induzione sta a indicare
un'azione a distanza, ossia un'azione che un corpo esercita su un altro corpo
con il quale non è in contatto. Poiché gli esperimenti di Oersted
e di Ampère avevano dimostrato che una corrente elettrica si comporta
come un magnete, Faraday immaginò che lo stesso effetto di induzione si
potesse ottenere usando una corrente elettrica al posto della calamita.
Immaginò anche che, mediante induzione, un magnete potesse generare una
corrente elettrica in un conduttore posto nelle sue vicinanze. Per verificare
queste sue intuizioni Faraday condusse alcuni esperimenti che segnarono una
svolta rivoluzionaria non solo nel pensiero scientifico, ma anche, per le
applicazioni che ne derivarono, nel campo delle tecniche
industriali.
Faraday avvolse due distinti rocchetti di filo metallico
intorno ad un anello di ferro. Uno dei due rocchetti era collegato ad un
generatore di corrente (pila), l'altro ad un rilevatore di corrente
(galvanometro). Nel primo circuito (quello collegato alla pila) inserì un
interruttore. Quando, azionando l'interruttore, Faraday apriva o chiudeva il
circuito, il galvanometro rivelava la presenza di una corrente istantanea nel
secondo circuito. L'apertura del primo circuito faceva spostare l'ago del
galvanometro in un senso, la chiusura nel senso opposto: nel secondo circuito,
insomma, aprendo e chiudendo ripetutamente il primo circuito, si generava una
«corrente alternata».
Era così dimostrato che il passaggio
di una corrente elettrica in un avvolgimento di filo metallico generava
(induceva) una corrente elettrica in un avvolgimento vicino. Con questa
particolarità però: che nel secondo avvolgimento la corrente
indotta si rivelava solo al momento di aprire o di chiudere il primo circuito.
Essa insomma nasceva in corrispondenza di un mutamento nel primo circuito. Con
altri esperimenti Faraday dimostrò che questo mutamento poteva essere
ottenuto, oltre che aprendo o chiudendo il primo circuito, anche muovendolo o
comunque variando in esso l'intensità della corrente. Infine Faraday
dimostrò che il circuito inducente (ossia quello collegato alla pila)
poteva essere sostituito da un magnete: fece ruotare tra i poli Nord e Sud di un
magnete un disco di rame e collegò l'asse e i bordi del disco a un
galvanometro: durante la rotazione del disco il galvanometro mostrava che nel
disco stesso si generava una corrente indotta. Era nato così il primo
generatore elettromagnetico di corrente.
I generatori elettromagnetici di
corrente subirono diverse modificazioni e occorse parecchio tempo prima che
potessero essere usati nella produzione e nell'industria. Essenzialmente
però ogni dinamo risulta costituita da un conduttore (un disco di rame o
un rocchetto di filo metallico o una serie di rocchetti) che ruota in un campo
magnetico (ossia in una porzione di spazio in cui, per la presenza di un
magnete, agisce una forza magnetica). Naturalmente gli stessi effetti si possono
ottenere se, tenendo fermo il conduttore, si fa ruotare il magnete.
Abbiamo
visto che il movimento di un magnete genera in un conduttore una forza
elettromotrice in grado di muovere e di produrre corrente elettrica; è
questo il principio dell'alternatore. Girando, il magnete volge alternativamente
il Nord e il Sud verso il conduttore, sicché in questo conduttore
(solitamente un avvolgimento di filo meccanico) si genera una corrente diretta
ora in un senso ora nell'altro con lo stesso ritmo della rotazione del magnete
(corrente alternata). Il motore elettrico si basa sullo stesso principio della
dinamo, preso al contrario: se la rotazione di un magnete genera in un
conduttore una corrente alternata, una corrente alternata fatta passare nel filo
conduttore arrotolato attorno a un magnete dovrà generare una forza tale
da provocare la rotazione del magnete stesso.
Una corrente elettrica genera
un campo magnetico che agisce su un magnete come il campo magnetico terrestre
agisce sull'ago di una bussola; se la corrente fosse continua l'unico effetto
sarebbe quello di orientare il magnete lungo una direzione fissa determinata
dalla direzione della corrente; una corrente alternata invece genera un campo
magnetico che cambia continuamente direzione col cambiare della corrente e
costringe quindi il magnete a seguire questa direzione e a girare attorno a se
stesso. Si può quindi trasformare l'energia elettrica in energia
meccanica, realizzando un motore che risulta estremamente più maneggevole
di quello a vapore.
Se pensiamo ai vecchi mulini ad acqua o a vento che
rappresentavano l'unico sistema ideato fino a due secoli fa per azionare i vari
tipi di macchine senza ricorrere alla forza degli uomini o degli animali,
possiamo renderci conto di quali enormi passi siano stati compiuti dall'uomo
sulla strada dello sfruttamento delle risorse naturali. Ma la forza idraulica
che muoveva i vecchi mulini resta ancora oggi una preziosa sorgente di energia.
Nelle centrali idroelettriche la forza dell'acqua viene usata per muovere le
turbine, che a loro volta mettono in azione le dinamo, che a loro volta
producono corrente elettrica, che a sua volta, trasportata per mezzo di fili nei
luoghi dove è più conveniente utilizzarla, viene ritrasformata in
forza meccanica per mezzo di motori elettrici; possiamo dunque dire che è
sempre la forza di un fiume o di una cascata a muovere le macchine di una
moderna industria. Anche il carbone (insieme ad altri combustibili fossili) non
ha perso il suo ruolo giacché nelle centrali termoelettriche svolge lo
stesso ruolo che in quelle idroelettriche è riservato all'acqua.
Il carbone
come l'acqua è una fonte di energia primaria, giacché lo troviamo
direttamente in natura. L'energia elettrica, invece, non è una fonte, ma
solo una forma di energia: è il frutto di una trasformazione di energia
operata dall'uomo. Solo disponendo di una fonte primaria di energia possiamo
muovere le macchine che producono l'energia elettrica; l'uomo non crea energia,
ma può solo trasformare un certo tipo di energia in un'altra. Ci si
può chiedere allora perché mai l'energia delle fonti primarie,
come l'acqua o il carbone, non venga utilizzata direttamente, nella sua forma
originaria, senza trasformarla in elettricità: sarebbe un modo per
risparmiare energia, visto che ogni trasformazione comporta una certa perdita.
In altre parole: se devo far girare un mulino, non sarebbe meglio, come si
faceva un secolo fa, collegare le macine a una ruota idraulica o a una macchina
a vapore piuttosto che a un motore elettrico, che deve essere allacciato alla
rete di distribuzione, nella quale circola una corrente, che è prodotta
da una centrale, i cui generatori (alla fin fine) sono mossi, appunto, o
dall'acqua o dal vapore?
La risposta è (evidentemente): no. I
vantaggi dell'elettricità e dei motori elettrici sono principalmente
costituiti dalla facilità di trasporto, di distribuzione e di
utilizzazione dell'energia e dalla versatilità del loro impiego. Volete
una riprova? Provate a immaginare un aspirapolvere o un frullino mossi da una
ruota idraulica o da una macchina a vapore!
Generatore elettromagnetico di corrente di Faraday
LA CHIMICA
Uno degli aspetti caratteristici della
seconda rivoluzione industriale è stato lo sviluppo dell'industria
chimica. I progressi in questo settore hanno avuto ripercussioni un po'
dovunque, dall'agricoltura all'industria, dalla medicina alla produzione
bellica, e hanno contribuito alla radicale trasformazione del costume e della
vita di tutti i giorni. Pensiamo per esempio alla illuminazione a gas:
l'industria del gas illuminante era sorta su basi empiriche sul principio del
secolo utilizzando il carbone come materia prima; nei decenni successivi,
avvalendosi della ricerca di laboratorio, riuscì ad aumentare
considerevolmente il potere illuminante del gas di carbone. Le conseguenze
dell'impiego del gas per l'illuminazione furono di eccezionale importanza:
adoperato dapprima nelle fabbriche per utilizzare le ore della sera e della
notte, consentì la riorganizzazione dei turni in tutte le industrie in
cui lavorazione continua risultasse possibile e opportuna; usato poi per
l'illuminazione delle strade e delle abitazioni private, cambiò l'aspetto
notturno delle città e contribuì non poco a modificare le
abitudini di vita della gente.
La diffusione di massa dei giornali,
un'altra delle grandi novità nella cultura e nei modi di vita dei Paesi
occidentali, fu resa possibile dalla produzione di carta a basso costo. La
crescente richiesta di carta determinata dalla diffusione della cultura aveva
stimolato fin dai primi anni del secolo la ricerca di materie fibrose a buon
mercato che potessero sostituire i tradizionali stracci, ormai decisamente
insufficienti ad assicurare un adeguato volume di produzione. Nella seconda
metà del secolo furono trovati procedimenti per ottenere dal legno, per
mezzo di acidi ed altri reagenti chimici, la cellulosa. La carta di cellulosa
poteva essere prodotta in grandi quantità e a costi relativamente
modesti, presupposto per l'affermazione di una grande industria editoriale e del
primo dei moderni mezzi di informazione (in inglese: mass media, dove media
è il plurale del latino medium = «mezzo»), i giornali a grande
tiratura. La cellulosa era poi suscettibile di diverse utilizzazioni; la
celluloide fu inventata nel 1864.
Molte produzioni ricevettero un deciso
impulso dalle nuove tecniche chimiche. La tecnica della placcatura, ad esempio,
che consiste nel ricoprimento di oggetti con sottile strato di metallo, talvolta
prezioso (argentatura o doratura), sfruttava la tecnica della elettrolisi.
Importantissima, poi, fu la scoperta dei coloranti artificiali, che cominciarono
a sostituire quelli naturali, estratti cioè da piante, dopo la
metà del secolo: nel 1856 William H. Perkin (1838-1907) sintetizzò
il primo colorante all'anilina e presto altri se ne aggiunsero. L'industria
tessile se ne avvantaggiò enormemente perché i nuovi coloranti
sintetici si potevano produrre in quantità illimitate, erano meno costosi
e di migliore qualità.
Ma i successi maggiori furono probabilmente
quelli ottenuti nel settore della chimica organica. Fino ai primi decenni
dell'Ottocento si pensava che le sostanze organiche formassero un mondo
assolutamente separato da quello delle altre sostanze: mentre queste ultime
potevano essere prodotte artificialmente dall'uomo, le prime sembravano sfuggire
al suo controllo, tanto che per la loro sintesi si ipotizzava la
necessità di una misteriosa vis vitalis (forza vitale) che naturalmente
esulava dalle possibilità dei laboratori. Ma nel 1828 il chimico tedesco
Friedrich Wöhler (1800-1882) riuscì a preparare artificialmente
l'urea (sostanza organica contenuta nell'urina) per sintesi di sostanze
inorganiche, abbattendo la barriera che esisteva tra queste due branche della
chimica. Oggi si possono produrre in laboratorio circa due milioni di composti
organici; tuttavia la distinzione tradizionale tra chimica inorganica ed
organica ha ancora una sua validità, perché se è vero che
nessuna «forza vitale» presiede alla costituzione delle sostanze
organiche che sono aggregati atomici come i composti inorganici, esse possiedono
tuttavia delle proprietà comuni che le fanno considerare un gruppo
particolare (e straordinariamente numeroso) di sostanze, ben differenziato da
tutte le altre.
Lo sviluppo degli studi di chimica organica cominciò
ad estendere l'influenza dalla scienza moderna a nuovi campi quali
l'agricoltura, l'alimentazione, la medicina e la chirurgia. Le tecniche agricole
ebbero una svolta rivoluzionaria grazie specialmente alle ricerche del grande
chimico tedesco Justus von Liebig, che nel 1840 pubblicò l'opera Chimica
organica applicata all'agricoltura e alla fisiologia delle piante, dove dava un
elenco delle sostanze chimiche presenti nei vegetali ed affermava vigorosamente
la necessità di restituire ai terreni coltivati i minerali che le piante
avevano assorbito. L'uso di fertilizzanti chimici, che aveva già
cominciato ad affermarsi empiricamente, ne venne incoraggiato: ai nitrati del
Cile e al guano peruviano si aggiunsero i sali potassici di giacimenti scoperti
da poco (soprattutto nelle montagne dell'Harz, in Germania). A questi
fertilizzanti si affiancarono poi i primi fertilizzanti artificiali, ottenuti
spesso come sottoprodotti di altri processi industriali: fosfati dalle scorie
dell'industria dell'acciaio, liquidi ammoniacali dalle officine del gas,
ecc.
Collegato da vicino alla chimica organica, lo studio dei processi di
fermentazione stava facendo fare intanto passi da gigante alla microbiologia
sotto la guida di uno dei maggiori scienziati dell'epoca, il francese Louis
Pasteur (1822-1895). Egli scoprì che le fermentazioni sono dovute
all'azione di micro-organismi, e dimostrano tra l'altro che le malattie del vino
sono causate da fermenti e che possono essere combattute per mezzo di un debole
riscaldamento (pastorizzazione), dando così un grande aiuto alle aziende
enologiche. Di peso ancora maggiore per l'industria alimentare fu l'invenzione e
la diffusione della margarina. L'insufficiente produzione dei grassi alimentari
tradizionali di fronte all'aumentata richiesta indusse l'imperatore Napoleone
III a bandire un concorso per trovare un surrogato del burro: il chimico
Mège-Mouriès preparò verso il 1860 una miscela di grassi
animali, trattata in modo che avesse caratteri (aspetto, colore, odore, gusto)
simili a quelli del burro. L'uso della margarina si estese rapidamente in tutta
Europa e poi nel resto del mondo, e la sua produzione subì molti
cambiamenti: oggi ai grassi animali vengono aggiunti o sostituiti grassi
vegetali.
Anche la medicina deve molto alla chimica: a parte la biochimica
e la chimica fisiologica (che si sono sviluppate specialmente nel nostro secolo
gettando una nuova luce sui processi vitali e le manifestazioni patologiche), le
nuove scoperte hanno interessato soprattutto i settori della farmaceutica e
della chirurgia. Per quanto riguarda i farmaci, l'Ottocento fu il secolo del
progressivo affermarsi degli alcaloidi e in generale dei farmaci chimici, nuovi
o anche tradizionali, ma preparati in modo più accurato con le nuove
tecniche della chimica (per esempio: oppio, digitalina; e specialmente utile il
chinino, contro la malaria). La chirurgia fece nel corso del secolo dei
progressi veramente straordinari; essi furono dovuti a varie cause, quali un
diverso atteggiamento di medici e scienziati verso le operazioni chirurgiche
(fino al Settecento esse venivano affidate a tecnici di grado inferiore, con
scarsa preparazione scientifica) e il generale risveglio degli studi medici,
specie dell'anatomia e della patologia. Ma la chimica organica ebbe un ruolo
determinante in questi progressi mettendo a disposizione dei chirurghi
anestetici (composto dal prefisso anche ha valore privativo e dal greco
àisthesis = «sensibilità»: sostanze che inducono assenza
di sensibilità e perciò di dolore) e antisettici (dal greco
sépsis = «putrefazione»: sostanze che impediscono le
infezioni).
Concludiamo questa rapida rassegna delle realizzazioni della
chimica industriale nel secolo XIX accennando alla dinamite, il più
importante degli esplosivi nati nell'Ottocento. Nel 1846 il chimico piemontese
Ascanio Sobrero aveva scoperto la nitroglicerina, un estere della glicerina di
formula C
3H
5(NO
3)
3, liquido oleoso e
incolore; la facilità di esplosione al minimo urto la rendeva
pericolosissima, di difficile lavorazione e di ancor più difficile uso.
Negli anni dopo il 1860 lo svedese Alfred Nobel ne tentò la produzione
industriale, con varia fortuna (la sua prima piccola fabbrica venne distrutta da
un'esplosione), finché nel 1867 riuscì a produrre un esplosivo
dalle prestazioni molto migliori, mescolando alla nitroglicerina (75 per cento
in peso) della farina fossile assorbente (25 per cento). La farina fossile
è una roccia friabile e farinosa, costituita da gusci silicei di
innumerevoli e microscopiche alghe, le diatomee. Egli chiamò dinamite
(dal greco dynamis = «forza») questo esplosivo che si presenta come
una materia plastica ed ha il vantaggio di poter essere trasportato e manipolato
con relativa sicurezza. La dinamite a farina fossile e gli altri esplosivi a
base di nitroglicerina (che prendono il nome collettivo di dinamiti) trovarono
molteplici applicazioni, non solo belliche: ad esempio nella perforazione di
gallerie e nei lavori in miniera.
REAZIONI CHIMICHE
Le reazioni chimiche sono le trasformazioni
che modificano chimicamente le sostanze, alterandone la struttura molecolare. I
tipi di reazioni più importanti sono quelle di combinazione (o sintesi)
nelle quali due corpi semplici o composti si uniscono a formare sostanze
più complesse:

quelle di
decomposizione (o analisi) nelle quali le sostanze composte si scindono negli
elementi o in composti più semplici:

e
infine quelle di sostituzione nelle quali un componente sostituisce un
altro:

Non tutte le reazioni
avvengono con la stessa facilità e può essere necessario
sottoporre le sostanze reagenti a particolari trattamenti e condizioni che
facilitino o provochino la reazione voluta. In generale i reagenti devono essere
mischiati insieme il più intimamente possibile, e ciò si ottiene
(se sono solidi) polverizzandoli e mescolandoli o, più spesso,
sciogliendoli nell'acqua: le sostanze sciolte infatti si possono considerare
polverizzate quanto più non è possibile, la suddivisione arrivando
a dimensioni molecolari e sub-molecolari. Abbastanza numerose sono anche le
reazioni facilitate dall'aumento della pressione; altre avvengono solo in
presenza della luce.
Molto spesso ha un'importanza decisiva la temperatura:
aumentando la temperatura aumenta infatti la velocità di reazione
(cioè la rapidità con cui le sostanze si trasformano). Ora in
certi casi a temperatura normale la trasformazione è così lenta
che in pratica è come se non avvenisse: per esempio un miscuglio di
idrogeno ed ossigeno si trasforma in acqua anche a temperatura ambiente (circa
20 gradi C), ma così lentamente che in 50 miliardi di anni ne verrebbe
trasformato solo circa il 15 per cento! Se aumentiamo la temperatura aumenta la
rapidità della trasformazione, finché a circa 70 gradi C idrogeno
e ossigeno si combinano istantaneamente con una esplosione (il loro miscuglio
è perciò detto gas tonante). Inoltre, portando la temperatura al
di sopra di un certo valore, talvolta molto alto, i solidi diventano liquidi, e
molte volte è necessario lavorare proprio sui liquidi: così nella
metallurgia (per esempio nella produzione delle leghe) è indispensabile
trattare i metalli allo stato liquido.
Particolare interesse ha l'uso dei
«catalizzatori», sostanze che, in certe reazioni, aggiunte ai reagenti
ne favoriscono la trasformazione. Alla fine dei processi i catalizzatori si
trovano inalterati e il loro effetto perciò non è di prendere
parte alle reazioni, ma solo di aiutarle. I catalizzatori si trovano inalterati
e il loro effetto perciò non è di prendere parte alle reazioni, ma
solo di aiutarle. I catalizzatori permettono l'utilizzazione industriale di
reazioni chimiche altrimenti di nessuna utilità pratica. Un esempio
è la produzione sintetica dell'anidride solforica per ossidazione
dell'anidride solforosa:
2 SO
2 + O
2 -->
2SO
3Il processo è troppo lento per essere
sfruttato, ma si riesce a produrlo con molta rapidità in presenza di un
catalizzatore detto «spugna di platino» (platino finemente suddiviso
depositato su un supporto).
Un posto particolare occupa l'applicazione
dell'elettricità alla chimica: certe reazioni si provocano per esempio
facendo scoccare una scintilla elettrica; noi vogliamo però parlare
soprattutto della «elettrolisi». Abbiamo detto prima che le sostanze
sciolte nell'acqua si suddividono fino a raggiungere dimensioni molecolari e
sub-molecolari; ora precisiamo che quando alcune sostanze come gli acidi, le
basi e i sali (dette «elettroliti») sono in soluzione, le loro
molecole che si sono disperse nel solvente sono in parte dissociate in
particelle ancora più piccole dette «ioni» che possono essere
atomi o gruppi di atomi, dotati però di cariche elettriche, positive e
negative. L'acido solforico, per esempio, in soluzione si dissocia in
ioni-idrogeno positivi e ioni SO
4 negativi:

(lo ione SO
4 ha due cariche
negative).
L'idrossido di sodio (soda caustica) si dissocia in ioni-sodio
positivi (gli ioni metallici sono sempre positivi) e in ioni-ossidrile
negativi:

Ebbene, se facciamo passare
la corrente elettrica in una soluzione di un elettrolita, avviene la sua
elettrolisi (= scomposizione per mezzo della corrente elettrica). Possiamo
capire quello che succede pensando di immergere nella soluzione due sbarrette
conduttrici, collegate ai morsetti di una pila (elettrodi): una sbarretta
sarà dunque elettricamente positiva, l'altra negativa. Gli ioni presenti
nella soluzione sotto l'azione di forze elettrostatiche migrano verso le
sbarrette e precisamente (poiché cariche di segno opposto si attraggono)
gli ioni positivi si indirizzeranno verso l'elettrodo negativo, gli ioni
negativi verso quello positivo; giunti agli elettrodi gli ioni perdono le loro
cariche elettriche e diventano neutri. Questo metodo è usato tra l'altro
per ottenere metalli purissimi.
LA CHIMICA DEL CARBONIO
Tutte le sostanze organiche sotto l'azione
del calore carbonizzano, mostrando così che il loro componente
fondamentale è il carbonio. La chimica organica è perciò la
chimica del carbonio, i cui atomi hanno la particolarità di legarsi tra
di loro in modi molto diversi, formando lunghe catene aperte o anelli chiusi e
dando luogo perciò ad un enorme numero di composti. Gli atomi di carbonio
(di valenza 4) possono legarsi tra loro scambiandosi una sola valenza (e
lasciandone libere 3) o 2 (lasciandone libere 2) o 3 (lasciandone libera una), e
formare catene aperte o chiuse:

Le
valenze libere vengono saturate da altri atomi o gruppi atomici. La
classificazione dei composti organici è molto complessa: accenniamo solo
ai più semplici.
Gli idrocarburi sono sostanze organiche formate
solo da carbonio e idrogeno. Si dividono in varie serie:
serie delle
paraffine:

Più brevemente l'etano si può
scrivere:

Allo stesso modo i composti
successivi della serie, che si ottengono aggiungendo al composto precedente il
gruppo CH
2, si scrivono:

serie dell'etilene:

serie
dell'acetilene:

serie aromatica (in cui gli atomi
di carbonio formano anelli chiusi): il composto più semplice è il
benzolo (C
6H
6):

Composti di carbonio, idrogeno ed ossigeno sono: gli alcooli (tra
cui l'alcool etilico che si ottiene dalla distillazione del vino e la glicerina;
simili agli alcooli sono i fenoli); le aldeidi (tra cui la formaldeide) e i
chetoni (tra cui l'acetone); gli acidi organici (come l'acido formico e l'acido
acetico); gli eteri (come l'etere etilico, usato come anestetico); gli esteri
(che si ottengono dalla reazione di un alcool con un acido, organico o
inorganico; quando derivano da acidi inorganici contengono nella loro molecola
anche atomi di altri elementi come il cloro, lo zolfo, l'azoto. Accanto ad
esplosivi come la nitroglicerina, comprendono altri composti che hanno odore
gradevole, simile a quello dei vari frutti e che per questo vengono prodotti e
venduti come essenza di frutta); i grassi (olii, che sono liquidi, e grassi
propriamente detti, solidi; numerosi nel regno animale e vegetale, sono miscugli
di esteri della glicerina); i carboidrati (tra cui gli zuccheri come il
glucosio, il fruttosio, il saccarosio, il lattosio; e inoltre l'amido e la
cellulosa). Composti di carbonio, idrogeno e azoto sono le ammine (da una di
esse, l'anilina, si ricavano molte sostanze coloranti). Composti di carbonio,
idrogeno, ossigeno e azoto sono le ammidi (tra cui l'urea) e gli ammino-acidi
(che sono i costituenti di base delle molecole delle sostanze proteiche). Tra i
composti più complessi ricordiamo gli alcaloidi (sostanze stupefacenti,
velenose e medicinali come morfina, chinina, cocaina, strichinina, nicotina,
caffeina) e infine le proteine,costituenti fondamentali degli organismi viventi
(composte tutte di carbonio, idrogeno, ossigeno e azoto e alcune inoltre di
altri elementi come zolfo, fosforo, ferro, magnesio).
NUOVI MATERIALI
Rientra tra i successi della chimica
ottocentesca la disponibilità di nuovi materiali per la fabbricazione di
manufatti o per la costruzione di edifici, dalla celluloide, a cui abbiamo
accennato, al cemento e all'acciaio. In alcuni casi, come per il cemento o
l'acciaio, non si trattava di materiali nuovi in assoluto: la novità
stava piuttosto nella loro diffusione, dovuta essenzialmente alla drastica
riduzione dei costi di produzione.
Nel campo delle costruzioni fino alla
metà del Settecento, i materiali più diffusi in Europa erano stati
il legno e la pietra. La pietra, assai più costosa del legno, era
prevalentemente impiegata nella costruzione delle abitazioni più ricche,
delle opere pubbliche e degli impianti militari. La scarsità del legname
da costruzione, dovuta anche alla grande (e crescente) richiesta proveniente dai
cantieri navali, e l'alto costo della pietra stimolò la loro progressiva
sostituzione con i mattoni. In alcune opere (ad esempio ponti, tunnel, ecc.)
venne usato il ferro o la ghisa, che i progressi della siderurgia avevano fatto
diventare un materiale relativamente poco costoso e di lunga durata. Negli anni
Venti e Trenta dell'Ottocento cominciarono ad essere impiegati il cemento e il
calcestruzzo (un miscuglio di cemento e di materiali inerti, come sabbia,
pietrisco o ghiaia) che dovevano diventare i materiali più diffusi
nell'edilizia. Intorno alla metà del secolo entrò in uso il
cemento armato, risultante dall'immersione nel cemento di bacchette, verghe o
travi di ferro, che stimolò lo sviluppo in verticale degli edifici, come
del resto fece l'uso di travi in acciaio (il primo edificio con struttura
interamente in acciaio fu costruito a Chicago nel 1890 e negli anni seguenti
sorsero i primi grattacieli).
Il cemento è costituito essenzialmente
di calce, silice, allumina e altri ossidi in quantità definite. Si dice
idraulico per la sua capacità di far presa sott'acqua. Il rapporto tra i
costituenti basici (gli ossidi di calcio e magnesio) e quelli acidi (silice e
allumina) è detto «modulo di idraulicità» e da esso
dipende la velocità di presa e la resistenza del materiale. Alcune terre
naturali, prevalentemente silicee, impastate con calce, forniscono cementi
idraulici noti fin dall'antichità. Gli antichi Romani, ad esempio, pur
facendo ampiamente ricorso ai mattoni, costruivano prevalentemente i loro
edifici in calcestruzzo e ottenevano un ottimo cemento mescolando alla calce una
pietra vulcanica che abbonda nei pressi di Roma, la pozzolana, che ancora in
età moderna era assai richiesta (e costituiva oggetto di esportazione)
specialmente per la costruzione di impegnative opere di ingegneria
idraulica.
I cementi moderni si ottengono con la cottura di miscele
omogenee in proporzioni determinate di calcare ed argilla. I materiali di
partenza, finemente macinati, vengono riscaldati in forni a ciclo continuo per
iniezione di gas caldi che creano un gradiente di temperatura da 300 gradi C
(entrata) a 1400 gradi C (uscita). Durante la permanenza nel forno a temperature
crescenti si verificano reazioni complesse tra cui la formazione di silicati e
alluminati di calcio e la successiva incipiente fusione (sinterizzazione) degli
stessi, con produzione di granuli duri detti clinker che, una volta
polverizzati, costituiscono il cemento. Il processo di indurimento del cemento
per azione dell'acqua, o «presa», è dovuto a fenomeni chimici e
fisici di natura complessa ed avviene in tempi variabili da pochi minuti, nei
cementi cosiddetti a presa rapida, a parecchi giorni nei cementi a presa lenta.
A questo secondo tipo appartiene il cemento comunemente più usato, detto
«Portland», per la sua somiglianza con il calcare compatto della
omonima penisola.
L'acciaio, come sappiamo, è una lega di ferro e
carbonio, dove il carbonio entra per una percentuale che va dallo 0,1 all'1,8:
le leghe che contengono una percentuale di carbonio superiore (fino al 6 per
cento) si dicono «ghisa». Più aumenta il contenuto di carbonio
e più il metallo risulta duro: la ghisa è dunque più dura
dell'acciaio, che a sua volta è più duro del ferro puro (ossia con
un contenuto di carbonio inferiore allo 0,1 per cento), che si dice, appunto per
la sua malleabilità, «dolce». La ghisa, però è
molto fragile, si spezza facilmente e quindi non può essere lavorata: la
si può utilizzare (e fu largamente utilizzata soprattutto nella prima
fase dell'industrializzazione) solo gettandola in forme. Il ferro dolce, d'altra
parte, è troppo tenero: se la ghisa si spezza, il ferro dolce si piega.
L'acciaio presenta i pregi di entrambi: è duro, malleabile, duttile,
elastico.
Il metodo tradizionale per ottenere acciaio, come abbiamo visto a suo luogo, era quello della
cementazione, con il quale al ferro veniva aggiunto una certa quantità di
carbonio mediante ripetuti riscaldamenti con carbone di legna. La diffusione del
carbonio nel ferro era tutta via solo superficiale e occorreva una lunga
lavorazione per ottenere acciaio di buona qualità: se ne produceva dunque
in piccole quantità e a costi molto alti. A metà Settecento un
costruttore di orologi, Benjamin Huntsman (1704-1776), aveva introdotto in
Inghilterra il metodo, già usato in India, di produrre acciaio
riscaldando ferro con carbone di legna in crogiuoli. La qualità di questo
acciaio era nettamente superiore a quella dell'acciaio cementato tradizionale.
In più, il metodo del crogiuolo consentiva la fabbricazione di pezzi di
notevole formato: anche se i singoli crogiuoli erano di piccole dimensioni, era
possibile, muovendo con sapiente regia una gran massa di operai, riscaldarne in
contemporanea in speciali camere di fusione un buon numero (alcune decine o
addirittura alcune centinaia) per poi versarli nella forma in rapida
successione, come una colata continua. Nonostante la progressiva diminuzione dei
costi di produzione realizzata nella prima metà dell'Ottocento, l'acciaio
a crogiuolo risultava ancora troppo caro per i normali usi industriali e in
pratica fu impiegato solo nella fabbricazione di cannoni (in guerra, lo abbiamo
già constatato, non si bada a spese), un settore nel quale si doveva
affermare decisamente (nonostante che il suo primo cannone in acciaio fosse
risultato un fiasco clamoroso esplodendo durante il collaudo) l'impresa tedesca
dei Krupp.
La svolta decisiva nella produzione dell'acciaio può
essere emblematicamente datata al 13 agosto del 1856, quando Henry Bessemer
(1813-1898) presentò alla British Association for the Advancement of
Science la memoria intitolata Sul modo di produrre ferro malleabile e acciaio
senza combustibile. Era l'uovo di Colombo. Tradizionalmente per ottenere ferro
dalla ghisa, ossia per sottrarre carbonio alla ghisa, si riscaldava quest'ultima
coprendola di carbone; Bessemer pensò invece di immettere nel metallo
fuso un semplice getto d'aria calda che eliminava il carbonio il quale, a sua
volta, funzionando da combustibile, manteneva fuso il metallo. In questo modo,
non solo si riduceva drasticamente il costo del combustibile, ma i tempi di
lavorazione si riducevano in maniera impressionante, nell'ordine di 50 o di 100
volte.
Era davvero una rivoluzione. Anche se le sue proprietà
fisiche erano pressappoco le stesse da millenni, un acciaio a così basso
costo era davvero un materiale nuovo. Al procedimento Bessemer si aggiunsero
rapidamente altri metodi, come quello Martin-Siemens (1870 circa) e quello
Thomas (1879), che realizzarono un'ulteriore riduzione dei costi. In particolare
il metodo Thomas consentì di utilizzare minerali di ferro (come erano in
prevalenza quelli francesi e tedeschi) contenenti fosforo ed altre
impurità che i convertitori Bessemer non erano in grado di eliminare. La
disponibilità di acciaio a buon mercato ha avuto una tale importanza
nello sviluppo tecnico ed economico dell'Occidente che la seconda rivoluzione
industriale è stata a buon diritto definita «l'età
dell'acciaio».
LA DILATAZIONE TERMICA
Molti dei lettori si sono certo accorti
osservando le rotaie di una ferrovia, che i tronchi di rotaia non sono saldati
l'uno all'altro ma sono staccati, separati da un intervallo di un centimetro
circa. È un accorgimento indispensabile perché quando la
temperatura aumenta i tronchi di rotaia si allungano e bisogna lasciar loro lo
spazio necessario perché possano farlo liberamente: se fossero saldati
insieme l'allungamento provocherebbe delle deformazioni.
Come le rotaie di
una ferrovia, tutti i corpi in generale si dilatano con l'aumento della
temperatura, e si contraggono con una sua diminuzione. Non tutte le sostanze,
però, si dilatano nella stessa misura, ma certe più e certe meno.
Perché si abbia un'idea dell'entità della dilatazione termica,
diamo l'allungamento che subiscono sbarre di varie sostanze lunghe un metro,
quando la temperatura aumenta di 100 gradi C:
Alluminio 2,4 mm
Ferro 1,2 mm
Piombo 2,9 mm
Platino 0,9 mm
Rame 1,6 mm
Marmo 0,7 mm
Porcellana 0,3 mm
Vetro 0,9 mm
Vetro di quarzo 0,05 mm
Nella costruzione di macchine,
strumenti di precisione, e anche nella costruzione di edifici occorre tener
conto della dilatazione termica dei diversi materiali. Il fatto che il vetro e
il platino si dilatino nella stessa misura, permette per esempio la saldatura
col vetro di fili di platino, mentre fili di altri metalli, saldati col vetro,
dilatandosi in modo diverso, si deformerebbero fino a rompere il
vetro.
Anche il ferro e il cemento si dilatano nello stesso modo: per
questo si possono associare nella tecnica del cemento armato.
L'IMPRESA TEDESCA DEI KRUPP
I Krupp erano mercanti di qualche peso a
Essen, nella Ruhr, già sul finire del XVI secolo. All'inizio del Seicento
uno di loro, Anton, sposò una certa Gertrud, figlia di un fabbricante
d'armi: di lì cominciò la secolare vocazione dei Krupp per le
armi. La famiglia, però, si impose decisamente in questo campo solo con
Alfred (1812-1887), che ingrandì le sue officine nella Ruhr e fu tra i
primi a costruire cannoni in acciaio. I suoi cannoni avevano il difetto di
scoppiare, ma Alfred dapprima promise ai suoi clienti (principalmente lo zar di
Russia e il re di Prussia) di rimborsare il costo dei cannoni che scoppiavano e
poi trovò il modo di farli funzionare ed anzi di farli diventare i
migliori del mondo. Il re di Prussia, diventato imperatore di Germania dopo aver
sconfitto Austria e Francia, dichiarò di dover molto delle sue vittorie
ad Alfred. Le industrie Krupp furono sommerse da una valanga di commesse da ogni
parte del mondo, compresi gli Stati Uniti e l'allora lontanissimo e misterioso
Giappone. In breve però Stati Uniti e Giappone impararono a costruirsi da
soli i cannoni di cui avevano bisogno e, non essendoci grosse guerre nel mondo,
la Krupp passò un brutto momento. L'imperatore di Germania, riconoscente,
corse in aiuto di Alfred e la sua azienda tornò più forte di
prima. Agli inizi del Novecento la Krupp contava 70.000 dipendenti che si
raddoppiarono negli anni della prima guerra mondiale e arrivarono a 250.000 alla
vigilia della seconda guerra mondiale.
Quanto ad Alfred, morì settantacinquenne solo,
abbandonato dal figlio e dalla moglie, che non sopportavano più la sua
tirannide familiare. Fu sepolto di sera, alla luce delle torce accompagnato da
una spettacolare fiaccolata di dodicimila dipendenti.
Alfred Krupp (1812-1887)
MACCHINE TERMICHE
Le macchine termiche si possono
classificare in:
A) motori termici (assorbono energia termica
producendo lavoro meccanico) che a loro volta si suddividono in:
I) motori
a combustione esterna (nei quali la combustione avviene fuori del motore
stesso), come la macchina a vapore e le turbine;
II) motori a combustione
interna (nei quali la combustione avviene internamente al cilindro), come i
motori a scoppio, il motore Diesel e i motori a reazione;
B)
apparecchi di refrigerazione o frigoriferi (assorbono energia meccanica
utilizzandola per far passare calore da un corpo a temperatura bassa ad uno a
temperatura più alta).
Il principio di funzionamento delle
turbine è semplice e del tutto simile a quello delle turbine ad acqua.
Una ruota munita di pale viene fatta girare velocemente da un getto di vapore
(turbine a vapore) o di gas (turbine a gas) caldi, prodotti da una combustione.
I motori a turbina sono semplici, efficienti e di grande potenza. Sono usati
nelle centrali termoelettriche per mettere in moto i rotori degli alternatori e
nella propulsione di navi (turbonavi) e soprattutto di aerei (la turboelica
è una turbina a gas che mette in moto l'elica dell'aeroplano; il
turboreattore è un motore a reazione azionato da una turbina).
Le
macchine frigorifere sfruttano successive liquefazioni ed evaporazioni di un
fluido (in genere ammoniaca) ad opera di una pompa azionata da un motore:
durante la fase di evaporazione il fluido assorbe calore dall'ambiente in cui si
trova, e lo raffredda.
MOTORI A COMBUSTIONE INTERNA
Verso la fine dell'Ottocento il motore a
vapore, scoperto da più di un secolo, era stato perfezionato nei limiti
del possibile, compatibilmente con le possibilità tecnologiche del tempo.
Perché lo si potesse utilizzare vantaggiosamente nella produzione
industriale, però, era necessario collegarlo a un certo numero di
macchine operatrici o sfruttarlo per lavori di una certa entità; in altre
parole era un motore conveniente solo per fabbriche di una certa dimensione. In
più, era ingombrante, richiedeva locali attrezzati e condizionava in
maniera spesso imbarazzante la distribuzione degli spazi e la successione delle
operazioni nella fabbrica. Quanto ai trasporti, proprio in ragione del peso e
dell'ingombro, la macchina a vapore non era applicabile a vetture e mezzi di
trasporto individuali: in questo settore sembrava che l'era del cavallo non
dovesse tramontare mai.
Durante tutto il secolo XIX, ma specialmente nella
sua seconda metà, si moltiplicarono gli studi per realizzare una macchina
motrice più piccola, più comoda e più a buon mercato che
potesse essere utilizzata anche da artigiani e piccole imprese industriali o
che, nelle grandi fabbriche, risultasse meno d'impaccio e che, infine fosse
utilizzabile nella locomozione.
A queste caratteristiche rispondevano sia i
motori elettrici, sia i motori a scoppio. I loro inventori erano spesso
preoccupati dai fenomeni di concentrazione industriale in atto ed erano mossi
nelle loro ricerche dal desiderio di costruire apparati che rafforzassero la
piccola industria nei confronti del grande capitale. L'effetto reale fu assai
diverso, giacché motori elettrici e motori a scoppio furono il terreno
d'elezione delle nuove colossali concentrazioni industriali (basta ricordare le
industrie automobilistiche).
Perché il motore elettrico diventasse
uno strumento economicamente interessante occorreva che fosse disponibile
corrente elettrica a costi modesti. Questa condizione fu realizzata, intorno al
1880, con la nascita delle prime centrali elettriche per l'illuminazione. Quella
di Milano risale al 1883, e appunto in questo periodo venne messo a punto da
Galileo Ferraris un motore in grado di sfruttare la corrente elettrica che era
ormai a portata di mano.
Quanto ai motori termici, a partire dalla
metà del secolo ne furono ideati alcuni, e nel 1877 il tedesco Nikolaus
August Otto mise a punto un motore a quattro tempi che, perfezionato da altri,
fu in sostanza il prototipo del motore a scoppio. Il motore a scoppio presenta
molti vantaggi sulla macchina a vapore: è facile da avviare e raggiunge
subito le condizioni di perfetto funzionamento, è leggero e poco
ingombrante ed ha un buon rendimento (per un motore termico): circa 0,30. Viene
usato soprattutto come motore di piccoli mezzi di locomozione (motociclette e
automobili). Un inconveniente è però che per il suo funzionamento
è necessario usare un combustibile pregiato come la benzina.
Verso
la fine dell'Ottocento l'ingegnere tedesco Rudolf Diesel mise a punto il motore
a iniezione (detto comunemente motore a Diesel) che può usare
combustibili più scadenti della benzina (nafta e olio pesante) ed
è più semplice e robusto del motore a scoppio. È
però più pesante e ingombrante: viene utilizzato in autocarri,
navi, sommergibili, e negli impianti fissi.
IL MOTORE A SCOPPIO
Un motore a scoppio consta di due parti: un
carburatore dove vengono mescolate aria e benzina polverizzata, a formare la
miscela esplosiva, e un cilindro. Nel cilindro scorre uno stantuffo a tenuta
perfetta; attraverso la biella B e la manovella M il movimento rettilineo in su
e in giù dello stantuffo viene trasformato in moto rotatorio e trasmesso
poi (in un autoveicolo) alle ruote. Nella parte superiore del cilindro (testata)
sboccano due tubi: uno lo mette in comunicazione col carburante, l'altro con
l'esterno (tubo di scappamento). L'apertura e la chiusura dei due tubi sono
regolate da due valvole: la valvola di aspirazione A e la valvola di scarico S
(comandate automaticamente dal movimento del motore). Sempre nella testata si
trova una candela C dotata di due puntine metalliche tra le quali si può
far scoccar una scintilla elettrica.
Il funzionamento del motore a
scoppio avviene in quattro tempi o fasi:
1° tempo (fase di
aspirazione: lo stantuffo viene abbassato e automaticamente la valvola di
aspirazione A si apre (mentre l'altra resta chiusa). Il movimento dello
stantuffo risucchia la miscela del carburatore aspirandola nel
cilindro.
2° tempo (fase di compressione): la valvola A si chiude, e
lo stantuffo sale comprimendo la miscela nella camera di scoppio.
3°
tempo (fase di scoppio e di espansione): a valvole sempre chiuse, tra le puntine
della candela C scocca una scintilla che produce l'accensione e l'esplosione
della miscela che espandendosi spinge violentemente in basso lo
stantuffo.
4° tempo (fase di scarico): si apre la valvola di scarico S
attraverso cui escono i gas prodotti dalla combustione, i cui residui vengono
completamente espulsi dalla risalita dello stantuffo.
È evidente che
solo la terza fase (di scoppio) è attiva, cioè solo in questa fase
il motore produce lavoro, spingendo in basso lo stantuffo. Le altre fasi sono
passive e i movimenti dello stantuffo avvengono solo perché il motore
messo in moto dalla fase di scoppio, continua per inerzia a muoversi,
utilizzando l'energia acquistata nella fase attiva.
Il motore di una
automobile e costituito abitualmente da quattro cilindri, in modo che ce ne sia
sempre uno in fase attiva: l'effetto di inerzia è poi agevolato da un
volano, un pesante disco d'acciaio che assorbe energia durante la fase attiva
per restituirla nelle fasi passive.
Schema: le fasi del motore a quattro tempi
Principio di funzionamento del motore a scoppio
IL MOTORE DIESEL
Nel motore Diesel, quando la valvola di
aspirazione A è aperta, viene risucchiata nel cilindro aria pura, che poi
viene compressa ad una forte pressione (30-40 atmosfere), riscaldandosi. A
questo punto il carburante (nafta) viene iniettato e polverizzato per mezzo di
un iniettore nell'aria compressa e calda e la miscela si accende spontaneamente
per effetto dell'alta temperatura. Non c'è quindi bisogno della candela,
organo delicato che si sporca facilmente impedendo lo scoccare della scintilla
se il carburante non è puro e lascia residui. Ecco perché il
motore Diesel può usare carburanti meno pregiati. Seguono le fasi di
espansione e di scarico. Data la forte pressione della miscela, il cilindro deve
essere molto più robusto di quello usato nel motore a scoppio.
Schema: le fasi del motore Diesel
LA CATENA DI MONTAGGIO
Alla fine dell'Ottocento l'automobile era
forse uno dei beni di consumo più complicati prodotti dall'industria. Era
composta di molte parti (un impianto elettrico, un motore a scoppio, un apparato
meccanico per la trasmissione del movimento alle ruote, un telaio portante, una
carrozzeria, e poi freni, sospensioni, ruote, sterzo, ecc.), ognuna delle quali
era costituita da numerosi elementi fatti dei materiali più diversi
(ferro, acciaio, rame, gomma, ecc.). Lunghi e complicati erano poi i
procedimenti necessari per mettere assieme, ossia per montare tutte queste
parti. Difficili da costruire, e di non facile manutenzione, le automobili erano
anche molto costose. Considerate in origine oggetti di lusso e quasi delle
stravaganze, avevano un mercato ristretto: ancora nel 1904 la fabbrica americana
Olds, considerata all'avanguardia nel settore, non superava il ritmo di 5000
vetture all'anno.
Le prime automobili erano costruite in modeste officine
meccaniche dotate solo delle principali macchine utensili (torni, frese,
trapani) e di una rudimentale attrezzatura per fondere e colare il metallo. Era
un modello di organizzazione quasi artigianale fondato sulla collaborazione di
un gruppetto di tecnici e di operai altamente qualificati. I pochi esemplari
prodotti erano, per così dire, «fatti a mano», spesso diversi
l'uno dall'altro. Via via però che l'automobile veniva perfezionata,
resa, cioè, più confortevole, più sicura e funzionale
cominciò ad interessare un pubblico molto più vasto dei pochi,
spericolati ed eccentrici clienti degli inizi. Si trattava pur sempre di un
mercato riservato ai ricchi, ma la produzione di tipo artigianale era ormai
insufficiente a coprire la domanda. Le officine si ingrandirono, occuparono
enormi capannoni, si riempirono di macchine utensili più sofisticate,
cominciarono a impiegare un numero consistente di operai.
Anche
l'organizzazione del lavoro dovette cambiare con il crescere delle dimensioni
delle imprese e del volume della produzione. Nelle vecchie officine tecnici e
operai svolgevano in collaborazione mansioni diverse e complesse; nelle nuove
fabbriche restava un forte nucleo di operai qualificati, ma il lavoro degli
altri venne sempre più suddiviso in mansioni semplici in modo che per
svolgerle non fossero necessari né un lungo addestramento, né
un'abilità particolare. Da un lato il livello di qualificazione della
maggioranza degli operai tendeva ad abbassarsi; dall'altro le macchine utensili
diventavano sempre più specializzate, ossia venivano sempre più
spesso progettate e costruite appositamente per la lavorazione di questo o quel
pezzo. Si passava così da un tipo di organizzazione del lavoro che
lasciava largo spazio alla creatività personale e nel quale ciascuno
aveva ben presente il prodotto finale che contribuiva a produrre, a un lavoro in
serie, prevalentemente ripetitivo, in cui a ogni operaio era affidato un compito
circoscritto e sempre uguale, di cui talvolta ignorava addirittura il
significato e la collocazione nel complessivo processo di produzione. In questa
nuova organizzazione del lavoro la funzione di riunire e coordinare le mansioni
produttive disperse e parcellizzate (ossia ridotte in piccole parti) si
concentrava in sostanza nella fase conclusiva del montaggio dei vari
pezzi.
Anche se la tendenza verso questo nuovo modello produttivo era
presente in tutta l'industria automobilistica e più in generale in tutta
l'industria manifatturiera, la sua realizzazione è essenzialmente legata
al nome dell'ingegnere americano Henry Ford (1863-1947), che, al di là
della clientela tradizionale, ebbe il coraggio di guardare ad un mercato nuovo,
praticamente illimitato: quello delle classi medie. Per conquistarlo era
necessario abbassare i prezzi e perciò contenere i costi, eliminare gli
sprechi, ridurre i tempi di lavorazione. La sua fabbrica di automobili, la Ford
Motor Company, fondata a Detroit nel 1903, è diventata il simbolo di
un'era nuova del capitalismo, fatta di efficienza e di ritmi produttivi senza
precedenti, ma anche di una straordinaria intensificazione dello sfruttamento
del lavoro operaio.
Ford aveva costruito la sua prima automobile nel 1893;
nel 1908 lanciò il suo nuovo modello, il «modello T», la prima
automobile «alla portata di tutti»: un altro segno dei tempi, il
simbolo affascinante di un'epoca di benessere diffuso. Fino al modello T le
automobili erano state confezionate quasi «su misura» secondo le
esigenze dei clienti, che avevano la possibilità di scegliere tra molte
varianti possibili, un po' come si fa quando si va dal sarto per farsi tagliare
un vestito anziché comprarlo bell'e fatto al grande magazzino. Ford
introdusse invece nella produzione della nuova auto una completa
standardizzazione, costruendo ogni parte dell'automobile ed ogni suo accessorio
secondo modelli fissi.
In verità la standardizzazione era una
tendenza caratteristica dell'industria americana che, a partire almeno dagli
anni Ottanta, ne aveva fatto la sua arma migliore nella guerra contro
l'industria inglese, orientata piuttosto ad offrire al pubblico una vasta gamma
di prodotti differenziati, di ottima qualità, ma anche, inevitabilmente,
a prezzi più alti. Gli industriali americani erano persuasi di dovere e
di potere in qualche modo «educare» la propria clientela e non
esitavano ad usare le maniere forti: nell'industria siderurgica, ad esempio, era
consuetudine imporre prezzi punitivi ai clienti che richiedevano prodotti non
conformi agli standard usuali. Ford assunse la standardizzazione come strumento
e simbolo di una razionalizzazione integrale del ciclo produzione-consumo,
mettendoci una buona dose di arroganza nel presumere di interpretare i bisogni
del consumatore meglio del consumatore stesso. È nota la sua battuta a
proposito del colore delle sue auto: «I miei clienti possono scegliere il
colore che vogliono, purché sia il nero».
Per accelerare i
ritmi di produzione adeguandoli alla nuova domanda di automobili Ford introdusse
una innovazione, destinata a modificare radicalmente l'organizzazione del lavoro
e dello spazio all'interno della fabbrica moderna: la catena di montaggio. Per
la verità, anche in questo caso Ford non faceva che adattare
all'industria meccanica e alla produzione di automobili un principio già
conosciuto e applicato altrove, e per esempio nei giganteschi macelli di
Chicago. Qui le bestie da squartare, appese a un gancio, scorrevano su una
rotaia e passavano da un lavorante a un altro, ciascuno dei quali eseguiva sulla
carcassa una distinta operazione. Al termine del processo l'animale era
completamente squartato. In questo caso potremmo dire che si trattava di una
catena «di smontaggio», nel senso che i pezzi venivano via via
staccati e asportati. Ma lo stesso procedimento poteva essere utilizzato nel
montaggio di pezzi costruiti separatamente.
Ford cominciò ad
applicare questa procedura dapprima a singole parti dell'automobile, poi al
montaggio dei pezzi. Questi scorrevano su una catena (una rotaia o un nastro
trasportatore) e gli operai compivano su di essi le singole operazioni
richieste, senza muoversi dal proprio posto. I ritmi di lavorazione potevano
essere aumentati accelerando la velocità di scorrimento della catena, i
tempi morti si riducevano al minimo, la produttività cresceva. Fu
così possibile diminuire ulteriormente i prezzi, il che provocò un
ulteriore allargamento del mercato. La produzione della Ford, che era di circa
1700 automobili nel 1903, salì a 200.000 dieci anni dopo, a 300.000 nel
1914, a oltre mezzo milione nel 1918. Nel 1924 oltre la metà delle
automobili circolanti nel mondo era uscita dalle fabbriche Ford.
Dati i
micidiali ritmi di lavoro imposti dalla catena di montaggio il problema era come
tenere legati gli operai alla fabbrica. Ford lo risolse con una mossa a
sorpresa: nel 1914 raddoppiò i salari. Per compensi così elevati,
superiori a quelli di ogni altra fabbrica, non mancava gente disposta a
sopportare i ritmi di lavoro richiesti. Una volta la moglie di un operaio
scrisse a Ford:
... La vostra catena di montaggio è un
aguzzino di schiavi! Si lavora lavora lavora e si deve tenere il ritmo, anche se
uno non si sente bene, ha fitte di dolore dappertutto, come mio marito, e deve
stare a sentire un capo che a furia di "Dio qui" e "Dio lì" gli dice di
sbrigarsi, come un aguzzino di schiavi... È vero che quei cinque dollari
al giorno sono una benedizione, ma se li guadagnano, oh se se li
guadagnano!...
Poiché, però, anche gli alti salari non
bastavano ad assicurare una manodopera stabile e sottomessa, Ford concepì
il proposito di «riformare» gli uomini, ossia di costruire un nuovo
tipo d'uomo capace di adattarsi ai nuovi ritmi di lavoro. A questo scopo
creò uno speciale ufficio incaricato di controllare la vita privata dei
dipendenti, in modo che non sperperassero le loro energie, mantenessero
abitudini di vita tradizionale, conducessero un'esistenza tranquilla: nulla
doveva turbare il loro rendimento in fabbrica. Allo stesso scopo dovevano
servire le scuole, le associazioni ricreative, le istituzioni previdenziali e
benefiche create da Ford: l'operaio doveva identificarsi con la ditta da cui
dipendeva, doveva adottarne gli obbiettivi e lo stile di vita, abituarsi a fare
affidamento sulla sua protezione.
Anche qui niente di nuovo, salvo le
dimensioni inconsuete dell'esperimento. La letteratura pedagogica del Sette e
dell'Ottocento, a cominciare dai massimi autori, come Rousseau e Pestalozzi, era
piena di figure di padroni filantropi e di industriali benefattori, intenti ad
addestrare i propri dipendenti, mediante ingegnosi sistemi di premi e castighi,
ad una vita di duro ma salutare lavoro, liberandoli dai vizi tradizionalmente
attribuiti ai poveri (la pigrizia, la sfrenatezza, l'ingordigia, la
slealtà) e insegnando loro le virtù borghesi dell'alacrità,
della parsimonia, della moderazione. Più concretamente il progetto di
Ford riprendeva gli espedienti paternalistici di certi vecchi padroni, che nella
fasi iniziali dell'industrializzazione, nel reclutare manodopera per le proprie
fabbriche, si erano trovati con una massa sterminata di proletari riottosi ed
affamati, ma con un numero davvero piccolo di buoni e docili operai e che, anche
con un'oculata amministrazione della beneficenza, avevano tentato di insegnare
ai primi la disciplina e di legare stabilmente i secondi al loro lavoro. Quei
pionieri avevano dovuto formare una classe operaia per un sistema industriale
primitivo e, per così dire, ancora tutto da inventare. Ford doveva
riformare la gente (la classe operaia, ma anche i consumatori) per adattarla ad
un sistema industriale evoluto. A parte la disparità delle risorse
impiegate, i metodi erano pressappoco gli stessi.
STANDARD
Il termine inglese standard =
«norma», «modello» è entrato da tempo nell'italiano
corrente, sia come aggettivo, per indicare che qualcosa è stato costruito
in serie, secondo moduli fissi (per es.: un apparecchio standard) sia come
sostantivo, per indicare il livello o l'entità media di qualche cosa (per
es.: lo standard di vita degli Italiani, lo standard di lavoro degli operai
giapponesi e simili). Standardizzare vuol dire uniformare la produzione,
unificando i modelli, le dimensioni e le forme dei prodotti. La
standardizzazione e una condizione della fabbricazione in
serie.
IL CONTROLLO DEL LAVORO
L'invenzione del telaio a vapore, della
ferrovia, della sgranatrice meccanica per il cotone hanno segnato una grandiosa
trasformazione nei modi di produzione. La figura dell'artigiano è
rapidamente sparita dai settori produttivi che contavano, mentre i contadini
venivano strappati in un modo o nell'altro dai campi e inseriti nella vita di
fabbrica. È sorto così il moderno proletariato industriale. La
differenza tra gli operai di fabbrica e gli artigiani non stava solo nella
diversità degli strumenti che usavano per produrre, ma anche e
soprattutto nel fatto che gli operai di fabbrica avevano perso quel controllo
sul proprio lavoro, che gli artigiani tradizionali avevano sempre esercitato; e
lo aveva perso perché la proprietà dei mezzi di produzione era
passata nelle mani dei capitalisti.
Dal momento in cui si è
manifestata la separazione tra i produttori e i mezzi di produzione, il
controllo del lavoro è divenuto uno degli aspetti centrali del processo
produttivo. Inizialmente questo controllo si era espresso nella concentrazione
degli operai in fabbrica, nell'imposizione di regole di comportamento più
o meno severe, nella fissazione di precisi orari di lavoro (la vita
dell'operaio, a differenza di quella dell'artigiano o del contadino, che seguiva
la successione del giorno e della notte, della luce e del buio, è
scandita dalla sirena della fabbrica che segnala l'inizio e la fine del lavoro).
Era un controllo pesante, attraverso il quale il padrone cercava di garantirsi
che il lavoro che doveva esser fatto fosse fatto nel modo migliore e nel
più breve tempo possibile, ma che lasciava all'operaio una certa
autonomia circa il come lavorare in concreto.
Le macchine, naturalmente,
condizionavano strettamente i movimenti dell'operaio, che doveva adeguarsi al
loro ritmo di funzionamento. Era osservazione comune che nella fabbrica
capitalistica non era la macchina a servizio dell'uomo, ma l'uomo a servizio
della macchina: l'operaio, è stato detto, era una semplice appendice
della macchina. E tuttavia i singoli gesti di lavoro, il modo di afferrare un
attrezzo, per esempio, o di azionare un comando, o di spostare un pezzo sul
banco, rientravano nella sfera di decisioni propria dell'operaio. Molti operai,
poi, possedevano un patrimonio personale di esperienze, del quale erano gelosi
custodi, ma che rappresentava anche per il padrone una risorsa da utilizzare.
Dopo anni di lavoro gli operai conoscevano i segreti delle macchine meglio di
chiunque altro, compresi gli ingegneri che le avevano progettate. Grazie a
questa esperienza e al rispetto che sapevano ispirare anche nei capi, gli operai
qualificati potevano regolare i propri ritmi di lavoro senza che nessuno, entro
certi limiti, osasse interferire. I sorveglianti potevano multarli se li
sorprendevano a violare i regolamenti di fabbrica (per esempio a fumare), ma non
potevano imporre loro i movimenti o i gesti da compiere per fare il loro lavoro,
perché gli operai ne sapevano di più.
Contro questo residuo
di autonomia si indirizzarono, sul finire dell'Ottocento, gli sforzi di
razionalizzazione del lavoro in fabbrica volti a massimizzarne l'efficienza e la
produttività. Il più sistematico autore di simili sforzi fu
l'ingegnere americano Frederick Winslow Taylor, che vi si impegnò fin
dagli anni Ottanta. Taylor diede un tale impulso alla riorganizzazione del
lavoro, da essere considerato «il pioniere della più grande
rivoluzione avvenuta nella divisione del lavoro». La rivoluzione di Taylor
consisteva nel prescrivere al lavoratore l'esatta maniera in cui ogni operazione
doveva essere compiuta. Per farlo occorreva scomporre il lavoro in operazioni e
gesti elementari, studiare accuratamente ogni operazione dal punto di vista
della massima economia di tempo e di fatica, e infine ricomporre la sequenza
delle operazioni con l'eliminazione dei tempi morti e dei gesti inutili.
A
questa ricerca si è dato il nome di organizzazione o direzione
scientifica del lavoro. L'uso dell'aggettivo «scientifico», non deve
trarre in inganno. Non si trattava di trovare delle leggi universali, valide in
qualunque situazione. Le condizioni in cui tali regole potevano valere erano
quelle della fabbrica capitalistica in una particolare fase della sua evoluzione
tecnica, e lo scopo di Taylor e del taylorismo nello scomporre e ricomporre il
lavoro era appunto di sottrarre all'operaio ogni capacità di controllo
sul processo produttivo per trasferirla alla direzione (tecnici, capi, ecc.). In
questo senso il taylorismo era un modo di approfondire quella separazione dei
produttori dai mezzi di produzione che è la caratteristica originaria del
modo di produzione capitalistico, costituiva cioè un nuovo e in un certo
senso definitivo tentativo di espropriazione: l'operaio da semplice
«appendice della macchina» diventava lui stesso una specie di
macchina.
Taylor si impegnò a lungo in questa opera di
scomposizione, analisi, controllo del lavoro. Si dedicò anche alla
divulgazione dei suoi principi mediante scritti e discorsi. I suoi metodi
incontrarono larghi consensi tra imprenditori, tecnici, ingegneri, ma anche
qualche riserva. Alcune sue dichiarazioni sugli scopi «umanitari»
della direzione scientifica del lavoro (che doveva far produrre di più ma
anche rendere più felici gli operai) furono considerate ingenue, e
qualcuno mise in dubbio la possibilità o l'opportunità di
applicare fino in fondo i metodi da lui elaborati. Ma la sostanza del suo
insegnamento è servita quasi ovunque come guida per la riorganizzazione
del lavoro industriale.
LA REGISTRAZIONE DEI SUONI E DELLE IMMAGINI
Una delle caratteristiche più
interessanti della nostra epoca è costituita dalla possibilità di
registrare e di riprodurre a volontà suoni ed immagini. A dir la
verità, siamo talmente immersi in un mezzo continuo di suoni e di
immagini (un po' come è l'aria per gli uccelli o l'acqua per i pesci) da
non riuscire neppure a concepire la possibilità di farne a meno. E invece
fino a un secolo fa circa il solo strumento per registrare suoni e immagini e
per conservare in qualche modo il ricordo del passato era la scrittura e il
disegno. Nessuno, allora era disposto a dare facile credito a nuove invenzioni
in questo campo. Quello che accadde a Thomas Alva Edison quando, il 12 marzo del
1878, presentò il suo fonografo all'Accademia delle Scienze di Parigi
è indicativo. Non appena dall'imbuto cominciarono a uscire i primi suoni
di una brano parlato, gli accademici presero a gridare: «Impostore! Non si
prende in giro l'Accademia di Francia!». Il segretario dell'Accademia
afferrò Edison per la gola, non per strozzarlo, naturalmente, ma
perché immaginava così di smascherare quello che tutti avevano
preso per il trucco di un ventriloquo. Ma mentre il segretario dell'Accademia
teneva stretta la gola di Edison, la macchinetta, imperterrita, continuò
a funzionare e dopo il brano parlato uscirono addirittura le note di una
marcetta. Gli accademici dovettero arrendersi all'evidenza.
In
verità un primitivo sistema di «scrittura» dei suoni era stato
escogitato agli inizi dell'Ottocento dall'inglese Thomas Young, che aveva legato
a un diapason una puntina metallica che scriveva su un cartoncino annerito con
fumo: aveva ottenuto così un segno corrispondente alla nota da cui,
però, non era in alcun modo possibile riprodurre il suono. A questo
obbiettivo nei decenni seguenti diversi inventori puntarono i propri sforzi, ma
solo Edison seppe costruire un apparato funzionante: il fonografo (dal greco
foné = «voce» e grapho = «scrivo»). Il fonografo
è costituito da un imbuto che raccoglie, potenzia e incanala i suoni
verso una membrana di cartapecora collocata sul fondo, facendola vibrare; la
membrana, attraverso una puntina di acciaio, incide un solco su un cilindro
d'ottone coperto di stagno che ruota e, contemporaneamente, avanza lungo un asse
a vite mediante un meccanismo a orologeria. Quando il cilindro viene rimesso
nella posizione di partenza e la puntina ripercorre il solco, la membrana torna
a vibrare e produce suoni che vengono infine amplificati
dall'imbuto.
Edison, che era anche un uomo d'affari, capì che quella
macchinetta poteva produrre, oltre ai suoni, un mucchio di quattrini.
Fondò la Edison Phonograph Company che prima organizzò una serie
di fortunatissimi spettacoli teatrali, e poi, introdotti numerosi
perfezionamenti, si lanciò nella produzione industriale di cilindri
incisi. Ai primi del Novecento, tuttavia, il fonografo di Edison fu scalzato da
un'altra invenzione, il grammofono (dal greco grammos = «segno» e
foné = «voce»), che, brevettato nel 1887 dal tedesco Emil
Berliner, incideva su dischi anziché su cilindri. I dischi, che erano
dapprima di vetro verniciato e poi di cera, permettevano una resa del suono
nettamente migliore, ma il successo decisivo venne quando, nel 1897, lo stesso
Berliner trovò il modo di stampare i dischi in un numero illimitato di
copie mediante una matrice di rame ottenuta con procedimento galvanico
dall'incisione originale.
La registrazione e la riproduzione delle immagini
avevano anticipato di qualche decennio quelle dei suoni. Il principio della
camera oscura era noto da moltissimo tempo. Studiata da Leonardo da Vinci, la
camera oscura era stata perfezionata nel XVI secolo da Gerolamo Cardano e
soprattutto dal letterato e fisico napoletano Giambattista della Porta, a cui si
deve la prima camera oscura portatile (1593): dotata di un obiettivo (una lente
convergente), offriva immagini molto luminose e precise. La camera oscura
restò però un semplice congegno curioso finché non si
trovò il modo di fissare le immagini. Dapprima si ricorse a disegnatori
che seguivano i contorni delle figure prodotte nella camera, ma il problema fu
veramente risolto solo tra il 1820 e il 1840 dai francesi Nicéphore
Niepce (1765-1833) e Jacques Daguerre (1787-1851). I chimici erano a conoscenza
da tempo che la luce provoca delle alterazioni su certe sostanze annerendole (o
rischiarandole). Niepce pensò di sostituire la parete della camera oscura
su cui si forma l'immagine, con una lastra di metallo ricoperta da uno strato di
una di tali sostanze: le zone illuminate avrebbero così subito la
trasformazione chimica rimanendo più scure (o più chiare) delle
zone non illuminate e fissando perciò l'immagine negativa (o positiva, a
seconda della sostanza impiegata).
Il procedimento, in teoria, sembrava
abbastanza semplice; purtroppo, come spesso accade, cercando di tradurlo in
realtà si incontrarono molte difficoltà, e fu solo dopo parecchi
anni di tentativi che Mepce riuscì, nel 1826, ad ottenere la prima
fotografia (dal greco: phos, photos = «luce» e gràphein =
«scrivere, disegnare»), usando come materiale fotosensibile del bitume
di Giudea che alla luce imbianca. Per ottenere fotografie con questo
procedimento gli occorrevano però delle pose di parecchie ore.
Incoraggiato comunque da questo sia pur modesto risultato, prosegui le ricerche
con l'aiuto del pittore Daguerre; e fu proprio costui, dopo la morte del
collega, a cogliere i frutti del lungo lavoro. Egli utilizzò in luogo del
bitume di Giudea lo joduro d'argento, con un procedimento che necessitava di una
posa di qualche minuto soltanto. Nacquero così i
«dagherrotipi», le prime fotografie di interesse pratico (1838).
Anch'essi davano direttamente l'immagine positiva, e consentivano perciò
un unico esemplare per ogni soggetto.
L'inglese W.H. Talbot ottenne poco
dopo il primo negativo; da allora i progressi tecnici furono rapidi e continui:
ci limitiamo ad accennare alla introduzione della gelatina fotosensibile al
bronzo d'argento (J. Burgess, 1873), alla sostituzione della lastra con rulli di
pellicola (G. Eastman, 1888) e al perfezionamento degli elementi ottici, con
obiettivi sempre migliori. Nel Novecento la riduzione dei costi e la costruzione
di apparecchi di piccolo formato, che si giovavano delle recenti innovazioni
(luminosità degli obbiettivi, alta sensibilità della gelatina e
quindi tempi di posa ridottissimi, automaticità di molte operazioni),
fecero uscire la fotografia dagli studi dei professionisti e la misero a
disposizione di una larga massa di dilettanti in ogni circostanza e in quasi
ogni condizione di luminosità.
Un apparecchio fotografico, come
abbiamo detto, in linea di principio funziona come una camera oscura. Quando
scattiamo una foto la luce per un breve periodo di tempo penetra nella macchina,
forma l'immagine sulla pellicola sensibile e la impressiona: i grani di bromuro
d'argento sotto l'azione della luce infatti si decompongono in argento e bromo,
e l'argento finemente suddiviso si presenta annerito; questo annerimento
però è talmente scarso da non essere avvertibile ad occhio nudo e
si parla perciò di immagine «latente». Per liberare questa
immagine nascosta, occorre sviluppare la pellicola: questa operazione, che
bisogna eseguire al buio, consiste nell'asportazione del bromo che si è
separato, per mezzo dell'azione chimica di certe soluzioni. A questo punto nelle
parti impressionate c'è l'argento annerito, ma in quelle non
impressionate c'è ancora il bromuro d'argento; la pellicola invece
è trasparente. Ora finalmente l'immagine è stabile e permanente, e
costituisce la «negativa». Basta metterla su una pellicola non
impressionata, illuminarla e ripetere poi sulla seconda pellicola tutte le
operazioni di sviluppo per avere la «positiva», che riproduce
fedelmente l'oggetto fotografato. Così da una negativa si possono
ricavare quante positive si vogliono, pur di ripetere altrettante volte
quest'ultima fase.
Notevolmente diverso e più complicato è il
problema di ottenere fotografie a colori. I vari metodi, pur variando
notevolmente, sono basati sull'osservazione che tutti i colori esistenti in
natura possono essere riprodotti combinando tra loro tre colori fondamentali: il
rosso, il verde e il blu. Il primo procedimento realizzato fu quello della
tricromia di Ducos du Hauron (1869), cui seguirono il metodo di Lippman (1891),
quello dei fratelli Lumière (1903) ed altri ancora. Tutti questi erano
però metodi poco pratici e poco sensibili; soltanto in anni abbastanza
recenti, dopo il 1935, il problema della fotografia a colori poté dirsi
veramente risolto.
Sezione di macchina fotografica
Il cinematografo (dal greco: kinema = «movimento», e gràphein =
«scrivere», «disegnare») ha avuto una lunga preistoria,
fatta di svariati e ingegnosi tentativi di produrre immagini in movimento.
Naturalmente la maggior parte degli strumenti escogitati a questo scopo sono
ormai da tempo dimenticati, ma essi furono i primi incerti risultati di idee e
procedimenti che, sviluppatisi faticosamente, sono sfociati nelle moderne
tecniche cinematografiche. Antenata del cinematografo si può considerare
la lanterna magica nota già nel XVII secolo, la quale permetteva di
proiettare su uno schermo un'immagine fissa. Dopo che fu scoperto nel secolo
XVIII il fenomeno della persistenza dell'immagine sulla retina dell'occhio umano
per circa un quindicesimo di secondo, cominciò ad essere studiata la
possibilità di costruire strumenti che dessero immagini in moto. Se si
riesce a presentare all'occhio immagini fisse in rapida successione di un
soggetto che si muove, in modo che la successiva gli appaia quando la precedente
persiste ancora sulla retina, egli avrà infatti l'impressione di una
immagine dotata di movimento.
Parecchi tentativi furono fatti in questa
direzione: il primo strumento di un certo interesse fu il fenachinoscopio,
inventato dal belga Plateau nel 1829, che consisteva in un disco su cui erano
disegnate le successive fasi di una azione e che veniva fatto girare in modo da
riprodurre il movimento. Ma fu solo dopo l'invenzione della fotografia e
soprattutto dopo che i suoi progressi furono tali da permettere di fotografare
una successione veloce di immagini, che fu riconosciuta in tutta la sua portata
l'importanza di questi studi. Le difficoltà che si frapponevano alla
costruzione di strumenti in grado di riprodurre sullo schermo una scena
analizzata da una macchina fotografica furono a poco a poco superate,
finché nel 1895, i fratelli Louis e Auguste Lumière poterono
presentare a Parigi la prima proiezione cinematografica.
I fratelli Lumière, inventori del cinema
L'apparecchio dei fratelli
Lumière serviva sia per la ripresa che per la proiezione e la sua
frequenza era di 16 fotogrammi al secondo. La tecnica attuale è diversa.
I fotogrammi sono stati portati a 24 al secondo e le due operazioni di ripresa e
di proiezione sono eseguite da apparecchi ben distinti: la macchina da presa
è una macchina fotografica nella quale la pellicola viene trascinata
automaticamente a scatti rimanendo esposta alla luce e quindi impressionata
quando è ferma, e restando al buio per mezzo di un otturatore quando
viene trascinata: in un secondo ci sono perciò 24 trascinamenti e 24
scatti e vengono impressionati 24 fotogrammi successivi. L'apparecchio di
proiezione segue i principi della vecchia lanterna magica, ma anche qui
naturalmente la proiezione avviene ad intervalli, cosicché sullo schermo
si succedono 24 proiezioni al secondo, che l'occhio avverte come una sola
immagine continua, in movimento.
Il successo del cinematografo è
stato immediato e clamoroso: col cinema è nata una nuova forma di
espressione artistica e si è sviluppato un nuovo, importante settore
industriale. Fin dal primo decennio del secolo sono stati prodotti film di una
certa lunghezza, comici, sentimentali o fantastici (la produzione era allora
prevalentemente francese) e hanno cominciato a funzionare le prime sale
cinematografiche stabili. Prima della Grande guerra il cinema si era ormai
affermato in tutta Europa e in America. Il conflitto mondiale esaltò
un'altra delle grandi possibilità del cinema: quella di servire come
strumento singolarmente efficace di documentazione e di propaganda. Un nuovo
mezzo di comunicazione di massa si aggiungeva così alla tradizionale
carta stampata. Tra le due guerre mondiali sarebbe venuta la volta della radio e
dopo la seconda guerra mondiale quella della televisione.
Terminata la
Grande guerra, iniziò il predominio del cinema americano: Hollywood nei
pressi di Los Angeles, in California, dove si concentrò l'industria
cinematografica americana, divenne rapidamente la capitale mondiale del cinema.
Nel 1927 Il cantante di jazz, un film musicale, inaugurò l'era del film
sonoro. Le difficoltà tecniche da superare non erano state piccole: il
problema di sincronizzare i suoni con l'azione del film è stato risolto
registrandoli su una «colonna sonora», una strisciolina che si
affianca ai fotogrammi sulla pellicola. Dopo l'avvento del sonoro i
perfezionamenti tecnici nel campo della cinematografia sono stati innumerevoli:
basta ricordare il film a colori, i sistemi di proiezione su schermo panoramico,
i progressi nella riproduzione dei suoni, ecc.
THOMAS ALVA EDISON
Nato nel 1847 e morto nel 1931, Thomas Alva
Edison impiantò il suo primo laboratorio quando aveva ventun anni. Nella
sua vita brevettò circa 1500 invenzioni (pressappoco un'invenzione ogni
due o tre settimane), tra le quali il microfono a carbone (1876), che permise a
Bell la realizzazione del telefono, il fonografo (1877), la lampadina elettrica
a filamento di carbone (1879), una delle tappe fondamentali nella storia
dell'illuminazione, il cinetoscopio (1899), uno dei primi apparecchi per la
visione delle pellicole cinematografiche. Nel 1883 scopri l'effetto termoionico
(o «effetto Edison»), che è all'origine delle moderne
tecnologie elettroniche. Fu sua l'idea di centralizzare la produzione di energia
elettrica: nel 1882 con l'aiuto finanziario dell'arcimilionario americano J.
Pierpont Morgan costruì la sua prima centrale a New York e fondò
la società Edison per la produzione e la distribuzione di energia
elettrica. Edison è stato definito il più geniale inventore di
tutti i tempi dopo Archimede, ma quando gli fu chiesto in che cosa consistesse
il genio rispose: «In un 1 per cento di ispirazione e in un 99 per cento di
traspirazione» (e cioè sudore, fatica,
applicazione).
LA NUOVA FRONTIERA DELLA VISIONE: LA VIDEOREGISTRAZIONE
Sul finire degli anni 40, la televisione
aveva conosciuto negli Stati Uniti una diffusione di dimensioni eccezionali,
superando rapidamente, nelle preferenze del pubblico la radio e il cinema. A
quel tempo i programmi televisivi, sia giornalistici che
d'intrattenimento, erano di regola trasmessi in diretta, il che escludeva
ogni possibilità di montaggio, e trasformava il minimo contrattempo in un
grosso problema. Per poter essere ritrasmesso in altre zone degli Stati Uniti
con fuso orario differente, il programma veniva filmato su pellicola con un
procedimento costoso, poco pratico di scarso rendimento qualitativo (la sola NBC
arrivava ad impiegare in un mese ben 46 Km di pellicola). Nel 1951 Jack Mullin
presentò per la Bing Crosby Enterprises, un primo tipo di
videoregistratore magnetico; nel 1953 anche la RCA presentò un suo
sistema di videoregistrazione, ma nessuno dei due sistemi era ancora
soddisfacente. Data infatti la maggior ricchezza delle informazioni contenute in
un segnale video rispetto ad un segnale audio, le frequenze da registrare erano
molto più elevate. Poiché, in quei primi modelli il nastro era
scandito dalla testina nel senso della lunghezza (come i registratori audio), la
velocità di scorrimento richiesta era talmente alta (fino a 9 metri al
secondo), che una bobina di dimensioni enormi durava solo pochi minuti. Nel 1952
la AMPEX costituì un gruppo di ricerca per studiare la possibilità
di realizzare un videoregistratore di tipo radicalmente nuovo. L'idea di
partenza era quella di sostituire la testina fissa con una serie di testine
montate su un tamburo rotante, in modo da poter ridurre la velocità
effettiva di scorrimento del nastro, aumentandone però contemporaneamente
la velocità relativa alle testine. Il gruppo, guidato da Charles
Ginsburg, dette nell'ottobre una prima dimostrazione ai dirigenti della
ditta, ma la qualità delle immagini restava ancora scarsa. Si procedette
allora a una serie di modifiche strutturali con un intento prettamente
sperimentale (nel 1953 venne realizzato un nuovo sistema, nel quale le tracce
erano registrate da quattro testine poste su una delle due facce piane del
tamburo rotante, ma l'immagine riprodotta risultava discontinua; nel 1954
si sperimentò un nuovo sistema nel quale il nastro largo 2 pollici veniva
avvolto, nel senso della larghezza intorno al tamburo dove vi erano montate le
testine; nel 1955 si pensò di sostituire nella codifica del segnale video
dal metodo in modulazione di ampiezza in modulazione di frequenza, metodo in
seguito perfezionato da Ray Dolby - diventato famoso più tardi per
l'invenzione del sistema di riduttore di rumore "Dolby system" - che
elaborò un nuovo metodo FM semplificato, con il quale fu possibile
ottenere risultati fortemente incoraggianti). Nel 1956, risolti i numerosi
problemi tecnici, si riuscì ad ottenere una qualità
d'immagine del tutto soddisfacente e nello stesso anno il prototipo del
videoregistratore AMPEX VR1000 (soprannominato "quadruplex" per la presenza di
quattro testine) venne presentato ufficialmente a Chicago in occasione del
convegno della National Association of Radio and Television Broadcasters. Il
successo fu subito grandissimo. Il 30 novembre 1956 la CBS irradiava la prima
trasmissione videoregistrata della storia. Era l'inizio di una nuova epoca
nella storia della televisione. Si erano create le basi, inoltre, per
l'avvio di un processo di ricerca che avrebbe portato alla creazione di
apparecchi specifici per la riproduzione e la videoregistrazione domestica.
Negli anni Settanta il nastro venne dimezzato in larghezza, ulteriormente
rimpicciolito all'inizio degli anni Ottanta con l'introduzione della
cassetta (U-matic in ambito professionale, Betamax e VHS in ambito
domestico).
ARRIVA IL DVD, IL VIDEO DISCO DIGITALE
Nel 1998, dopo essere stato lanciato sul
mercato giapponese e americano, il DVD (ovvero video disco digitale) è
arrivato anche in Italia.
Per gli addetti ai lavori, il video disco
digitale è considerato una vera rivoluzione nel campo delle
telecomunicazioni. In un dischetto, molto simile ai normali compact disc,
possono essere registrate fino a quattro ore di immagini, suoni ad alta
fedeltà, giochi elettronici dalla grafica sofisticata o applicazioni
multimediali di facile e veloce consultazione.
La novità è
rappresentata dal fatto che i segnali sono registrati in formato digitale e
compressi con lo standard MPEG (Motion Pictures Experts Group). Questo sistema,
adottato a livello internazionale dai principali centri di ricerca pubblici e
privati che si occupano di telecomunicazioni, permette di comprimere le
informazioni digitali senza diminuirne il livello di qualità.
Le
normali musicassette e videocassette, registrate in formato analogico,
utilizzano il nastro magnetico e sono pertanto soggette all'usura e alla
rottura. Il DVD garantisce invece una durata pressoché
illimitata.
Come dimensioni, i dischetti DVD sono uguali ai normali cd-rom
(120 millimetri di diametro per 1,2 di spessore), ma possono contenere una
quantità di informazioni fino a 14 volte superiore.
Anche il
sistema di scrittura e lettura dei dati è identico: il disco viene inciso
con una serie di microscopici fori e viene letto da un laser che rileva il
raggio di luce di ritorno traducendone la variazione dell'intensità in
suoni o immagini secondo il sistema binario.
Nel DVD i fori sono molto
più piccoli: dai 0,83 micrometri del cd-rom si passa ai 0,4 micrometri
del DVD (per micrometro si intende una misura pari a un cinquantesimo del
diametro di un capello). Questo permette di registrare un numero decisamente
superiore di piste, aumentando la quantità di informazioni (un DVD
contiene in media 0,5 gigabit per centimetro quadrato contro lo 0,1 di un
normale cd).
Ma non si tratta solo di un vantaggio in termini
quantitativi: sul DVD, per esempio, è possibile registrare scene riprese
contemporaneamente da più angolazioni, realizzare fino a otto differenti
doppiaggi del film e inserire sottotitoli in oltre trenta lingue
diverse.
Il lettori DVD sono anche applicabili sul computer, con prezzi
anche più contenuti rispetto ai videoregistratori.
LA MODERNIZZAZIONE E LA GUERRA
La Grande guerra è stata una specie
di prova generale e insieme un potente fattore di accelerazione delle
trasformazioni che avevano investito il mondo tra l'Otto e il Novecento nel
corso della cosiddetta «seconda rivoluzione industriale». Durante la
guerra, infatti, queste trasformazioni assommarono i loro effetti modificando i
modi della vita quotidiana, le relazioni tra gli uomini e le stesse esperienze
mentali di milioni di persone in tutto il mondo. Ciò di cui gli uomini
hanno fatto esperienza tra il 1914 e il 1918 non era solo la guerra moderna, ma
la modernità del mondo: un mondo pieno di prodigi e di sinistre minacce,
in cui si potevano realizzare imprese straordinarie (si pensi alla conquista del
cielo attraverso l'aviazione) e stragi senza precedenti, nel quale c'erano la
produzione di serie e il mercato di massa, la diffusione della scrittura e dei
consumi, la moltiplicazione delle immagini, delle informazioni e delle merci. Si
può dire che la guerra ha cambiato gli uomini facendo passare sotto i
loro occhi e imprimendo sul loro stesso corpo tutti i segni del nuovo che il
mondo industrializzato aveva prodotto.
La modernità della Grande
guerra si coglie naturalmente in primo luogo nella novità degli
armamenti. L'enorme uso di acciaio che si fece in guerra (per cannoni, corazze
per le navi, fortificazioni, ecc.) non sarebbe stato pensabile senza gli
sviluppi della moderna siderurgia (uno dei settori trainanti dello sviluppo
industriale a partire dall'ultimo Ottocento). Allo stesso modo il gas, che per i
suoi effetti raccapriccianti ha avuto il compito di riassumere emblematicamente
nella memoria della gente l'orrore della Grande guerra, era il prodotto di un
altro dei settori trainanti nell'età della seconda rivoluzione
industriale: l'industria chimica. La novità delle armi usate nella Grande
guerra consisteva soprattutto nel perfezionamento e nell'applicazione su larga
scala di armi già introdotte nei decenni precedenti, come le
mitragliatrici e i cannoni di grosso calibro. Ma non mancarono novità
assolute come i carri armati, impiegati dagli anglo-francesi a partire dal 1916,
e che solo nella seconda guerra mondiale avrebbero avuto un impiego massiccio e
un ruolo determinante. Nel corso della Grande guerra si sviluppò
notevolmente anche l'aviazione, nata da pochissimo tempo e rimasta fino a quel
momento in uno stadio ancora pionieristico, sperimentale e sportivo: resi
più sicuri e prodotti in serie, gli aerei furono usati in compiti di
ricognizione, di controllo dei tiri di artiglieria e di mitragliamento delle
posizioni nemiche. Un impiego esteso ebbero anche i sommergibili, prodotto
complesso delle nuove tecnologie.
La novità degli armamenti non era
tuttavia che l'aspetto più appariscente della modernità della
guerra. Non meno importanti erano le trasformazioni degli apparati logistici, di
propaganda e di mobilitazione. Trasportare e mantenere sui fronti milioni di
uomini per tempi assai lunghi, spostarli all'occorrenza da un settore all'altro,
rifornirli di armi, munizioni, vettovaglie, vestiti, medicinali, trascinare nel
fango o sui pendii delle montagne decine o centinaia di pezzi di artiglieria
pesante, ecc. erano operazioni molto complesse che richiedevano l'impiego di
mezzi straordinari.
Per i trasporti furono impegnati a fondo i sistemi
ferroviari, che avevano avuto un grande sviluppo nella seconda metà
dell'Ottocento e che erano già stati largamente utilizzati in altre
guerre con caratteristiche di modernità, come quella di secessione
americana o quella russo-giapponese. Le vecchie reti ferroviarie furono
potenziate e modificate in relazione alle necessità belliche e l'enorme
aumento del traffico richiese una riorganizzazione generale del servizio. Ma
alle ferrovie si affiancarono le auto e i camion, che proprio in coincidenza
della guerra (e per sopperire ai bisogni della guerra) cominciarono a essere
prodotte in grande serie e vennero adattate a una quantità di usi
speciali (autoambulanze, autoblindate, ecc.).
Tutti gli eserciti dovettero
poi dotarsi di un impressionante apparato sanitario, le cui articolazioni
arrivavano fino alle prime linee (posti di medicazione, ospedali da campo,
unità chirurgiche mobili, ecc.). Un tale apparato costituiva il supporto
necessario del più gigantesco macello che si fosse mai visto nella
storia. Per avere un'idea dell'enorme sforzo organizzativo compiuto in questo
settore si pensi alla necessità di smaltire quotidianamente montagne di
cadaveri, di sgomberare migliaia di feriti e di malati, di mantenere un minimo
di condizioni igieniche in un ambiente, come quello della trincea, ingombro di
escrementi e di materie putrescenti. Si pensi anche alla necessità di
curare rapidamente feriti e malati per rimandarli al più presto in linea
e di tenere sotto stretta sorveglianza i sani perché, nella speranza di
sfuggire alla guerra, non simulassero malattie o non si ferissero da soli
(autolesionismo).
Un enorme sviluppo ebbero anche i servizi postali. I
soldati, quotidianamente esposti a rischi e disagi di ogni genere, vivevano al
fronte una drammatica esperienza di spaesamento e provavano un bisogno
tormentoso di comunicare con le famiglie lontane. Milioni di lettere e di
cartoline, scritte per lo più da gente che per la prima volta si
cimentava con questo mezzo di comunicazione, dovevano viaggiare ogni giorno da e
per i fronti di guerra. Ci si può stupire come in condizioni del tutto
eccezionali una tale massa di corrispondenza potesse essere smaltita (dopo
essere passata al vaglio della censura militare) senza determinare ingorghi
spaventosi, con perdite tutto sommato assai limitate e con tempi che, se allora
apparivano spaventosamente lunghi (in Italia una lettera impiegava tre o quattro
giorni per arrivare dal fronte a Roma), oggi, nonostante la situazione di pace e
le tecnologie avanzatissime, farebbero l'orgoglio delle nostre poste. Anche la
telefonia ebbe per la prima volta larga applicazione nelle operazioni di guerra:
posare o riparare le linee telefoniche diventò uno dei servizi più
rischiosi e più necessari al fronte e un'intera generazione di Europei si
familiarizzò con il telefono proprio nelle trincee.
In sostanza la
guerra si rivelò un sistema molto complesso, che conservava molte
funzioni della vita civile, ma modificate e stravolte negli scopi,
nell'ambientazione e nelle dimensioni. Per far funzionare questa macchina era
necessario adottare quei criteri di razionalità e di efficienza che si
stavano da tempo sperimentando nell'industria. Alla fin fine la distruzione di
massa era soggetta alle stesse regole della produzione di massa e richiedeva gli
stessi accorgimenti organizzativi. A sua volta l'esperienza della morte vissuta
al fronte su scala industriale condizionava i modi di vivere e di produrre nelle
retrovie e all'interno dei Paesi belligeranti: le diverse forme di mobilitazione
della manodopera e di irregimentazione della popolazione civile messe in atto
dai governi nel corso del conflitto con il pretesto dell'emergenza bellica,
anticiparono quelle forme di disciplina sociale che nei decenni successivi i
regimi totalitari avrebbero imposto come strutture permanenti della convivenza
civile.
Anche per quanto riguarda l'impiego e il controllo delle energie
umane, l'inquadramento e la mobilitazione delle masse, la guerra adottò o
suggerì, infatti, pratiche nuove. Specialmente nella seconda parte del
conflitto furono largamente utilizzati metodi di propaganda e di formazione del
consenso che attingevano ai nuovi mezzi della comunicazione sociale e
soprattutto alle tecniche pubblicitarie. Tali furono, ad esempio, i manifesti
murali e le gigantografie con cui si tappezzarono le città in continue
campagne di sostegno dello sforzo bellico. Tra i soldati mobilitati, poi, al
fronte e nelle retrovie, ebbero un impiego di massa due strumenti nuovissimi: il
grammofono e il cinematografo. La ripresa e la proiezione cinematografiche
ebbero una certa applicazione nell'addestramento dei militari e le tecniche di
scomposizione dei movimenti di lavoro caratteristiche del taylorismo furono
utilizzate anche nella riabilitazione dei soldati traumatizzati. Nelle corsie
degli ospedali, per i feriti immobilizzati a letto, si pensò persino di
proiettare film sul soffitto per consentire la visione anche da posizione
supina.
È stato soprattutto per effetto della guerra che molti
aspetti del nuovo mondo industriale sono entrati nell'esperienza di milioni di
uomini che fino a quel momento erano stati toccati solo in modo marginale o
indiretto dai processi di industrializzazione. La violenza e l'intensità
senza precedenti del fuoco di artiglieria suggeriva, ad esempio, la supremazia
delle macchine sull'uomo e dell'artificio sulla natura: molti soldati hanno
sottolineato nelle loro testimonianze l'effetto di smarrimento che era provocato
dal vivere per un tempo prolungato in quel rombo assordante, che cancellava e
rendeva estranei, improbabili, quasi assurdi i suoni più familiari, come
quello delle campane. Le vampe dell'artiglieria e le esplosioni dei proiettili
unite ai razzi e ai riflettori elettrici usati per illuminare di notte le
posizioni nemiche disegnavano giochi di luce mai visti prima. Il riferimento
d'obbligo era ai fuochi artificiali delle sagre paesane, ma la sproporzione dei
fenomeni era tale da far apparire grottesco ogni paragone. Oltre
all'illuminazione artificiale, anche le caratteristiche della guerra di trincea
contribuivano ad annullare l'elementare distinzione tra il giorno e la notte. La
notte poteva essere più luminosa del giorno, ma soprattutto era il tempo
della veglia, del lavoro massacrante (a scavare camminamenti e trincee, a
stendere reticolati e fili telefonici, a spostare corpi, munizioni ed armi) e
dello sfinimento, mentre di giorno, ogni tanto, si riposava.
Al fronte,
tanto nel paesaggio quanto nelle abitudini quotidiane, l'ordine artificiale
sostituiva l'ordine naturale (o tradizionale, quello, in ogni caso, a cui si era
abituati). Un'esperienza analoga di sradicamento era stata vissuta per tutto il
corso dell'industrializzazione da un gran numero di emigranti e di contadini
inurbati, che avevano dovuto adeguarsi ad ambienti estranei e avevano dovuto
adottare i ritmi della vita cittadina e del lavoro di fabbrica. Ma qui
quell'esperienza veniva riproposta su scala, ancora una volta, incomparabilmente
più vasta e nelle condizioni estreme determinate dalla presenza
ininterrotta della morte: milioni di uomini di ogni condizione sociale furono
sottoposti tutti insieme, contemporaneamente, a questa sorta di brutale lavaggio
del cervello, di «rieducazione» (se così si può dire)
alla modernità. E dopo la guerra un po' dovunque il manufatto industriale
continuò a sostituire, nel bene e nel male, i prodotti della natura e
della tradizione: l'auto sostituiva la vecchia carrozza, il trattore la coppia
di buoi, e, in migliaia di infelici sopravvissuti alla guerra, protesi sempre
più sofisticate le parti distrutte dei corpi umani.