La tecnologia dominante: la radio

L’uso della trasmissione via radio delle comunicazioni telefoniche era iniziato anche prima dell’invenzione della valvola termoionica di De Forest (1906), ma fu solamente a partire dalla metà degli anni Venti che fu stabilito il primo collegamento telefonico permanente via radio a lunga distanza, tra città poste a sponde opposte dell’oceano: Rocky Point negli Stati Uniti e New Southgate-Rugby in Inghilterra. Il collegamento si svolgeva su frequenze di 50-65 chilohertz.
Nonostante una comunicazione di tre minuti avesse un costo al pubblico di 15 sterline, l’iniziativa ebbe un grande successo. La trasmissione via radio della telefonia fu sperimentata prima con onde
lunghissime (10-15 km), poi con onde corte (qualche decina di MHz di frequenza), ma in entrambi i casi la qualità di trasmissione era tutt’altro che soddisfacente.


 
Trasmissione e ricezione nella telefonia via radio
 
La trasmissione a lunga distanza delle onde radio, realizzata per la prima volta da Guglielmo Marconi nel 1901, si basa sul lavoro teorico di James Clerk Maxwell, che formulò una relazione matematica tra il campo elettrico e quello magnetico. In sostanza, la teoria di Maxwell spiega come da un campo elettrico variabile se ne generi uno magnetico (e viceversa). Nella relazione il campo magnetico ha due componenti: la prima, chiamata induzione, si riduce molto velocemente secondo il quadrato della distanza dall’emittente; la seconda, chiamata radiazione, diminuisce in modo proporzionale con la sola distanza. Quest'ultima fu oggetto dell’attenzione di Marconi, che utilizzando oscillatori (apparecchi in grado di produrre, passando per un campo elettrico, un’onda magnetica sinusoidale) di sufficiente potenza ed antenne adatte, riuscì a trasmettere segnali radio a distanze immensamente maggiori di quelle raggiunte dai ricercatori che prima di lui si erano basati
solamente sulla prima componente del campo magnetico.
Uno dei primi problemi fu costituito dalla necessità di variare la frequenza di trasmissione, in relazione alle variazioni che avvengono tra il giorno e la notte. La frequenza delle onde radio utilizzate da principio faceva sì che queste fossero riflesse dalla ionosfera, contro la quale “rimbalzano” letteralmente, ritornando verso la terraferma, anche se la loro direzione di partenza le avrebbe proiettate nello spazio. Secondo gli studi condotti da Heaviside, però, l’altezza dello strato ionizzato dell’atmosfera varia con la quantità di irraggiamento da radiazione solare. Occorreva quindi variare la frequenza delle onde in funzione di questo spessore, che mutava appunto nel passaggio fra il giorno e la notte. Quando fu necessario ampliare lo spettro delle frequenze utilizzate, si utilizzarono onde che non potevano più essere riflesse dalla ionosfera, a qualunque spessore questa si fosse trovata. Tali onde dovevano essere dirette da un punto a un altro, senza ostacoli in mezzo. Le antenne prossime, sebbene a grandi distanze per l’occhio umano, dovevano “vedersi”.
Le comunicazioni radio ebbero forte impulso dall’uso della valvola di De Forest, della quale si è già discusso nella prima sezione, per la ricezione del segnale. In questo senso, nel 1898 Michael Pupin (lo stesso che aveva ideato la modalità di schermatura dei cavi) aveva utilizzato come ricevitore d’onda radio un elemento detto “raddrizzatore”, al tempo costoso, inaffidabile e di difficile produzione in serie. Successivamente si evidenziò che la valvola, di realizzazione decisamente meno onerosa, poteva essere proficuamente utilizzata come raddrizzatore, e in tal senso fu applicata come elemento base per la ricezione delle onde radio. Si ebbe poi un trasferimento di conoscenza tra telefonia e radiofonia nella modalità di acquisizione del segnale sonoro dal lato trasmissione. Molto semplicemente (ma solo in apparenza, perché i due tipi di trasmissione differiscono non poco), a partire dagli esperimenti dell’americano R.A. Fessenden, svolti attorno al 1900, si trovò
che la maniera più efficace per trasformare la voce in onde radio era quella di modulare la corrente per mezzo di un microfono, come già avveniva nella telefonia ordinaria.
 
 La modulazione delle onde di frequenza

Nella comunicazione via etere la divisione delle “linee” non si attua attraverso la divisione dei fili, ma attraverso quella delle onde.
Poiché la trasmissione poteva essere modulata a piacere entro un ampio intervallo, si decise per la divisione dello spettro di frequenza in bande di 4 chilohertz, a ciascuna delle quali corrispondeva un canale; tale sistema fu chiamato “multiplex a divisione di frequenza” (Mdf). Altri metodi, alcuni dei quali ancora oggi presenti nelle trasmissioni radio ordinarie, sono la modulazione di frequenza (Fm, frequency modulation) e la trasmissione a divisione di tempo (Tdm, time division multiplexing). Nel sistema a modulazione d’ampiezza (Mdf), il segnale sonoro era convertito da un microfono, la cui ampiezza di banda era controllata da un diapason di sintonia collegato a una bobina, secondo un sistema ideato già nel 1886 da parte del francese Leblanc. In questo modo ci si assicurava che la conversione della voce avvenisse all’interno di una certa fascia, detta “tono portante”. In realtà, il “tono portante” non portava l’informazione, che era invece contenuta in altre due onde elettromagnetiche, dette “bande laterali”. Il “tono portante” è l’onda che trascina con sé le altre, che ne differiscono sostanzialmente per una piccola e identica variazione di frequenza, in
più e in meno, rispetto alla portante. La separazione delle due bande laterali fu risolta con l’invenzione dei filtri elettrici. Questi sono costituiti da elementi di uso comune, come resistenze, induttanze (bobine con avvolgimenti) e capacità (condensatori); la loro combinazione secondo
certi schemi permette il passaggio solamente di certe frequenze. Combinando un filtro passa-basso, un passa-banda e un passa-alto si dà la possibilità di passaggio delle sole tre forme d’onda desiderate. Le prime applicazioni pratiche dei filtri ebbero luogo già nel 1915, da parte dell’americano G.A. Campbell, ma una formalizzazione delle possibili combinazioni di questi
elementi fu stilata dal connazionale Darlignton solo nel 1939.
Negli anni Venti e Trenta il sistema Mdf fu utilizzato in parallelo a quello ordinario via filo.
Si sfruttava cioè il filo esistente, nel quale passava il segnale telefonico ordinario, e gli si appoggiava un segnale radio modulato secondo la tecnica Mdf. I problemi derivavano dalle caratteristiche degli amplificatori posti sulla linea: a causa di questi si avevano fenomeni di distorsione e diafonia, ossia sovrapposizioni (talvolta complete) dei canali del parlato. In pratica, talvolta capitava che un utente arrivasse a sentire un’altra comunicazione che viaggiava sulla stessa linea, sino a poter entrare completamente nell’altra conversazione senza evidentemente averlo
richiesto.
La situazione perdurò sino al 1928, quando, grazie al lavoro dello statunitense Harold S. Black sulla retroazione negativa (le prime applicazioni risalgono però al 1934), si arrivò a disporre di amplificatori che non presentavano più tale spiacevole inconveniente.
Come diretta ricaduta di tutto ciò si poté ampliare ulteriormente la portata delle comunicazioni, oltre che aumentare il numero delle linee appoggiate a ogni conduttore. Ciò fu possibile anche grazie all’ideazione della modulazione di frequenza (Fm) da parte dell’americano Armstrong (1933). Nonostante a questa sigla corrisponda oggi l’idea di una comunicazione via radio tipo broadcast, cioè da un punto a una retta, al tempo la soluzione migliorò quella di tipo punto-a-punto.
 
 I ponti radio

La modulazione di frequenza si basa sull’inserimento del segnale a una determinata frequenza, scelta attraverso variazioni della corrente ottenute per mezzo delle valvole.
La piccola “finestra” di frequenze a disposizione solo un decennio prima si ampliò notevolmente, anche per il miglioramento della tecnologia delle valvole, permettendo l’innesto di moltissimi canali. In particolare, tale “finestra” si allargò comprendendo frequenze dai 30 megahertz sino ai 1000. Stimolati da questo ampliamento delle frequenze utilizzate, si moltiplicarono gli studi sulla necessità di porre le antenne contigue in punti dai quali potessero reciprocamente “vedersi”. Le dimensioni delle antenne richieste (che diminuiscono all’aumentare della frequenza) erano dell’ordine dei tre metri. Il primo ponte radio si fa risalire alla realizzazione del 1930 di Bruno Clavier.
Tale ponte si basava sulla modalità Mdf, con frequenza di portante a 1700 MHz, trasmessa attraverso antenne paraboliche che supportavano pochi canali.
La seconda guerra mondiale diede forte impulso ai mutamenti sia tecnologici sia di sistema.
Furono di frequente utilizzati ponti radio, con tratte in visibilità, in cui, per definizione, le antenne non hanno ostacoli sul cammino in linea d'aria. Essi sfruttavano la modalità Mdf, modulando le portanti radio per frequenza (Fm) o per tempo (Tdm). Va detto, in ogni modo, che soluzioni di quest’ultimo tipo non ebbero molta fortuna, soprattutto a causa delle difficoltà di manutenzione degli apparecchi con tecnologia a valvole.
Attorno al 1940 l’Albania fu collegata da ponti radio al Gargano, mentre tra le realizzazioni più avanzate in tempo di guerra è da ricordare quella dell’esercito inglese, che utilizzò ponti radio a impulsi con frequenza portante a 300 MHz che supportavano 8 canali telefonici.

Sulla rivista «Sincronizzando...», n° 4, 1923, venne data notizia del collegamento telefonico...
Visualizza il pdf