Le banche si aprono alla tecnologia

Materie:Tesina
Categoria:Multidisciplinare

Voto:

1.5 (2)
Download:498
Data:01.12.2004
Numero di pagine:42
Formato di file:.doc (Microsoft Word)
Download   Anteprima
banche-si-aprono-tecnologia_1.zip (Dimensione: 1.31 Mb)
trucheck.it_le-banche-si-aprono-alla-tecnologia.doc     1992.5 Kb
readme.txt     59 Bytes


Testo

Le Banche si aprono alla tecnologia
Tesina multidisciplinare per Istituti tecnici
a cura di Marco
La necessità di introdurre l’informatica nelle banche è stata determinata inizialmente dall’alto numero di clienti e dal trattamento dei loro rapporti in base a procedure standard. Ma dalle funzioni operative e contabili la tecnologia informatica si è estesa alle funzioni decisionali.
Le dotazioni informatiche si sono avviate dapprima con il self service bancario con l’automazione aperta al pubblico mediante:
• Apertura di sportelli automatici disponibili anche al di fuori della banca
• Installazione di terminali nei punti vendita per consentire il pagamento elettronico degli acquisti.
In seguito si è passato al remote banking installando terminale nelle imprese dei clienti (corporate banking) o presso le case dei privati (home banking).

• Sportelli automatici Gli sportelli automatici
Gli sportelli automatici ATM inizialmente distribuivano solo banconote ma successivamente sono stati perfezionati permettonsi così alla banca di fornire i clienti di numerosi servizi.
Tramite l’attivazione di sportelli ATM le banche vogliono:
• Estendere i tempi di accesso ai servizi fondamentali, riducendo la pressione della clientela per allargare gli orari di sportello
• Ridurre il flusso della clientela all’interno dei locali della banca, l’uso di attrezzature di self service infatti riduce le lunghe file di attesa
• Contenere la crescita dei costi, l’utilizzo degli sportelli riduce i costi per il personale
• Ridurre i problemi del personale bancario, spostando presso gli sportelli una massa di operazioni di routine vi è la possibilità di riqualificare professionalmente le prestazioni dei dipendenti
L’utente per usufruire degli sportelli automatici deve:
• Essere titolare di un C/C di corrispondenza
• Essere abilitato al servizio
• Ottenere la tesserina plastificata e la relativa assegnazione di un codice segreto.

• Telepagamenti:
I titolari di Bancomat possono utilizzare i POS (point of sale) cioè i terminali
situati presso i punti di vendita convenzionati. Questi terminali consentono ai titolari di conti correnti bancari di effettuare il pagamento elettronico dei loro acquisti senza utilizzare denaro contante.

• Le carte intelligenti:
Le carte intelligenti (SMART CARD) sono utilizzabili in vari settori ad esempio per l'accesso ad archivi riservati. La loro caratteristica è quella di abbinare grandi doti di memoria ad altrettante di calcolo, infatti contengono un microchip in grado di elaborare e memorizzare svariate operazioni.
Le tessere bancarie con incorporato un microchip costituiscono un ottimo strumento per utilizzare i POS in tutta comodità e sicurezza. Le carte intelligenti hanno un limite di spesa stabilito dalla banca, e che si riduce in base agli acquisti effettuati in un dato periodo di tempo.
• Internet Banking:
Il fenomeno dell'E- BANKING coinvolge potenzialmente tutti noi, e non solo qualche appassionato, in quanto chiunque sia titolare di un conto in banca vorrebbe utilizzarlo nel modo più razionale e comodo. Proprio per questa crescente necessità dei clienti le banche stanno attualmente investendo grossi capitali sul web. E' sempre meno necessario recarsi fisicamente presso gli sportelli bancari, anche per semplici operazioni, basta un personal computer, un modem ed un collegamento alla rete, oltre che uno specifico contratto con la propria banca con il quale si riceve un codice di accesso ed una password.
I servizi di Internet banking sono dunque quelli che consentono ai clienti di collegarsi all'elaboratore della banca presso la quale intrattengono il conto corrente e di effettuare direttamente una serie di operazioni bancarie o ricevere informazioni in tempo reale. Più precisamente offrono la possibilità:
- di disporre immediatamente bonifici a favore di terzi, pagamenti di utenze, compravendite di
valori mobiliari;
- di avere informazioni globali e particolari sui diversi rapporti intrattenuti (il saldo di conto corrente, i tassi applicati, i movimenti effettuati ecc.);
- di conoscere le quotazioni della giornata o di giorni precedenti, relative a un determinato titolo quotato o a determinate valute estere;
- di bloccare gli assegni smarriti o rubati;
- di accedere alle procedure elettroniche relative ai regolamenti dei rapporti clienti - fornitori e di conoscere il dettaglio degli insoluti;
- di prenotare abbonamenti, biglietti ecc. per convegni, spettacoli, viaggi;
- di scambiare messaggi di posta elettronica con la banca riguardanti i rapporti intrattenuti.
• Remote Banking
Remote Banking Business è il servizio di banca a distanza studiato per chi svolge un'attività professionale e imprenditoriale. Semplicemente con una telefonata, o collegandosi al sito disponibile 24 ore su 24, si apre uno sportello dedicato da cui è possibile gestire il proprio conto corrente, disporre bonifici, acquistare o vendere titoli, prenotare valuta estera e molto altro ancora.
Il tutto in modo facile e immediato.
• Home Banking
L’home banking consente di accedere da casa alla propria banca.
Non è certo un servizio essenziale per chi non ha la necessità di effettuare un controllo costante sulle proprie disponibilità finanziarie e per chi utilizza la propria banca solo come una sorta di salvadanaio. Si rivolge dunque a chi ha poco tempo, perché è un imprenditore, un dirigente d'azienda, il quale potrà "andare in banca" seduto sulla propria scrivania o mentre è in viaggio, 24 ore su 24 e 365 giorni all'anno.
Importante è l'iniziativa realizzata da alcuni istituti di credito, grazie alla quale si può interagire con questi ultimi attraverso una semplice telefonata da un telefono fisso, impartendo i comandi o con la tastiera del telefono o con la voce. Le procedure sono estremamente semplici, infatti vi è un sistema automatico di risposta che guida il cliente con la massima chiarezza, passo dopo passo, fornendo tutte le indicazioni necessarie per utilizzare il servizio.
Grazie alla tecnologia WAP, ora i cellulari possono sopportare le funzioni interattive di Internet e questo rappresenta un grande passo avanti verso il lancio della banca virtuale. Infatti il mercato potenziale è enorme, basti pensare che gli utenti di telefonia mobile sono di gran lunga più numerosi rispetto agli utenti di Internet.
Tutte queste iniziative si inquadrano nell'attuale strategia imperniata sulla integrazione dei canali distributivi, grazie alla quale il cliente può optare per il canale ritenuto di volta in volta più adeguato alle sue esigenze.
Nonostante le notevoli potenzialità offerte dai servizi di tipo home banking e phone banking, questi stentano a decollare e dimostrano un interesse del tutto marginale da parte della clientela, basti pensare che i livelli di diffusione e utilizzo di nuove tecnologie di comunicazione che caratterizzano il nostro paese sono di gran lunga inferiori a quelli europei.
A questo punto si prevede che i servizi on-line avranno una funzione complementare piuttosto che sostitutiva, nel senso che si potrà semplicemente permettere, ad una clientela più esigente, di poter effettuare alcune operazioni da casa/ufficio e svincolate dal rispetto di un orario rigido senza modificare la centralità del negozio/sportello nella commercializzazione dei prodotti/servizi.
• La rete ATM
E’ spesso utilizzata per le comunicazioni tra le filiali nonché per i nascenti servizi del ramo telematico.
ATM nel mondo delle telecomunicazioni ha il significato di modalità di trasferimento asincrono (Asynchronous Transfer Mode): si tratta di una modalità di commutazione di pacchetto ad alta velocità. La parola asincrono viene utilizzata perché ATM consente il funzionamento indipendente dal clock del mittente e da quello del destinatario. Una delle possibilità speciali fornite da ATM è che essa garantisce un trasporto corretto di qualunque servizio (voce, dati, ecc.) indipendentemente dalle caratteristiche del servizio originario in termini di velocità di trasmissione, requisiti di qualità o la natura impulsiva del traffico coinvolto. Questo è dato dal fatto che le celle ATM sono di dimensione unica, quindi l'instradazione, l'aggiunta, il prelievo e la multiplazione delle celle ATM possono essere effettuate più velocemente senza preoccuparsi dell'informazione trasportata al loro interno. Inoltre ATM può essere applicata in un qualunque ambiente di rete, il che la rende la tecnologia delle reti future, come è stato il PCM (Pulse Code Modulation) nelle reti odierne. L’ATM ha le medesime caratteristiche di base della commutazione di pacchetto, ma anche le particolarità, riguardanti il ritardo, della tecnologia di commutazione di circuito; questa combinazione è ottenuta riducendo al minimo le funzionalità di rete.
I principali vantaggi che ATM offre sono:
• Flessibilità - ATM può essere facilmente ampliata per servizi futuri
• Efficienza nell'utilizzo delle risorse a sua disposizione
• E' una rete universale ma semplice
• Riduzione dei costi di funzionamento, amministrazione e manutenzione
• Riduzione dei costi di trasporto (grazie alla multiplazione statistica)
• Disponibilità dinamica della banda
Le banche, odiernamente, non sono in grado di fornire on-line tutti i servizi che offrono on-site. Un esempio di ciò è la concessione di un mutuo:

IL MUTUO
Secondo il Codice Civile "il mutuo è il contratto col quale una parte (mutuante) consegna all'altra (mutuatario) una determinata quantità di denaro o di altre cose fungibili, e l'altra si obbliga a restituire altrettante cose della stessa specie e quantità". In pratica il mutuo consiste nel finanziamento che una banca eroga per soddisfare la richiesta di capitali a media e lunga scadenza che vengono utilizzati per un acquisto immobiliare. I mutui possono essere a tasso fisso, variabile o misto a seconda che gli interessi da pagare siano sempre gli stessi o cambino nel tempo.
Mutuo ipotecario: È un mutuo garantito da ipoteca , a favore della banca, iscritta su beni immobili di proprietà del mutuatario Oneri accessori (Spese e Commissioni)
Sono le spese da sostenere per accendere un mutuo e sono
• spese di istruttoria pratica, da pagare alla banca, la cui entità varia da istituto a istituto. Può trattarsi di un compenso fisso o proporzionale all'ammontare del prestito erogato; alcune banche possono prevedere anche di non farle pagare
• spese notarili, da pagare direttamente al notaio (Rogito notarile)
• spese di perizia, da corrispondere al perito stimatore che effettua la valutazione dell'immobile che costituirà l'oggetto di ipoteca
• imposta sostitutiva, da versare alla banca nella misura dello 0,25% dell'importo del mutuo, ridotta allo 0,125% per le cooperative edilizie aventi i requisiti.
Parametro di indicizzazione
Il parametro di indicizzazione è dato dal tasso scelto come riferimento per determinare il tasso di interesse a regime del mutuo
L’Ammortamento del Mutuo: Il piano d'ammortamento più utilizzato in assoluto è il cosiddetto "Piano d'ammortamento alla francese" che comporta, in caso di tassi fissi, una rata costante per tutta la durata. Una quota parte di questa rata sarà destinata al pagamento degli interessi e la restante quota al rimborso del capitale preso a mutuo. Rispetto alla rata precedente ogni nuova rata avrà una quota capitale maggiore e una quota interessi minore. Per calcolare l'importo della rata di questo tipo di finanziamento si può utilizzare la seguente formula:
RATA= (C * i) / (1 - ((1 + i) ^ - n)), dove "C" è il capitale preso a mutuo;" i" è il tasso d'interesse del periodo diviso 100 ed "n" è il numero delle rate. Esempio: si vuole conoscere l'importo della rata di un mutuo decennale di 100 milioni con tasso del 12% annuo e rimborso mensile. "C" sarà 100.000.000; "i" sarà 0,01 perché il tasso del periodo è 1 (tasso annuo diviso n° dei periodi annuali, che nel ns. esempio sono 12 essendo il rimborso mensile) che dovrà essere diviso per 100; "n" sarà uguale a 120 (12 rate annuali per 10 anni). RATA= (100.000.000 * 0,01) / (1 - ((1 + 0,01) ^ -120)) \RATA=1.434.709
Vi sono, poi, piani d'ammortamento particolari, studiati appositamente per determinate categorie di mutuatari, o per risolvere particolari esigenze. Fra i più comuni vi sono: il piano d'ammortamento a rata crescente. Fermo restando il tasso, questo piano d'ammortamento prevede rate iniziali più basse di quelle di un piano alla francese, che crescono, anno dopo anno, di una percentuale predeterminata. E' evidente che le ultime rate saranno molto più elevate di quelle calcolate con il metodo "alla francese". Questa formula è destinata a coloro (in particolare giovani) che hanno iniziato da poco un'attività lavorativa e non hanno avuto ancora modo di consolidare un reddito consistente, rimandando in tal modo le rate più "pesanti" in un futuro redditualmente più roseo.
Il piano d'ammortamento libero. Questo tipo di piano è stato studiato per coloro (lavoratori autonomi) che hanno un reddito estremamente variabile. Banche e Finanziarie danno nomi diversissimi a questo tipo di prodotto . In ogni caso, in questo tipo di mutuo, alla scadenza della rata, il mutuatario si impegna a versare solamente gli interessi sul debito residuo rimborsando, di volta in volta, una quota capitale che varia in funzione delle sue possibilità in quel momento. E' evidente che, seppur con una certa elasticità, il mutuatario si impegna a rimborsare una predeterminata quantità di capitale entro un predeterminato tempo.
L’apertura di un mutuo ha come conseguenza l’obbligo di corrispondere degli interessi. Ciò è la conseguenza della perdita di utilità che il concedente il mutuo ha, a seguito della non reperibilità del denaro prestato.
Avendo un problema di scelta, il richiedente il mutuo, opera una selezione in base alla convenienza. Questa scelta è realizzabile solo rendendo confrontabili i montani delle possibili scelte al termine della restituzione dell’intero prestito. Per fare ciò necessitiamo di operazioni finanziarie chiamate ATTUALIZZAZIONE e CAPITALIZZAZIONE.
E’ proprio attualizzando i montanti che riusciamo a valutare quale delle possibili scelte è la più vantaggiosa in quanto abbiamo il valore dei montanti rapportati tutti ad uno stesso periodo.
Con ciò possiamo quindi dire che due capitali possono essere confrontati tra loro solo se valutati alla stessa epoca, ovvero in caso di CAPITALIZZAZIONE (trovare l’interesse prodotto da un capitale, e quindi il risultante MONTANTE, capitale + Interessi) dovrò portare il mio capitale AVANTI nel tempo, mentre, se conosco il montante e desidero determinare il capitale che lo ha generato, dovrò ATTUALIZZARE il mio capitale, portandolo indietro nel tempo, ovvero calcolare il solo ammontare del capitale, “scorporandolo” dall’interesse. Anche il calcolo dello sconto è un’operazione di attualizzazione.
________________________________________________________________________
Capitalizzazione composta: Nella capitalizzazione composta, alla fine del periodo di utilizzazione, gli Interessi maturati vengono reinvestiti insieme con il Capitale originario, procurando ulteriori Interessi.
C M1 M2 M3 M4
0 1 2 3 4
Formula del Montante in capitalizzazione composta
M = C * (1 + i)t
dove t rappresenta il numero di anni di impiego totale
oppure considerando t=1 otteniamo una formula del montante come la seguente:
Mn = M1 * (1+i)n da cui otteniamo un capitale C = (1+i)n
L’attualizzazione: Per attualizzazione si intende l’operazione finanziaria inversa rispetto alla capitalizzazione. Attualizzare significa calcolare il valore che, una data somma, disponibile tra un dato tempo, ha in un momento preso in considerazione.
ESEMPIO: attualizzare la somma di 10000€ che sarà disponibile tra tre anni ad oggi significa trovare il valore che odiernamente hanno i 10000€ che saranno resi disponibili tra tre anni.
Per attualizzare ho bisogno di alcune formule:
VA= C * (1+i)-t questa formula si utilizza quando sono a conoscenza del capitale e del tasso di Interesse. t è il tempo che intercorre tra il momento preso in considerazione e il periodo in cui la somma si renderà disponibile
VA= R * [1-(1+i)-n) ] / i questa formula si utilizza nel caso in cui si conoscano l’importo della rata e il tasso d’interesse. n rappresenta il numero delle rate che compongono il montante finale
________________________________________________________________________
Riportando il discorso verso un carattere più generale, va ricordato che tutti i servizi bancari, sia elettronici che non, sono resi possibili, dall’utilizzo di sistemi di reti che permettono la condivisione di grandi quantità di dati tra le varie sedi delle banche, rendendole così in grado di fornirci agevolmente ogni tipo di servizio. Come già detto in precedenza le comunicazioni telematiche tra le filiali di una stessa banca o di banche diverse avvengono tramite l’utilizzo di una rete chiamata ATM che appartiene al gruppo delle WAN e in alcuni ristretti casi al gruppo LAN.
Le reti:
Il periodo storico che stiamo vivendo viene spesso indicato come “ l ’ era dell’informatica ’’. La produttività e la redditività di organizzazioni e di singoli individui dipendono sia dagli strumenti per un ’ elaborazione efficace e veloce delle informazioni , cioè dai computer, sia dagli strumenti per la comunicazione di queste informazioni ,cioè dalla rete comunicativa. L ’ utilizzo contemporaneo della tecnologia dei computer e della tecnologia delle telecomunicazioni ha permesso la nascita delle reti informatiche, usate non solo all’interno di singole organizzazioni, ma anche tra consorzi di organizzazioni. Le transazioni giornaliere nei supermercati , nei grandi magazzini , nelle banche ,nelle agenzie di viaggio, nelle società di servizi e in innumerevoli altri tipi di organizzazione dipendono dal corretto funzionamento delle reti di computer.
Ma cos’è una rete di computer ?
E’ un insieme di computer collegati tra loro.
I computer possono essere i più vari ,di marche diverse tra di loro e con diverse capacità elaborative, dal personal al mainframe ,cui si collegano le stazioni d’utente, dette terminali.
RETI GEOGRAFICHE E RETI LOCALI
Possiamo suddividere le reti in due grandi famiglie con caratteristiche, architettura e risorse fisiche diverse:
• Reti geografiche (WAN) :vengono utilizzate su aree geografiche molto estese ,per le quali si parla di comunicazioni anche dell’ordine di migliaia di chilometri. Il tipo di canale di trasmissione utilizzato, per motivi di costo, diventa rilevante per cui si dovranno effettuare delle scelte che garantiscono una trasmissione affidabile. Al problema delle lunghe distanze è collegata la presenza di dispositivi che hanno lo scopo di rigenerare o ampliare il segnale che sta viaggiando lungo la rete.
• Reti locali(LAN): vengono utilizzate su distanze brevi tra luoghi in uno stesso edificio o edifici
adiacenti .Il loro impiego richiede che esse vengano installate all’interno di una superficie privata, senza alcuna attraversamento di suolo pubblico, utilizzando esclusivamente apparecchiature e canali privati.
LE LAN
Una LAN è un sistema di comunicazione che permette ad apparecchiature indipendenti di comunicare tra di loro, entro un’area delimitata, utilizzando un canale fisico a velocità elevata e con
basso tasso d’errore. La “risorsa LAN” viene equamente ripartita tra tutti i sistemi ad essa connessi. Non conta la dimensione: per una LAN un mainframe è importante come un PC; non conta la funzionalità: per una LAN un server è importante come un client. Inoltre, il funzionamento della LAN non dipende da alcun sistema particolare. Essa continua a mantenere inalterate le sue funzionalità anche in presenza di guasti delle stazioni o dei mainframe, oppure nel caso in cui questi vengano collegati o scollegati. Il progetto delle LAN tiene conto che esse possono coprire solo un’area delimitata, cioè essere adibite ad uso esclusivo di determinata persona o ente e posate all’interno di uno o più fondi contigui o collegati da opere aventi carattere permanente. Una caratteristica principale delle LAN è che esse utilizzano un unico mezzo trasmissivo il quale, sebbene possa sembrare un handicap, ne è uno dei punti di forza. Le LAN hanno quindi un unico mezzo trasmissivo ad alta velocità condiviso nel tempo da tutti i sistemi collegati. Quando un sistema trasmette diventa proprietario contemporaneamente dell’intera capacità trasmissiva della rete. La metodologia di trasmissione è la seguente: un utente trasmette e tutti gli altri ricevono. Tale organizzazione ha enormi vantaggi, ma anche alcune complicazioni: è necessaria la presenza di indirizzi per stabilire il reale destinatario e il mittente della trasmissione e occorre arbitrare l’informazione all’unico mezzo trasmissivo tra tutti i sistemi che hanno necessità di trasmettere.
L’unico canale trasmissivo presente deve anche essere caratterizzato da un basso tasso di errore. Questo è ottenibile abbastanza facilmente in un’area abbastanza limitata di mezzi trasmissivi di buona qualità. La Lan (Local Area Network) è una rete locale generalmente di proprietà di una singola organizzazione ed è quindi interamente gestita da questa . Con la connessione in rete, gli utenti sono posti immediatamente in grado di svolgere le proprie mansioni, accedere alle informazioni aziendali, compilare e inoltrare ordini , mandare messaggi , utilizzare periferiche , ecc.. Una LAN utilizza il modo di trasferimento a PACCHETTO ( anche se oggi esistono delle lan basate sulla trasmissione nella banda 2,4 Ghz, quindi funzionante senza sistemi a fili ),ed è costituita da un unico mezzo trasmissivo ( realizzato con cavi a coppia intrecciata, cavi coassiali o a fibre ottiche )che è in grado di garantire una capacita' trasmissiva relativamente elevata (fino a 20 Mbps) con un basso tasso di errore. Il funzionamento di una Lan è basato sull'assegnazione dell'intera capacità del canale trasmissivo al terminale che, in un certo istante, abbia un'unità informativa da trasmettere. Affinché l'assegnazione delle capacità del canale trasmissivo ai terminali avvenga in modo ordinato al fine di evitare e/o controllare eventuali conflitti tra due o piu' terminali che richiedono di emettere UI nel medesimo istante, sono definite opportune procedure denominate PROTOCOLLO D'ACCESSO; per tale caratteristica, le Lan sono anche riferite in letteratura come reti multi accesso. Una LAN tipica è formata da alcuni mini computer, PC o workstation, vari dispositivi periferici condivisi (come stampante laser ecc.) stazioni di lavoro e uno o più processori specializzati che danno accesso ad altre reti ; inoltre spesso prevedono un mainframe ed includono anche un processore di front - end programmato per sostituire la CPU in particolari compiti. Quando il front - end viene impiegato nei processi commessi alla telecomunicazione, tra l'altro riceve i messaggi in arrivo, memorizza le informazioni trasmesse, invia l' input alla CPU in accordo con eventuali priorità prefissate. Da un punto di vista realizzativo, una rete locale si basa su due componenti fondamentali : lo hardware di collegamento e il software di rete. L’hardware di collegamento e' costituito di una SCHEDA circuitale che, inserita nel calcolatore personale, gli consente di essere collegato con gli altri membri della rete locale, il collegamento viene effettuato mediante cavo elettrico o fibra ottica. Il software di rete è costituito da una estensione al sistema operativo (installato in ogni calcolatore della rete) e un certo numero di comandi aggiuntivi. Infine non bisogna dimenticare che l'esigenza di scambiarsi messaggi ed informazioni sia strutturati che non, all'interno di un'organizzazione è una delle motivazioni che stanno alla base dello sviluppo prima e della diffusione poi delle reti locali; in questo senso il secondo motivo della diffusione delle reti, dopo la condivisione di file e di stampanti, è la possibilità di inviare la POSTA ELETTRONICA che viene fatto in modo efficiente ed economico.
Attributi di una LAN
Gli attributi che deve possedere una LAN sono quelli classici di una rete di calcolatori e cioè:
• affidabilità: oggi la tecnologia delle LAN è assolutamente consolidata e consente di ottenere affidabilità elevatissime, tali da permettere a molti costruttori di produrre schede di rete locale con garanzia illimitata;
• flessibilità: oggi le LAN sono utilizzate per applicazioni molto disparate, dalle LAN di soli PC all’integrazione PC-Mainframe, fungendo da supporto unificato per più architetture di rete, tra loro incompatibili ai livelli superiori del livello OSI;
• modularità: le LAN possono essere realizzate utilizzando componenti di molti costruttori diversi, perfettamente intercambiabili;
• espandibilità: le LAN sono strutture appositamente concepite per fornire una crescita graduata nel tempo, secondo le esigenze dell’utente;
• gestibilità: la maggior parte delle componenti delle LAN prodotti negli ultimi anni sono concepiti per essere gestiti mediante accessi remoti
Affinché queste ed altre proprietà vengano soddisfatte è comunque indispensabile un accurato progetto a priori che tenga conto delle esigenze attuali dell’utilizzatore e delle possibili evoluzioni.
Client-Server
In un mondo in continua e inesorabile evoluzione anche l'informatica vive i propri mutamenti. Piattaforme potenti e veloci, sistemi operativi sempre più' versatili, il contrarsi delle distanze e le comunicazioni sempre più' fitte hanno fatto emergere esigenze e realtà rinnovate. Tra queste l'architettura client/server si pone come arbitro nella contesa delle risorse, nella gestione delle attività multiuser e si configura come una delle soluzioni per il futuro. Client/Server" ha cominciato come aggettivo usato per descrivere un processo di elaborazione ma si è poi evoluto in un sostantivo vero e proprio. Molti prodotti sono stati etichettati come nuovi, grazie ai miglioramenti ottenuti con l'impiego di questa tecnologia che stabilisce i rapporti tra l'elaboratore " Cliente " e l'elaboratore " Servitore. Una delle idee sbagliate in riferimento a questo tipo di elaborazione è che questa riguardi esclusivamente i sistemi di gestione delle basi di dati e il loro accesso, e in particolare SQL, il linguaggio per le basi di dati relazionali. E' indubbio che la funzionalità relativa alle basi di dati rappresenti una notevole realizzazione pratica di questo modello, ma essa non costituisce una definizione dell'elaborazione " Client/Server ", e le due nozioni non sono affatto dei sinonimi. Infatti qualsiasi processo che possa essere ripartito in una richiesta ed in un'intervento può essere incluso nel modello " Client/Server. E' difficile sintetizzare in una definizione che cosa sia e su quali principi si fondi il concetto di tale architettura . Si potrebbe dire che quella client/server e' una configurazione nella quale parte delle applicazioni viene gestita su due o più elaboratori (workstation intelligenti) collegati in rete. Il client, semplificando, e' il lato al quale si rivolge e con cui interagisce l'utente finale, pertanto accoglie gli applicativi e gli strumenti di produttività individuale, mentre il server e' il lato sul quale si riversano i dati e si incarica della condivisione dei file, della gestione della rete, assolve a funzioni di gateway verso il sistema aziendale o servizi pubblici di posta elettronica, governa procedure batch, trasmissioni facsimile e l'organizzazione generale dell'architettura. Volendo sottolineare i punti in comune si può riassumere dicendo che l'architettura client/server prevede l'utilizzo di più macchine connesse tra loro, in modo che cooperino sinergicamente, e che per sfruttare appieno le potenzialità elaborative vanno sviluppate applicazioni ad hoc
TOPOLOGIE DI RETE
Tutti gli elementi che compongono una rete di calcolatori possono esseri connessi fisicamente tra loro in moltissimi modi ,secondo le necessità reali. La topologia della rete è configurazione geometrica dei collegamenti tra i vari componenti di rete .Ci sono vari tipi di topologie ,la scelta di ciascuno dei quali è legata è legata al conseguimento dei seguenti obiettivi:
1. Assicurare la massima affidabilità complessiva della rete, rispettando alcuni vincoli economici .Affidabilità di rete significa buona qualità della trasmissione, con il numero di errori più basso possibile e la presenza di strumenti e procedure per risolvere le situazioni di errore.
2. Consentire un alto rendimento complessivo della rete e soddisfacenti tempi di risposta alla transazione. Il rendimento complessivo si misura in transazioni elaborate nell’unità di tempo e dipende dal numero e dal tipo di sistemi ,dalla loro capacità di parallelismo(cioè di elaborare più transazioni nello stesso tempo),dalla portata, dal numero di linee e dalla capacità di parallelismo di trasmissione in rete. Il tempo di risposta(somma dei tempi di input ,di trasmissione in un senso ,di elaborazione, di trasmissione nel senso opposto e di output) dipende dalle caratteristiche dell’applicazione dal tipo di terminale , dalla portata e dal carico delle linee usate e dal numero di componenti di rete attraversate.
3. Minimizzare i costi di rete ,facendo in modo che il numero totale delle linee sia minimo.
Le più comuni topologie di rete sono :
• A STELLA
• AD ANELLO
• AD ALBERO O GERARCHICA
• A BUS O DORSALE
• A MAGLIA
Topologia a stella: La topologia a stella è la topologia più antica usata nella trasmissione dati. Questa tipologia prevede un nodo centrale al quale sono direttamente connessi tutti gli altri. Tale punto comune è generalmente un concentratore di cablaggio da cui si diramano tutti i cavi che collegano le stazioni. Dato che le stazioni di rete sono collegate punto a punto al concentratore di cablaggio ,i costi ed il numero di cavi necessari potrebbero essere maggiori. Tuttavia considerando il tipo di cavo utilizzato ,il costo totale è all’incirca uguale a quella delle altre tipologie. Anche i costi di comunicazioni sono ridotti, in quanto il trasferimento di dati da un nodo a un qualsiasi altro richiede l’attraversamento di non più di 2 collegamenti e il passaggio obbligatorio al nodo centrale. Nel caso in cui il traffico lungo la rete diventi particolarmente intenso, la velocità di trasmissione può diminuire, in quanto tutte le informazioni devono passare dal nodo centrale; il pericolo è che all’interno della stazione centrale si crei un collo di bottiglia. In molti sistemi, per questi motivi, il nodo centrale viene dedicato unicamente allo smistamento delle informazioni lungo la rete.
La topologia a stella presenta 2 importanti vantaggi. Il primo vantaggio è che un eventuale guasto su un singolo punto di cablaggio non compromette il funzionamento dell’intera rete. Nel caso in cui si verifichi un problema a uno dei cavi ,verrà disattivata solo la stazione collegata tramite quel cavo, mentre tutte le altre continueranno a funzionare normalmente .Il secondo vantaggio è che tale topologia consente una migliore gestione della rete.

Topologia ad anello: in una topologia ad anello ,ogni nodo è fisicamente connesso con altri 2 in modo da costruire una struttura circolare. L’anello può essere bidirezionale o unidirezionale.
Per quanto riguarda un anello unidirezionale, i costi iniziali restano bassi ,i costi di comunicazione subiscono un notevole incremento e la sicurezza dei dati resta inalterata. In questo caso, il messaggio viaggia dalla sorgente verso il nodo destinatario seguendo l’anello: non esiste un nodo prevalente sugli altri , per cui non si crea un concentramento del lavoro in un unico nodo . La rete unidirezionale risulta molto sensibile ai guasti, se si verifica un’interruzione lungo un canale il nodo in questione resta isolato e gli altri nodi non potranno effettuare alcune connessioni ad altri nodi.
I nodi di una rete a stella bidirezionale hanno la possibilità di scegliere il percorso da far eseguire al proprio messaggio per raggiunge il nodo desiderato: la scelta è quindi limitata a due sole possibilità e avviene principalmente in base al numero dei nodi che vanno attraversati.

topologia ad anello
Topologia ad albero o gerarchica: Una rete a topologia gerarchica è rappresentata da una struttura ramificata dei nodi che la compongono: ogni nodo (esclusa la radice) è figlio di un nodo padre, avrà eventualmente dei nodi fratelli e dei nodi figli . Molto veloci e diretti sono i collegamenti locali (tra nodi figli e padri), mentre restano lenti e laboriosi i collegamenti su lunghe distanze ,con un affollamento delle richieste tanto maggiore quanto più ci si avvicina al nodo radice della gerarchia. Il pregio maggiore è la relativa semplicità della gestione. Una tale topologia presenta alcuni inconvenienti: il sistema principale, se sovraccarico di lavoro, può diventare un collo di bottiglia per l’intera rete e provocare il rallentamento dei servizi per tutti gli utenti.

WAN
LAN LAN
LAN LAN LAN
LAN LAN
Tipologia a BUS o dorsale: Questa struttura è molto semplice, utilizza un unico tratto di cavo (mezzo trasmissivo) al quale sono collegate le stazioni rete. Tutte le stazioni condividono questo cavo e i dati trasmessi da una qualsiasi di esse vengono ricevuti da tutte le stazioni collegate a tale cavo . Le estremità del segmento di cavo sono terminate da dei punti di terminazione. Data la semplicità di tale topologia ,il costo dell’implementazione è generalmente contenuto. Il cavo unico può tuttavia comportare un problema di notevole entità, in quanto nel caso in cui si guasti, nessuna delle stazioni potrà trasmettere.

Topologia a maglia: In questa architettura ogni nodo della rete è connesso direttamente a tutti gli altri. I costi dei collegamenti non sono minimi e la gestione della struttura è abbastanza complessa, infatti il numero delle connessioni aumenta in modo quadratico rispetto ai nodi. Il vantaggio fondamentale riguarda la velocità della comunicazione tra i nodi poiché ogni messaggio riesce a trovare il proprio destinatario attraversando una sola linea, senza dover decidere il percorso da seguire. Molto alta è anche la resistenza ai guasti in quanto un’interruzione lungo una linea non causerà mai un isolamento del nodo ma, al massimo un rallentamento del traffico poiché i suoi messaggi dovranno seguire dei percorsi alternativi. Un sistema di questo genere offre delle prestazioni molto elevate, ma anche dei costi notevolissimi: per questo una rete a maglia viene realizzata solo in alcuni casi.

I mezzi di trasmissione dei dati
Le tecniche di trasmissione dati sono state sviluppate per consentire il trasferimento di informazioni,sotto forma codificata, tra terminali periferici ed elaboratori o tra elaboratori posti a notevole distanza tra loro. I tipi di canali disponibili per realizzare le connessioni tra loro possono essere assai numerosi e molto diversi tra loro per natura fisica e costo.
Doppino telefonico: Il doppino è costituito da una coppia di fili di rame isolati e intrecciati dello spessore di circa 1 mm ed è utilizzato nella rete telefonica. E’ usato sia per trasmissioni analogiche sia digitali con una larghezza di banda che dipende dalla sezione del filo e dalla distanza da attraversare. Nel caso di trasmissioni a lunghe distanze possono essere usati dei ripetitori in grado di rigenerare le caratteristiche del messaggio originale.

Cavo coassiale: Il cavo coassiale è composto da un nucleo di rame, circondato da materiale isolante; un’ulteriore protezione è fornita da un involucro più esterno, costituito generalmente da un conduttore intrecciato e infine da un ultimo rivestimento protettivo di plastica. Questa struttura del cavo fornisce un ‘alta larghezza di banda e ottima resistenza al rumore .
Fibra ottica: I recenti sviluppi nella tecnologia ottica hanno reso possibile la trasmissione di dati mediante impulsi di luce. La presenza di un impulso di luce può servire per segnalare un bit a 1,mentre la sua assenza indicherebbe un bit a 0. Un sistema ottico di trasmissione ha tre componenti: il mezzo di trasmissione , la sorgente di luce e il rivelatore .
Il mezzo di trasmissione è una fibra ultra sottile composta di vetro oppure di silicio fuso . La sorgente luminosa invece può essere un semplice led o comunque un dispositivo in grado di generare impulsi luminosi quando viene attraversato da corrente elettrica .Il rilevatore del segnale è un fotodiodo che emette un impulso elettrico quando viene attraversato da radiazione luminosa. Se un solo raggio viene intrappolato, poiché qualunque raggio luminoso incidente sul confine al di sopra dell’angolo critico sarà riflesso internamente ,saranno presenti molti raggi distinti che ‘rimbalzano’ ad angoli diversi. Una fibra ottica operante in questo modo è nota come fibra multimodale. Tuttavia, se il diametro della fibra viene ridotto ad una lunghezza d’onda della luce la fibra agirà come una guida d’onda e la luce si propagherà in linea retta ,senza rimbalzare: in questo caso , si ha, la cosiddetta fibra monomodale. Le fibre monomodali richiedono (costosi) diodi laser per il loro pilotaggio, anziché (economici) led, ma sono più efficienti e possono coprire distanze maggiori.
Satellite o etere: I satelliti di comunicazione possono essere considerati dei grossi ripetitori galleggianti nel cielo. Ogni satellite contiene dei trasponditori che recepiscono i segnali provenienti da una porzione dello spettro e provvedono ad amplificarli e a rispedirli su un’altra frequenza.
Più semplicemente il satellite riceve il segnale ,trasmesso su una certa frequenza ,da una stazione a terra, lo trasla su una frequenza diversa e lo ritrasmette verso altre stazioni a terra. L’uso di due diverse frequenze per le trasmissioni da e verso il satellite è necessario per evitare interferenze reciproche. Il segnale ritrasmesso verso terra può essere ricevuto da ogni stazione che si trovi all’interno del cono d’azione del satellite e che sia sintonizzata sulla frequenza usata . Il segnale può trasmettere voci ,immagini ,dati o segnali TV. Oltre alla banda trasmissiva molto ampia, il satellite presenta altre caratteristiche vantaggiose: assicura un’ampia copertura geografica e permette di raggiungere luoghi isolati e difficilmente collegabili con altri mezzi. L’ampiezza della copertura geografica presenta anche l’inconveniente che ogni stazione di terra nell’area servita dal satellite può ricevere i segnali trasmessi ,con grave rischio di intercettazioni di informazioni riservate. I satelliti presentano degli enormi vantaggi rispetto agli altri mezzi trasmissivi in quanto il costo è indipendente dalla distanza di trasmissione e i segnali non sono soggetti alle normali barriere naturali o architettoniche.
THE INTERNET
It was born 30 years ago after that the Pentagon noticed that the U.S.A. missile system of defence had a weak point. It would have been sufficient to block up the communication among the computers to isolate wide zones of the country and to prevent the answers coming from the Defence.
Only a few years have passed and Internet has now more than one hundred thousand million of users all around the world. Thanks to the Internet development, several firms have chosen this communication tool to increase their trades. The Internet has finally got people’s approval and its growth is uncontrollable. This success is due to its easy way of use and to all the good advantages it offers. One of the biggest advantages is to get any kind of information in a short time; you can also exchange opinions and messages with people who are connected from anywhere by a simple local phone call and in a very cheap way. The Internet helps work development, on the web you can buy anything you’re looking for. It’s also a great assistance for the students.
As any other mass media, the Internet has its negative sides. There are no laws to limit it so people can easily create their own web site in which they can put illegal stuff such as forged programmes, child abuser material and so on. Besides this, the Internet makes people stay alone, away from one another, there is no human contact while you’re chatting and this aspect is worrying since it increases loneliness.
Besides among people who use the Internet to work, young people are the most active part of the users. In Italy, school have started letting students surfing but not all the institute have equiped their computer rooms and several schools do not even have computer rooms. In our country Internet has had a big development thanks to free access but we are not even in the first places in Europe, lots of people do not even know what the Internet exactly is and since it is our future, it is an alarming fact. One of the determining cause of this slow development in some parts of the country is that the most parts of the web sites are in English but we have to say that in Italy there are million of sites actually. Anyway, we are very optimist and we are sure the Internet will become a familiar object also here in Italy, you just have to think to the great success of the mobile phone.
LA STORIA DI INTERNET e LA GUERRA FREDDA
La nascita e l’evoluzione di Internet
Internet è una rete di portata mondiale che unisce, secondo le stime più recenti, 40 milioni di persone. Il suo scopo originario era quello di garantire comunicazioni stabili ed efficienti tra le sedi delle forze armate statunitensi oltre che tra le università e i centri di ricerca che lavoravano a progetti di natura militare. Col tempo, si è evoluta in una rete prettamente universitaria e oggi, dopo l'avvento dell'interfaccia grafica che ne facilita la navigazione, sta diventando uno strumento di massa, aperto alla divulgazione di notizie e alla vendita di prodotti e servizi (anche se questo tipo di attività è ancora proibito in molte delle sue aree). Chiunque disponga di un personal computer e di un modem finirà per utilizzarla un giorno o l'altro. La prima apparizione di questa forma d'interconnessione risale al 1969 quando il Ministero della Difesa Statunitense creò un'agenzia, ARPA (Advanced Research Project Agency), preposta allo sviluppo di una rete che potesse reggere al bombardamento nucleare, garantendo la continuità di comunicazione tra località diverse. La prima opera fu la costruzione di una rete che collegò quattro università diverse: Stanford University, Los Angeles University (foto a lato), Santa Barbara University e la University of Utah, usando linee telefoniche e installò in ciascuna di queste un Imp (Information Message Processor), vale a dire un particolare computer che gestiva il traffico in rete. L'Imp fungeva da intermediario tra linee di connessione e mainframe, i grandi elaboratori centralizzati su cui all'epoca residevano tutte le informazioni e tutti i programmi. L'impianto divenne attivo il 2 settembre 1969 e così nacque ARPAnet. Tutto il traffico che viaggiava su queste connessioni non era confidenziale e serviva prevalentemente a titolo di ricerca e sperimentazione. All'epoca, i sistemi per trasmettere messaggi da una località all'altra non erano molto efficaci e il primo obiettivo dei ricercatori fu proprio quello di trovare soluzioni funzionali per convogliare i pacchetti su ARPAnet. Decisero di adottare un modello il cui sviluppo era già iniziato in Europa e che sarebbe poi diventato comune in molti altri sistemi di comunicazione: la commutazione di pacchetto. Mediante questa tecnica, i messaggi e le informazioni vengono suddivisi in pacchetti di lunghezza fissa e ogni singolo pacchetto diventa un'entità a se stante, capace di viaggiare sulla rete in modo completamente autonomo perchè dotata al proprio interno dell'indirizzo sia di provenienza sia di destinazione. Non è importante che tutti i pacchetti che compongono un determinato messaggio rimangano uniti durante il percorso e non è nemmeno indispensabile che arrivino nella sequenza giusta. Le informazioni che essi convogliano al proprio interno sono sufficienti per ricostruire, una volta arrivati a destinazione, l'esatto messaggio originale, indipendentemente dal percorso seguito da ciascuno dei suoi frammenti. Grazie a questo sistema si ottengono due benefici immediati: qualunque sia lo stato della rete, il pacchetto può sempre trovare una via alternativa per giungere alla propria destinazione (requisito utile per gli obiettivi militari e per chiunque desideri avere un impianto il più possibile resistente ai guasti, anche a quelli accidentali). Inoltre i vari pacchetti provenienti da fonti diverse possono essere convogliati tutti assieme su una singola linea ad alta velocità anziché dover ricorrere a tante linee separate, usate solo parzialmente. Si riesce in questo modo a condensare il traffico su una linea collegata in permanenza che ripartisce dinamicamente la propria capienza tra i vari computer collegati e che, in ogni caso, è quasi sempre attraversata da qualche tipo di traffico e perciò giustifica il proprio costo. Il primo protocollo sviluppato per la commutazione di pacchetto su ARPAnet si chiamava ncp (Network Control Protocol), ma non era particolarmente efficiente. Col passare del tempo i progettisti di ARPAnet definirono un insieme di circa 100 protocolli per regolare il trasferimento dei pacchetti e questo insieme si è evoluto in quella che noi oggi conosciamo con il nome di Internet Protocol Suite: una raccolta di standard trasmissivi che verte su due protocolli primari, il Transmission Control Protocol (tcp) e l'Internet Protocol (ip), più molti altri secondari che consentono la comunicazione tra computer e reti molto diverse.
La prima definizione di tali protocolli risale al 1973 e nel 1974 Vincent Cerf e Robert Kahn ne stilarono le caratteristiche. Quello stesso anno fu pubblicata la prima specifica per i protocolli da utilizzare su Internet. Si dovette attendere fino al 1 gennaio 1983 per l'adozione ufficiale dell'intera Internet Protocol Suite. Tornando un attimo indietro nel tempo vediamo che il 1972 rappresentò un'altra tappa importante: l'Università dello Utah realizzò un sistema per controllare un computer a distanza su ARPAnet e divenne possibile trasferire file da un computer all'altro per mezzo del protocollo ftp (File TraNSFer Protocol). Combinando tcp/ip e ftp si era giunti al coronamento dell'obiettivo tecnologico di ARPAnet: trasferire dati da un punto all'altro della rete.
Già nel 1980 ARPAnet si trasformò in uno strumento vitale per le università e per i centri di ricerca americani, che avevano un bisogno sempre maggiore di scambiare informazioni e di coordinare le proprie attività. Nacque così la posta elettronica che si affiancava al semplice trasferimento di file, che aveva costituito la prima applicazione di ARPAnet. Internet nasce nel 1980, da un’evoluzione della rete ARPANet. Essa era una rete creata alla fine degli anni sessanta da un progetto di una rete militare del governo degli Stati Uniti. In quegli anni vi era la guerra fredda tra L’America e la Russia e l’esigenza di base era quella di poter mettere in comunicazione diversi sistemi elettronici distanti tra loro anche nel caso in cui la connessione fisica tra due nodi venisse a mancare, a causa della guerra. Quando ARPANet cessò di esistere, Internet prese il suo posto. Ma, al contrario della precedente, essa cominciò ad essere usata anche dalle imprese e persino dai privati. Cominciarono a svilupparsi le grandi dorsali, cioè quelle reti principali ad alta velocità alle quali si collegavano le reti più piccole, in modo da creare un’unica grande rete, una nuova architettura denominata World Wide Web, ragnatela di dimensioni mondiali.
Nel 1983 Internet divenne a tutti gli effetti la rete delle reti, utilizzando le strutture della defunta ARPAnet come dorsale (rete ad alta velocità che unisce tra loro altre reti locali).
Tuttavia restavano ancora esclusi tutti quegli atenei che non avevano rapporti con il Dipartimento della Difesa. Al fine di risolvere questo problema e di estendere l'accesso a tutti gli interessati, il Dipartimento della Difesa creò una propria rete alternativa, detta MILnet, così da non dover più dipendere esso stesso da ARPAnet e da lasciare campo libero al mondo accademico, mentre il governo americano istituì la National Science Foundation (NSF) con il duplice scopo di fornire risorse di elaborazione alle università (mediante l'uso centralizzato di supercomputer) e di favorire la crescita di un sistema di comunicazione veloce tra queste ultime. Nei primi anni Ottanta la NSF costruì csnet, una rete che univa le varie facoltà d'informatica statunitensi; alla fine degli anni Ottanta costituì NSFnet con lo scopo dichiarato di rimpiazzare ARPAnet per mezzo di una rete dorsale alternativa. La transizione è stata relativamente lunga e in effetti ARPAnet è stata smantellata definitivamente solo nel 1990. Nel 1991 il cern (Consiglio Europeo per la Ricerca Nucleare) poneva le basi per una nuova architettura capace di semplificare enormemente la navigazione di Internet, la World Wide Web.Nel 1993 è stato inventato il primo strumento grafico per esplorare Internet, il programma Mosaic. A partire dal 1994 la World Wide Web ha trasformato Internet in un fenomeno di massa e oggi esistono dorsali alternative a NSFnet che servono sia per aumentare la quantità di traffico che può circolare su Internet sia per consentire la presenza di servizi commerciali che sono vietati nel contesto accademico definito dalla National Science Foundation. A differenza delle quattro università che parteciparono alla versione originale di ARPAnet, l'Internet moderna si compone di migliaia di singole reti, ciascuna che raccoglie a sua volta un numero più o meno grande di host (macchine individuali). Il termine non si riferisce ai singoli oggetti fisici al suo interno, bensì allo spazio complessivo che questo insieme di computer rappresenta e che può essere attraversato in lungo e in largo da chi cerca notizie, documenti, messaggi e file da scaricare.La natura dei protocolli tcp/ip è tale da consentire l'interconnessione dei network più eterogenei: dalle LAN convenzionali alle reti geografiche che si spargono sul territorio attraverso l'impiego di linee telefoniche più o meno veloci, governate coi metodi trasmissivi più disparati. Non esiste computer al mondo che non possa dialogare con il tcp/ip e questo comprende i personal computer, i mini computer e i grandi mainframe. Il sistema fisico di connessione può essere il più vario: fibra ottica per le grandi distanze, cavo coassiale e doppino telefonico, satellite, onde radio, raggi infrarossi. Si tratta di un mondo in continua trasformazione, con pezzi che si aggiungono e pezzi che scompaiono, ma nel suo insieme lo spazio Internet è sempre disponibile, a qualsiasi ora, e la sua esistenza non dipende dall'iniziativa di una singola azienda oppure di un singolo governo. L'universalità di questa rete consente agli utenti di scegliere il computer e i programmi che preferiscono, di decidere liberamente il tipo di connessione da utilizzare (modem su linea privata, linea ISDN, rete locale con collegamento geografico ad alta velocità).La prerogativa primaria di ARPAnet era quella di aver dimostrato, in vent'anni di attività, la possibilità di collegare tra loro sistemi diversi e reti diverse utilizzando un nuovo tipo di protocollo suddiviso in due componenti: tcp (Transmission Control Protocol) e ip (Internet Protocol). Il grande difetto di ARPAnet derivava dalla sua dipendenza da strutture burocraticamente complesse e poco agili. Finché la sua attività si era concentrata su quattro università-polo, come nella configurazione originale del 1969, o comunque era rimasta asservita a progetti militari, non erano emersi problemi. Tuttavia dal 1983 quando la componente militare si era separata (trasformandosi in MILnet) e ARPAnet aveva assunto le caratteristiche e il nome di Internet, vale a dire uno strumento al servizio dei ricercatori e docenti universitari di qualsiasi genere e provenienza incominciarono i problemi di sovraffollamento La prima dorsale NSFnet funzionava a 56 Kbit per secondo e collegava sei centri di supercalcolo in diverse regioni degli USA. A questi centri accedevano numerose università e centri di ricerca. Nel periodo di massimo splendore solo il cinquanta per cento delle università primarie negli Stati Uniti erano collegate ad ARPAnet. Per colmare la forte richiesta di comunicazione e di servizi a cui l'arrivo di ARPAnet aveva dato la stura, senza poi farvi fronte, erano nate altre reti parallele. Da allora sono passati solo alcuni anni, ma è come se ne fossero trascorsi molti di più. Quei cinquecentomila utenti sono divenuti oltre cento milioni e crescono con progressione geometrica stracciando regolarmente tutte le previsioni. Con lo sviluppo del World Wide Web, dal 1994 in poi, centinaia di migliaia di aziende si sono gettate su Internet attirando milioni di utenti che a loro volta stanno coinvolgendo altri milioni di aziende. Internet ha ormai superato la massa critica, vale a dire quella dimensione che comporta l'autoalimentazione del proprio sviluppo e pertanto la sua crescita è divenuta inarrestabile. Ogni nuovo utente, infatti, attira nuove aziende e queste a loro volta attirano nuovi utenti in una spirale di crescita che procede al ritmo del raddoppio del numero di utenti ogni anno. Comunque non esiste un ente che gestisca e controlli il traffico della rete Internet, solamente alcune singole parti di essa sono gestite da istituzioni pubbliche o private. Coloro che si occupano di Internet fin dal principio sostengono che esso debba continuare ad essere "luogo" di scambi liberi di idee e privo di vincoli. Le reti private non fanno automaticamente parte di Internet; devono infatti richiedere di potersi connettere e in tal caso devono disporre di hardware e software particolari.
Il "mercato l’altra sul piano militare, ma senza che esse venissero allo scontro militare diretto. " di Internet è destinato in futuro a diventare più grande ed esponenzialmente più veloce. I computer network mondiali metteranno in evidenza grafici animati in 3D, radio e telefoni cellulari saranno collegati a computer portatili in un circolo globale multimediale. Sarà come sarà, ma sicuramente l'Internet reale del futuro rispecchierà molto poco ciò che esso è oggi.
ARPANET era una rete informatica progettata per collegare tra loro i centri strategici politico-militari (il Ministero della Difesa, l'Esercito, la Marina e l'Aviazione) in quanto gli americani erano preoccupati che il conflitto ideologico con l’URSS potesse degenerare in un conflitto sul campo. Queste due potenze si affrontavano già dagli anni del dopoguerra. Il confronto, come già detto, non era di tipo bellico, ma ideale. Lo scontro di ideali portò alla nascita di un periodo storico denominato guerra fredda, in quanto, lo scopo delle due potenze era sopravanzare.
L’INIZIO DELLA GUERRA FREDDA:
La formazione dei blocchi (Stati Uniti e Unione Sovietica).
Tutto incomincio nel 1947 quando il presidente degli Stati Uniti, Truman disse, in una dichiarazione, che gli Stati Uniti si impegnavano a sostenere militarmente e finanziariamente i governi minacciati dal comunismo; questa fu chiamata Dottrina Truman basata sul contenimento del comunismo. Il primo stato che aderì a questa dottrina fu la Grecia, nel 1946, perché teatro di una guerra civile tra le forze monarchiche al governo, appoggiate dagli americani, e i comunisti. Il secondo stato fu la Turchia perché considerata troppo esposta alla pressione sovietica e quindi doveva essere difesa dagli USA.
Dopo la “dottrina Truman” ci fu il “Piano Marshall”, così chiamato dal nome del sottosegretario di stato americano. Questo piano consisteva in un’offerta di aiuti economici per oltre 13 miliardi di dollari americani da parte degli Stati Uniti ai paesi europei devastati dalla guerra al fine di agevolarne la ricostruzione. Il piano Marshall fu adottato da 16 Stati europei compresa l’Italia e fu aspramente rifiutato dall’Unione Sovietica che lo denunciò definendolo una manovra imperialistica perché costringeva gli stati dell’Europa occidentale ad allinearsi con gli USA. Stalin in realtà temeva che il piano di aiuti americano indebolisse l’egemonia sovietica nell’Europa centro orientale. Con il piano Marshall prende avvio la costituzione di due blocchi politici, economici, militari e ideologici posti rispettivamente sotto la leadership sovietica e statunitense.
Il blocco occidentale (Stati Uniti).
Il blocco Occidentale era capeggiato dagli Stati Uniti. In Europa, dopo il lavoro del piano Marshall, gli stati cercavano una maggiore coesione sul piano politico militare. Venne così stipulato, il 4 aprile 1949, il Patto Atlantico che istituì la NATO, un organismo politico militare creato con lo scopo di difendere i paesi aderenti all’area dell’Atlantico settentrionale. Tutti i paesi membri dell’alleanza atlantica, tra cui l’Italia, si impegnavano al reciproco aiuto in caso di aggressione. Ma gli Stati Uniti non avevano solo stati amici nell’Europa ma anche in Asia. La difesa del Medio Oriente fu affidata prima al Patto di Baghdad, nel 1955, creato, su inspirazione statunitense, da Turchia e Iraq a cui dopo si aggiunsero Gran Bretagna, Iran e Pakistan, poi in secondo momento dopo l’uscita dell’Iraq, a causa di colpo di stato, venne creato CENTO, Organizzazione del Trattato Centrale, a cui aderirono anche gli USA. Per quanto riguarda l’Estremo Oriente gli Stati Uniti ebbero l’appoggio del Giappone con il quale fecero un patto bilaterale di sicurezza , nel 1951,
Come conseguenza di queste alleanze, l’esercito e la marina statunitense vennero e disporre di proprie basi collocate quasi in ogni parte del globo.

Il blocco socialista (URSS).
In contrapposizione al blocco occidentale, si costrui il blocco Socialista o blocco orientale capeggiato dall’Unione sovietica. In risposta alla Dottrina Truman e al Piano Marshall, Stalin, nel settembre del 1947, promosse la costituzione del Cominform che mirava a coordinare la politica dei partiti comunisti europei. Nello stesso tempo iniziò la sovietizzazione dei paesi dell’Europa centro-orientale, che in breve tempo furono trasformati in stati organizzati secondo il modello socialista sovietico e divennero quindi satelliti dell’URSS. La formazione di un così compatto blocco socialista comprendente l’Unione Sovietica e i paesi europei centro-orientali, ebbe poi un ulteriore impulso nel gennaio del 1949 con la costituzione del Comecom il cui scopo era quello di rendere omogenee le economie degli stati associati; sul piano militare quindi nacque il Patto di Varsavia, nel maggio del 1955, un alleanza del tutto simile, se non uguale, alla NATO, che pose gli eserciti dei paesi membri, gli stessi del Comecon, sotto il comando sovietico.
I non allineati
Non tutti gli stati però erano allineati con uno o l’altro blocco, alcuni avevano preferito restare neutrali e conservare i propri orientamenti tradizionali nella politica estera e le proprie strutture e istituzioni di governo.
Tra questi, lo stato più importante fu la Yugoslavia di Tito che nel 1948 vista la scarsa presenza dell’armata rossa nel proprio territorio, arrivò ad una rottura definitiva con l’URSS per quanto riguardava le relazioni economiche e militari, aderendo invece al piano Marshall e intensificando gli scambi con l’occidente. La Yugoslavia si pose quindi come cuscinetto tra Est ed Ovest.
(La conferenza di Bandung sancì quali stati avrebbero preso posizioni neutralistiche nei confronti del conflitto USA-URSS)
LA CORSA AGLI ARMAMENTI.
Terminata la Seconda Guerra Mondiale, l’Unione Sovietica concentrò i propri sforzi nella ricerca nucleare al fine di realizzare anch’essa la bomba atomica (bomba A) e la realizzò per la prima volta nel 1949. Lo stato sovietico diveniva a pieno titolo una superpotenza. L’URSS riuscì ad avere la bomba atomica grazie alla informazioni scientifiche recuperate dal loro servizio di spionaggio. Proprio l’attività spionistica condotta dai servizi sovietico (KGB) e statunitense (CIA) nel campo degli armamenti e della ricerca scientifica ebbe un ruolo molto importante nel confronto tra le due superpotenze. A seguito del raggiungimento della bomba A in URSS, negli Stati Uniti si creò un clima di sospetto denominato “Caccia alle streghe”. Chiunque non manifestasse pubblicamente una posizione contraria al comunismo poteva venire sospettato di essere un agente del servizio di Mosca. In questo clima politico divenuto famoso con il termine spregiativo di maccartismo (dal nome del senatore McCarthy promotore di questa caccia alle streghe) si verificò il caso dei coniugi Rosemberg, militanti del minuscolo partito comunista statunitense, che, accusati di spionaggio a favore dell’Unione sovietica furono giustiziati sulla sedia elettrica nel 1953. La ricerca per quanto riguarda le armi, però, non si fermo; nel 1952 gli Stati Uniti seguiti ad un anno di distanza dall’Unione Sovietica sperimentarono la bomba all’idrogeno, la bomba H, terribilmente più devastante della già distruttiva bomba A. Da un punto di vista militare la differenza fondamentale tra i due grandi rivali era che gli Stati Uniti avevano rafforzato la loro posizione di potenza globale in grado intervenire rapidamente con le proprie forze in ogni parte del globo grazie alle proprie basi dislocate un po’ in tutto il mondo, mentre l’Unione Sovietica pur avendo incrementato il proprio arsenale militare restava una potenza
continentale e il suo raggio d’azione era limitato. Questo divario però fu cancellato dalla creazione da parte dell’Unione Sovietica di missili a gettata intercontinentale. Questo clima definito “equilibrio del terrore” agì da agente frenante alla degenerazione della “Guerra fredda” in un conflitto aperto che avrebbe potuto provocare una terza guerra mondiale.
1989 UN ANNO DI CAMBIAMENTI
I cambiamenti democratici, le piccole rivoluzioni nell’economia e nella politica in Polonia, in Ungheria e nell’URSS riempivano ogni giorno i giornali di tutta Europa, una notizia sensazionale dall’Europa dell’est seguiva l’altra, solo nella DDR il tempo sembrava essersi fermato. Visto che il tentativo di lasciare la DDR in direzione ovest equivaleva ancora ad un suicidio, la gente si inventò un’altra strada. All’improvviso Praga, Varsavia e Budapest diventarono le città più amate da molta gente della DDR, ma non per la bellezza dei loro monumenti ma perché qualcuno aveva capito che le ambasciate della Germania Federale in queste città, erano il territorio occidentale più facilmente accessibile. Ma il colpo decisivo all’esistenza della DDR avveniva anche questa volta in un modo del tutto insolito e inaspettato. L’Ungheria, che era forse il paese più avanzato per quanto riguarda le riforme democratiche fece un passo che doveva portare in soli due mesi alla caduta del muro di Berlino. Il 10 settembre aprì i suoi confini con l’Austria. Decine di migliaia di tedeschi dell’est erano già affluiti in Ungheria nei giorni precedenti in attesa di questo evento, e le immagini della gente che, ancora incredula e piangente, assisteva alla rimozione del filo spinato tra Ungheria e Austria fecero il giro del mondo. Il governo della DDR aveva disperatamente cercato di impedire questa decisione, ma la prospettiva di una migliore collaborazione con l’ovest, era per gli ungheresi era più importante della solidarietà ideologica con la DDR. Nell’ottobre del 1989 gli eventi nella DDR precipitarono. Sotto la pressione delle manifestazioni di massa e del flusso sempre crescente di persone che lasciavano il paese, molte amministrazioni comunali si sciolsero e furono sostituite da organi ai quali partecipavano per la prima volta anche gruppi di opposizione.
Quando la sera del 9 novembre un portavoce del governo della DDR annunciò una riforma molto ampia della legge sui viaggi all’estero, la gente di Berlino est la interpretò a modo suo: il muro doveva sparire. Migliaia di persone stavano all’est davanti al muro, ancora sorvegliato dai soldati, ma migliaia di persone stavano aspettando anche dall’altra parte del muro, all’ovest, con ansia e preoccupazione. Nell’incredibile confusione di quella notte, qualcuno ,e ancora oggi non si sa esattamente chi sia stato, aveva dato l’ordine ai soldati di ritirarsi e, tra lacrime ed abbracci, migliaia di persone dall’est e dall’ovest, scavalcando il muro, si incontravano per la prima volta dopo quarant’anni. Il muro era caduto ma esistevano ancora due stati tedeschi, due stati con sistemi economici e politici completamente diversi. Tutta l’organizzazione della vita pubblica era diversa. Adesso la libertà tanto a lungo desiderata c’era, mancava però il benessere e la gente dell’est non voleva più aspettare: infatti, dopo la caduta del muro il flusso dall’est all’ovest non diminuì, ma anzi aumentò. Dopo le prime elezioni nel marzo 1990 la DDR aveva finalmente un governo democraticamente legittimato, ma la fiducia nel proprio stato stava scendendo a zero. Si diffondeva uno stato di quasi anarchia e l’economia stava crollando verticalmente. Nella DDR cominciò a regnare il caos. Dopo pochi mesi la riunificazione non era più una possibilità, ma una necessità, era diventata l’unico modo per fermare il degrado dell’est. Ma riunire due stati non è così facile e nel caso della Germania si doveva considerare anche il fatto che la DDR faceva ancora parte di un sistema di sicurezza militare e di un’alleanza con l’Unione Sovietica e che anche la Germania Federale a questo riguardo non poteva agire senza il consenso degli ex-alleati della Seconda Guerra Mondiale. Questo rendeva la riunificazione un problema non solo nazionale ma internazionale e solo dopo trattative non facili tra USA, URSS, Francia e Gran Bretagna e dopo il “sì” definitivo di Gorbaciov, la strada per la riunificazione era libera. Il 3 ottobre del 1990, i due stati non furono riuniti, ma uno dei due stati, cioè la DDR, si auto scioglieva e le regioni della DDR furono annesse in blocco alla Repubblica Federale.
Nessun politico dell’ovest può reclamare alcun merito concreto per quanto riguarda gli eventi che portarono alla riunificazione. Gli unici politici che in un certo modo hanno contribuito a iniziare o ad accelerare il processo della riunificazione della Germania erano Gorbaciov, che con la sua politica ha reso possibile tutto quello che successe, e il governo dell’Ungheria, che nell’agosto dell’89 prese la coraggiosa decisione di aprire i confini con l’Austria e con ciò diede inizio a una valanga inarrestabile che portò in pochissimo tempo alla caduta del muro di Berlino.
“Oggi, nel 1997, la Germania è ancora molto lontana dall’essere un paese veramente unito. Era divisa per 40 anni, e non è del tutto escluso che passeranno altri 40 anni prima che le ultime ferite del passato siano chiuse e dimenticate.”
Cambiamenti anche in URRS.
Il ventennio che va dal 1965 al 1985, in Unione Sovietica, fu un periodo di conservatorismo politico di "stagnazione", come dirà poi Michail Gorbaciov, vi era una situazione di totale immobilità. A partire da Breznev si erano tenuti orientamenti rigidamente conservatori, perchè c'era la convinzione che il sistema sovietico non fosse riformabile. La crisi dell'URSS ed il suo indebolimento sulla scena internazionale erano così evidenti che, il 12 marzo 1985, M.Gorbaciov fu nominato Segretario Generale del PCUS con il compito preciso di portare una ventata di rinnovamento al sistema. Pertanto, una volta insediatosi, sulla base di una situazione che richiedeva soluzioni immediate e radicali, decise che era necessario uno sforzo a livello nazionale: bisognava cambiare il regime di accumulo ed il metodo di controllo economico, si doveva raccogliere la sfida estera, liberare l'economia e la società dagli strascichi dello stalinismo, e del peso del sistema amministrativo istituito negli anni '30. La riforma doveva arrivare dall'alto. Il gruppo dirigente lanciò quindi tre parole d'ordine: GLASNOST (trasparenza); USKORENIE (accelerazione), appello ad un'accelerazione dello sviluppo economico; infine PERESTROJKA (ristrutturazione), che avrebbe portato alla destrutturazione ed alla trasformazione del sistema sovietico. I concetti che si nascondevano dietro le tre parole non erano nuovi; "quello che appare nuovissimo e inedito è però il tentativo di coniugare simultaneamente, per la prima volta all'interno dell'universo comunista, la perestrojka con la glasnost: ovvero il riformismo economico, che il primo dei due termini auspica e promette, con la liberalizzazione politica e civile alla quale il secondo più ambiguamente allude"(Bettiza). La rivoluzione di Gorbaciov cominciò da quella che, ancora oggi, rappresenta la maggiore acquisizione dall'epoca di Stalin, ovvero la libertà di espressione. Diventava perciò possibile avere ragione sul Partito, la cui parola cessava di essere verità assoluta. La censura centralizzata iniziò ad indebolirsi nel 1986, per ridurre il suo ruolo al controllo delle informazioni sui segreti di stato. A partire dal 1989 venne permessa anche la critica su Lenin. Questa trasparenza non aveva però portato a miglioramenti concreti delle condizioni di vita.
Dal punto di vista economico gli anni della gestione Gorbaciov sono stati disastrosi, infatti il livello di vita dei sovietici è andato sempre peggiorando, togliendo credibilità agli occhi della popolazione alle numerose riforme economiche ed al nuovo dispositivo giuridico. La perestrojka sconvolse un'economia basata su coercizione e corruzione, inoltre la mancata creazione di istituzioni giuridiche affidabili che fossero in grado di garantire il diritto di proprietà e la stipulazione di contratti regolari, che assicurassero la soluzione di contenziosi e l'esecuzione delle decisioni, impedivano l'instaurazione del libero mercato. Nonostante la rottura con i meccanismi dell'economia pianificata degli anni '30, la "ristrutturazione" non seppe fornire nuove regole del gioco, nè proporre ai lavoratori nuove motivazioni.
I cambiamenti in politica estera attuati da M.Gorbaciov sono particolarmente interessanti. Nel suo "Perestrojka, il nuovo pensiero per il nostro paese e per il mondo", il Segretario teorizzava un nuovo pensiero considerando i tre mondi (capitalista, socialista e terzomondista) integrati ed interdipendenti tra di loro, nessuno poteva prevalere sull'altro con mezzi militari: "Nel mondo contemporaneo, interdipendente e sempre più omogeneo, è impossibile il progresso di una società isolata dai processi mondiali per chiusura di frontiere e per barriere ideologiche. Ciò riguarda tutte le società, comprese quelle socialiste."(Gorbaciov). Lo scopo della nuova politica estera era di ridurre la corsa agli armamenti, i cui costi erano diventati insostenibili per l'URSS, oltre che ottenere crediti da parte dell'Occidente finalizzati alla modernizzazione del paese. Furono quindi definite tre linee d'azione fondamentali: l'attenuazione della tensione Est-Ovest attraverso un disarmo negoziato con gli Stati Uniti e la risoluzione dei conflitti regionali; l'intensificazione degli scambi commerciali con l'estero; il riconoscimento dello status quo nel mondo intero senza più privilegiare gli stati marxisti-leninisti. Gorbaciov riuscì ad imporre la propria personalità sulla scena internazionale. La rinnovata politica estera dell'Unione Sovietica, indirizzata verso la pacificazione, fu sottolineata dal consenso accordato alla riunificazione della Germania ed alla posizione assunta durante la Guerra del Golfo. (la Russia appoggiò per la prima volta dopo circa un settantennio gli Americani).
L’URSS dopo il crollo del muro di Berlino
I cambiamenti apportati dalla glasnost e dalla perestrojka di M.Gorbaciov ebbero una grande influenza sui rapporti tra l'URSS ed i suoi paesi satelliti. La volontà di confinare la "ristrutturazione" del sistema socialista esclusivamente all’interno delle Repubbliche Sovietiche si scontrò con forti problemi economici e soprattutto politici, determinati dall'incerto consenso popolare che reggeva i paesi comunisti dell'Europa Orientale. L'URSS dovette rivedere in maniera radicale i propri rapporti con i paesi dell'Est che, a causa della crisi economica degli ultimi anni, erano diventati un peso per la sua economia. Questi cambiamenti superavano di gran lunga i piani della perestrojka. I sei paesi che componevano il blocco socialista (Polonia, RDT, Cecoslovacchia, Ungheria, Romania e Bulgaria) assunsero posizioni differenti nei confronti delle riforme di Gorbaciov. Da un lato Polonia ed Ungheria dove governo e società erano determinati ad appoggiare il leader del Cremlino, sapendo che le riforme sarebbero andate ben oltre quelle tentate in Unione Sovietica. Dal lato opposto vi erano i governi di Cecoslovacchia, Romania, Bulgaria e RDT, che, senza il consenso popolare, avevano deciso di contrastare la perestrojka e tutte le eventuali riforme che potevano mettere in pericolo la stabilità del loro sistema socialista. Conseguentemente alle elezioni sovietiche del 1989 esplosero rivolte in quasi tutti i paesi del blocco comunista infatti, ora che la patria del socialismo si avviava a diventare un paese democratico, i regimi dittatoriali non avevano più ragion d'essere all'interno del blocco. A partire dal "crollo del muro di Berlino" le azioni di protesta nei paesi dell'Europa Orientale si moltiplicarono, accelerando il moto riformatore. In Cecoslovacchia un forte movimento di protesta guidato da Vàclav Havel, in seguito alle numerose manifestazioni, presentò un piano riformatore che il Partito fu costretto a prendere in considerazione per cercare di salvare la situazione. Alla fine del dicembre del 1989 V.Havel diventò il presidente della Repubblica Cecoslovacca. A Bucarest la rivolta invece fu molto violenta e portò
alla fucilazione del leader N.Ceausescu e di sua moglie, mentre a Sofia il Presidente bulgaro T.Zikov era costretto a dare le dimissioni. La velocità degli avvenimenti superò ogni previsione e M.Gorbaciov perse il controllo delle riforme nell'Europa Orientale e perfino all'interno del "suo" paese.
1
1

Esempio



  


  1. Alberto

    elettronica e telecomunicazioni