Tesina multidisciplinare, New Economy

Materie:Tesina
Categoria:Generale
Download:3606
Data:04.10.2001
Numero di pagine:61
Formato di file:.doc (Microsoft Word)
Download   Anteprima
tesina-multidisciplinare-new-economy_1.zip (Dimensione: 57 Kb)
trucheck.it_tesina-multidisciplinare,-new-economy.doc     195.5 Kb
readme.txt     59 Bytes


Testo

New Economy:
Nuove linee di sviluppo per l’economia
mondiale
Introduzione
Questa tesina introduce un argomento del tutto nuovo, desumibile certamente dal titolo, ossia la New Economy. Con essa cercherò di definire il concetto di Nuova Economia, rapportandolo con la cosiddetta “Vecchia Economia”; introdurrò diverse parole legate alla New Economy, quali: e-commerce, trading on-line, home banking, e ne spiegherò il significato, inoltre, questa ricerca, si prefigge come obiettivo principale quello di analizzare i mutamenti avvenuti nelle banche e nella società, evidenziando, nelle singole materie scolastiche e quindi negli argomenti svolti nel corso dell'anno, la loro evoluzione futura non solo nella scuola, ma soprattutto nel mercato del lavoro.
Definizione di New Economy
La New Economy si può definire come l’insieme dei molteplici cambiamenti qualitativi e quantitativi che, durante gli ultimi 15 anni, hanno trasformato la struttura, le funzioni e le regole dell’economia. La New Economy, quindi, può essere semplicemente ma efficacemente intesa come una nuova tecnica commerciale alla cui base vengono interposte le tecnologie informatiche e più in particolare Internet, la rete informatica internazionale per eccellenza, che appunto rappresentano esplicitamente gli strumenti essenziali per svilupparla.
Capitolo Primo:
ECONOMIA AZIENDALE
L’Economia Aziendale è strutturata in tre parti:
1. L’origine dell’attività bancaria;
2. L’organizzazione e le funzioni bancarie;
3. L’attività bancaria proiettata nella New Economy.
L’obiettivo di questo primo capitolo consiste nel tracciare il percorso dell’evoluzione delle funzioni della banca nel tempo, fino ad arrivare ai giorni nostri, espletando infine una piccola previsione verso la trasformazione di questo settore.
Parte Prima
L’origine dell’attività bancaria
L’attività bancaria ha origini molto remote, che risalgono al IV millennio avanti Cristo, si fa infatti risalire l’origine dell’attività bancaria alle popolazioni che in tempi antichi praticavano il commercio, ossia alle genti della Mesopotamia e della Babilonia. Le prime espressioni d’attività bancaria, infatti, si localizzarono presso i templi, i quali con la loro robustezza delle costruzioni e la sacralità dei luoghi, infondevano sicurezza nei depositanti, in quanto allora era impensabile che venissero profanati dai briganti; i templi erano inoltre dati in custodia ai sacerdoti che ne garantivano il buon andamento. Successivamente la nascita delle banche, derivò dalla continua esigenza di alcuni cittadini ricchi di depositare in custodia i loro beni, per evitare lo spiacevole fenomeno del brigantaggio. Già allora si delineava la prima forma di attività bancaria.
In seguito, con l'intensificarsi degli scambi monetari e l'incremento del commercio, crebbe sempre più il numero di banche, e di cambiavalute, che incrementarono le loro attività imponendo percentuali sul deposito. Tuttavia l'evolversi del settore bancario si arrestò nel periodo successivo al dominio romano e solo con il declino dell'economia curtense e la ripresa dei traffici e degli scambi riapparvero i cosiddetti operatori bancari, detti campsores. L'attività bancaria, che in quegli anni era in pieno sviluppo, dopo aver coinvolto tutta l’Italia e più in particolare la Toscana, subì intorno al XV secolo un periodo di declino, destinato comunque a terminare con la nascita di banche a carattere nazionale.
Si delineava così un'attività bancaria di tipo moderno con l’introduzione di nuovi metodi di pagamento, quali la cambiale, che facilitava i pagamenti a distanza e il regolamento di affari internazionali senza il trasporto del denaro; i certificati di deposito (fedi di deposito, polizze, ecc.), e il giroconto, attraverso il quale era possibile il giro dei depositi da un conto all'altro, senza ricorrere a monete metalliche. Successivamente ci fu l'introduzione dei biglietti di banca che assunsero ben presto valore legale.
Anche in Italia si assistette ad un lento sviluppo del sistema bancario, però il periodo più importante legato allo sviluppo dei diversi enti creditizi parte dal 1880, in questi anni, infatti, si assiste alla nascita del Banco di Roma, oggi Banca di Roma, della Banca Commerciale Italiana e del Credito Italiano.
Ai giorni nostri, possiamo considerare le banche i principali istituti di credito, e proprio in questo XXI secolo, esse sono i primi organismi a risentire dell’influenza della New Economy, legata ad Internet e allo sviluppo delle nuove tecnologie informatiche, tanto che, sembra cambiato il modo di concepire la banca e le sue funzioni, oramai sempre più virtuali.
Parte seconda
L’organizzazione e le funzioni bancarie
Definizione di banca
La banca è un’impresa che opera nel settore del credito e dei regolamenti monetari, esercitando delle attività di intermediazione e delle attività finanziarie che affiancano e s’intrecciano alla prestazione di numerosi servizi.
Le funzioni della banca
In questi ultimi anni le banche, sempre per soddisfare le esigenze che nascono dalle profonde e continue trasformazioni dei mercati e delle condizioni operative delle imprese, nonché dei mutamenti nei comportamenti e nelle abitudini dei privati, hanno sviluppato una vasta gamma di operazioni da offrire alla clientela per quanto concerne la raccolta dei mezzi monetari, l’impiego degli stessi, ma soprattutto nell’erogazione dei servizi.
Il motivo della continua evoluzione delle banche nel corso degli anni, è da ricercarsi nel ruolo di primaria importanza che esse rilevano nel sistema finanziario, sia per le aziende, sia per i singoli e le famiglie.
Le funzioni fondamentali che le banche assolvono possono essere sinteticamente individuate in sei punti:
1) La funzione monetaria, indicando con essa l’azione d’intervento delle banche all’interno del sistema economico; ciascuna banca, infatti, emettendo assegni bancari e circolari, che sono sostitutivi della moneta legale, ne limitano la quantità in circolazione, gestendo così con una pluralità di intervento il complesso sistema dei pagamenti.
2) La funzione creditizia, realizzando la corretta correlazione tra i flussi di risparmio e i flussi di investimento.
3) La funzione di trasmissione degli impulsi di politica monetaria, fungendo essenzialmente da meccanismo di trasmissione al sistema economico della politica monetaria imposta dal governo e dagli altri organi a ciò preposti, prima fra tutti la Banca d’Italia.
4) La funzione di investimento, destinando una parte delle disponibilità finanziarie, che provengono dalla raccolta del risparmio e quelle rappresentate dal capitale proprio, a forme durevoli di impiego, che in genere sono costituite dall’acquisizione di beni necessari per l’impianto e lo sviluppo della propria struttura operativa, o dall’acquisizione di titoli emessi da enti pubblici, a scadenza protratta nel medio-lungo termine.
5) La funzione di sviluppo economico-sociale, che garantisce grazie all’azione delle banche un’equilibrata evoluzione del sistema economico e sociale dell’intero paese, in quanto, fornisce un forte stimolo all’espansione delle attività industriali e commerciali.
6) La funzione di servizi, per offrire una gamma sempre più vasta e differenziata di servizi, in parte complementari all’attività di intermediazione, e all’attività creditizia (i servizi tradizionali di incasso, di pagamento, di custodia di valori e simili), ed in parte nuovi (nel settore delle assicurazioni, della previdenza, ecc.), che vadano sempre incontro alle diversificate esigenze della clientela.
Struttura organizzativa della banca
La struttura organizzativa della banca, deve rispondere a precise esigenze operative, essa, infatti, differisce da una banca all’altra in base alle scelte strategiche operate dai dirigenti bancari, ed agli obiettivi finali prefissati. Talee struttura in linea comune si è evoluta nel tempo per consentire alla banca di seguire le mutazioni socio-economiche ed ambientali adattandosi ad esse.
Ultimamente sotto la spinta dell’integrazione europea, si è già avviato un processo di ammodernamento e di razionalizzazione del sistema bancario, volto sempre più ad attribuire alle banche gli elementi per una maggiore concorrenza, ulteriore efficienza, e per la crescita delle loro dimensioni.
Sistema informativo bancario
Il sistema informativo bancario è l’insieme delle persone, delle procedure, e degli strumenti con cui si attuano la raccolta, l’elaborazione, lo scambio e l’archiviazione dei dati per ottenere un flusso organizzato di informazioni che la direzione può utilizzare per programmare, eseguire, e controllare l’attività bancaria.
Il sistema informativo bancario risulta sempre strettamente collegato alla struttura organizzativa della banca oggi le banche hanno ritenuto necessario rendere sempre più efficiente ed efficace il proprio sistema informativo, attivando un sistema automatizzato. Le spinte in tal senso sono da ricercare nelle necessità di elaborare dati per ottenere informazioni in tempo reale, di strutturare un sistema efficiente di circolazione dei dati e delle informazioni per l’intera rete degli sportelli mediante i quali la banca svolge la propria attività; infine, di fornire alla clientela prodotti-servizi sempre più efficaci offerti per via telematica. Attualmente, in Italia, sono operanti tre o quattro grandi sistemi informatici, utilizzati dalla maggior parte delle banche.
Le operazioni bancarie
La gestione bancaria si manifesta attraverso una serie di operazioni che si possono sinteticamente ricondurre alla raccolta del risparmio fra il pubblico e al suo impiego sotto forma di fondi, però c’è da ricordare che contrariamente a quanto si potrebbe intendere, la gestione bancaria non si svolge in modo uniforme presso tutti gli istituti di credito, in quanto, le molteplici operazioni di raccolta e quelle di impiego, fanno sì che la gestione bancaria assuma una miriade di sfaccettature in relazione alla tipologia delle operazioni compiute; poi bisogna inoltre considerare che le banche, possono anche esercitare ogni altra attività finanziaria, nonché le attività ad esse connesse e quelle strumentali.
Le operazioni bancarie, in base alle loro caratteristiche, possono essere suddivise nelle seguenti categorie:
1) Operazioni di intermediazione creditizia, attraverso le quali, la banca raccoglie ed impiega fondi, agendo da intermediaria tra i soggetti che offrono capitali e i soggetti che necessitano finanziamenti.
2) Operazioni di investimento diretto, attraverso le quali la banca destina una parte delle proprie disponibilità finanziarie a forme durevoli di impiego, costituite principalmente da investimenti di carattere finanziario e da investimenti strutturali-organizzativi.
3) Operazioni complementari, con le quali la banca fornisce una vasta gamma di servizi alla clientela.
4) Operazioni collaterali, con le quali la banca fornisce direttamente, oppure servendosi di società controllate o collegate, una particolare categoria di servizi e di attività di vario genere che costituiscono un’evoluzione e un completamento dei tradizionali rapporti tra banca e cliente.
Parte terza
L’attività bancaria proiettata nella New Economy (Home Banking)
I cambiamenti del mercato sono caratterizzati dalla diffusione delle reti informatiche e dallo sviluppo dei nuovi sistemi di comunicazione; queste mutazioni coinvolgono direttamente anche il settore bancario, e proprio in questi ultimi anni si nota in tutto il mondo ed anche nel nostro paese una progressiva trasformazione delle banche indirizzate verso l’erogazione di servizi telematici.
Uno dei più rigogliosi canali tuttora in forte espansione, tanto per la gioia dell’utente, che per quella della banca, è sicuramente rappresentato da Home Banking (o Virtual Banking).
Con il termine Home Banking o Virtual Banking, che dir si voglia, s’individua un istituto di credito che presenta on-line (in rete) i propri prodotti/servizi alla clientela senza la necessità di un rapporto personale diretto, e quindi senza bisogno di aprire filiali, di disporre di casse e di cassieri e di provvedere a contare banconote o trattare grossi volumi di materiale cartaceo.
Insomma, siamo di fronte ad una destrutturazione della banca tradizionale e ad una sua ridefinizione in base alle nuove logiche di organizzazione e di finanziamento, con le quali prevalgono le relazioni a distanza tra banca e clientela.
A favorire la realizzazione delle cosiddette banche virtuali, hanno influentemente contribuito determinati fattori, quali:
a) la crescente disponibilità all’uso degli strumenti informatici;
b) la liberazione delle reti telematiche;
c) l’abbassamento dei costi di trasmissione dei dati;
d) la diffusione delle tecnologie informatiche in modo efficiente e sicuro, così da consentirne nelle transazioni on-line l’utilizzo direttamente e comodamente da casa e dall’ufficio.
La banca propone quindi al cliente, servizi dei quali si può usufruire interagendo da casa attraverso il telefono o il PC (Personal Computer) collegato su di una rete informatica con gli appositi canali di comunicazione, che permettano l’accesso diretto alla banca.
Per una Home Banking gestire i rapporti con il cliente attraverso le reti telematiche, comporta un innumerevole serie di vantaggi, ma allo stesso tempo anche molteplici oneri. Per la banca elettronica, innanzi tutto, vi è l’indubbio vantaggio di avere un’operatività che risulta più estesa, e che può addirittura giungere a coprire per l’intero arco della giornata tutti i giorni dell’anno.
Si ritiene inoltre, che il servizio erogato da una banca virtuale, tramite l’utilizzo delle reti telematiche sul PC del cliente, sia da considerarsi un servizio qualitativamente buono. Infine, per la banca virtuale che opera su una rete pubblica, qual è la rete internet, vie è un’ulteriore vantaggio; infatti, la banca assume visibilità sull’intero pianeta, in quanto, il sito che farà accedere ai servizi offerti dalla banca sarà facilmente reperibile ed accessibile da ogni parte del globo e da qualsiasi utente della rete.
Se molti sono i vantaggi dell’operare in rete, uno degli svantaggi derivanti dall’utilizzo dei servizi bancari per via telematica, consiste nella sicurezza del trasferimento delle informazioni, in quanto, nell’effettuare le normali operazioni bancarie sussiste il rischio di poter essere intercettati dai così detti Hacker, ossia i pirati informatici, incappando così in spiacevoli inconvenienti.
In Italia, la rivoluzione dei sistemi bancari ha causato uno scompenso piuttosto intenso sul personale, in quanto, la parziale eliminazione di una serie di attività bancarie retrogradi ha causato la necessità di dover far evolvere la figura del bancario in una figura di collaboratore dipendente più specializzata. In un futuro che sembra ormai prossimo, si prevede che la domanda di consulenza specializzata aumenterà, costituendo un business importante e già si può immaginare che l’offerta potrà provenire soltanto da persone preparate e motivate, alle quali saranno richieste competenza e conoscenze condivise, ma anche autonomie decisionali e capacità di adeguamento alle innovazioni costanti
La rivoluzione scaturita dall’utilizzo dei mezzi telematici, ha comportato l’abbattimento di tutte le barriere spazio-temporali, ed ha aumentato il grado di concorrenza riducendo di conseguenza i prezzi e dunque comportando una serie di problemi per i conti economici delle aziende bancarie. Vi sono inoltre degli effetti macroeconomici indiretti che agiscono in questa direzione, infatti, con la New Economy il ruolo della Borsa è destinato a crescere il che significa che vi sarà all’interno delle banche una disintermediazione crescente sia dal lato della raccolta del risparmio, che da quello degli impieghi.E’ di vitale importanza quindi, per le singole aziende bancarie individuare una strategia economica che consenta di competere nella società odierna, ormai sempre più globale.
Capitolo Secondo:
Il concetto di E-commerce può essere sviluppato ed analizzato da un duplice punto di vista, ovvero, quello fiscale e quello giuridico; esporrò quindi i principi dell’e-commerce e i principali problemi fiscali ultimamente sorti, per poi infine analizzare ed illustrare in diritto le organizzazioni internazionali ed in particolare l’OCSE.
SCIENZA DELLE FINANZE
Definizione di E-commerce
L’E-commerce è parte integrante della New Economy e può essere definito come lo svolgimento di attività economiche e di transazioni attraverso una rete telematica. Le parti interagiscono elettronicamente, e la conclusione dei contratti avviene direttamente da un computer all’altro, senza alcun contatto fisico, ed in totale assenza del tradizionale supporto cartaceo.
Man mano che l’e-commerce evolve, con rapidità ed estensione, si capisce che tale forma di sviluppo commerciale non è così semplice come si era voluto far intendere ritenendo che la barriera di ingresso al mercato elettronico fosse a portata di un click in internet. L’elemento che, infatti, fondamentalmente distingue questa nuova forma di commercio, che è da considerarsi come il surrogato della New Economy, non consiste nell’aggiungere una semplice “e” al commercio tradizionale, proprio in quanto il commercio elettronico è un fenomeno assai complesso, che si può sviluppare solo quando si opera su dimensioni di estensioni commerciali tali da raggiungere elevate economie di scala. Comunque nel nuovo sistema economico, l’e-commerce senza dubbio rappresenta proprio la procedura operativa attraverso cui si compiono tutti i più svariati generi di transazioni commerciali.
Con questo, tuttavia, non si vuole affermare che d’ora in poi tutte le transizioni economiche si effettueranno sfruttando questo nuovo canale di vendita; allo stato attuale, infatti, ancora la stragrande maggioranza delle transazioni economiche che intercorrono tra soggetti, siano essi singoli o collettivi, pubblici o privati, avviene ancora in base ai principi già ampiamente collaudati della “Old Economy”. E’ anche vero, pero, che tali principi stanno velocemente cedendo il passo alle nuove regole definite dalla New Economy, e che tale tendenza acquista sempre di più i connotati di una rivoluzione dei sistemi economici e sociali.
Nell’e–commerce, innovativo canale di vendita, le parti che partecipano ad un’operazione di commercio elettronico ne definiscono la tipologia; più dettagliatamente possiamo affermare che il commercio elettronico si divide in due grandi aree a seconda del cliente-destinatario dell’offerta; abbiamo cosi:
- Il business to business
- Il business to consumer
Prima di trattarli nel dettaglio ritengo sia opportuno sottolineare un ulteriore aspetto. Il commercio elettronico per sua natura e per le sue caratteristiche, tra cui la mancanza di contatto tra le parti, è uno strumento per la vendita di prodotti con un buon livello di standardizzazione. Risulta infatti difficile poter personalizzare un prodotto secondo particolari richieste dell'acquirente, a meno che, non si tratti di un prodotto "modulare", ovvero un prodotto le cui caratteristiche sono appunto quelle di poter essere assemblato secondo le richieste del cliente con diverse parti -moduli- ben precise.
Business to business
Questa tipologia di e-commerce consiste nello scambio di beni e/o servizi tra due imprese distinte. Si tratta quindi di uno strumento, in molti casi potentissimo, per tutti i rapporti di fornitura che esistono tra le imprese.
Con questo nuovo tipo di applicazione si attua senza dubbio una:
- Riduzione dei costi delle transazioni, soprattutto nella funzione commerciale e logistica;
- Riduzione dei tempi delle transazioni ed esecuzione degli ordini;
- Apertura ad un mercato più ampio;
- Abbattimento di barriere spazio-temporali;
Inoltre la realizzazione di un'attività di commercio elettronico in questo caso come nel business to consumer, permette una più facile gestione di una serie di attività pre e post-vendita quali ad esempio: il rilascio di informazioni dettagliate sul prodotto o servizio, assistenza, aggiornamenti e informazioni su nuovi prodotti.
Business to consumer
Questa tipologia di commercio elettronico vede come controparte acquirente un consumatore finale del bene, mentre come venditore solitamente si ha un'organizzazione che difficilmente cura la produzione o la trasformazione finale del bene stesso, sempre più spesso si tratta di intermediari o di organizzazioni che affiancano alla vendita con i canali distributivi tradizionali quella via Internet.
L’e-commerce pur essendo un servizio telematico attualmente utile e competitivo si espone ad alcuni problemi di carattere fiscale.
Prima però di andare ad analizzare più dettagliatamente i problemi fiscali inerenti al commercio elettronico è necessario definire per aver così ben chiaro il concetto di imposte tasse e tributi.
Le Entrate Derivate ( o tributi)
Le entrate derivate ovvero i tributi, sono sottrazioni di ricchezza alle economie private operate dallo Stato in virtù della sua sovranità, o dagli enti pubblici a cui lo Stato ne ha attribuito la facoltà (regioni, province, comuni, ecc..), allo scopo di far fronte alle esigenze dell’attività finanziaria pubblica.
I tributi hanno la natura di prestazioni obbligatorie, in quanto, imposte per legge. Sono entrate coattive che hanno come presupposto la podestà di imperio dello Stato e il dovere dei membri della collettività di contribuire al funzionamento delle pubbliche istituzioni. Sono quindi regolati da norme di diritto pubblico.
Vi sono tre categorie di tributi che presentano un diverso grado di coattività: minimo nella tassa, maggiore nel contributo, massimo nell’imposta.
La Tassa
La tassa è un tributo applicato nei confronti di chi richiede un servizio speciale, ossia un servizio che, soddisfa esigenze individuali. Nella tassa il carattere della coattività non è molto rilevante perché il tributo viene prelevato solo se viene richiesto il servizio.
La funzione della tassa, quindi, è di far sì che alla spesa di un servizio pubblico contribuiscano in modo particolare gli utenti, i quali ne traggono individualmente vantaggio.
I Contributi
Il contributo è un prelievo di ricchezza imposto a coloro che traggono individualmente un vantaggio specifico da opere o servizi pubblici di utilità generale.
Come la tassa, il contributo ha la funzione di far gravare una parte del costo del servizio o dell’opera su coloro che se ne avvantaggiano in modo particolare; a differenza della tassa, il contributo non presuppone una domanda individuale, in quanto l’opera o il servizio vengono effettuati dall’ente pubblico di propria iniziativa e a beneficio della collettività. Proprio per questo carattere di generalità del servizio, il contributo presenta, rispetto alla tassa, un grado di maggiore coattività.
L’Imposta
L’imposta è un prelievo di ricchezza da parte della pubblica amministrazione a carico dei cittadini allo scopo di ottenere i mezzi necessari alla produzione di servizi pubblici indivisibili, ovvero servizi pubblici che avvantaggino la collettività nel suo insieme.
Il contribuente è così obbligato a una prestazione in denaro, senza alcuna contropartita di cui possa fruire individualmente.
Le imposte costituiscono la fonte preminente di entrata, infatti, il gettito che esse forniscono permette di coprire l’intero costo dei servizi generali e quella parte del costo dei servizi speciali che non è coperta dalle tasse.
Una persona può essere sottoposta all’imposta soltanto se viene verificata la sua capacità contributiva, ovvero la sua possibilità economica di contribuire alla spesa pubblica, in concomitanza appunto, con il presupposto previsto dalla legge.
La persona nei cui confronti si realizza il presupposto di imposta viene indicata con il termine di contribuente. Il verificarsi del presupposto previsto dalla legge segna il momento in cui si instaura il rapporto giuridico di imposta, nel quale si possono ravvisare alcuni elementi quali: il soggetto attivo, il soggetto passivo, l’oggetto, la base imponibile e l’aliquota.
Il soggetto attivo dell’imposta è lo Stato o altro ente pubblico a cui spetta il diritto di accertare, riscuotere ed incassare l’imposta.
Il soggetto passivo dell’imposta è colui su cui grava l’obbligo di pagare il tributo e la conseguente responsabilità per l’eventuale violazione di tale obbligo.
L’oggetto dell’imposta rappresenta l’elemento materiale a cui essa si applica.
L’oggetto dell’imposta espresso in termini quantitativi, costituisce la base imponibile su cui l’imposta viene determinata
L’aliquota dell’imposta è il rapporto, espresso in percentuale, fra la base imponibile e l’importo dell’imposta.
Le imposte si distinguono in:
- Imposte dirette
- Imposte indirette
Imposte dirette
Le imposte dirette colpiscono le manifestazioni dirette ed immediate di ricchezza, che consistono nel conseguimento di redditi o nel possesso di un patrimonio.
Oggetto delle imposte sul reddito è il flusso corrente di ricchezza che viene acquistato dal contribuente in un determinato periodo.
Le imposte sul patrimonio hanno per oggetto il valore dei beni posseduti dal contribuente in un determinato momento.
Esempi lampanti di imposte dirette sono l’Irpef e l’Irpeg.
Irpef
L’Imposta sul Reddito delle Persone Fisiche (Irpef), è un’imposta progressiva e personale a carattere generale.
E’ un’imposta generale in quanto si applica a tutte le persone fisiche e colpisce tutti i tipi di reddito.
Ha carattere personale perché non colpisce i singoli redditi ma la capacità contributiva globale del contribuente.
Ha carattere progressivo perché attua una discriminazione quantitativa del reddito posseduto, in quanto i redditi più elevati vengono colpiti da aliquote più alte, mentre vengono esentati dall’imposizione i possessori di redditi molto bassi, appena al limite della sussistenza.
Presupposto dell’Irpef è il possesso di redditi in denaro o in natura; c’è da dire che il concetto di possesso è inteso come la titolarità giuridica del reddito e non come semplice disponibilità materiale.
I soggetti passivi dell’Irpef sono tutte le persone fisiche che possiedono redditi.
La base imponibile dell’Irpef è formata dal reddito complessivo ovvero dalla somma di tutti i redditi imponibili imputati al contribuente al netto degli oneri deducibili.
La deduzione degli oneri è ammessa nei casi e con i limiti espressamente previsti dalla legge, si deve però trattare di spese effettivamente sostenute nel periodo di imposta e di cui sia documentato il pagamento.
L’Irpeg
L’Imposta sul Reddito delle Persone Giuridiche (Irpeg), svolge nel sistema tributario un ruolo parallelo a quello dell’Irpef e corrisponde all’esigenza di realizzare in modo completo il principio dell’imposizione generale sul reddito.
Vi sono redditi che, essendo prodotti da società non sono in alcun modo imputabili a persone fisiche e perciò non potrebbero essere colpiti dall’Irpef; si pensi agli utili non distribuiti dalle società di capitali.
L’Irpeg colma queste lacune perché si applica direttamente al reddito posseduto dalle società, in quanto soggetti forniti di una propria capacità contributiva.
Il presupposto di imposta è identico a quello dell’Irpef e consiste nel possesso di redditi in denaro o in natura.
L’Irpeg è un’imposta personale perché si applica in modo unitario all’insieme di redditi posseduti dal soggetto, però data la diversa qualità dei soggetti, il carattere personale assume in quest’imposta connotati particolari, infatti si tiene conto della natura, dello scopo e della forma organizzativa dell’ente.
Pur se è un’imposta personale l’Irpeg ha carattere proporzionale, e non progressivo come l’Irpef in quanto, riguarda enti e società, e non persone fisiche.
I soggetti passivi dell’Irpeg sono:
- Società con personalità giuridica;
- Enti commerciali;
- Enti non commerciali;
- Società ed Enti non residenti.
La base imponibile dell’Irpeg è costituita dal reddito complessivo netto.
Il periodo di imposta corrisponde alla durata dell’esercizio o al periodo di gestione del soggetto passivo.
Dato il carattere proporzionale dell’Irpeg, l’aliquota è costante ed è determinata nella misura del 37%.
A questo punto mi sembra doveroso fare un altro esempio di imposta diretta, parlerò quindi dell’imposta regionale sulle attività produttive (Irap).
Irap
L’Imposta Regionale sulle Attività Produttive (Irap), istituita con il decreto legislativo del 15 Dicembre del 1997 n.446, è il più importante tributo regionale esistente.
L’Irap è un’imposta reale, in quanto fa riferimento all’imponibile prescindendo dalla situazione personale del contribuente; a carattere territoriale poiché ciascuna regione può applicarla esclusivamente alle attività localizzate nell’ambito del proprio territorio; è un’imposta generale in quanto colpisce tutte le attività produttive svolte in sede regionale.
Il presupposto dell’imposta è costituito da:
- Esercizio di attività dirette alla produzione o allo scambio di beni o di servizi;
- Attività istituzionalmente svolte dalle società e dagli enti pubblici o privati.
La base imponibile è costituita dal valore netto della produzione, che deriva dall’attività esercitata nel territorio della regione.
L’aliquota ordinari dell’Irap è fissata nella misura del 4,25%.
Imposte indirette
Le imposte indirette invece, colpiscono i consumi e i trasferimenti di ricchezza.
Le imposte sui consumi colpiscono il reddito in quanto viene utilizzato per l’acquisto di beni e servizi destinati al consumo. Tali imposte non vengono applicate direttamente nei confronti dei singoli consumatori perché non è possibile accertare i consumi effettuati nell’ambito delle famiglie e altrettanto difficoltosa ne sarebbe la riscossione. Pertanto l’imposta viene accertata nei confronti dei singoli produttori i quali la “scaricano” sul prezzo che dovrà pagare il consumatore.
Le imposte indirette sui trasferimenti colpiscono, invece, il patrimonio quando viene trasferito.
Le principali imposte indirette in Italia sono: le imposte di fabbricazione, le imposte sulle lotterie, l’imposta sui tabacchi, le imposte di registro e di bollo, le imposte di circolazione per gli autoveicoli, e l’Iva.
Iva
L’Iva, ovvero per esteso Imposta sul Valore Aggiunto, riveste nel nostro sistema tributario un ruolo di fondamentale importanza. E’ stata istituita con il d.p.r. del 26 ottobre 1972 n.633, ma nel corso degli anni ha subito numerosissime modifiche, tanto che oggi ben poche disposizioni del decreto istitutivo hanno conservato un contenuto identico a quello iniziale.
L’Iva può essere definita come un’imposta plurifase, tendenzialmente trasparente e neutra, applicata sul valore aggiunto.
L’Iva è un’imposta plurifase in quanto, è destinata a colpire il valore finale del bene al momento in cui viene acquistato dal consumatore, ma si riscuote frazionatamene nelle varie fasi del processo di produzione e di distribuzione, applicandosi ogni volta soltanto all’incremento di valore che il prodotto consegue nel passaggio da un operatore all’altro.
L’Iva è un’imposta trasparente in quanto, gli operatori economici che intervengono nei vari passaggi, obbligati a pagare il tributo, si rendono conto della sua incidenza, in quanto l’imposta non si incorpora nel prezzo del prodotto ma rimane distinta da esso e “in evidenza”.
L’Iva è considerata un’imposta neutrale in quanto, ad ogni passaggio, non colpisce tutto il valore del bene ma soltanto il valore aggiunto dovuto all’attività svolta in quella fase, evitando così gli effetti cumulativi qualunque sia il numero di scambi che la merce subisce prima di arrivare al consumatore.
Il valore aggiunto, è il maggior valore che un bene o un servizio consegue per effetto dell’attività produttiva svolta da un operatore economico, e tale valore deve riferirsi all’entità complessiva delle operazioni effettuate in un determinato periodo dal soggetto passivo.
Il valore aggiunto si può calcolare per deduzione sulla base di due metodi:
- Deduzione base da base: da ricavo complessivo dei beni e dei servizi ceduti si deduce la spesa complessiva per i beni e i servizi acquistati; la differenza rappresenta il valore aggiunto dell’azienda del periodo considerato e forma la base imponibile su cui calcolare l’imposta.
- Deduzione imposta da imposta: si assume come punto di partenza l’imposta applicata, nel periodo considerato, a ogni cessione di beni o servizi e dall’importo complessivo di essa si detrae l’importo complessivo dell’imposta pagata sui beni e sui servizi acquistati; la differenza rappresenta l’imposta che grava sul valore aggiunto dell’azienda.
Il soggetto passivo dell’Iva è colui che effettua operazioni imponibili nell’esercizio di un’impresa, arte o professione, infatti, nel momento in cui acquista i beni o servizi necessari per l’esercizio della sua attività, egli è soggetto alla rivalsa esercitata dai suoi fornitori. Non dovendo l’imposta restare a suo carico, l’Iva pagata sugli acquisti viene considerata come un credito da recuperare (Iva a credito).
Quando lo stesso operatore effettua cessione di beni o prestazioni di servizi, deve a sua volta determinare l’Iva dovuta su tali operazioni e addebitarla per rivalsa ai propri clienti, i quali sono tenuti a pagargliene l’importo in aggiunta al corrispettivo del bene o servizio.
L’Iva riscossa ovviamente, non viene acquistata dall’operatore perché non si tratta di un ricavo ma dell’imposta di cui egli è debitore verso lo Stato (Iva a debito).
Periodicamente egli deve versare all’erario l’Iva a debito relativa a tutte le vendite dello stesso periodo detraendone l’importo corrispondente all’Iva a credito, in tal modo l’Iva a credito viene recuperata e il versamento viene effettuato soltanto per la differenza.
In qualsiasi paese comunque, l’applicazione di un sistema tributario efficiente, è molto complesso; basti pensare che in Italia per giungere ad un sistema tributario semplificato, efficiente e coordinato è passato circa un secolo dall’unificazione del 1861.
La stessa cosa potrebbe avvenire per il commercio elettronico, pertanto adesso voglio illustrare le principali problematiche a cui si va incontro per attuare un corretto sistema tributario analizzando le direttive iniziali dell’OCSE per l’e-commerce, in vista di una maggiore regolamentazione.
E-commerce: principi e problemi fiscali
Nel nuovo millennio, lo sviluppo delle tecnologie e soprattutto l’utilizzo esasperato di Internet hanno rivoluzionato anche il modo di concepire il commercio, tanto che le varie organizzazioni internazionali (come OCSE, WTO, UE) sono alle prese con i problemi fiscali derivanti dallo sviluppo delle attività commerciali sulla Rete.
Il commercio elettronico, non si esaurisce nella semplice conduzione della transazione ma, può anche abbracciare le altre fasi del rapporto commerciale. Questo non costituisce un fenomeno del tutto nuovo, infatti, già da diversi anni le grandi imprese effettuano interscambi di dati di carattere economico con il loro indotto di clienti e fornitori utilizzando reti chiuse di tipo proprietario.
.
Il processo di tassazione, nell’e-commerce è estremamente complesso, e diversi sono i tentativi per poterlo attuare. I problemi che possono sorgere riguardano la localizzazione del luogo di produzione del reddito, la qualificazione di tale reddito e, di non secondaria importanza, la determinazione della residenza fiscale dell’entità che svolge l’attività di commercio elettronico. Infatti, il carattere di immaterialità della Rete pone difficili problemi per l’applicazione della norma fiscale, soprattutto per la facilità di spostare da una parte all’altra del globo il server su cui canalizzare le transazioni commerciali. Di conseguenza determinare il luogo di produzione del reddito è la prima fondamentale questione che bisogna affrontare per l’applicazione di qualsiasi tipo di norma. Pertanto, l’OCSE, ha esaminato a più riprese la questione e con la conferenza di Ottawa (ottobre 1998) ha fissato alcuni importanti principi:
- Principio della neutralità: con il quale viene sancita l’effettiva parità fiscale tra forme di commercio tradizionale ed elettronico;
- Principio di certezza e semplicità: grazie al quale si ottiene una chiara comprensione e una facile applicazione delle norme fiscali attraverso adeguati strumenti correttivi;
- Principio dell’efficacia ed equità: con il quale si auspica la prevenzione dell’elusione e dell'evasione fiscale;
- Principio di flessibilità: con il quale si indica che le regole devono essere sufficientemente dinamiche da adeguarsi facilmente ai rapidi mutamenti dell’evoluzione tecnologica;
- Principio dell’efficienza: il quale prevede che il costo fiscale delle operazioni deve essere ridotto al minimo, e stabilisce che i proventi conseguiti da persone fisiche, o da persone giuridiche, per la cessione di beni e prestazioni di servizi effettuate via Internet, costituiscono reddito imponibile ai fini Irpef ed Irpeg, nel paese in cui l’attività ha la sede principale.
L’applicazione della normativa fiscale vigente però, risulta difficile sul piano pratico, poiché la Pubblica Amministrazione non è ancora in grado di accertare fisicamente l’operato dell’impresa, non essendo ancora attrezzata per fornire un servizio consuntivo adatto.
Inoltre in base al art. 3 del D.L. 446/97 che stabilisce che anche i redditi prodotti da commercio elettronico per mezzo di stabili organizzazioni sono soggetti all’applicazione dell’Irap, maggiori saranno i problemi che potranno derivare dalla ripartizione territoriale della base imponibile Irap, essendo quasi impossibile determinarle.
Per quanto riguarda le imposte indirette occorre sottolineare che alla conferenza di Ottawa sul commercio elettronico sono stati fissati due principi fondamentali che dovranno essere applicati nelle transazioni on-line, questi due principi fondamentali sanciscono che le operazioni effettuate per mezzo del Web dovranno essere sempre considerate come prestazioni di servizi, e che il luogo di tassazione sarà quello in cui avviene la consumazione del bene o del servizio.
Tuttavia esclusa questa breve parentesi, la normativa in tema di imposizione indiretta riferita al commercio elettronico, sia a livello internazionale che nazionale, è tuttora da costruire.
Gli orientamenti suggeriti dall’OCSE è dall’UE, che in materia costituiscono un’importante punto di riferimento, devono comunque trovare una opportuna collocazione all’interno delle legislazioni comunitarie e nazionali.
L’esigenza fondamentale di un coordinamento per conseguire una definitiva normativa omogenea esportabile anche a paesi terzi comporterà quindi tempi di produzione legislativa abbastanza lunghi.
E’ ulteriormente da sottolineare, che nell’ambito del commercio elettronico, non è possibile osservare l’obbligo fiscale della registrazione su libri e scritture contabili ai fini della verifica delle dichiarazioni dei redditi, poiché tutte le transazioni avvengono elettronicamente; in proposito furono elaborate diverse proposte, che però non ebbero mai grande successo, tra le quali, l’idea di un gruppo di esperti dell’Unione Europea che volevano applicare la “bit tax”, ovvero una tassazione che non solo riguardasse le transazioni commerciali in rete, ma anche il semplice accesso ad un sito. Naturalmente, soprattutto per i forti riscontri economici è stata respinta.
Il commercio elettronico, che nel frattempo affinerà le sue tecnologie operative e conquisterà nuovi settori di mercato, rimane in attesa di un corpo normativo completo, che riesca a regolarne l’attività nell’interesse generale dei consumatori e delle imprese, senza per questo essere ostacolato in modo negativo sul suo sviluppo, e sulla ricchezza che questo può generare.
DIRITTO
In Diritto riprenderò l’argomento dell’ ordinamento internazionale, svolto durante l’anno scolastico, e più specificatamente parlerò delle varie organizzazioni internazionali, tra cui l’OCSE, il WTO e l’UE, per poi analizzare il diritto internazionale.
L’OCSE
L’OCSE (Organizzazione Europea per lo sviluppo economico) è un organismo internazionale a cui partecipano 29 paesi membri, tra cui : Italia, Austria, Belgio, Francia, Germania, Gran Bretagna, Portogallo, Spagna, Stati Uniti, ecc., intenzionati a coordinare le proprie politiche economiche e sociali stringendo rapporti di cooperazione permanente, rendendo disponibili così, le informazioni indispensabili affinché ogni paese formuli le più efficaci direttive politiche nei vari settori economici.
Gli obiettivi dell’OCSE sono di promuovere l’occupazione, la crescita economica e il miglioramento della qualità della vita negli stati membri, di contribuire ad una solida e compatta espansione economica di tutti i paesi, infine, di stimolare l’entità del commercio mondiale in conformità con gli obblighi internazionali stabiliti.
Questo tipo di cooperazione, motivata anche dalla crescente interdipendenza delle economie nazionali, ha preso avvio nell’Aprile del 1948, quando 16 paesi europei costituirono l’organizzazione europea per la cooperazione economica (OECE) per coordinare l’attuazione dell’European Recovery Programme (ERP), meglio conosciuto come Piano Marshall.
Il piano Marshall consisteva in un piano di aiuti economici realizzato dagli Stati Uniti d’America a favore dei paesi europei, negli anni immediatamente successivi alla fine della II Guerra Mondiale, piano proposto appunto dall’omonimo segretario di stato G.C. Marshall nel 1947.
L’ERP nasce, per rispondere all’esigenza di trovare uno sbocco all’enorme quantità di merci, capitali e mezzi di pagamento accumulati negli USA; a questo aspetto si aggiungeva anche l’esigenza di attrarre l’Europa nell’orbita dell’influenza statunitense negli anni della guerra fredda.
Con lo scopo di sostituire l’OECE, che ormai risultava obsoleto, con una più nuova organizzazione che rispondesse all’ormai mutata situazione economica Europa ed internazionale, il 30 settembre del 1961 l’OCSE venne formalmente costituito, con l’intenzione primaria di ampliare la portata degli interventi cooperazione.
Gli organi che costituiscono l’organizzazione di cooperazione e di sviluppo economico sono:
- Il Consiglio, organo supremo composto dai delegati di tutti i paesi membri, che si occupa di eleggere i 12 rappresentanti del Comitato Esecutivo, e costituisce commissioni di studio incaricate di elaborare proposte in materia di politica economica, scambi commerciali, e assistenze allo sviluppo, da sottoporre ai governi.
- Il Comitato Esecutivo, che si riunisce settimanalmente per esaminare le questioni sottoposte al Consiglio.
- Il Segretariato, con a capo un Capo Segretario Generale designato per cinque anni dal Consiglio.
- Vari comitati tecnici ed organi speciali.
Le relazioni, che inequivocabilmente si istaurano fra i vari stati, li collocano in un particolare tipo di società che viene chiamata società internazionale o comunità internazionale.
I soggetti che attivamente vi partecipano non sono costituiti da persone fisiche, ma dagli stati in quanto tali, e poiché ogni stato è a se un’entità sovrana e indipendente, le relazioni che si stabiliscono fra gli stati, sono regolate da norme giuridiche basate su un comune piano di parità.
L’insieme di tutte queste norme costituisce il diritto internazionale, ovvero il sistema giuridico che ha come finalità prima, quella di contemperare gli interessi dei vari stati membri della comunità internazionale ogni qualvolta vengano ha contrasto, e nel contempo di regolare la cooperazione fra di essi in modo che soddisfi le comuni necessità.
Come possiamo benissimo notare a differenza dell’ordinamento nazionale nel quale esiste un’autorità superiore centralizzata (l’apparato Statale) che è in grado di imporre, anche con la forza, il rispetto delle norme e quindi di assicurare il mantenimento della pace e dell’ordine del paese, nella società internazionale non esiste nessuna autorità superiore agli stati, che abbia il potere di emanare leggi e di farle rispettare con la forza.
Le norme di diritto internazionale possono quindi derivare da due fonti diverse:
La Consuetudine
Si tratta di norme non scritte, ma nate spontaneamente per il condizionamento istintivo dei soggetti; esse sono generalmente riconosciute da tutti gli stati, in quanto nel compiere quel determinato comportamento ci si riscontra doverosità giuridica, ovvero lo si ritiene giuridicamente obbligatorio.
La norma consuetudinaria fondamentale, ossia la pacta sunt serranda, è quella che stabilisce l’obbligo di rispettare i patti. Negli ultimi 40 anni si è cercato di attuare la completa codificazione delle suddette norme, ma essendo necessario il consenso di un gran numero di stati, procede a rilento.
L’Accordo
L’accordo è una fonte di tipo contrattualistico, che si instaura tra due o più stati che regolano questioni di interesse comune. Si tratta perciò di accordi bilaterali o multilaterali. A differenza delle norme consuetudinarie che hanno una portata generale, le norme contenute nei trattati vincolano soltanto gli stati che li hanno sottoscritti. La sottoscrizione del trattato è preceduta dalle negoziazioni (trattative), dirette dai ministri degli esteri di ciascun stato e dall’accordo. Successivamente alla firma del trattato si procede alla sua ratifica (approvazione) che nei paesi democratici viene posta dal parlamento.
Il WTO
Il WTO (World Trade Organization), è un organismo istituzionale del commercio internazionale. Al suo interno operano una Conferenza Ministeriale che si riunisce ogni due anni, un Consiglio Generale in carica permanente e un Segretariato con a capo un direttore generale.
Le finalità del WTO riguardano in particolare:
- la gestione dei vari accordi del sistema commerciale multilaterale, così da favorirne l’attuazione;
- l’organizzazione dei futuri negoziati in materia;
- la risoluzione delle controversie e l’esame delle politiche commerciali nazionali.
Possono essere membri del WTO tutti gli stati purché ne accettino integralmente gli impegni.
L’UE
L’EU (Unione Europea), come si può facilmente dedurre dal nome, è un unione tra gli stati europei aventi soggettività internazionale.
Lo scopo principale dell’Unione Europea è l’integrazione economica tra i paesi che ne fanno parte.
L’integrazione economica è stata perseguita attraverso le seguenti tappe:
- la creazione di un’unione doganale, cioè di un sistema all’interno del quale i prodotti degli Stati membri possano circolare senza l’impostazione di dazi ed altri diritti doganali;
- la creazione di un mercato comune, cioè di un mercato al cui interno è ammessa la libera circolazione, non solo delle merci, ma anche dei fattori produttivi come la forza lavoro, i capitali, le varie professionalità e capacità imprenditoriali, ecc.;
- la costituzione di un mercato unico, cioè di un mercato nel quale la libera circolazione delle merci sia realizzata non solo mediante l’abolizione dei dazi, ma anche mediante la rimozione di tutti gli altri fattori che di fatto impediscono l’effettiva unificazione commerciale consentendo delle disparità tra le merci provenienti dai vari stati.
L’effettiva integrazione economica europea viene in pratica perseguita con una politica economica comune destinata ad armonizzare le scelte economiche e commerciali dei vari Stati componenti.
Col trattato sull’Unione Europea ci si è posti obiettivi assai significativi come:
- l’adozione di una moneta unica europea (l’euro) sotto il controllo di una sola Banca Centrale per tutta l’Unione;
- L’organizzazione di una difesa comune;
- La tutela dei diritti dei cittadini degli Stati membri, attraverso l’istituzione di una cittadinanza dell’Unione;
- La cooperazione del settore della giustizia e degli affari interni.
Capitolo Terzo:
Come si può chiaramente dedurre, la telematica e più in particolare l’utilizzo delle reti, costituiscono la base sulla quale la New Economy ha impiantato le radici per potersi sviluppare.
In questo capitolo, quindi, andremo a sviluppare più approfonditamente il concetto di telematica, ed a individuare le sue più comuni applicazioni, qualora non le avessimo ancora citate.
INFORMATICA
La Telematica
La parola telematica nasce dall’unione dei termini telecomunicazioni e informatica, e significa gestione delle informazioni e dei dati a distanza.
Nella telematica sono di particolare interesse i nodi, cioè stazioni di elaborazione che si scambiano dati e messaggi tramite vie di comunicazione. L’insieme di questi nodi e delle connessioni che si vengono a creare fra esse prendono il nome di rete.
Prima di approfondire ulteriormente il concetto di telematica mi sembra opportuno analizzare come avviene fisicamente la trasmissione dei dati approfondendo alcuni concetti di telecomunicazione.
Mezzi fisici di trasmissione
I mezzi fisici che vengono utilizzati per trasferire le informazioni possono essere solidi (quando il segnale viaggia sui cavi) e hertziani (quando il segnale è costituito da onde elettromagnetiche che viaggiano nell’etere).
I mezzi solidi più usati sono il doppino telefonico, il cavo coassiale e la fibra ottica.
Il doppino telefonico, usato originariamente per le trasmissioni telefoniche, è attualmente il mezzo di trasmissione più semplice e diffuso anche per la trasmissione dei dati nelle reti, il grosso vantaggio offerto da tale mezzo è quello di permettere l’uso delle tecnologie e degli strumenti di installazione tipici della telefonia, ampiamente collaudati e diffusi.
Il doppino telefonico è formato da due fili di rame, normalmente intrecciati, collocati all’interno di una guaina di plastica. Il problema maggiore di questi cavi, noti anche con l’acronimo UTP (Unshielded TwistedPair) è quello di essere sensibili alle interferenze elettriche dovute a sorgenti esterne che generano sulla linea interferenze. Questa vulnerabilità costringe a utilizzare basse velocità di trasmissione dai (240 bit al secondo ai 28.000 bit al secondo) poiché maggiore è la velocità e più facilmente si possono perdere informazioni. Il doppino telefonico viene comunemente impiegato per collegare apparecchiature non molto distanti tra loro (massimo 4 chilometri) e si è obbligati ad utilizzare dei ripetitori di segnale.
Per unire il cavo UTP al computer si usano in genere i connettori RJ - 45 gli stessi utilizzati nei telefoni.
Per ridurre i disturbi e aumentare la velocità e la quantità di dati trasportabili viene utilizzato il cavo coassiale. Si tratta di un cavo rivestito di plastica al cui interno vi è un filo centrale circondato da una calza metallica.
Il cavo coassiale consente alte velocità di trasmissione (10 – 12 Mbit per secondo) con disturbi molto ridotti, anche se il costo risulta rispetto al doppino.
In base al tipo di trasmissione permessa, il cavo coassiale si distingue in baseband (trasmissione in banda di base) e broadband (trasmissione a banda larga):
- Banda base (baseband): tutti gli utilizzatori trasmettono sulla stessa frequenza, e quindi sul mezzo può transitare un solo messaggio per volta;
- Larga banda (broadband): in questo caso il canale fisico viene suddiviso in più canali logici con differenti frequenze che possono trasmettere simultaneamente segnali di diversi utilizzatori anche sotto forme diverse (ad esempio, immagini, dati).
Le fibre ottiche sono un mezzo trasmissivo lungo il quale il messaggio viene trasportato sotto forma di impulsi luminosi. Una fibra ottica ha un diametro inferiore al decimo di millimetro ed è costituita da un nucleo di silice (vetro) o quarzo rivestito di altro materiale vetroso.
Le velocità di trasmissione raggiungibili con le fibre ottiche sono molto alte, fino a milioni di bit per secondo, grazie alla larghissima banda e all’immunità dai disturbi elettrici e magnetici.
Nella trasmissione in fibra ottica i segnali elettrici vengono convertiti in impulsi luminosi tramite un apparecchio detto modulatore, convogliati sulla fibra ottica tramite una sorgente di luce (LED – Light Emitting Diode), ricevuti e riconvertiti in segnali elettrici tramite diodi fotoelettrici.
Anche utilizzando le fibre ottiche il segnale si attenua con l’aumentare della distanza dalla fonte emittente, ma in questo caso l’attenuazione del segnale e quindi la necessità di amplificarlo, avviene dopo circa 10 Km, cioè a distanza quasi tre volte più grande rispetto a un segnale trasmesso su un collegamento via cavo di rame.
I segnali, oltre che via cavo, possono essere trasmessi anche via etere grazie alle onde elettromagnetiche. I principali tipi di segnali trasmessi via etere sono i segnali radio, le microonde e i segnali infrarossi.
Il canale radio sfrutta lo spazio libero per comunicazione utilizzando le onde radio e i satelliti. A differenza degli altri mezzi la velocità di trasmissione è quella della luce (300.000 Km/sec) e quindi è praticamente indipendente dalla distanza.
Questi mezzi possono essere usati per comunicazioni più ampie, sfruttando tecniche di radiodiffusione (broadcast) o utilizzando ponti radio multitratta (uno ogni 25 miglia). Il problema delle trasmissioni via radio è che necessitano di apposite licenze per poter trasmettere e inoltre si tratta di trasmissioni a vista, sensibili quindi a ostacoli fisici e meteorologici.
I sistemi radio a microonde utilizzano la banda di frequenza della gamma dell’infrarosso (la stessa di certi telecomandi televisivi),e si usano essenzialmente per la comunicazione tra terminali (tastiera, mouse ecc.) senza l’uso dei fili.
Modalità di trasmissione
La modalità con cui vengono inviati i segnali attraverso il mezzo trasmissivo varia, non solo a causa del mezzo, ma anche in base ad altri fattori quali il tipo di segnale, la quantità di bit trasmessi in contemporanea la sincronizzazione tra gli apparati.
L’informazione può essere trasmessa in forma analogica (segnale continuo) o digitale (segnale discreto).
I mezzi attualmente più diffusi ed economici per trasmettere le informazioni sono quelli analogici, perché usano la rete telefonica già esistente, e fanno uso di uno strumento (modem) in grado di trasformare l’informazione digitale in formato analogico e viceversa.
Il modem (MODulatore - DEModulatore) è in grado di trasformare un segnale in formato digitale in un segnale continuo e viceversa.
Compito del modem non è solo la conversione dei segnali in forma opportuna ma anche quello di effettuare la chiamata telefonica attivando la connessione, di rilevare ed eventualmente correggere gli errori di trasmissione, di segnalare i guasti.
La comunicazione tra due nodi avviene attraverso un canale fisico di trasmissione e può essere di tre tipi: simplex, half-duplex, full-duplex. In tutti i casi si hanno due sistemi collegati tra loro dove il sistema che invia il messaggio prende il nome di trasmittente, mentre quello che lo riceve è il ricevente.
- La comunicazione tra due sistemi è di tipo simplex, quando si tratta di trasmissione a senso unico. Esiste una fonte che sempre e solo invia sul canale il segnale (trasmittente) e una componente che è sempre e solo ricevente.
Il flusso dei dati avviene sempre nella stessa direzione (monodirezionale) dal trasmittente al ricevente. Un esempio sono la televisione e le stampanti.
- La comunicazione tra due sistemi è di tipo half-duplex, quando si tratta di trasmissione a doppio senso alternato. Il flusso dei dati avviene in entrambe le direzioni tra le due componenti in tempi diversi.
Quando uno dei due trasmette l’altro può solamente ricevere e viceversa. Un esempio sono le ricetrasmittenti.
- La comunicazione tra due sistemi è di tipo full-duplex, quando si tratta di trasmissione a doppio senso. In questo caso il flusso dei dati avviene in entrambe le direzioni facendo uso di due linee distinte.
Ogni componente si comporta contemporaneamente da trasmittente e da ricevente. Un esempio è il telefono.
La trasmissione dei dati codificati (cioè dei bit) può avvenire in due modi, serialmente se viene trasmesso un bit per volta sulla linea, o parallelamente se sulla linea sono inviati più bit in contemporanea.
Se la trasmissione è seriale, è necessario un dispositivo che effettui la serializzazione dei bit da trasmettere perché sui bus interni del computer essi viaggiano in parallelo. In modo analogo i bit ricevuti devono essere raggruppati (parallelizzati) per ricostruire il byte di partenza.
Nel caso di trasmissione parallela si tratta invece di avere a disposizione cavi composti da otto fili detti Bus per riuscire a far viaggiare un byte tutto insieme. I bus vengono usati per collegare terminali, elaboratori o componenti molto vicine poiché il vantaggio della trasmissione è sicuramente la velocità, ma di contro c’è una maggiore complessità di gestione e un notevole dispendio economico.
Il tipo di trasmissione può essere classificata anche in base alle regole di sincronia dei messaggi. Si parla dunque di due tipi di trasmissione, quella asincrona e quella sincrona.
La trasmissione asincrona viene generalmente usata quando la comunicazione avviene a velocità ridotta, come nella comunicazione uomo-macchina.
Questo tipo di comunicazione si usa quando l’invio di caratteri è limitato nel tempo e non è preordinato (ad esempio la battitura di un tasto sulla tastiera).
Con la trasmissione sincrona, invece, non si invia più un solo carattere per volta, ma insiemi di caratteri, anche centinaia, raggruppati in blocchi (un esempio di comunicazione sincrona è quella che si viene ad instaurare tra la CPU e un terminale).
Le reti
Una rete è un insieme di nodi (elaboratori o terminali) connessi tra di loro da archi di collegamento (mezzi trasmissivi).
Una rete si considera formata da due parti: una hardware e una software.
La parte hardware è composta dalle connessioni di rete, cioè particolari schede inserite nel computer che permettono la connessione con l’elaboratore , e dal mezzo trasmissivo, cioè i cavi che deve permettere il colloquio tra i nodi della rete.
La parte software rappresenta il sistema operativo di rete ed è chiamata NOS (Network Operating System).
Sono molti i criteri in base ai quali si possono classificare le reti e una delle modalità di classificazione è basata sulla loro topologia, ossia su come sono dislocati fisicamente i vari nodi e i loro collegamenti.
Due nodi si dicono collegati in modalità “punto-punto” se esiste un circuito che collega i due nodi senza dover passare per un nodo intermedio
Si parla invece di collegamento “multipunto” quando si ha una sola linea condivisa da più nodi e questi sono collegati tra loro attraverso quest’unica linea.
Una volta chiarite le modalità di collegamento, possiamo analizzare le topologie nelle quali si possono organizzare i vari nodi.
- Nella topologia gerarchica, i nodi sono collegati gerarchicamente in modo da avere un elemento principale a cui gli altri nodi fanno riferimento.
E’ la classica organizzazione dei calcolatori centrali a cui sono collegati degli elaboratori periferici, che a loro volta comunicano con i terminali degli operatori e le stampanti.
- Nella topologia ad anello, i nodi sono collegati circolarmente a formare un anello. Ogni nodo è quindi direttamente collegato con il nodo precedente e con quello successivo tramite modalità punto a punto.
La comunicazione può avvenire in una sola direzione (unidirezionale) o in entrambe le direzioni (bidirezionale), e se un nodo è guasto o non è attivo tutta la rete non funziona.
- Nella topologia a bus, esiste una via di comunicazione principale chiamata dorsale,a cui i vari nodi si possono collegare . Se uno dei nodi non dovesse funzionare non verrebbe pregiudicata la capacità di comunicazione degli altri nodi.
- Nella topologia a stella, esiste un nodo centrale che fa da controllore e smistatore. Tutti gli altri nodi per comunicare tra loro devono passare dal nodo principale.
E’ molto facile gestire, ma ha lo svantaggio che se non funziona il nodo centrale tutti gli altri nodi risultano isolati.
- Nella topologia completamente connessa, tutti i nodi sono collegati tra di loro.
E’ molto efficiente nelle comunicazioni dirette, ma molto costosa soprattutto quando è elevato il numero di nodi da collegare.
- Nella topologia a maglia, ciascun nodo è connesso con almeno un altro della rete. Tutti i nodi sono quindi raggiungibili, anche se non in modo diretto.La gestione delle comunicazioni risulta più complessa.
Dimensione Geografica
Un’altra modalità di classificazione delle reti è basata sulla loro dimensione geografica, le reti cosi si possono suddividere in reti locali e reti geografiche.
Le reti locali (LAN, Local Area Network) sono reti dalla superficie ridotta caratterizzate da alte prestazioni e mezzi trasmessivi molto veloci.
In genere si collocano all’interno di un edificio e non passano sul suolo pubblico.
Normalmente le reti locali prendono il nome dalla topologia della rete (anello, bus, stella) o in base al metodo di accesso alla rete (cioè al canale trasmissivo) da parte delle unità elaborative. Queste modalità di accesso vengono chiamati protocolli di trasmissione, poiché rappresentano le regole che i vari nodi devono rispettare per utilizzare il canale trasmissivo. I protocolli stabiliscono quindi alcune norme che permettono una buona comunicazione definendo un linguaggio comune e alcune regole per lo scambio dei dati.Inoltre forniscono informazioni su come evitare e recuperare gli errori, su come regolare la velocità del flusso di informazioni da un nodo all’altro.
Un caso particolare è quando la rete copre un’intera area urbana. In questo caso si parla di MAN (Metropolitan Area Network) e viene usata una tecnica di interconnessione tipo LAN. Il mezzo è quasi sempre la fibra ottica per gestire la dorsale cittadina e i cavi coassiali per collegare gli elaboratori alla dorsale. Una rete locale è per definizione limitata come spazio e ha funzionamenti ottimali quando non è particolarmente lunga. Nel caso di superfici molto ampie ma che necessitano di un collegamento di tipo locale (ad esempio uno stabilimento di produzione di grandi dimensioni) è possibile utilizzare i repeater, apparecchiature che amplificano il segnale fisico permettendo a due tronconi di rete unirsi allungando così la massima distanza coperta.
Quando l’estenzione di una rete supera qualche chilometro, o comunque deve attraversare il suolo pubblico (ad esempio collegare elaboratori situati in due edifici diversi,), si parla di rete geografica (WAN, Wide Area Network). Poiché i nodi possono essere collegati anche a grandi distanze (migliaia di chilometri), vengono di norma utilizzati mezzi di comunicazione poco costosi e già ampiamente diffusi (generalmente le line telefoniche) con la conseguenza che la trasmissione risulta più lenta.
Le reti geografiche nascono alla fine degli anni Sessanta come progetto di ricerca accademica per fornire un sistema di comunicazione efficiente tra siti.
La prima rete progettata e realizzata è stata Arpanet, nata sperimentalmente con quattro siti, che è poi cresciuta fino a diventare una rete mondiale di reti (Internet). Poiché i siti di una WAN sono fisicamente distribuiti su una vasta zona geografica le comunicazioni sono spesso lente, inoltre i vari computer hanno capacità elaborative differenti e i collegamenti tipici sono le linee telefoniche (pubbliche o private) e i canali via satellite.
Le reti di comunicazione che realizzano i collegamenti tra i nodi sono quasi sempre pubbliche e il collegamento tra due nodi avviene “a richiesta” e in modo non permanente, cioè non si fa uso di linee dedicate come nelle LAN, ma di linee commutate.
Quando si parla di linee dedicate si intende un collegamento fisso che esiste tra due nodi della rete, come ad esempio quello esistente tra un computer e una stampante. In genere le reti locali, avendo necessità di scambiare dati a grande velocità, fanno uso di line dedicate.
Una linea commutata è una linea che può essere utilizzata da nodi diversi in momenti diversi e con modalità diverse. Quando due nodi smettono di comunicare la linea da loro usata viene rilasciata e quindi altri nodi la possono utilizzare.
Le tecniche di commutazione attualmente esistenti sono a commutazione di circuito, di messaggio, di pacchetto.
- Nella commutazione di circuito, per ogni chiamata deve essere stabilito un appropriato percorso tra i nodi interessati al colloquio. E’ il metodo più tradizionale, anche perché è quello utilizzato normalmente nella telefonia.
La comunicazione avviene in tre fasi:
- connessione, mediante la quale, l’utente fornisce le indicazioni per attivare il circuito e vengono individuati eventuali nodi intermedi;
- scambio dati, mediante la quale, avviene lo scambio delle informazioni utilizzando il circuito definito;
- disconnessione, con la quale, vengono rilasciate le risorse occupate.
Si tratta allora di creare un circuito fisico tra due nodi (ad esempio due telefoni) che rimane fissato e utilizzato in esclusiva per tutto il tempo della comunicazione.
- Nella commutazione di messaggio, invece di considerare il collegamento tra due nodi creando un circuito, si stabilisce un percorso che colleghi il nodo di partenza al nodo di destinazione tramite nodi intermedi, attraverso i quali verrà effettuato il passaggio del messaggio.
La scelta del percorso di un messaggio può avvenire in modo fisso o in base al traffico sulla rete. In questo secondo caso una volta inviato il messaggio, viene scelto il pezzo di linea più libera mano a mano che sorge la necessità creando di volta in volta i collegamenti tra due nodi intermedi.
A questo scopo esistono particolari tecniche di routing per trovare il percorso (ottimale) per raggiungere una determinata destinazione.
E’ importante precisare che per poter inviare un messaggio è necessario conoscere il nome (o l’indirizzo) del nodo di destinazione.
- Nella commutazione di pacchetto, da considerarsi come un evoluzione della commutazione di messaggio, i messaggi vengono strutturati in pacchetti, ognuno dei quali è costituito da un certo numero di bit.
Ogni pacchetto contiene l’indirizzo di destinazione, il riferimento al messaggio d’origine e il numero progressivo al suo interno, trovandosi quindi libero sulla rete di effettuare il percorso più conveniente per raggiungere la destinazione.
I pacchetti viaggiano “parallelamente” tra loro e non in modo sequenziale; è da notare che è possibile che arrivi a destinazione prima la fine del messaggio (ultimo pacchetto), piuttosto che l’inizio (primo pacchetto).
Sarà il sistema che si trova nel nodo “ricevente” a ricomporlo in base al numero progressivo contenuto in ciascun pacchetto.
Applicazioni Telematiche
Le applicazioni che la telematica trova nel mondo di oggi giorno non si esauriscono soltanto nei servizi commerciali quali l’e-commerce o l’home banking , già ampiamente analizzati, ma esistono una miriade di servizi già ben avviati, o ancora in fase di sperimentazione in cui la telematica sta trovando utilizzo.
Analizziamo alcuni di essi:
Teletext:
Vengono diffuse informazioni di carattere generale attraverso il segnale televisivo.
Il ricevitore può essere un normale televisore con adattatore e telecomando, dove viene scelta dall’utente la pagina da visualizzare. Poiché le pagine vengono trasmesse in continuazione e la selezione avviene localmente “fermando” la pagina che interessa, esiste una limitazione nel numero delle pagine che si possono trasmettere.
Questo servizio è denominato “videografica diffusa” ed è realizzato in Italia dalla Rai, con il nome di Televideo.
Videotex:
Viene chiamato servizio di “videografica interattiva”; sono presentate all’utente pagine che dal punto di vista grafico sono come le pagine Teletext, ma la differenza consiste in una interattività tra l’utente e il servizio.
L’utente, infatti, invia tramite linea telefonica, il numero della pagina richiesta e, sempre sulla linea telefonica, gli viene inviata solo questa.
In Italia funziona con il nome di Videotel, e tramite esso è possibile collegarsi ed effettuare richieste alle banche dati collegate sulla rete pubblica, nonché effettuare acquisti e prenotazioni su “cataloghi elettronici”.
Teleconferenza:
Prendono il nome di teleconferenza quei sistemi che offrono la possibilità di svolgere “riunioni tematiche” tra gruppi di utenti collocati in località differenti, scambiandosi in tempo reale dati e messaggi.
La chat è il sistema più semplice di teleconferenza, in cui gli interlocutori si scambiano messaggi scritti che compaiono sul video dell’altra persona nel momento stesso in cui viene digitato.
La videoconferenza permette a due o più utenti che dialogano di scambiarsi immagini e voci.
Dobbiamo fate attenzione però a distinguere il videotelefono e la multiconferenza.
Il videotelefono è orientato al dialogo fra due persone, mentre la multiconferenza può essere effettuata fra più postazioni, ciascuna costituita da più utenti.
La multiconferenza necessita di una specifica componente di controllo, denominata “unità di multiconferenza”, che ha il compito di distribuire l’immagine e l’audio di una determinata postazione alle altre.
Il joint editor è un sistema specializzato che permette a più utenti di operare in modo condiviso sullo stesso documento. Tale sistema deve realizzare un rapido scambio di documenti tra gli utenti, permettendo la visualizzazione condivisa di ogni modifica effettuata da un qualsiasi utente in real-time anche sugli schermi degli altri utenti.
Posta elettronica (E-mail):
Permette agli utenti del sistema di scambiarsi messaggi anche se il destinatario non è collegato al computer. La posta può essere inviata a singoli o a gruppi, includendo ad essa allegati file di vario tipo.
Nasce alla fine degli anni Sessanta con l’avvento di Arpanet come infrastrutture di ricerca del Ministero della difesa americana, e con l’avvento di Internet è diventato un “normale” mezzo di comunicazione alternativo alla posta tradizionale.
Telemedicina:
Mediante il suo utilizzo i medici e i ricercatori sparsi in tutto il mondo possono accedere, tramite terminale, ai database distribuiti in ospedali e centri di ricerca con informazioni generali su malattie terapie ecc.
E’ possibile inoltre accedere e visualizzare i dati clinici di un paziente anche se questi sono memorizzati in un ospedale distante centinaia di chilometri.
Per casi particolarmente delicati, è possibile attivare sessioni di videoconferenza tramite le quali i medici possono colloquiare.
Internet:
Nata per scopi militari, ovvero quello di collegare le varie basi militari permettendo il rapido trasferimento di dati da un sito all’altro in caso di invasione nemica, divenne un servizio utilizzato dalle università per collegare i vari istituti e permettere ai docenti e ricercatori universitari di scambiarsi messaggi, dati e di accedere alle documentazioni presenti nelle varie università.
Questa prima rete, che prese il nome di Arpanet, nata senza fini di lucro, è cresciuta nel tempo collegando siti anche in altre parti del mondo fino a diventare una rete mondiale di reti (Internet).
Internet attualmente è l’insieme di migliaia di reti collegate fra loro; le singole reti possono oggi essere consultate da qualsiasi utente che possieda un calcolatore che faccia parte della rete.
Una volta collegati ad un computer, sia esso posizionato in qualsiasi parte del mondo, si possono visualizzare file, descriverli, trasferirli sul nostro computer.
World Wide Web (WWW):
E’ una vastissima biblioteca elettronica di documenti in formato ipertestuale, ovvero documenti che consentono di passare da un argomento all’altro non solo secondo gli schemi classici sequenziali, ma anche secondo le libere associazioni della mente.
Le informazioni possono essere di vario genere e sono memorizzate in file; le pagine di questi file sono legate fra loro tramite link, cioè legami particolari tra una pagina e l’altra.
La particolarità del WWW consiste che le pagine possono essere collocate su calcolatori differenti, del sistema che si preoccupa, quando ha la necessità di accedere ad una pagina, di effettuare il collegamento con il nodo della rete desiderato.
Per aiutare la consultazione di questo vastissimo mondo esistono dei programmi che effettuano la ricerca nel WWW, in base a indicazioni fornite dall’utente.
Intranet:
Si indica l’utilizzo delle tecnologie proprie di internet per uso privato all’interno di una organizzazione aziendale.
L’obiettivo principale di un progetto Intranet è quello di migliorare i processi di comunicazione aziendale.
Si utilizzano gli stessi protocolli di trasmissione e la stessa tecnologia di internet, usufruendo degli stessi vantaggi operativi.
EDI:
Electronic Data Interchange, permette di trasferire via modem, da un cliente ad un fornitore, i dati relativi all’ordine in modo che il ricevente abbia a sua disposizione tutte le informazioni necessarie senza l’invio del modulo cartaceo relativo all’ordine o alla fattura.
Ovviamente i due enti interessati, devono utilizzare lo stesso software per l’EDI o basarsi su uno standard comune.
Formazione a distanza:
Tramite la formazione in rete, l’iter di studi si adegua alle esigenze di ogni partecipante, annullando i vincoli di spazio e di tempo e permettendo ai partecipanti di comunicare in differita e di seguire il corso nei momenti che preferiscono.
Lo studente può quindi accedere al materiale preparato dal docente quando lo desidera, così come può effettuare le prove e i test in vari momenti, ponendo i propri risultati in apposite directory.
A sua volta il docente può esaminare in momenti diversi le prove degli studenti.
Lo scambio di messaggi con richieste di chiarimenti e le relative spiegazioni possono avvenire tramite posta elettronica.
Capitolo Quarto:
In questa sezione analizzeremo l’argomento “Borsa” trattandolo interamente in lingua inglese.
Enunceremo, quindi, il significato di “share” e di “bond”, introdurremo la figura del “broker-dealer”, ed infine individueremo le due più grandi Borse del mondo, ovvero quella Statunitense e quella Londinese.
The Stock Exchange
The Stock Exchange is the centre where shares and bonds are bought and sold, and a place where companies can raise capital for investment and people can invest their savings either to get an income or to make capital gains (by selling shares).
A share or shock (in U.S.A.) represents a part of the company’s capital, while a bond is a document issued by a government or company when borrowing money from the public.
An investor cannot buy and sell share by himself, he needs the assistance and advise of an intermediary, a broker-dealer who buys and sells shares on behalf of members of the public.
Brokers earn a commission for arranging the purchase and sale of shares.
There are two main types of dealers:
- Bulls, who believe that the value of the shares will rise so they buy them in order to sell them lately at a higher price;
- Bears, who believe that the value of the shares will fall so they sell them.
There are Stock Exchange in many major cities including New York, Tokyo, Hong Kong, Frankfurt, Paris, London, Milan as well as in other important centres.
The London Stock Exchange was formed in 1801 and became the accepted place to buy and sell shares.
The structure of the stock exchange changed on a day know as the “Big Bang”, in 1986, the main changes were:
- Fixed commissions were abolished;
- Free competition;
- The introduction of the Stock Exchanged Automated Quotation -SEAQ-.
The New York Stock Exchange is the oldest and largest of the stock exchanges in the United States and in the world. The New York Stock Exchange was organized in 1792 in Wall Street.
Capitolo Quinto:
STORIA
Ho chiaramente affermato, nei contenuti appena espressi in Inglese, che la Borsa di New York è la più grande, la più importante, e la più antica del mondo.
Nel corso della storia, la Borsa di New York è sempre stata un punto di riferimento per tutte le altre Borse, siano esse di qualsiasi città, tanto che ancora oggi, quando bisogna esprimere un giudizio sull’andamento di un determinato titolo, o studiare un particolare effetto economico, ci si rapporta ad essa.
C’è da dire però, che intorno agli anni ’30 è stata travolta da un periodo di enorme crisi economica, che proprio in quegli anni divampava negli Stati Uniti, denominato “Grande Depressione”.
Voglio adesso far riaffiorare gli avvenimenti principali di questa crisi, tracciando un breve excursus storico in proposito.
La Crisi del ’29 e il New Deal
Negli anni che intercorrono tra il 1920 e il 1929 gli Stati Uniti attraversano un periodo di grande prosperità. Nel novembre 1920, anno nel quale le donne ottengono il diritto di voto, le elezioni per la presidenza degli Stati Uniti inaugurano un’era di isolazionismo che durerà circa un ventennio. Il programma del nuovo presidente, Warren G. Harding, un repubblicano promosse lo sviluppo produttivo interno, lasciando ampio spazio di azione alle imprese senza interferenze statali, difendendo il mercato interno con le alte tariffe doganali e limitando l’emigrazione.
Il successore di Harding è Calvin Coolidge, che si attiene fondamentalmente alle stesse linee di condotta. Il periodo di prosperità iniziata sembra non dover subire arresti; nel 1928 viene eletto alla presidenza un altro repubblicano Herbert C. Hoover.
Al culmine di un periodo di prosperità, in un giorno del 1929, giovedì 24 ottobre (che sarà ricordato come il ”giovedì nero”), alla Borsa di Wall Street, a NeW York, si registra un calo vistoso del valore dei titoli delle più importanti imprese americane; sono svendute quasi 13 milioni di azioni. La frana sembra arrestarsi il giorno successivo, ma poi riprende, devastante più che mai, martedì 29 (il “martedì nero”), il più disastroso di tutta la storia finanziaria degli Stati Uniti: sono scambiati, a prezzi sempre più cedenti, 33 milioni di titoli.
Gli sforzi dei banchieri e degli agenti di cambio sono del tutto inefficaci, di fronte alla dimensione della catastrofe. Gli Stati Uniti, in meno di una settimana, sono diventati, da nazione prospera, un paese alle soglie della povertà ed in preda al panico.
La crisi, che continua con effetti devastanti, sino al 1932, provoca un crollo della produzione mondiale di circa il 50%.
Le cause di un crollo così rapido ed inaspettato sono sicuramente da ricercarsi in un insieme di elementi divenuti ingovernabili, poiché sommati nelle errate proporzioni a determinati fattori dell’economia americana. Per comprenderle si deve esaminare la situazione dell’economia degli Stati Uniti negli anni tra 1925 e il1929.
In quegli anni le industrie prosperano, producono un gran numero di oggetti e di beni da vendere, ma hanno sempre più bisogno di denaro per aumentare le quantità prodotte, e chiedono ed ottengono prestiti, soprattutto dall’Europa. I compratori, dal canto loro acquistano molti oggetti, ma soprattutto a rate, visto che la maggior parte degli operai e degli impiegati hanno ancora bassi salari, e non dispongono quindi di molto denaro liquido.
In questa situazione, improvvisamente, si susseguono due avvenimenti inaspettati:
- la Banca di Inghilterra limita il flusso di sterline verso gli Stati Uniti facendo mancare così di colpo forti finanziamenti alle industrie americane.
- I consumatori americani, nella grande maggioranza non ricchi, si trovano impossibilitati a comprare altri beni, perché già indebitati con le rate; le fabbriche continuano a produrre, ma gran parte delle merci restano invendute.
Il crollo di Borsa dell’ottobre 1929, che pare all’origine della catastrofe soltanto un evento destinato a concludersi, e il movimento rivelatore di uno stato di latente dissenso, di uno sbilancio acutissimo tra domanda e offerta; esso nasce da accentuati movimenti speculativi, trainati da un’euforia che porta ad un irreale gonfiamento di mercato.
Gli anni tra 1930 e il 1940 sono dedicati ad una sorta di >; l’uomo assunto a simbolo di questo decennio e che si preoccuperà di risollevare il paese dalla crisi, è F. D. Roosevelt, eletto presidente degli Stati Uniti nel 1932, che vara proprio in quegli anni, il grandioso programma politico ed economico noto come New Deal.
La politica e sociale di Roosevelt, se per un verso si propone di rilanciare i consumi e gli investimenti, dall’altro cerca di mettere fine a quelle situazioni di privilegio e di disordine che, per lo meno in parte, sono state l’origine della crisi.
L’obiettivo primo che il programma del New Deal si pone è quello di stimolare il rialzo dei prezzi, ridare fiducia agli investimenti, mettere in grado i consumatori di avere un certo potere di acquisto e a disposizione una crescente massa monetaria.
Questi i provvedimenti più significativi:
- Si proibiscono il tesoreggiamento e l’esportazione dell’oro;
- Svalutazione del dollaro, per incoraggiare le esportazioni e, quindi, far crescere la produzione interna;
- Si opera un rialzo generalizzato dei salari e si finanziano importanti lavori pubblici.
Il programma e l’azione di Roosevelt raggiungono successi non trascurabili, nel senso che, nel 1939 gli Stati Uniti sono quasi ritornati a buoni livelli produttivi; ma le conseguenze della grande crisi non sono definitivamente superate; la disoccupazione nel 1937 rimane ancora una vera piaga.
Capitolo Sesto:
ITALIANO
In questo sesto capitolo, andremo ad analizzare il periodo letterario che si colloca a cavallo tra il XIX e il XX secolo, dapprima concentrando la nostra attenzione sui tempi e sui luoghi d’azione; successivamente analizzando uno tra i più importanti artisti letterari del periodo, Luigi Pirandello.
I luoghi, i tempi e le parole-chiave:
Naturalismo, Simbolismo e Decadentismo
Il periodo storico che ci accingiamo a prendere in considerazione, intercorre dalla seconda metà dell’Ottocento ai primi anni del Novecento.
Dal punto di vista prettamente sociale, si assiste ad un passaggio da una borghesia liberista, che sino ad allora aveva promosso un forte sviluppo economico, basato sul libero scambio e sulla libera concorrenza, ad una borghesia di tipo imperialista che era invece favorevole alla formazione di grandi concentrazioni industriali monopolistiche tutelata in più dallo stato; ed è proprio grazie a questo cambiamento che si riuscirà ad uscire dalla “Grande depressione”, fase storica di crisi economica che va dal 1873 al 1895.
Questa è comunque la nuova realtà, che costituirà il trampolino di lancio per l’avvio della II rivoluzione industriale.
In campo letterario le due tendenze dominanti sono senza dubbio il Naturalismo e il Simbolismo, e con l’affermarsi di esse termina la letteratura Romantica.
I caratteri fondamentali su cui si basa il movimento letterario del Naturalismo, possono ricercarsi nel rifiuto della letteratura romantica perché basata sulla fantasia; sul rifiuto dei canoni tradizionali del bello, in quanto per la prima volta sino ad allora, rientra nella concezione del bello, la realtà anche se volgare; nell’affermazione del metodo dell’impersonalità, ovvero l’eclissi dell’autore, il quale deve scomparire dietro l’opera senza lasciarvi le tracce della propria personalità; nell’impostazione scientifica della narrazione; nel primato del romanzo, considerato l’unico tra i generi letterari in grado di adeguarsi rigorosamente al metodo scientifico.
Nel Naturalismo, quindi, lo scrittore è come se diventasse uno specialista che si limita ad osservare per poi descrivere il più fedelmente possibile i meccanismi sociali, in conformità al presupposto secondo al quale la letteratura può analizzare e rappresentare la natura umana, con la stessa oggettività con cui le scienze trattano i fenomeni naturali.
Per quanto riguarda i contenuti naturalisti, devono rappresentare tutti i gradini della scala sociale, dai più bassi per risalire ai più elevati, seguendo così il metodo scientifico, che procede sempre dal semplice al complesso.
Nel Simbolismo invece, è presente una specializzazione linguistica che fa della poesia, genere letterario di gran lunga più adottato, un linguaggio assoluto, caratterizzato appunto da simboli che lo rendono spesso di difficile decifrazione.
Il Simbolismo rifiuta le pretese scientifiche di spiegazione razionale dell’universo.
Sia il Naturalismo che il Simbolismo hanno il suo epicentro in Francia, ma si sviluppano poi in tutta l’Europa, e sebbene sembra che per un certo periodo convivano, il Simbolismo prende poi il sopravvento e domina infine incontrastato dal 1890 al 1905.
In questi anni il simbolismo confluisce nel Decadentismo, ovvero in quella civiltà letteraria e artistica affermatasi in Europa a cavallo tra i due secoli.
Il Decadentismo fa dell’estetismo, cioè del culto della bellezza e dell’arte, la sua principale parola d’ordine e dell’irrazionalismo la sua ideologia privilegiata, in quanto, il poeta rivelerebbe una verità superiore concepita intuitivamente o misticamente e dunque in modi del tutto sottratti alla razionalità.
Viene quindi radicalmente rifiutata la visione positivistica, poiché, il progresso, la ragione, la scienza, la concretezza, sono tutti valori che non possono dare la vera conoscenza della realtà, che è concepita come misteriosa ed enigmatica.
Si ha così la scoperta dell’inconscio, poiché l’arte tende sempre ad esprimere le associazioni profonde dell’io, la complessità dei sentimenti, e a collegare il mistero dell’anima a quello della vita stessa dell’universo.
Poiché nel decadentismo, la poesia è concepita come rivelazione dell’assoluto, il poeta è immaginato come il mediatore di tale rivelazione, mentre l’artista considerato come inventore e creatore, non deve più imitare la vita, come facevano gli scrittori naturalisti, ma crearla.
Sul piano politico gli scrittori decadenti appoggiano le nascenti ideologie nazionalistiche ed imperialistiche.
Per quel che riguarda la filosofia europea, possiamo dividere il periodo considerato, in due momenti: nel primo che dura fino all’ultimo decenni dell’ottocento, domina la cultura del Positivismo, mentre nel secondo che va dalla fine dell’ottocento e l’inizio del novecento, si assiste ad una reazione al Positivismo che arriva a mettere in discussione i caratteri e i metodi scientifici, che avevano prevalso sino ad allora.
Nelle società capitalisticamente più avanzate la cultura è rappresentata dall’insieme delle scuole pubbliche e private, che vanno dalle elementari alle università, e dal sistema editoriale, ovvero le pubblicazioni di libri, giornali e riviste.
Pian piano che il sistema editoriale cresceva si può benissimo capire come le riviste e i giornali svolgevano un ruolo fondamentale nella formazione culturale dei letterati, e come inevitabilmente si tendano a sostituire i caffè rispetto ai salotti, come luoghi d’incontro.
L’Antiromanzo
Nei primi anni del novecento in tutta Europa si assiste al rifiuto in blocco della narrativa da parte della nuova generazione che giunge a mettere in discussione il romanzo e la novella secondo le strutture ottocentesche, perché ormai sentiti come generi letterari vecchi. Nello stesso tempo però, sia alcuni autori della vecchia generazione, sia alcuni della nuova lavorarono per ricostruire una nuova narrativa e per rifondare il romanzo su nuove basi.
Nasce così l’Antiromanzo del novecento, nuova forma narrativa capace di comunicare la situazione interiore dei personaggi, la loro visione deformata del mondo, i loro incubi e le loro allucinazioni.
La diffusione di teorie che negano le leggi fisse e dichiarano la relatività di ogni concezione del mondo, introducono inoltre nuovi temi nell’immaginario degli scrittori: quelli della nevrosi, della memoria, della malattia, dell’uomo senza qualità.
La trama dell’Antiromanzo non è più quindi, caratterizzata da un fluire regolare dall’inizio alla conclusione della vicenda, ma si presenta senza un centro ben definito, infatti, è quasi impossibile individuare la fabula principale.
Lo spazio tende ad essere non più quello concreto di una città o di un paese, ma si configura come spazio simbolico, le descrizioni, infatti, mirano a creare uno sfondo dove evocare lo scenario delle crisi dei personaggi.
Il tempo non è più il tempo lineare, organizzato nella successione tra passato, presente e futuro, ma è ora caratterizzato da frequenti passaggi dal presente al passato e viceversa.
I personaggi hanno smarrito la loro identità, l’antieroe, il personaggio incerto, confuso ed incapace a definire la sua identità è il protagonista.
Le tecniche narrative sono spesso il racconto in prima persona, da parte di un io narratore, che si scruta, si autoanalizza, scava nei propri ricordi; il narratore ha perduto ogni onniscienza, non sa nulla di più di quello che sappia il personaggio.
Luigi Pirandello:
la cultura letteraria, filosofica e psicologica
Pirandello si inserisce indiscutibilmente nella tradizione naturalistica italiana ed europea del novecento.
Tuttavia lo scrittore, attraverso l’accettazione dello schema tradizionale del romanzo giunge a rovesciarlo dimostrando che la realtà può assumere molteplici sfaccettature.
Intorno ai primi anni del novecento, dunque nel periodo della formazione e delle prime opere, la cultura di Pirandello presenta una forte influenza del pensiero positivista, assimilato però nella variante negativa tipica del Verismo siciliano, la scienza è concepita come una potenza capace di corrodere miti e credenze.
Con il trascorrere degli anni Pirandello comincerà comunque a porre in discussione il pensiero positivista, approdando così al soggettivismo novecentesco, che sostiene che il mondo oggettivo è solo una proiezione del nostro sentimento.
In campo psicologico, particolare importanza ha la lettura del libro dello psicologo francese Alfred Binet, che appunto in “Le alterazioni della personalità” aveva indagato la compresenza dei diversi livelli della vita psichica, consci ed inconsci, e dunque la pluralità dell’io in cui possono convivere diverse personalità.
Dall’influenza del Verismo siciliano, Pirandello deriva una critica al Simbolismo e all’Estetismo decadente, e così punta sulla scomposizione critica e sulla dissonanza, cominciando a considerare le possibilità offerte dall’umorismo, verso il quale si va indirizzando la sua ricerca artistica.
Il Relativismo Filosofico e la Poetica dell’Umorismo
L’elaborazione della poetica dell’Umorismo avviene tra il1904 e il 1908, anno in cui esce il volume “L’Umorismo”, mentre del 1904 sono le due premesse iniziali, ovvero i primi due capitoli del “Il fu Mattia Pascal”, che gettano le basi della nuova poetica.
Pirandello ogni volta che parla di Umorismo oscilla sempre tra due visioni: da un lato egli vede un limite ontologico dell’uomo, che da sempre si crea una serie di autoinganni e di illusioni attraverso le quali cerca di dare significato all’esistenza; dall’altro egli individua l’uomo e la terra come entità minime e trascurabili di un universo infinito, dal quale nasce il malessere tipico della modernità, che induce alla convinzione che fedi, valori ed ideologie sono solo autoinganni utili per sopravvivere, ma del tutto mistificatori.
L’Umorismo pirandelliano è anche l’espressione del pensiero e della cultura del Relativismo Filosofico. Esso presuppone la messa in discussione del Positivismo sia con il suo criterio della realtà oggettiva garantita dalla scienza, sia con l’altro criterio dell’idea della verità soggettiva, della centralità del soggetto, e della sua capacità di dare forma e senso al mondo.
La poetica dell’Umorismo nasce da una riflessione sulla modernità, e proprio perché l’Umorismo è l’arte del tempo moderno, nel quale le categorie di bene e di male, di vero e di falso, su cui si basavano la tragedia e l’epica, sono venute a mancare, propone un atteggiamento esclusivamente critico e negativo, fatto di personaggi problematici, ed inoltre non vengono risolte positivamente le questioni che affliggono l’uomo, ma messe in rilievo le contraddizioni e le miserie della vita.
L’arte umoristica è volta continuamente ad evidenziare il contrasto tra forma e vita e tra personaggio e persona.
L’uomo ha bisogno di autoinganni che costituiscono la forma dell’esistenza, data dagli ideali che ci poniamo, dalle leggi civili, dal meccanismo della vita associata.
La forma blocca la tendenza a vivere momento per momento al di fuori di ogni scopo ideale e ogni legge civile, essa cristallizza e paralizza la vita, forza profonda ed oscura che riesce ad erompere solo saltuariamente nei momenti di sosta o di malattia, di notte o negli intervalli in cui non si è coinvolti nel meccanismo dell’esistenza.
Il soggetto costretto a vivere nella forma, non è più una persona integra, ma si riduce ad una maschera, che recita la parte che la società esige da lui e che egli stesso si impone attraverso i propri ideali morali.
Sotto questa maschera non c’è un volto definito ed immutabile, non c’è ”nessuno”, così l’io si disgrega, si smarrisce e poi si perde.
La presa di coscienza di questa consistenza dell’io, suscita nei personaggi pirandelliani smarrimento e dolore: l’individuo, oltre ad avvertire di non essere più “nessuno”, soffre ad essere fissato dagli altri in forme in cui non si riconosce. Alla base dell’opera pirandelliana si può scorgere il rifiuto delle forme della vita sociale, dei ruoli che essa impone e di un bisogno disperato di spontaneità.
L’istituto in cui si manifesta per eccellenza la trappola della forma che imprigiona l’uomo separandolo dall’immediatezza della vita è la famiglia.
Altre trappole sono: quella economica, la condizione sociale ed il lavoro.
L’unica via di relativa salvezza che si dà agli eroi pirandelliani è l’immaginazione, che trasporta altrove verso il fantastico, ed attraverso questa evasione essi possono sopportare l’oppressione del lavoro e della famiglia come nel “Il treno ha fischiato”, oppure nella follia come in “Uno, nessuno e centomila”.
Per Pirandello il personaggio non è coerente, perché non è più persona, ed ha davanti a sé soltanto due strade: o sceglie l’incoscienza, l’ipocrisia, l’adeguamento passivo alle forme; oppure vive amaramente, consapevolmente ed autoironicamente la scissione tra forma e vita.
Nel primo caso l’individuo è solo una maschera, nel secondo diventa una maschera nuda, consapevole degli autoinganni propri ed altrui, ma impotente a risolverli.
In questo secondo caso, la riflessione interviene continuamente a porre una distanza tra il soggetto e i propri gesti, distacco che nasce dalla riflessione sulle ragioni per cui una persona o una situazione sono il contrario di come dovrebbero essere.
Le Opere
Molte sono le opere, che scritte da Pirandello, riscontrarono e continuano a riscontrare grande fortuna; noi adesso andremo ad analizzare quelle che ormai si considerano dei classici.
“Il fu Mattia Pascal“ è sicuramente una delle opere più importanti di Pirandello, in esso si applica esplicitamente la poetica dell’umorismo, e compaiono i temi fondamentali dell’arte pirandelliana, ovvero il problema della doppia identità, la critica al moderno e alla civiltà delle macchine.
Al di là di ogni ambito naturalistico, “il fu Mattia Pascal”, è la storia di un piccolo borghese imprigionato nella trappola di una famiglia insopportabile, e di una condizione sociale deprimente, e che in virtù di un caso fortuito, si trova improvvisamente padrone di se.
Il protagonista diviene economicamente autosufficiente grazie ad una cospicua vincita al casino di MonteCarlo, e successivamente apprende di essere ufficialmente morto in quanto, la moglie e la suocera lo hanno riconosciuto nel cadavere di un annegato.
Mattia Pascal si sforza così di costruirsi un’identità nuova, ma tutti i suoi tentativi si rivelano purtroppo vani, poiché per la legge è deceduto.
Il romanzo è raccontato dal protagonista stesso in forma retrospettiva, in quanto Mattia Pascal al termine della sua vicenda, affida ad un memoriale l’esperienza; inoltre il racconto è focalizzato non sull’io narratore, che ha già vissuto i fatti e quindi sa tutto, ma sull’io narrato, quindi sul personaggio mentre vive i fatti.
Al punto di vista della narrazione naturalistica, si sostituisce un punto di vista soggettivo, parziale, mutevole, inattendibile ed inaffidabile che non fornisce una prospettiva certa sugli eventi, e contribuisce a dar valore alla relatività del reale.
L’esempio più appropriato della frantumazione dell’io e del relativismo pirandelliano che evidenzia il contrasto tra apparenza e realtà, è il romanzo “Uno, nessuno e centomila”, narrazione retrospettiva (cioè quando la storia viene raccontata, i fatti sono già accaduti) condotta da una prima persona che è insieme voce narrante e protagonista della vicenda.
Il protagonista, Vitangelo Moscarda, inetto per eccellenza, scopre di non essere per gli altri quell’Uno che è per sé, in quanto la moglie Dida, svelandogli che il suo naso pende verso destra, ha squarciato tutte le sue certezze, avviando una riflessione sull’intera esistenza. Ecco visualizzato lo sbriciolamento del reale che da univoco (Uno) diventerà poliedrico (Centomila) e sfocerà infine nel nulla (Nessuno).
Vitangelo allo specchio, simbolo dell’io davanti a sé stesso, scopre di vivere senza “vedersi vivere”. Si getta quindi all’inseguimento dell’estraneo inscindibile da sé, che gli altri conoscono in centomila identità differenti; facendosi protagonista attivo e cosciente della propria liberazione, invece, di estraniarsi dal mondo arroccandosi in un atteggiamento critico-negativo, scopre la vita nel rifiuto della forma e nella adesione all’indistinto naturale.
Il protagonista, infatti, si stacca dal proprio “fantoccio vivente”, per se stesso, così è ormai nessuno; la distruzione dell’io è definitivamente consumata.
Vitangelo Moscarda comincia anzitutto a ribellarsi all’opinione che gli altri hanno di lui all’identità che gli hanno attribuita. Per raggiungere questo obiettivo, deve dissolvere la propria immagine pubblica di figlio di un banchiere usuraio; e per far ciò lui che non si era mai occupato degli affari della banca, vi penetra dentro fra lo sgomento degli impiegati e dei soci.
Dopo la morte del padre, Moscarda esige di occuparsi direttamente della banca e dei beni paterni che gli spettano; una volta padrone, propone di liquidare la banca, in modo di togliersi di dosso l’immagine del figlio dell’usuraio, arricchito grazie alle malefatte del padre.
I soci della banca e la moglie, lo giudicano pazzo e lo vogliono interdire, ma con l’aiuto di Anna Rosa, amica della moglie Vitangelo si accorda con il vescovo per devolvere i propri beni in opere di carità.
Quando un giorno Vitangelo cerca di baciare Anna Rosa questa, sconvolta dal suo modo di ragionare, gli spara con una pistola ferendolo gravemente.
Al processo, Moscarda la scagiona attribuendo al caso l’accaduto.
Vitangelo, che si era recato in tribunale con la stessa divisa dei mendicanti che vivono nell’ospizio che egli stesso aveva fatto costruire con i soldi dell’eredità devoluti, saprà trovare soltanto in quel luogo per poveri, il proprio vero io che gli era stato negato.
Vitangelo concluderà così la sua esistenza, nella serenità della natura, senza passato né futuro, estraniandosi dalla vita troverà così l’unica via per sfuggire alle centomila costruzioni che falsificano la realtà e la imprigionano in una forma distorta.
La novella “Il treno ha fischiato” è inserita nell’opera “Novelle per un anno”. Quest’opera, da considerarsi come un insieme di novelle, presenta una struttura enigmatica, e rimane ancora misterioso il criterio con cui esse vengono organizzate, infatti, non sono disposte in senso cronologico e neppure sono raggruppate in modo tematico.
L’opera insomma è un’allegoria della dissipazione e della varietà della vita, del suo carattere frantumato ed insensato, in cui domina incontrastato il flusso distruttivo del tempo, che viene vissuto come vortice e caos.
I personaggi, le vicende e i paesaggi sono immersi nella tempestività caotica e casuale della vita, vengono posti davanti al lettore sia ambienti contadini, borghesi, nobiliari, sia ambienti internazionali.
Nelle novelle il paesaggio risulta distaccato rispetto all’uomo, e si può individuare l’ironico scenario delle sventure umane.
La struttura dominate delle novelle è quella di una “narrazione discorsiva” spesso fortemente parlata e comunque fondata sul principio dialogico della conversazione.
Un’altra costante strutturale è la varietà e la mobilità dei punti di vista adottati, delle focalizzazioni, delle tecniche narrative: si va dalla forma epistolare al racconto dialogato e alla narrazione oggettiva; si passa dalla prima alla terza persona, dall’appello al “tu” a quello a “voi”.
Ponendo nuovamente la nostra attenzione alla novella “Il treno ha fischiato”, possiamo dire che è stata pubblicata per la prima volta sul Corriere della Sera nel 1914.
Vi si narra di un impiegato modello, Belluca, che si ribella al capoufficio e viene portato in un manicomio. La ribellione è dovuta al fatto che egli ha intuito per la prima volta, dopo tanti anni di lavoro, l’esistenza di un’altra vita di un “oltre”, al di là di quella usuale e monotona di ogni giorno.
Di quest’altra vita egli ha avuto improvvisa intuizione udendo il fischio di un treno, che provoca in lui la tendenza all’evasione nel mondo dell’immaginazione e della fantasia.
La percezione del fischio del treno rivela di colpo all’impiegato Belluca, la possibilità di un’esistenza mai vissuta, poiché Belluca è uno dei tanti impiegati alienati dal lavoro.
La routine del lavoro in ufficio e una situazione familiare penosissima, hanno trasformato la vita di Belluca in un meccanismo implacabilmente ripetitivo. Attraverso di esso la forma ha preso un sopravvento decisivo sulla vita, cioè sulla spinta delle pulsioni vitali.
Il fischio del treno, che ha la funzione di rivelazione improvvisa, stordisce e inebria Belluca, proponendogli la prospettiva allettante di un’altra vita.

Capitolo Settimo:
MATEMATICA
Il Trend e la Borsa
Ogni titolo quotato in Borsa è sottoposto ad un’analisi tecnica basata sul prezzo, la quale racchiude in se tutte le valutazioni e le aspettative su un indice o un titolo, e consta di una metodologia che utilizza la rappresentazione grafica delle quotazioni, con lo scopo di prevedere la direzione e l’intensità degli andamenti futuri.
Studiare la dinamica del prezzo, equivale quindi a monitorarne l’andamento; questo studio può essere effettuato nel breve, nel medio e nel lungo periodo.
Osservando il grafico storico di un titolo si potrà notare come i prezzi si muovono per un certo periodo in una direzione ben precisa: al rialzo, al ribasso o lateralmente.
Si dice allora che descrivono una tendenza o un trend.
I metodi più utilizzati per la determinazione del trend sono:
- Perequazione per medie mobili;
- Interpolazione con il metodo dei minimi quadrati.
Perequazione per medie mobili
La perequazione per medie mobili consiste nel sostituire ai dati rilevati, le medie semplici o ponderate, di cinque … nove … ecc … termini (nel nostro caso, intendiamo termini, la quotazione giornaliera di Borsa), di cui quello considerato occupa il posto centrale.
Con questo tipo di perequazione i valori risultano livellati, però il metodo presenta alcuni inconvenienti:
- Si perdono i primi e gli ultimi termini, perché è impossibile perequarli;
- La somma dei valori perequati non è uguale alla somma dei dati rilevati;
- La scelta del numero dei termini con cui calcolare le medie è arbitraria.
Nel caso di medie mobili con un numero pari di termini, non esiste un termine centrale al quale assegnare il valore medio trovato, che dovrebbe essere posto fra due valori, e allora si calcola la media fra due medie successive. Questo tipo di media è detta media mobile centrale.
Interpolazione con il metodo dei minimi quadrati
A differenza della perequazione per medie mobili, l’interpolazione con il metodo dei minimi quadrati, ossia la somma dei quadrati della differenza degli scarti, è più vantaggiosa perché permette di determinare una funzione analitica che esprima l’andamento di fondo di un fenomeno.
Si opera in primo luogo una perequazione grafica e si sceglie la funzione interpolante che si ritiene più adatta.
La perequazione grafica consiste nel tracciare una curva regolare che indichi l’andamento del fenomeno eliminando le irregolarità.
La scelta della curva è molto soggettiva e serve per facilitare la scelta della funzione che esprime l’andamento del fenomeno.
Le funzioni interpolanti più utilizzate sono:
- La funzione lineare y = a + bx ;
- La funzione esponenziale y = a * b^x .
Interpolazione lineare
Dato che la funzione lineare equivale ad una retta y = a + bx , dove “b” rappresenta il coefficiente angolare della retta e “a” il termine noto, mediante il metodo dei minimi quadrati si possono ricavare questi parametri dalla sommatoria dello scarto al quadrato:

y(a, b) = E ( yi – a – bxi )^2

Successivamente si calcolano le derivate parziali prima rispetto ad “a” e poi rispetto a “b”:
y’(a) = 2 [ E ( yi – a – bxi ) ] –1 ;
y’(a) = 2 [ - E yi + n * a + b E xi ] .
y’(b) = 2 [ E ( yi – a – bxi ) ] ( - xi ) ;
y’(b) = 2 [ - E yi xi + a E xi + b E xi^2 ] .
Si mettono a sistema le due derivate parziali e si calcola il determinante della matrice dei coefficienti:
n E xi
D = = n E xi – ( E xi )^2
E xi E yi^2
Successivamente si calcola il determinante delle derivate parziali:
E yi E xi
D(a) = = E yi * E xi^2 – E xi * E xi yi
E xi yi E xi^2
n E yi
D(b) = = n E xi yi – E xi * E yi
E xi E xi yi
Per ricavare i parametri “a” e “b” si pongono i determinanti delle derivate parziali dul determinante della matrice dei coefficienti:
D(a) E yi * E xi^2 – E xi * E xi yi
a =
D n E xi^2 – ( E xi )^2
D(b) n E xi yi – E xi * E yi
b =
D n E xi^2 – ( E xi )^2
Successivamente si sostituiscono i parametri “a” e “b” ricavati, alla funzione principale stabilendo così la retta interpolante.
Per stabilire quanto i punti sono distanti dalla retta interpolante calcolata, si determina lo scarto quadratico medio o errore standard di stima:
E ( yi – y^i )^2
S yx =
n
Interpolazione esponenziale
Nell’interpolazione esponenziale non si applica direttamente il metodo dei minimi quadrati, in quanto il sistema che si otterrebbe non sarebbe lineare nei parametri “a” e “b”, quindi sarebbe di difficile risoluzione; si opera quindi una trasformazione di variabili e dalla funzione y = a * b^ x utilizzando i logaritmi dei membri si ottiene la funzione:
Log y = Log a + x Log b
e posti : Log y = Y ; Log a = A ; Log b = B .
Si ricava la funzione :
Y = A + x B
I parametri “A” e “B” si calcolano mediante le formule relative al metodo dei minimi quadrati precedentemente analizzate.
Ottenuti i valori di “A” e “B” si sostituiscono alla funzione logaritmica e successivamente calcolando l’anti-logaritmo si ottiene la funzione interpolante.
La New Economy
1

Esempio



  



Come usare