Studio statistico della relazione tra i fenomeni statistici. Studio statistico delle relazioni tra fenomeni socio-economici. Se viene studiata la relazione tra due caratteristiche, questa è una correlazione a coppie. Se viene studiata la relazione tra molte caratteristiche: correlazione

Lo studio delle connessioni oggettivamente esistenti tra i fenomeni è il compito più importante teoria generale statistiche. Nel processo di studio statistico delle dipendenze, vengono rivelate relazioni di causa-effetto tra i fenomeni, che consentono di identificare fattori (segni) che hanno un impatto significativo sulla variazione dei fenomeni e dei processi studiati. Una relazione di causa ed effetto è una connessione tra fenomeni e processi in cui un cambiamento in uno di essi - la causa - porta a un cambiamento nell'altro - l'effetto.

Una causa è un insieme di condizioni, circostanze, la cui azione porta alla comparsa di un effetto. Se esistono davvero rapporti di causa-effetto tra i fenomeni, allora queste condizioni devono necessariamente realizzarsi insieme all'azione delle cause. Le relazioni causali sono universali e diverse e per individuare le relazioni di causa-effetto è necessario selezionare i singoli fenomeni e studiarli isolatamente.

Di particolare importanza nello studio delle relazioni causa-effetto è l'identificazione della sequenza temporale: la causa deve sempre precedere l'effetto, ma non tutti gli eventi precedenti dovrebbero essere considerati una causa, e quello successivo una conseguenza.

Nella realtà socio-economica reale, causa ed effetto devono essere considerati come fenomeni correlati, la cui comparsa è dovuta a un complesso di cause ed effetti più semplici che li accompagnano. Tra gruppi complessi di cause ed effetti sono possibili connessioni multivalore, in cui una causa sarà seguita da una o un'altra azione, oppure un'azione avrà diverse cause diverse. Per stabilire una relazione causale inequivocabile tra fenomeni o per prevedere le possibili conseguenze di una causa specifica, è necessaria la completa astrazione da tutti gli altri fenomeni nell'ambiente temporale o spaziale in esame. Teoricamente, tale astrazione viene riprodotta. Le tecniche di astrazione vengono spesso utilizzate quando si studia la relazione tra due caratteristiche (correlazione a coppie). Ma quanto più complessi sono i fenomeni studiati, tanto più difficile è identificare le relazioni di causa-effetto tra di essi. L'intreccio di vari fattori interni ed esterni porta inevitabilmente ad alcuni errori nel determinare causa ed effetto.

Una caratteristica delle relazioni di causa-effetto nei fenomeni socio-economici è la loro transitività, vale a dire causa ed effetto sono legati per correlazione, non direttamente. Tuttavia, i fattori intermedi vengono solitamente omessi nell’analisi.

Quindi, ad esempio, quando si utilizzano gli indicatori della metodologia di calcolo internazionale, il fattore di profitto lordo è considerato l'accumulo lordo di capitale fisso e circolante, ma sono consentiti fattori quali produzione lorda, salari, ecc. Le relazioni di causa-effetto correttamente scoperte consentono di stabilire la forza dell'influenza dei singoli fattori sui risultati dell'attività economica.

I fenomeni socioeconomici sono il risultato dell’influenza simultanea di un gran numero di cause. Di conseguenza, quando si studiano questi fenomeni, è necessario, astraendo da quelli secondari, identificare le cause principali e fondamentali.

Nella prima fase dello studio statistico della comunicazione, viene effettuata un'analisi qualitativa del fenomeno studiato utilizzando metodi teoria economica, sociologia, economia concreta.

Nella seconda fase viene costruito un modello di comunicazione basato su metodi statistici: raggruppamenti, medie, tabelle, ecc.

Nella terza e ultima fase vengono interpretati i risultati; l'analisi è ancora una volta legata alle caratteristiche qualitative del fenomeno studiato.

La statistica ha sviluppato molti metodi per studiare le relazioni, la cui scelta dipende dagli obiettivi dello studio e dai compiti fissati. Le connessioni tra segni e fenomeni, data la loro grande varietà, sono classificate in base a numerosi criteri. I segni in base al loro significato per lo studio della relazione sono divisi in due classi. I tratti che causano cambiamenti in altri tratti correlati sono chiamati fattoriali o semplicemente fattori. I segni che cambiano sotto l'influenza dei segni dei fattori sono efficaci. Le connessioni tra i fenomeni e le loro caratteristiche sono classificate in base al grado di vicinanza della connessione, direzione ed espressione analitica.

In statistica si distingue tra connessione funzionale e dipendenza stocastica. Una relazione funzionale è quella in cui un certo valore di una caratteristica del fattore corrisponde a uno e un solo valore della caratteristica risultante. La connessione funzionale si manifesta in tutti i casi di osservazione e per ciascuna specifica unità della popolazione oggetto di studio.

Se una dipendenza causale non appare in ogni singolo caso, ma in generale, in media su un gran numero di osservazioni, tale dipendenza è chiamata stocastica. Un caso speciale di stocastico è una relazione di correlazione, in cui una variazione del valore medio della caratteristica risultante è dovuta a una variazione delle caratteristiche del fattore.

In base al grado di vicinanza della connessione si distinguono criteri quantitativi per valutare la vicinanza della connessione (Tabella 1).

Tabella 1 Criteri quantitativi per valutare la vicinanza delle connessioni

Per direzione si distinguono le connessioni dirette e inverse. In una connessione diretta con un aumento o una diminuzione dei valori di una caratteristica del fattore, si verifica un aumento o una diminuzione dei valori della caratteristica risultante. Ad esempio, un aumento della produttività del lavoro aiuta ad aumentare il livello di redditività della produzione. Quando feedback i valori della caratteristica risultante cambiano sotto l'influenza del fattore caratteristico, ma nella direzione opposta rispetto alla variazione del fattore caratteristico. Pertanto, con un aumento del livello di produttività del capitale, il costo per unità di produzione diminuisce.

Secondo l'espressione analitica le connessioni si distinguono tra lineari (o semplicemente lineari) e non lineari. Se una relazione statistica tra fenomeni può essere approssimativamente espressa dall'equazione di una linea retta, allora si chiama relazione lineare; se è espresso dall'equazione di qualsiasi linea curva (parabola, iperbole, potenza, esponenziale, esponenziale, ecc.), allora tale relazione è chiamata non lineare o curvilinea.

Le statistiche non richiedono sempre valutazioni quantitative della relazione, spesso è importante determinarne solo la direzione e la natura, per identificare la forma di influenza di alcuni fattori su altri. Per identificare la presenza di una relazione, la sua natura e la direzione nelle statistiche, vengono utilizzati metodi per portare dati paralleli; gruppi analitici; grafico; correlazione, regressione.

Il metodo per portare dati paralleli si basa sul confronto di due o più serie di valori statistici. Tale confronto ci consente di stabilire l'esistenza di una connessione e di avere un'idea della sua natura. Confrontiamo le variazioni di due quantità e all'aumentare del valore aumenta anche il valore. Pertanto, la connessione tra loro è diretta e può essere descritta sia da un'equazione lineare che da un'equazione parabola del secondo ordine.

La relazione tra due caratteristiche viene rappresentata graficamente utilizzando il campo di correlazione. Nel sistema di coordinate, i valori della caratteristica del fattore sono tracciati sull'asse delle ascisse e la caratteristica risultante è tracciata sull'asse delle ordinate. Ogni intersezione delle linee tracciate attraverso questi assi è indicata da un punto. In assenza di connessioni strette, si osserva una disposizione casuale dei punti sul grafico. Quanto più forte è la connessione tra le caratteristiche, tanto più strettamente i punti saranno raggruppati attorno ad una certa linea che esprime la forma della connessione.

È caratteristico dei fenomeni socioeconomici che, insieme ai fattori significativi che costituiscono il livello della caratteristica risultante, sono influenzati da molti altri fattori non contabilizzati e casuali. Ciò indica che le relazioni tra i fenomeni studiati dalla statistica sono di natura correlazionale e sono analiticamente espresse da una funzione della forma.

Il metodo di correlazione ha come compito la determinazione quantitativa della vicinanza della connessione tra due caratteristiche (in una connessione a coppie) e tra le caratteristiche risultanti e quelle di molti fattori (in una connessione multifattoriale).

La correlazione è una dipendenza statistica tra variabili casuali che non hanno una natura strettamente funzionale, in cui una variazione di una delle variabili casuali porta al cambiamento aspettativa matematica un altro.

Nelle statistiche si distinguono le seguenti opzioni di dipendenza:

  • -correlazione di coppia - una connessione tra due caratteristiche (risultativa e fattore o due fattori);
  • -correlazione parziale - la dipendenza tra le caratteristiche risultanti e quelle di un fattore con un valore fisso di altre caratteristiche del fattore;
  • -correlazione multipla: la dipendenza del risultato e di due o più caratteristiche dei fattori inclusi nello studio.

La vicinanza della connessione è espressa quantitativamente dall'entità dei coefficienti di correlazione. I coefficienti di correlazione, che rappresentano una caratteristica quantitativa della stretta relazione tra caratteristiche, consentono di determinare l'“utilità” delle caratteristiche dei fattori nella costruzione di equazioni di regressione multipla. Il valore del coefficiente di correlazione serve anche come valutazione della coerenza dell'equazione di regressione con le relazioni di causa-effetto identificate.

Inizialmente, gli studi di correlazione venivano condotti in ambito biologico, per poi estendersi ad altri ambiti, compreso quello socioeconomico. Contemporaneamente alla correlazione, si iniziò a utilizzare la regressione. Correlazione e regressione sono strettamente correlate: la correlazione valuta la forza (vicinanza) di una relazione statistica, la regressione ne esamina la forma. Entrambi servono a stabilire la relazione tra i fenomeni, a determinare la presenza o l'assenza di una connessione.

Analisi di correlazione e regressione come concetto generale include la misurazione della tenuta, della direzione della connessione e la definizione di un'espressione analitica (forma) della connessione (analisi di regressione).

Il metodo di regressione consiste nel determinare l'espressione analitica di una relazione in cui la variazione di un valore (chiamata caratteristica dipendente o risultante) è dovuta all'influenza di uno o più valori indipendenti (fattori) e dell'insieme di tutti gli altri i fattori che influenzano anche il valore dipendente sono presi come significati costanti e medi. La regressione può essere a fattore singolo (a coppie) o multifattoriale (multipla).

A seconda della forma di dipendenza ci sono:

Regressione lineare, che è espressa da un'equazione lineare (funzione lineare) della forma:

Yx = a0 + a1x;

Regressione non lineare, che è espressa da equazioni della forma:

Yx = a0 + a1x + a2 x 2 - parabola; Yx = a0 ++ a1/x - iperbole

Secondo la direzione della comunicazione ci sono:

  • -regressione diretta (positiva), che si verifica se, all'aumentare o diminuire del valore indipendente, aumentano o diminuiscono corrispondentemente anche i valori del valore dipendente;
  • -regressione inversa (negativa), che appare a condizione che con un aumento o una diminuzione del valore indipendente, il valore dipendente diminuisce o aumenta di conseguenza.

Le regressioni positive e negative possono essere comprese più facilmente se rappresentate graficamente.

Per la regressione semplice (accoppiata), in condizioni in cui le relazioni di causa-effetto sono sufficientemente stabilite, solo l'ultima disposizione acquista significato pratico; Con una molteplicità di connessioni causali, è impossibile distinguere chiaramente alcuni fenomeni causali da altri.

regressione delle fluttuazioni stagionali

9.1. Causalità, regressione, correlazione

Nel processo di studio statistico delle dipendenze, vengono rivelate relazioni di causa-effetto tra i fenomeni, che consentono di identificare fattori (segni) che hanno una grande influenza sulla variazione dei fenomeni e dei processi studiati. Una relazione di causa-effetto è una connessione tra fenomeni e processi, quando un cambiamento in uno di essi, la causa, porta a un cambiamento nell'altro, l'effetto.

In base al loro significato per lo studio della relazione, i segni si dividono in due tipologie: fattoriale ed efficace.

I fenomeni socioeconomici sono il risultato dell’influenza simultanea di un gran numero di cause. Di conseguenza, quando si studiano questi fenomeni, è necessario identificare le cause principali, astraendo da quelle secondarie.

La prima fase dello studio statistico della relazione si basa su un'analisi qualitativa del fenomeno oggetto di studio, ovvero studio della sua natura utilizzando i metodi della teoria economica, della sociologia e dell'economia concreta. La seconda fase è la costruzione di un modello di comunicazione. La terza e ultima fase, l'interpretazione dei risultati, è nuovamente associata alle caratteristiche qualitative del fenomeno studiato.

In statistica si distingue tra relazioni funzionali e relazioni stocastiche. Una relazione funzionale è quella in cui un certo valore di una caratteristica del fattore corrisponde a uno e un solo valore della caratteristica risultante. Questa connessione si manifesta in tutti i casi di osservazione e per ciascuna unità specifica della popolazione oggetto di studio. Se una dipendenza causale non appare in ogni singolo caso, ma in generale, in media su un gran numero di osservazioni, tale dipendenza è chiamata stocastica. Un caso speciale di relazione stocastica è una relazione di correlazione, in cui la variazione del valore medio di una caratteristica effettiva è dovuta a una variazione delle caratteristiche del fattore.

Le connessioni tra segni e fenomeni, per la loro grande varietà, sono classificate in base a diversi criteri: in base al grado di vicinanza della connessione, alla direzione e all'espressione analitica.

Il grado di vicinanza della connessione di correlazione può essere valutato quantitativamente utilizzando il coefficiente di correlazione, il cui valore determina la natura della relazione (Tabella 1).

Tabella 1 – Criteri quantitativi per la tenuta della connessione

In direzione distinguere collegamenti diretti e inversi.

In una connessione diretta con un aumento o una diminuzione dei valori di una caratteristica del fattore, si verifica un aumento o una diminuzione dei valori della caratteristica risultante. Nel caso del feedback, all’aumentare dei valori dell’attributo fattore, diminuiscono i valori dell’attributo risultante, e viceversa.

Secondo l'espressione analitica si distinguono le connessioni: lineari(o semplicemente lineare) e non lineare. Se la relazione statistica tra i fenomeni può essere approssimativamente espressa dall'equazione di una retta, allora si dice lineare; se è espresso dall'equazione di qualsiasi linea curva (parabola, iperbole, esponenziale, esponenziale, ecc.), allora tale relazione è chiamata non lineare o curvilinea.

Per identificare la presenza di una connessione, la sua natura e la direzione nelle statistiche, vengono utilizzati i seguenti metodi: portare dati paralleli; gruppi analitici; grafici statistici; correlazioni.

Metodo di riduzione dei dati paralleli si basa sul confronto di due o più serie di valori statistici. Tale confronto ci consente di stabilire l'esistenza di una connessione e di avere un'idea della sua natura. Ad esempio, la variazione di due quantità è rappresentata dai seguenti dati.

Graficamente, la relazione tra due caratteristiche viene rappresentata utilizzando il campo di correlazione. Nel sistema di coordinate, i valori della caratteristica del fattore sono tracciati sull'asse delle ascisse e la caratteristica risultante è tracciata sull'asse delle ordinate. Quanto più forte è la connessione tra le caratteristiche, tanto più strettamente i punti saranno raggruppati attorno ad una certa linea che esprime la forma della connessione (Fig.).

In assenza di connessioni strette, la disposizione dei punti sul grafico è casuale.

È tipico dei fenomeni socioeconomici che, insieme ai fattori significativi che costituiscono il livello dell'attributo effettivo, siano influenzati da molti altri fattori non contabilizzati e casuali. Ciò indica che le relazioni tra i fenomeni studiati dalla statistica sono di natura correlazionale.

Correlazioneè una relazione statistica tra variabili casuali che non hanno natura strettamente funzionale, in cui una variazione di una delle variabili casuali porta a una variazione dell'aspettativa matematica (valore medio) dell'altra.

Nelle statistiche è consuetudine distinguere tra quanto segue tipi di dipendenze.

1. Correlazione di coppia – una connessione tra due caratteristiche (risultativa e fattore o due fattori).

2. Correlazione parziale: la dipendenza tra le caratteristiche risultanti e quelle di un fattore con un valore fisso di altre caratteristiche del fattore.

3. Correlazione multipla: la dipendenza del risultato e di due o più caratteristiche dei fattori inclusi nello studio.

Il compito dell'analisi delle correlazioniè una determinazione quantitativa della vicinanza della connessione tra due caratteristiche (in una connessione a coppie) e tra le caratteristiche risultanti e quelle multifattoriali (in una connessione multifattoriale).

La vicinanza della connessione è espressa quantitativamente dall'entità dei coefficienti di correlazione, che consentono di determinare l'“utilità” delle caratteristiche dei fattori nella costruzione di equazioni di regressione multipla. Inoltre, il valore del coefficiente di correlazione serve come valutazione della coerenza dell'equazione di regressione con le relazioni di causa-effetto identificate.

9.2. Valutazione della tenuta della connessione

L'intensità della correlazione tra fattore e caratteristiche di prestazione può essere calcolata utilizzando i seguenti coefficienti: coefficiente di correlazione empirica (coefficiente Fechner); coefficiente di associazione; Coefficiente di contingenza reciproca di Pearson e Chuprov; fattore contingente; Coefficienti di correlazione dei ranghi di Spearman e Kendal; coefficiente di correlazione lineare; rapporto di correlazione, ecc.

Il coefficiente di correlazione lineare caratterizza la connessione più stretta: , dove è la media dei prodotti dei valori delle caratteristiche xy; – valori medi delle caratteristiche X E A; - deviazioni standard delle caratteristiche X E tu. Viene utilizzato se la relazione tra le caratteristiche è lineare

Il coefficiente di correlazione lineare può essere positivo o negativo.

Il suo valore positivo indica una connessione diretta e il suo valore negativo indica una connessione inversa. Quanto più vicino a ±1, tanto più stretta è la connessione. Con connessione funzionale tra caratteristiche = ±1. Vicinanza a 0 significa che la relazione tra le caratteristiche è debole.

9.3. Metodi di analisi di regressione

Strettamente correlato al concetto di correlazione è il concetto regressione. Il primo serve a valutare la vicinanza del collegamento, il secondo ne esamina la forma. Analisi di correlazione e regressione, come concetto generale, comprende la misurazione della tenuta e della direzione della connessione (analisi di correlazione) e la definizione di un'espressione analitica (forma) della connessione (analisi di regressione).

Dopo aver individuato la presenza di relazioni statistiche tra le variabili mediante l'analisi di correlazione e valutato il grado della loro vicinanza, si passa alla descrizione matematica di uno specifico tipo di dipendenza mediante l'analisi di regressione. Per fare ciò, seleziona una classe di funzioni che correla l'indicatore effettivo A e argomenti x1 , x2,...xK, seleziona gli argomenti più informativi, calcola le stime dei valori sconosciuti dei parametri di comunicazione e analizza le proprietà dell'equazione risultante.

Funzione che descrive la dipendenza del valore medio della caratteristica risultante A dall'argomento dato viene chiamato il valore funzione di regressione (equazione). La regressione è una linea, un tipo di dipendenza della caratteristica media effettiva dal fattore uno.

La più sviluppata nella teoria della statistica è la metodologia della correlazione di coppia, che considera l'influenza della variazione di un fattore caratteristico x sulla risultante y

L’equazione di correlazione lineare ha la forma: .

Opzioni uno 0 E un 1 sono chiamati parametri dell'equazione di regressione.

Per determinare i parametri dell'equazione di regressione, viene utilizzato il metodo minimi quadrati, che dà un sistema di due equazioni normali:

.

Risolvendo questo sistema in forma generale, possiamo ottenere formule per determinare i parametri dell'equazione di regressione: ,

ESERCIZI

Problema 9.1. 15 fabbriche sono classificate in ordine crescente di redditività della produzione.

Impresa n.

Redditività della produzione,%

Produzione per lavoratore, t/persona

Costo per unità di produzione, strofinare.

Stabilire la presenza e la forma di una correlazione tra redditività della produzione e produzione, redditività della produzione e costo unitario di produzione utilizzando i metodi dei grafici statistici e dell'analisi di regressione.

1. Un corso di teoria della statistica per la formazione di specialisti in profili finanziari ed economici: libro di testo / Salin V. N. - M.: Finanza e statistica, 2006. - 480 p.

2. Teoria generale della statistica: un libro di testo per studenti universitari / M. R. Efimova, E. V. Petrova, V. N. Rumyantsev. - 2a ed., riv. e aggiuntivi - M.: INFRA-M, 2006. - 414 pag.

3. Workshop sulla teoria generale della statistica: tutorial/ SIG. Efimova, O.I. Ganchenko, E.V. Petrova. -Ed. 3°, revisionato e aggiuntivi - M. Finanza e Statistica, 2007. - 368 p.

4. Workshop sulla statistica / A.P. Zinchenko, A.E., Shibalkin, O.B. Tarasova, E.V. Shaikina; Ed. AP Zinchenk. – M.: KolosS, 2003. – 392 p.

5. Statistica: libro di testo per studenti. istituzioni prof. istruzione / V.S. Mkhitaryan, T.A. Dubrova, V.G. Minashkin et al.; Ed. V.S. Mkhitaryan. – 3a ed., cancellata. – M.: Centro Editoriale “Accademia”, 2004. -272 p.

6. Statistica: libro di testo per studenti universitari / San Pietroburgo. stato Università di Economia e Finanza; a cura di I. I. Eliseeva. - M.: Istruzione superiore, 2008. - 566 pag.

7. Teoria della statistica: un libro di testo per studenti di specialità economiche nelle università / R. A. Shmoilova [et al.]; ed. R. A. Shmoilova. - 5a ed. - M.: Finanza e Statistica, 2008. - 656 p.

Lo studio della produzione moderna mostra che ciascun fenomeno è strettamente interconnesso e interagente.

Quando si studiano le dipendenze specifiche, alcune caratteristiche agiscono come fattori che determinano cambiamenti in altre caratteristiche. Le caratteristiche di questo gruppo sono chiamate caratteristiche fattoriali (caratteristiche fattoriali) e le caratteristiche che sono il risultato dell'influenza di questi fattori sono chiamate effettive (poiché il volume della produzione è influenzato dall'attrezzatura tecnica di produzione, quindi il volume della produzione è efficace e l'attrezzatura tecnica è un fattore caratteristico). Esistono due tipi di dipendenze tra i fenomeni economici: funzionale e stocastica. Con una connessione funzionale, ciascun sistema di valori definito delle caratteristiche dei fattori corrisponde a uno o più valori rigorosamente definiti della caratteristica risultante. Esempi di dipendenza funzionale possono essere forniti dal campo dei fenomeni fisici (S = v·t).

La connessione stocastica (probabilistica) si manifesta solo nei fenomeni di massa. A questo proposito, ogni specifico sistema di valori delle caratteristiche dei fattori corrisponde a un determinato insieme di valori della caratteristica risultante. Un cambiamento nelle caratteristiche del fattore non porta ad un cambiamento strettamente definito nella caratteristica risultante, ma ad un cambiamento solo nella distribuzione dei suoi valori. Ciò è dovuto al fatto che la variabile dipendente, oltre alla variabile selezionata, è influenzata da una serie di fattori non controllati o non contabilizzati, e anche perché la misurazione delle variabili è inevitabilmente accompagnata da alcuni errori casuali. Poiché i valori della variabile dipendente sono soggetti a dispersione casuale, non possono essere previsti con sufficiente precisione, ma vengono solo indicati con una certa probabilità (il numero di pezzi difettosi per turno, il numero di tempi di inattività per turno, ecc.) .

La comunicazione stocastica è chiamata correlazione. Per correlazione nel senso ampio del termine si intende una connessione, una relazione tra fenomeni e processi oggettivamente esistenti. La regressione è un caso speciale di correlazione. Mentre l'analisi di correlazione valuta la forza di una relazione stocastica, l'analisi di regressione ne esamina la forma, ovvero viene trovata l'equazione di correlazione (equazione di regressione).

Consideriamo diversi tipi correlazioni e regressioni.

La regressione è classificata in base al numero di variabili:

1) appaiati – regressione tra due variabili (profitto e produttività del lavoro);

2) multiplo – regressione tra la variabile dipendente y e più variabili (produttività del lavoro, livello di meccanizzazione della produzione, qualifiche dei lavoratori).

Per quanto riguarda la forma di dipendenza, ci sono:

regressione lineare; regressione non lineare.

A seconda della natura della regressione, ci sono:

1) regressione diretta. Si verifica se, al crescere o diminuire dei valori delle variabili fattore, aumentano o diminuiscono anche i valori della variabile risultante;

2) regressione inversa. In questo caso, all'aumentare o diminuire dei valori del fattore caratteristico, la caratteristica risultante diminuisce o aumenta.

Per quanto riguarda il tipo di connessione dei fenomeni, si distinguono:

1) regressione diretta. In questo caso i fenomeni sono direttamente collegati tra loro (costi di profitto);

2) regressione indiretta. Si verifica se le variabili fattore e risultato non sono direttamente in una relazione di causa-effetto e la variabile fattore agisce sulla variabile risultato attraverso qualche altra variabile (il numero di incendi e la resa del grano (condizioni meteorologiche));

3) regressione falsa o assurda. Nasce con un approccio formale ai fenomeni oggetto di studio. Di conseguenza, puoi arrivare a dipendenze false e persino prive di significato (il numero di frutta importata e l'aumento degli incidenti stradali mortali).

La classificazione e le correlazioni sono simili.

Lo studio delle interdipendenze in economia è di grande importanza. La statistica non solo risponde alla domanda sulla reale esistenza di una connessione tra fenomeni, ma fornisce anche una descrizione quantitativa di tale relazione. Conoscendo la natura della dipendenza di un fenomeno da un altro, è possibile spiegare le cause e l'entità dei cambiamenti nel fenomeno, nonché pianificare le misure necessarie per il suo ulteriore cambiamento. Affinché possano essere trovati i risultati dell'analisi di correlazione uso pratico e ha dato il risultato desiderato, devono essere soddisfatti alcuni requisiti:

1) omogeneità delle unità soggette ad analisi di correlazione (le imprese producono lo stesso tipo di prodotti, la stessa natura del processo tecnologico e il tipo di attrezzature);

2) un numero sufficiente di osservazioni;

3) i fattori inclusi nello studio devono essere indipendenti l'uno dall'altro.

Per studiare le relazioni funzionali, vengono utilizzati metodi di equilibrio e indice. Per studiare le relazioni stocastiche vengono utilizzati il ​​metodo delle serie parallele, il metodo dei raggruppamenti analitici, l'analisi della varianza e l'analisi delle regressioni e delle correlazioni.

Il metodo più semplice per rilevare le connessioni è confrontare due serie parallele. L'essenza del metodo è che prima vengono classificati gli indicatori che caratterizzano la caratteristica del fattore, quindi gli indicatori corrispondenti della caratteristica risultante vengono posizionati parallelamente ad essi. Il confronto di serie così costruite consente non solo di confermare la presenza stessa di una connessione, ma anche di identificarne la direzione.

Nel caso in cui le serie confrontate siano costituite da un gran numero di unità, la direzione della comunicazione per le diverse unità potrebbe essere diversa. In questo caso è più consigliabile utilizzare le tabelle di correlazione. In una tabella di correlazione, la caratteristica del fattore (x) è posizionata in righe e la caratteristica risultante (y) è posizionata in colonne. I numeri situati all'intersezione delle righe e delle colonne della tabella mostrano la frequenza di ripetizione di una determinata combinazione di xey. La costruzione di una tavola di correlazione inizia con il raggruppamento delle unità di osservazione in base ai valori del fattore e alle caratteristiche risultanti. Se le frequenze nella tabella di correlazione si trovano diagonalmente dall'angolo in alto a sinistra all'angolo in basso a destra, allora possiamo supporre la presenza di una correlazione diretta. Se le frequenze si trovano diagonalmente da destra a sinistra, si presuppone la presenza di feedback tra i segni.

Un altro metodo per rilevare le connessioni consiste nel creare una tabella di gruppo (metodo di raggruppamento analitico). L'insieme dei valori del fattore x viene suddiviso in gruppi e per ciascun gruppo viene calcolato il valore medio della caratteristica risultante. Si presume che con un numero sufficientemente elevato di osservazioni in ciascun gruppo, l'influenza di altri fattori casuali nel calcolo della media del gruppo si annullerà e la dipendenza della caratteristica effettiva dalla caratteristica del fattore diventerà più chiara e, quindi, le differenze nel il valore delle medie sarà associato solo alle differenze nel valore di questo fattore caratteristico. Se non ci fosse alcuna connessione tra il fattore e l'attributo risultante, tutte le medie del gruppo avrebbero approssimativamente la stessa dimensione.

L'indicatore più semplice della vicinanza di una connessione è il coefficiente di correlazione del segno (coefficiente di H. Fechner):

,

dov'è il numero di coincidenze di segni di deviazione di un valore individuale dalla media;

– il numero di discrepanze nei segni di deviazione di un valore individuale dalla media.

Questo coefficiente consente di avere un'idea della direzione della connessione e una caratteristica approssimativa della sua tenuta. Per calcolarlo, vengono calcolati i valori medi delle caratteristiche risultanti e dei fattori, quindi vengono assegnati i segni di deviazione per tutti i valori delle caratteristiche correlate Kf = [-1;+1]. Se i segni di tutte le deviazioni coincidono, allora Kf = 1 – una connessione diretta; se i segni di tutte le deviazioni sono diversi, allora Kf = - 1, che indica la presenza di feedback.

Tabella 28

Numero di lavoratori e utile di bilancio

Numero di lavoratori, persone

Utile di bilancio, migliaia di rubli.

Segno di deviazioni dei valori dei singoli tratti dalla media

Corrispondenza (a), mancata corrispondenza (b)

Mille strofinare.

, quindi, c'è un debole feedback tra i segni.

Per approssimare la direzione e la forza della relazione tra le caratteristiche rappresentate da due serie, è possibile utilizzare anche il coefficiente di correlazione del rango. Quando si determina il coefficiente di correlazione del rango, vengono classificati i valori x, quindi vengono classificati i valori y corrispondenti. Di conseguenza, otteniamo gradi, ad es. luoghi, numero di unità di una popolazione in una serie ordinata. Inoltre, se ci sono opzioni identiche, a ciascuna di esse viene assegnata la media aritmetica dei rispettivi ranghi.

Coefficiente di correlazione del rango di Spearman:

,

dove d è la differenza tra i ranghi dei valori corrispondenti di due caratteristiche;

n – numero di unità di fila.

Il coefficiente di correlazione del rango assume valori [-1; 1]. Se – chiudere il collegamento diretto, – chiudere il feedback, – non c'è collegamento. Il coefficiente di correlazione del rango presenta alcuni vantaggi rispetto ad altre caratteristiche della direzione e della vicinanza della connessione: può essere determinato studiando dati che non possono essere numerati, ma sono classificati (sfumature, qualità).

Per caratterizzare numericamente la vicinanza della connessione, possono essere utilizzati indicatori di variazione della caratteristica risultante: la sua dispersione totale e la dispersione intergruppo ().

Coefficiente di correlazione del rango Kendal:

,

dove q è il numero di ranghi disposti in ordine inverso.

Nella pratica della ricerca statistica è spesso necessario analizzare distribuzioni alternative, quando la popolazione viene distribuita per ciascuna caratteristica in due gruppi con caratteristiche opposte. La vicinanza della connessione in questo caso può essere valutata utilizzando il coefficiente contingente:

.

Tabella 29

Dipendenza del rendimento degli studenti dal genere

Popolazione studentesca

superato gli esami

coloro che non hanno superato gli esami

.

Di conseguenza, non esiste praticamente alcuna connessione tra il genere dello studente e il suo rendimento scolastico.

Il coefficiente di associazione si calcola come segue:

Recensito in precedenza metodi statistici Gli studi sulle relazioni spesso risultano insufficienti, perché non consentono di esprimere la connessione esistente sotto forma di una specifica equazione matematica. I metodi delle serie parallele e dei raggruppamenti analitici sono efficaci solo con un numero limitato di caratteristiche dei fattori, mentre i fenomeni socioeconomici di solito si sviluppano sotto l'influenza di molte ragioni. Queste limitazioni vengono eliminate dal metodo di analisi delle correlazioni e delle regressioni.

Il metodo di analisi delle correlazioni e delle regressioni consiste nel costruire e analizzare un modello economico-matematico sotto forma di un'equazione di regressione che esprime la dipendenza di un fenomeno dai suoi fattori determinanti. Ad esempio, la dipendenza del volume di produzione (y) (milioni di rubli) dalle sue attrezzature tecniche (x) (%) è espressa dalla seguente dipendenza:

.

Si può presumere che con un aumento delle attrezzature tecniche dell'1%, il volume della produzione aumenterà in media di 21,4 milioni di rubli.

Il metodo di analisi delle correlazioni e delle regressioni prevede i seguenti passaggi:

analisi preliminare; raccolta di informazioni e loro elaborazione primaria; costruzione di un modello (equazioni di regressione); valutazione e analisi del modello.

Nella prima fase è necessario formulare in termini generali il problema della ricerca (studiando l'influenza di vari fattori sul livello di produttività del lavoro). Successivamente, è necessario determinare la metodologia per misurare l'indicatore di prestazione (la produttività del lavoro può essere determinata con metodi naturali, di lavoro o di costo). È inoltre necessario determinare il numero di fattori che hanno l'impatto più significativo sulla formazione della caratteristica effettiva.

Nella fase di raccolta ed elaborazione delle informazioni, il ricercatore deve ricordare che la popolazione studiata deve essere di volume sufficientemente grande. I dati di origine devono essere qualitativamente e quantitativamente omogenei.

Quando si costruisce un modello di correlazione (equazione di regressione), sorge la domanda sul tipo di funzione analitica che caratterizza il meccanismo di relazione tra le caratteristiche. Questa relazione può essere espressa:

retta ; parabola del secondo ordine ; iperbole; funzione esponenziale, ecc.

Cioè, sorge la domanda sulla scelta della forma di comunicazione. Il tipo di regressione empirica suggerisce quale tipo di curva può essere descritta. Successivamente, l'equazione di regressione viene risolta. Successivamente, utilizzando appositi criteri, se ne valuta l'adeguatezza e si sceglie la forma di collegamento che offre la migliore approssimazione e una sufficiente affidabilità statistica. Dopo aver scelto la forma della connessione e costruito un'equazione di regressione in forma generale, è necessario trovare il valore numerico dei suoi parametri. Per trovare i parametri viene utilizzato il metodo dei minimi quadrati. La sua essenza è la seguente.

Lo studio delle dipendenze è un compito arduo, poiché gli stessi fenomeni socioeconomici sono complessi e diversificati. Inoltre, le conclusioni tratte sono di natura probabilistica, poiché sono tratte da dati che costituiscono un campione nel tempo o nello spazio.

I metodi statistici per lo studio della dipendenza sono costruiti tenendo conto delle caratteristiche dei modelli studiati. La statistica studia principalmente le relazioni stocastiche, quando un valore di una caratteristica del fattore corrisponde a un gruppo di valori della caratteristica risultante. Se, con una modifica dei valori di una caratteristica del fattore, cambiano i valori medi del gruppo della caratteristica risultante, tali connessioni vengono chiamate correlazione. Non tutte le dipendenze stocastiche sono correlazionali. Se ciascun valore della caratteristica del fattore corrisponde a un valore rigorosamente definito della caratteristica risultante, tale dipendenza è funzionale. Si chiama anche correlazione completa. Le correlazioni ambigue sono chiamate correlazioni incomplete.

Secondo il meccanismo di interazione, si distinguono:

· Collegamenti diretti - quando la causa influenza direttamente l'effetto;

· Collegamenti indiretti - quando ci sono una serie di segni intermedi tra causa ed effetto (ad esempio, l'effetto dell'età sui guadagni).

Si distinguono le seguenti aree:

· Collegamenti diretti - quando il valore del fattore e le caratteristiche risultanti cambiano nella stessa direzione;

· Feedback - quando i valori del fattore e le caratteristiche risultanti cambiano in direzioni diverse.

· Collegamenti rettilinei (lineari) - espressi da una linea retta;

· Collegamenti curvilinei - espressi da parabola, iperbole.

In base al numero di caratteristiche correlate si distinguono:

· Connessioni accoppiate - quando viene analizzata la relazione tra due caratteristiche (fattoriale e risultante);

· Connessioni multiple: caratterizzano l'influenza di diverse caratteristiche su una efficace.

In base alla forza di interazione si distinguono:

· Connessioni deboli (evidenti);

· Connessioni forti (strette).

Il compito della statistica è determinare la presenza, la direzione, la forma e la vicinanza della relazione.

Per studiare la dipendenza vengono utilizzati vari metodi statistici. Poiché le dipendenze nelle statistiche si manifestano attraverso la variazione delle caratteristiche, i metodi misurano e confrontano principalmente la variazione del fattore e le caratteristiche risultanti.

Se tracciamo i risultati del raggruppamento su un grafico, otteniamo una retta di regressione empirica. Gli intervalli dei valori caratteristici dei fattori sono sostituiti da indicatori medi del gruppo.

Oltre alla retta di regressione empirica, che determina direttamente la forma e la direzione delle relazioni, esiste un campo di correlazione su cui si riflettono i dati parametrici.

Il campo di correlazione può essere utilizzato anche per giudicare la natura della relazione. Se i punti sono concentrati vicino alla diagonale che va da sinistra a destra, dal basso verso l'alto, allora il collegamento è diretto. Se vicino a un'altra diagonale, il contrario. Se i punti sono sparsi in tutto il campo del grafico, non c'è connessione.

Quando si costruisce un raggruppamento analitico, è importante determinare correttamente la dimensione dell'intervallo. Se a seguito del raggruppamento iniziale il collegamento non appare chiaramente è possibile allargare l'intervallo. Tuttavia, ampliando gli intervalli, a volte è possibile rilevare una connessione anche dove non esiste. Pertanto, quando costruiamo un raggruppamento analitico, siamo guidati dalla regola: più gruppi possiamo identificare senza incontrare una sola eccezione, più affidabile è la nostra ipotesi sulla presenza e sulla forma della connessione.

I metodi non matematici forniscono una stima approssimativa della presenza, della forma e della direzione della connessione. L'analisi più approfondita viene effettuata utilizzando metodi matematici che si sono sviluppati sulla base di metodi utilizzati da statistici non matematici:

· Analisi di regressione, che consente di esprimere la forma di una relazione utilizzando un'equazione.

· Analisi di correlazione utilizzato per determinare la vicinanza o la forza della relazione tra le caratteristiche. I metodi di correlazione si dividono in:

- Metodi parametrici che forniscono una valutazione della vicinanza della relazione direttamente in base ai valori del fattore e alle caratteristiche risultanti;

- Metodi non parametrici: forniscono una stima basata su stime condizionate delle caratteristiche.

Una valutazione della rigidità delle dipendenze curvilinee viene fornita dopo aver calcolato il parametro dell'equazione di regressione. Pertanto, questo metodo è chiamato correlazione-regressione.

Se viene analizzata la dipendenza di un fattore e le caratteristiche risultanti, in questo caso abbiamo a che fare con correlazione e regressione di coppia. Se vengono analizzati diversi fattori e caratteristiche prestazionali, si tratta di correlazione multipla e regressione.

La regressione è una linea che caratterizza la tendenza più generale nel rapporto tra fattore e caratteristiche risultanti.

Si presume che l'equazione analitica esprima la vera forma della dipendenza e tutte le deviazioni da questa funzione siano dovute all'azione di varie cause casuali. Poiché si studiano le correlazioni, una variazione della caratteristica di un fattore corrisponde a una variazione del livello medio della caratteristica risultante. Durante la costruzione dei raggruppamenti analitici, abbiamo considerato la retta di regressione empirica. Tuttavia, questa linea non è adatta alla modellizzazione economica e la sua forma dipende dall’arbitrarietà del ricercatore. Teoricamente la retta di regressione dipende meno dalla soggettività del ricercatore, tuttavia può esserci anche arbitrarietà nella scelta della forma o della funzione della relazione. Si ritiene che la scelta della funzione dovrebbe essere basata su profonda conoscenza specificità dell’oggetto della ricerca.

In pratica, vengono spesso utilizzate le seguenti forme di modelli di regressione:

· Lineare;

· Curva semi-logaritmetica;

· Iperbole;

· Parabola del secondo ordine;

· Funzione esponenziale;

· Funzione di potenza.


Questa proprietà della media, che afferma che la somma dei quadrati delle deviazioni di tutte le varianti di una serie dalla media aritmetica è inferiore alla somma dei quadrati delle deviazioni da qualsiasi altro numero, è la base del metodo dei minimi quadrati, che consente di calcolare i parametri dell'equazione di regressione selezionata in modo tale che la retta di regressione sia, in media, la meno distante dai dati empirici.

I metodi non parametrici per misurare la vicinanza delle relazioni tra tratti quantitativi sono stati i primi metodi per misurare la vicinanza delle relazioni. Lo scienziato francese Guirriy tentò per la prima volta di misurare la vicinanza della connessione negli anni '30 del XIX secolo. Ha confrontato i valori medi di gruppo del fattore e le caratteristiche risultanti. In questo caso, i valori assoluti sono stati sostituiti dai loro rapporti con determinate costanti. I risultati ottenuti sono stati classificati in ordine crescente. Girriy ha giudicato la presenza o l'assenza di una connessione confrontando in precedenza i gruppi e contando il numero di partite e le discrepanze tra i ranghi. Se prevaleva il numero di corrispondenze, il collegamento veniva considerato diretto. Mancata corrispondenza - inversione. Se ci fossero corrispondenze e disallineamenti uguali, non vi sarebbe alcuna connessione.

Il metodo Girri è stato utilizzato da Fechner per sviluppare il suo coefficiente, così come da Spearman per sviluppare il coefficiente di correlazione dei ranghi.

Il coefficiente indica la presenza di una relazione di feedback molto stretta.

Insieme al coefficiente Fechner, i coefficienti di correlazione dei ranghi vengono utilizzati per misurare la relazione delle caratteristiche quantitative. Il più comune tra questi è il coefficiente di correlazione del rango di Spearman.

I metodi non parametrici vengono utilizzati per misurare la stretta relazione tra caratteristiche qualitative e alternative, nonché caratteristiche quantitative, la cui distribuzione differisce dalla distribuzione normale.

Per misurare la connessione tra caratteristiche alternative, vengono utilizzati il ​​coefficiente di associazione di David Yule e il coefficiente di contingenza di Karl Pearson. Per calcolare questi indicatori, viene utilizzata la seguente matrice di distribuzione della frequenza reciproca:

a, b, c, d - frequenze di distribuzione reciproca delle caratteristiche.

Con collegamento diretto le frequenze sono concentrate lungo la diagonale a-d, con feedback lungo la diagonale b-c, senza collegamento le frequenze sono distribuite quasi uniformemente su tutto il campo della tavola.

Coefficiente di associazione

Il coefficiente di associazione non è adatto per il calcolo se una delle frequenze lungo la diagonale è 0. In questo caso viene utilizzato il coefficiente contingente, che viene calcolato con la formula:

Il coefficiente contingente indica anche la pratica assenza di connessione tra le caratteristiche (il suo valore è sempre inferiore a K ac).

Per misurare la vicinanza di una relazione lineare, viene utilizzato un coefficiente di correlazione. La forma base del coefficiente di correlazione è la seguente:


Infatti, il coefficiente di correlazione è la media del prodotto delle deviazioni standard:

Se non esiste alcuna connessione tra le caratteristiche, la caratteristica risultante non varia quindi al variare della caratteristica del fattore. Lo stesso risultato si ottiene quando le somme dei prodotti negativi e positivi sono bilanciate.

Di solito, per calcolare il coefficiente di correlazione, vengono utilizzate formule che utilizzano quegli indicatori già calcolati durante la determinazione dei parametri dell'equazione di regressione.

La correlazione multipla e la regressione vengono utilizzate per studiare l'influenza di due o più fattori su una caratteristica di risultato. Il processo di ricerca comprende diverse fasi.

Innanzitutto, viene selezionata la forma dell'equazione di relazione; molto spesso viene selezionata una formula lineare n-dimensionale:

Poiché i calcoli sono importanti e richiedono molto tempo, la selezione dei fattori da includere nel modello di regressione è fondamentale. Sulla base dell'analisi qualitativa è necessario selezionare i fattori più significativi. Nella fase di selezione dei fattori viene anche calcolata una matrice unitaria di coefficienti di correlazione accoppiati tra le caratteristiche dei fattori selezionati per l'inclusione nell'equazione di regressione.

Lo studio delle connessioni oggettivamente esistenti tra fenomeni e processi socioeconomici è il compito più importante della teoria della statistica. In corso

La ricerca statistica sulle dipendenze rivela relazioni di causa-effetto tra i fenomeni, il che rende possibile identificare fattori (segni) che hanno una grande influenza sulla variazione dei fenomeni e dei processi studiati. Le relazioni di causa ed effetto sono una tale connessione tra fenomeni e processi quando un cambiamento in uno di essi - la causa - porta a un cambiamento nell'altro - l'effetto.

I processi finanziari ed economici sono il risultato dell’influenza simultanea di un gran numero di cause. Di conseguenza, quando si studiano questi processi, è necessario identificare le cause principali, astraendo da quelle secondarie.

La prima fase dello studio statistico della comunicazione si basa sull'analisi qualitativa associata all'analisi della natura di un fenomeno sociale o economico utilizzando i metodi della teoria economica, della sociologia e dell'economia concreta. La seconda fase, ovvero la costruzione di un modello di comunicazione, si basa su metodi statistici: raggruppamenti, valori medi e così via. La terza e ultima fase, l'interpretazione dei risultati, è nuovamente associata alle caratteristiche qualitative del fenomeno studiato. La statistica ha sviluppato molti metodi per studiare le relazioni. La scelta del metodo di studio della comunicazione dipende da scopo cognitivo e obiettivi della ricerca.

I segni, in base alla loro essenza e significato per lo studio della relazione, sono divisi in due classi. Vengono chiamati segni che causano cambiamenti in altri segni associati fattoriale, o semplicemente fattori. Vengono chiamate le caratteristiche che cambiano sotto l'influenza delle caratteristiche dei fattori efficace.

In statistica si distingue tra dipendenze funzionali e dipendenze stocastiche. Funzionaleè una relazione in cui ad un certo valore di una caratteristica fattore corrisponde uno ed un solo valore della caratteristica risultante.

Se una dipendenza causale non appare in ogni singolo caso, ma in generale, in media, con un gran numero di osservazioni, allora tale dipendenza viene chiamata Stocastico. Un caso speciale di accoppiamento stocastico è correlazione una relazione in cui una variazione nel valore medio di una caratteristica risultante è dovuta a una variazione nelle caratteristiche dei fattori.

Le connessioni tra i fenomeni e le loro caratteristiche sono classificate in base al grado di vicinanza,

direzione ed espressione analitica.

In base al grado di vicinanza della connessione si distinguono:

All'aumento o alla diminuzione dei valori del fattore caratteristico si verifica un aumento o diminuzione dei valori della caratteristica risultante. Pertanto, un aumento dei volumi di produzione contribuisce ad un aumento del profitto dell'impresa. Quando inversione connessioni, i valori della caratteristica risultante cambiano sotto l'influenza del fattore caratteristico, ma nella direzione opposta rispetto alla variazione del fattore caratteristico, cioè inversione– si tratta di un rapporto in cui, all’aumento o alla diminuzione dei valori di una caratteristica, si verifica una diminuzione o un aumento dei valori di un’altra caratteristica. Pertanto, una riduzione del costo unitario di produzione comporta un aumento della redditività.

Secondo l'espressione analitica, si distinguono le connessioni Dritto(o semplicemente se-

nenyny) E non lineare. Se è possibile applicare una relazione statistica tra i fenomeni

è espresso approssimativamente dall'equazione di una retta, si chiama lineare connessione di tipo.

Condividi con gli amici o salva per te stesso:

Caricamento...