Baza Statistika Alproksimiĝo al Analizanta Kvantumajn Datumojn
Linearaj regresaj modeloj estas uzataj por montri aŭ antaŭdiri la rilaton inter du variabloj aŭ faktoroj . La faktoro, kiu estas antaŭvidita (la faktoro, kiun la ekvacio solvas ) nomiĝas dependa variablo. La faktoroj uzataj por antaŭdiri la valoron de la dependa variablo estas nomitaj la sendependaj variabloj.
Bona datumo ne ĉiam rakontas la kompletan historion. Regresiga analizo estas ofte uzata en esplorado, kiel ĝi establas, ke ekzistas interrilato inter variabloj.
Sed korelacio ne estas la sama kiel kaŭzo . Eĉ linio en simpla lineara regresigo, kiu konvenas la datumajn punktojn, bone ne povas diri ion definitiva pri kaŭzo-efika rilato.
En simpla lineara regresado, ĉiu observado konsistas el du valoroj. Unu valoro estas por la dependa variablo kaj unu valoro estas por la sendependa variablo.
- Simpla Lineara Regresiga Analizo La plej simpla formo de regresiga analizo uzas sur dependa variablo kaj unu sendependa variablo. En ĉi tiu simpla modelo , rekta linio proksimigas la rilaton inter la dependa variablo kaj la sendependa variablo.
- Multoblaj Regresaj Analizo Kiam du aŭ pli sendependaj variabloj estas uzataj en regresiga analizo, la modelo ne plu estas simpla lineara.
Simpla Lineara Regresiga Modelo
La simpla lineara regresiga modelo estas prezentita kiel ĉi tiu: y = ( β 0 + β 1 + Ε
Per matematika konvencio, la du faktoroj kiuj estas implikitaj en simpla lineara regresiga analizo estas nomumitaj x kaj y .
La ekvacio kiu priskribas kiel kaj estas rilatigita kun x estas konata kiel la regresiga modelo . La lineara regresiga modelo ankaŭ enhavas eraran terminon, kiu estas reprezentita per Ε aŭ la greka litero epsilon. La erara termino estas uzata por rimarki la variablon en kaj kiu ne povas esti klarigita per la lineara rilato inter x kaj y .
Ankaŭ parametroj, kiuj reprezentas la loĝantaron, estas studataj. Ĉi tiuj parametroj de la modelo (tiu, ke, kiu) estas (prezentita, prezentita) per ( β 0 + β 1 x ).
Simpla Lineara Regresiga Modelo
La simpla lineara regreska ekvacio estas prezentita kiel ĉi tiu: Ε ( y ) = ( β 0 + β 1 x ).
La simpla lineara regreska ekvacio estas kroĉita kiel rekta linio.
( β 0 estas la interkaptado de la regresiga linio.
β 1 estas la pritraktata.
Ε ( y ) estas la meznombro aŭ atendita valoro de y por donita valoro de x .
Rezreska linio povas montri pozitivan linean rilaton, negativan linean rilaton aŭ nenian rilaton. Se la linio en formo de simpla regresigo lineal estas ebena (ne malplenigita), ne ekzistas rilato inter la du variabloj. Se la regresiga linio kliniĝas supren kun la malsupra fino de la linio ĉe la interkaptado de la grafikaĵo kaj la supra fino de la linio etendanta supren al la grafika kampo, for de la interkaptilo (akso) pozitiva lineara rilato ekzistas . Se la regresiga linio malsupreniras malsupren kun la supra supro de la linio ĉe la interkapti (akso) de la grafikaĵo, kaj la malsupra fino de la linio etendanta malsupren en la grafikan kampon, al la interkaptilo (akso) ekzistas negativa lineara rilato.
Estimata Lineara Regresiĝa Ekvacio
Se la parametroj de la populacio estis konataj, la simpla lineara regreska ekvacio (montrita sube) povus esti uzata por komputi la mezan valoron de y por konata valoro de x .
Ε ( y ) = ( β 0 + β 1 x ).
Tamen, en la praktiko, la parametroj estas nekonataj, do ili devas esti taksataj per uzado de datumoj de specimeno de la populacio. La popularaj parametroj estas taksataj per specimeno de statistikoj . La specimeno de statistikoj estas reprezentitaj per b 0 + b 1. Kiam la specimeno de statistikoj estas anstataŭigita por la popularaj parametroj, la estimita recesia ekvacio estas formita.
La taksita regreska ekvacio estas montrata sube.
( ŷ ) = ( β 0 + β 1 x
( ŷ ) estas prononcita kaj ĉapelo .
La (grafikaĵo, grafeo) de la kalkulita simpla regresiga ekvacio estas (nomita, vokis) la estimita regresiga linio
La b 0 estas la interkaptado.
La b 1 estas la pritraktata.
La ŷ ) estas la taksita valoro de y por donita valoro de x .
Grava Noto: Regresiga analizo ne estas uzata por interpreti kaŭz-rilatojn inter variabloj. Regresiga analizo tamen indikas kiel variabloj estas rilatigitaj aŭ ĝis kiom variabloj estas unuigitaj inter si.
Tiel farante, la analizo de regresado inklinas fari rilatojn elstaraj, kiuj garantias al la esploristo sciigita alproksimigi ĝin .
Ankaŭ konata kiel: bivaria regresio, regresiga analizo
(Ekzemploj, Ekzemplas): La Minimuma Kvadrata Metodo estas statistika proceduro por uzado de specimeno-datumoj por trovi la valoron de la estimita regreska ekvacio. La plej malnova metodo de la placo estis proponita de Carl Friedrich Gauss, kiu naskiĝis en la jaro 1777 kaj mortis en 1855. La plej malnova metodo de kvadratoj ankoraŭ estas vaste uzata.
Fontoj:
Anderson, D-ro, Sweeney, DJ, kaj Williams, TA (2003). Esencaj Statistikoj por Komerco kaj Ekonomio (3-a ed.) Mason, Ohio: Sudokcidenta, Thompson Lernado.
Previous page next page (2010). Klarigita: Regresiga Analizo. MIT-novaĵoj.
McIntyre, L. (1994). Uzanta cigaredajn datumojn por Enkonduko al Multoblaj Regresoj. Ĵurnalo pri Statistika Edukado, 2 (1).
Mendenhall, W., kaj Sincich, T. (1992). Statistikoj pri Inĝenieristiko kaj Sciencoj (3-a ed.), Nov-Jorko, NY: Dellen Publishing Co.
Panchenko, D. 18.443 Statistikoj por Aplikoj, Aŭtuno 2006, Sekcio 14, Simpla Linia Regresiĝo. (Masaĉuseca Instituto de Teknologio: MIT OpenCourseWare)