상관 계수 R | [R 강의] 106. 피어슨 상관분석 26682 명이 이 답변을 좋아했습니다

당신은 주제를 찾고 있습니까 “상관 계수 r – [R 강의] 106. 피어슨 상관분석“? 다음 카테고리의 웹사이트 th.taphoamini.com 에서 귀하의 모든 질문에 답변해 드립니다: th.taphoamini.com/wiki. 바로 아래에서 답을 찾을 수 있습니다. 작성자 통계의 도구들 Statools 이(가) 작성한 기사에는 조회수 2,510회 및 좋아요 42개 개의 좋아요가 있습니다.

상관 계수 r 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 [R 강의] 106. 피어슨 상관분석 – 상관 계수 r 주제에 대한 세부정보를 참조하세요

글이 더 편하신 분
https://statools.tistory.com/

상관 계수 r 주제에 대한 자세한 내용은 여기를 참조하세요.

상관계수 :: R 기초 통계 – 마인드스케일

상관계수(correlation coefficient): 두 변수가 함께 변하는 정도를 -1 ~ 1 범위의 수로 나타낸 것. 피어슨 상관계수. 칼 피어슨(Karl Pearson)이 개발한 상관계수 …

+ 여기에 더 보기

Source: mindscale.kr

Date Published: 12/16/2021

View: 7009

[R] 상관관계 분석(Correlation Analysis)

상관 관계 분석 중요사항. – 회귀분석 전 변수 간 관련성 분석(가설 검정 전 수행) – 상관계수 -> 피어슨(Pearson) R계수 이용 관련성 유무.

+ 더 읽기

Source: kerpect.tistory.com

Date Published: 4/5/2021

View: 5021

상관 계수 | 통계 소개 – JMP

상관 계수는 상관관계 분석에서 두 변수 간에 선형 관계의 정도를 수량화하는 측도입니다. 계수는 상관관계 보고서에서 r로 기호화합니다. 상관 계수는 어떻게 사용되나요?

+ 더 읽기

Source: www.jmp.com

Date Published: 4/25/2022

View: 5292

상관 분석 – 위키백과, 우리 모두의 백과사전

… 를 상관관계(Correlation, Correlation coefficient)라 한다. 상관분석에서는 상관관계의 정도를 나타내는 단위로 모상관계수로 ρ를 사용하며 표본 상관 계수로 r …

+ 여기를 클릭

Source: ko.wikipedia.org

Date Published: 4/24/2022

View: 1539

5.17 R로 상관계수(피어슨) 구하기 – 네이버 블로그

이번 포스팅에서는 두 변수의 선형적 관계를 수치적으로 파악할 수 있는 상관계수(피어슨 상관계수)를 R에서 구하는 방법을 알아볼려고 합니다.

+ 자세한 내용은 여기를 클릭하십시오

Source: m.blog.naver.com

Date Published: 12/22/2021

View: 8425

R) 통계-상관분석 – Data Doctor

R을 활용하여 두 변수간의 선형관계. 즉, 선형성(linearity)을 알아보는 상관분석에 대해 알아보자.

+ 여기에 자세히 보기

Source: datadoctorblog.com

Date Published: 6/6/2021

View: 6026

상관계수 – 나무위키:대문

심지어 스피어만 상관 계수나 파이, r(b)같은 다른 상관계수들도 피어슨 상관계수의 변형이니 말 다했다.[3]이 상관계수는 측정하려는 두 변수의 상관관계 …

+ 여기에 표시

Source: namu.wiki

Date Published: 5/21/2022

View: 5710

[내가 하는 통계 분석] 피어슨 상관 계수(Pearson correlation …

안녕하세요, 산격동 너구리입니다. 이번 포스팅은, R을 이용한 “피어슨 상관 계수”입니다. 개요 피어슨 상관 계수란?? 두 변수의 선형 상관 관계를 …

+ 여기를 클릭

Source: lunch-box.tistory.com

Date Published: 2/27/2021

View: 7053

결정계수 R^2, 상관계수의 제곱 r^2의 차이 증명(Coefficient of …

많은 이들이 결정계수 R^2과 상관계수의 제곱 r^2을 동등하게 여긴다. 이는 통계학에서 두드러지는데, 실제로 책 <앤디 필드의 유쾌한 R 통계학> …

+ 여기에 보기

Source: rython.tistory.com

Date Published: 3/10/2021

View: 4143

주제와 관련된 이미지 상관 계수 r

주제와 관련된 더 많은 사진을 참조하십시오 [R 강의] 106. 피어슨 상관분석. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

[R 강의] 106. 피어슨 상관분석
[R 강의] 106. 피어슨 상관분석

주제에 대한 기사 평가 상관 계수 r

  • Author: 통계의 도구들 Statools
  • Views: 조회수 2,510회
  • Likes: 좋아요 42개
  • Date Published: 2020. 12. 17.
  • Video Url link: https://www.youtube.com/watch?v=sCBJWRg2WZo

[R] 상관관계 분석(Correlation Analysis)

728×90

반응형

상관관계 분석(Correlation Analysis) – 관련성

: 변수 간 관련성 분석 방법으로 하나의 변수가 다른 변수와 관련성 분석하는 방법입니다.

ex) 광고비와 매출액 사이의 관련성 등 분석

* 상관분석 자세한 설명

더보기 확률론과 통계학에서 두 변수간에 어떤 선형적 관계를 갖고 있는 지를 분석하는 방법이다. 두변수는 서로 독립적인 관계로부터 서로 상관된 관계일 수 있으며, 이때 두 변수간의 관계의 강도를 상관관계(Correlation, Correlation coefficient)라 한다. 상관분석에서는 상관관계의 정도를 나타내는 단위로 모상관계수 ρ를 사용한다. 상관관계의 정도를 파악하는 상관계수(Correlation coefficient)는 두 변수간의 연관된 정도를 나타낼 뿐 인과관계를 설명하는 것은 아니다. 두 변수간에 원인과 결과의 인과관계가 있는지에 대한 것은 회귀분석을 통해 인과관계의 방향, 정도와 수학적 모델을 확인해 볼 수 있다.

상관 관계 분석 중요사항

– 회귀분석 전 변수 간 관련성 분석(가설 검정 전 수행)

– 상관계수 -> 피어슨(Pearson) R계수 이용 관련성 유무

상관관계 분석척도 :

피어슨 상관계수(Pearson correlation coefficient : r)

– 상관계수 r과 상관관계 정도

기술 통계량 구하기

– 데이터 가져오기

result <- read.csv("C:/workspaces/R/data/product.csv", header=TRUE) head(result) # 친밀도 적절성 만족도(등간척도 - 5점 척도) - 출력값 - 제품_친밀도 제품_적절성 제품_만족도 1 3 4 3 2 3 3 2 3 4 4 4 4 2 2 2 5 2 2 2 6 3 3 3 - 기술 통계량 summary(result) # 요약통계량 - 출력값 - 제품_친밀도 제품_적절성 제품_만족도 Min. :1.000 Min. :1.000 Min. :1.000 1st Qu.:2.000 1st Qu.:3.000 1st Qu.:3.000 Median :3.000 Median :3.000 Median :3.000 Mean :2.928 Mean :3.133 Mean :3.095 3rd Qu.:4.000 3rd Qu.:4.000 3rd Qu.:4.000 Max. :5.000 Max. :5.000 Max. :5.000 sd(result$제품_친밀도); sd(result$제품_적절성); sd(result$제품_만족도) - 출력값 - [1] 0.9703446 [1] 0.8596574 [1] 0.8287436 sd 표준편차 : 평균을 기준으로 분포되어있는 정도를 보여줍니다. 상관계수(coefficient of correlation) : 두 변량 X,Y 사이의 상관관계 정도를 나타내는 수치(계수) cor(result$제품_친밀도, result$제품_적절성) 출력값 : 0.4992086 -> 다소 높은 양의 상관관계 cor(result$제품_친밀도, result$제품_만족도) 출력값 : 0.467145 -> 다소 높은 양의 상관관계

전체 변수 간 상관계수 보기

cor(result, method=”pearson”)

방향성 있는 색상으로 표현

install.packages(“corrgram”) library(corrgram) corrgram(result) # 색상 적용 – 동일 색상으로 그룹화 표시

수치(상관계수) 추가(위쪽)

corrgram(result, upper.panel=panel.conf)

수치(상관계수) 추가(아래쪽)

corrgram(result, lower.panel=panel.conf)

차트에 밀도 곡선, 상관성, 유의확률(별표) 추가

install.packages(“PerformanceAnalytics”) library(PerformanceAnalytics)

– 상관성, p값(*), 정규분포 시각화 – 모수 검정 조건

chart.Correlation(result, histogram=, pch=”+”)

spearman : 서열척도 대상 상관계수

cor(result, method=”spearman”)

728×90

반응형

상관 계수

상관 계수란 무엇인가요?

상관 계수는 상관관계 분석에서 두 변수 간에 선형 관계의 정도를 수량화하는 측도입니다. 계수는 상관관계 보고서에서 r로 기호화합니다.

상관 계수는 어떻게 사용되나요?

변수 2개에 관한 공식은 변수 평균으로부터 각 데이터 점의 거리를 비교하고 이 값을 사용하여 변수 간 관계가 데이터를 통해 그려진 가상선에 얼마나 밀접하게 적합할 수 있는지 알려 줍니다. 상관관계가 선형 관계를 고려한다는 것이 바로 이것입니다.

고려해야 할 제한 사항은 무엇이 있나요?

상관관계는 가까운 변수 2개만 고려하며 이변량 데이터 이외의 관계를 파악하지 않습니다. 이 검정은 데이터에서 이상치를 감지하지 않으므로 이상치에 의해 왜곡될 수 있어 곡선 관계를 제대로 감지할 수 없습니다.

위키백과, 우리 모두의 백과사전

상관 분석(相關 分析, Correlation analysis)은 확률론과 통계학에서 두 변수 간에 어떤 선형적 관계를 갖고 있는 지를 분석하는 방법이다. 두 변수는 서로 독립적인 관계이거나 상관된 관계일 수 있으며 이때 두 변수간의 관계의 강도를 상관관계(Correlation, Correlation coefficient)라 한다. 상관분석에서는 상관관계의 정도를 나타내는 단위로 모상관계수로 ρ를 사용하며 표본 상관 계수로 r 을 사용한다.

상관관계의 정도를 파악하는 상관 계수(相關係數, Correlation coefficient)는 두 변수간의 연관된 정도를 나타낼 뿐 인과관계를 설명하는 것은 아니다. 두 변수간에 원인과 결과의 인과관계가 있는지에 대한 것은 회귀분석을 통해 인과관계의 방향, 정도와 수학적 모델을 확인해 볼 수 있다.

기본 가정 [ 편집 ]

선형성: 두 변인 X와 Y의 관계가 직선적인지를 알아보는 것으로 이 가정은 분포를 나타내는 산점도를 통하여 확인할 수 있다.

동변량성: X의 값에 관계없이 Y의 흩어진 정도가 같은 것을 의미한다. 이분산성이 반대어이다.

두 변인의 정규분포성: 두 변인의 측정치 분포가 모집단에서 모두 정규분포를 이루는 것이다.

무선독립표본: 모집단에서 표본을 뽑을 때 표본대상이 확률적으로 선정된다는 것이다.[1]

분석 방법 [ 편집 ]

단순히 두 개의 변수가 어느 정도 강한 관계에 있는가를 측정하는 단순상관분석(simple correlation analysis), 2개 이상의 변수간 관계 강도를 측정하는 다중상관분석(multiple correlation analysis)이 있다. 다중상관분석에서 다른 변수와의 관계를 고정하고 두 변수의 관계 강도를 나타내는 것을 편상관분석(partial correlation analysis)이라고 한다.

이때 상관관계가 0<ρ≤+1 이면 양의 상관, -1≤ρ<0 이면 음의 상관, ρ=0이면 무상관이라고 한다. 하지만 0인 경우 상관이 없다는 것이 아니라 선형의 상관관계가 아니라는 것이다. 피어슨 상관 계수 [ 편집 ] 피어슨 상관 계수(Pearson correlation coefficient 또는 Pearson's r)는 변수들간의 관련성을 구하는 이변량 상관분석(bivariate analysis 또는 bivariate correlation analysis)에서 보편적으로 이용된다. 개념은 다음과 같다. r = X와 Y가 함께 변하는 정도 / X와 Y가 각각 변하는 정도 결과의 해석 r 값은 X 와 Y 가 완전히 동일하면 +1, 전혀 다르면 0, 반대방향으로 완전히 동일 하면 –1 을 가진다. 결정계수(coefficient of determination)는 r 2 {\displaystyle r^{2}} 로 계산하며 이것은 X 로부터 Y를 예측할 수 있는 정도를 의미한다. 일반적으로 r이 -1.0과 -0.7 사이이면, 강한 음적 선형관계, r이 -0.7과 -0.3 사이이면, 뚜렷한 음적 선형관계, r이 -0.3과 -0.1 사이이면, 약한 음적 선형관계, r이 -0.1과 +0.1 사이이면, 거의 무시될 수 있는 선형관계, r이 +0.1과 +0.3 사이이면, 약한 양적 선형관계, r이 +0.3과 +0.7 사이이면, 뚜렷한 양적 선형관계, r이 +0.7과 +1.0 사이이면, 강한 양적 선형관계 로 해석한다. 스피어만 상관 계수 [ 편집 ] 스피어만 상관 계수(Spearman correlation coefficient)는 데이터가 서열척도인 경우 즉 자료의 값 대신 순위를 이용하는 경우의 상관 계수로서, 데이터를 작은 것부터 차례로 순위를 매겨 서열 순서로 바꾼 뒤 순위를 이용해 상관 계수를 구한다. 두 변수 간의 연관 관계가 있는지 없는지를 밝혀주며 자료에 이상점이 있거나 표본크기가 작을 때 유용하다. 스피어만 상관 계수는 -1과 1 사이의 값을 가지는데 두 변수 안의 순위가 완전히 일치하면 +1이고, 두 변수의 순위가 완전히 반대이면 -1이 된다. 예를 들어 수학 잘하는 학생이 영어를 잘하는 것과 상관있는지 없는지를 알아보는데 쓰일 수 있다. 크론바흐 알파 계수 신뢰도 [ 편집 ] 크론바흐 알파 계수(Cronbach's alpha)의 신뢰도 계수 α는 검사의 내적 일관성을 나타내는 값으로서 한 검사 내에서의 변수들 간의 평균상관관계에 근거해 검사문항들이 동질적인 요소로 구성되어 있는지를 분석하는 것이다. 동일한 개념이라면 서로 다른 독립된 측정 방법으로 측정했을 때 결과가 비슷하게 나타날 것이라는 가정을 바탕으로 한다. 예를 들어 설문지 조사의 경우, 같은 내용의 질문을 다른 형태로 반복하여 질문한 다음 같게 대답했는지를 검사하여 신뢰도를 알아 볼 수 있다. 일반적으로는 요인분석을 하여 요인들을 추출하고 이들 요인들이 동질 변수들로 구성되어 있는지를 확인할 때 이용한다. 사전조사나 같은 속성의 질문을 반복하여 신뢰도를 높일 수 있다. 같이 보기 [ 편집 ]

5.17 R로 상관계수(피어슨) 구하기

피어슨 상관계수를 구할 때, 몇 가지 기본 가정들이 성립해야 정확한 측정값을 구할 수 있으며, 기본 가정은 다음과 같습니다.

– 동변량성 : X의 값에 관계없이 Y의 흩어진 정도가 같은 것을 의미한다. 이분산성이 반대어이다.

– 두 변수의 정규성 : 두 변인의 측정치 분포가 모집단에서 모두 정규분포를 이루는 것이다.

– 무선독립표본 : 모집단에서 표본을 뽑을 때 표본대상이 확률적으로 선정된다는 것이다.

여기서 가장 중요한 가정은 “두 변수의 정규성”인데 기본적으로 두 변수가 모두 정규분포인 것이 바람직하지만 한가지 예외가 있는데 한 변수가 범주가 단 두 개뿐인 범주형변수이면 두 변수의 정규성가정을 무시할 수 있습니다. 또한 변수가 구간 수준에서 측정한 것이 아니면, 다른 종류의 상관계수나 부트스트랩 방법을 이용할 수도 있습니다.3)

3. R로 피어슨 상관계수 구하기

R에는 피어슨 상관계수를 구할 수 있는 cor() 함수, cor.test() 함수가 기본적으로 내장되어 있으며 Hmisc 패키지에 rcorr() 함수를 통해 구할 수도 있습니다. 다만 이들 함수들의 결과값과 스피어만이나 켄달 상관계수를 구할 때는 사용할 수 없는 함수도 있습니다. 아래 표는 위의 3개 함수 특성을 비교한 것이니 참고하시길 바랍니다.

R) 통계-상관분석

R을 활용하여 두 변수간의 선형관계. 즉, 선형성(linearity)을 알아보는 상관분석에 대해 알아보자.

Statistics

※ bike.csv 다운받기 [클릭]

개요

상관분석은 두 변수간 선형 관계(linear relationship, 직선적 관계)가 존재하는지, 존재하면 얼마나 강한지 알아보는 알아보는 분석 기법이다. 상관분석을 한다고 하면 보통 피어슨 상관계수(Pearson’s Correlation Coefficient)를 떠올린다. 하지만 피어슨 상관계수 말고도 어떤 속성의 자료간 비교가 이루어지는가에 따라서 알맞는 분석 기법을 선택해야 한다. 다음의 표를 참고하도록 하자.

Quantitiative Ordinal Nominal Quantitiative Pearson’s Biserial Point Biserial Ordinal Biserial Spearman/Kendall Rank Biserial Nominal Point Biserial Rank Biserial Phi, L, C Lambda

상관계수의 값에 따른 두 연속형 변수의 대략적인 분포는 다음과 같다. 모양이 직선에 가까울수록 1 또는 -1에 가까워짐을 알 수 있다.

※ 출처: https://en.wikipedia.org/wiki/Pearson_correlation_coefficient

Pearson’s Correlation

정식 명칭은 피어슨의 곱적률 상관(Pearson’s product-moment correlation)은 두 변수의 선형 관계가 존재할 경우 그 관계가 얼마나 강한지 알 수 있는 값이며 두 변수가 연속형 양적 변수일 경우에 사용가능한 방법이다. 상관계수는 공분산으로 부터 유도되며, 이를 제곱하는 경우 단순선형회귀의 결정계수와 같다. 그리고 상관계수의 값 범위는 -1 에서 1사이 이며 부호가 양수인 경우 “양의 상관 관계” 음수인 경우 “음의 상관 관계” 라고 한다.

이론

피어슨 상관계수는 다음과 같이 계산한다.

$$r = \frac{\sum{(x_i – \bar{x})(y_i – \bar{y})}}{\sqrt{\sum{(x_i – \bar{x})^2 \times \sum{(y_i – \bar{y})^2}}}}$$

검정통계량 t는 다음과 같이 계산한다.

$$t = \frac{r\sqrt{n – 2}}{\sqrt{1 – r^2}}$$

p-value는 $2 \times P(T>t)$로 계산하며 여기서 T는 자유도가 n – 2인 t 분포를 따른다.

가설

● 귀무가설($𝐻_0$): 두 변수간 선형관계가 존재하지 않는다. (r = 0)

● 대립가설($𝐻_1$): 두 변수간 선형관계가 존재한다. (r ≠ 0)

Spearman’s Correlation

스피어만 상관분석은 두 변수가 순서형 변수일 경우에 사용가능한 방법이며 두 변수가 정규성을 따르지 않는 경우에도 사용할 수 있는 비모수적 방법이다. 상관계수는 각 변수의 순위를 매긴 후 그 순위의 차를 활용하여 계산한다. 그리고 상관계수의 값 범위는 -1 에서 1사이 이며 부호가 양수인 경우 “양의 상관 관계” 음수인 경우 “음의 상관 관계” 라고 한다.

이론

스피어만 상관계수는 다음과 같이 계산한다.

$$\rho = 1 – \frac{6\sum{d_i ^2}}{n^3 – n}$$

검정통계량 t는 다음과 같이 계산한다.

$$t = \frac{\rho\sqrt{n – 2}}{\sqrt{1 – \rho^2}}$$

가설

● 귀무가설(𝐻_0): 두 변수간 선형관계가 존재하지 않는다. (rho = 0)

● 대립가설(𝐻_1): 두 변수간 선형관계가 존재한다. (rho ≠ 0)

Kendall Correlation

상관분석은 두 변수가 순서형 변수일 경우에 사용가능한 방법이며 두 변수가 정규성을 따르지 않는 경우에도 사용할 수 있는 비모수적 방법이다. 그리고 상관계수의 값 범위는 -1 에서 1사이 이며 부호가 양수인 경우 “양의 상관 관계” 음수인 경우 “음의 상관 관계” 라고 한다.

이론

켄달 상관계수는 다음과 같이 계산한다.

$$\tau_A = \frac{n_c – n_d}{n_0}, \, \tau_B = \frac{n_c – n_d}{\sqrt{(n_0 – n_1)(n_0 – n_2)}}$$

$$ \begin{align} n_0 &= n(n – 1)/2\\ n_1 &= \sum{t_i(t_i – 1)/2}\\ n_2 &= \sum{u_j(u_j – 1)/2}\\ n_c &= Number\,of\,concordant\,pairs\\ n_d &= Number\,of\,discordant\,pairs\\ t_i &= Number\,of\,tied\,values\,in\,the\,i^th\,group\,of\,ties\,for\,the\,first\,quantity\\ u_j &= Number\,of\,tied\,values\,in\,the\,j^th\,group\,of\,ties\,for\,the\,second\,quantity\\ \end{align} $$

$$\tau_C = \frac{2(n_c – n_d)}{n^2 \frac{m – 1}{m}}$$

$$ \begin{align} n_c &= Number\,of\,concordant\,pairs\\ n_d &= Number\,of\,discordant\,pairs\\ r &= Number\,of\,rows\\ c &= Number\,of\,columns\\ m &= min(r,c)\\ \end{align} $$

검정통계량 z는 다음과 같이 계산한다.

$$z_A = \frac{3(n_c – n_d)}{\sqrt{n(n – 1)(2n + 5) / 2}}, \, z_B = \frac{n_c – n_d}{\sqrt{v }}$$

$$ \begin{align} v &= (v_0 – v_t – v_u)/18 + v_1 + v_2\\ v_0 &= n(n – 1)(2n + 5)\\ v_t &= \sum{t_i(t_i – 1)(2t_i + 5)}\\ v_u &= \sum{u_j(u_j – 1)(2u_j + 5)}\\ v_1 &= \sum{t_i(t_i – 1)}\sum{u_j(u_j – 1)/2n(n – 1)}\\ v_2 &= \sum{t_i(t_i – 1)(t_i – 2)}\sum{u_j(u_j – 1)(u_j – 2)}/(9n(n – 1)(n – 2))\\ \end{align} $$

가설

● 귀무가설(𝐻_0): 두 변수간 선형관계가 존재하지 않는다. (tau = 0)

● 대립가설(𝐻_1): 두 변수간 선형관계가 존재한다. (tau ≠ 0)

실습

데이터 준비

“bike.csv” 데이터를 읽어오자

※ 포스팅 상단에서 다운로드 받을 수 있다.

1

2

3

4

5

df = read.csv( “bike.csv” )

head(df, 2 )

cor() 함수

간단하게 상관계수를 확인하려면 cor() 함수를 쓸 수 있다.

1

2

cor(df$temp, df$atemp)

기온과 체감온도는 매우 높은 양의 상관관계가 있다는 것을 알 수 있다. 그리고 기본적으로 계산되는 상관계수는 피어슨 상관계수이다. cor() 함수는 총 3개의 상관분석을 제공하는데 피어슨 상관계수가 기본값이며 “kendall” 또는 “spearman”을 method 인자에 할당하면 캔달 또는 스피어만 상관분석을 실시할 수 있다.

순서형 데이터로 간주할 수 있는 weather 변수와 humidity 변수를 대상으로 순위 상관분석을 실시하고 그 상관계수를 확인하는 코드는 다음과 같다.

1

2

3

4

5

cor(df$weather, df$humidity, method = “kendall” )

cor(df$weather, df$humidity, method = “spearman” )

그리고 여러 변수를 한 번에 넣게되면 상관계수 행렬을 산출해주며 이 결과를 활용하여 향후 상관계수행렬도(correlation coefficient plot)를 그리는데 활용할 수 있다.

1

2

3

4

5

cor(df[, c( “temp” , “atemp” , “casual” )])

cor.test() 함수

단순히 상관계수를 산출하는 것이 아닌 가설검정을 하여 제대로 p-value까지 확인하고싶다면 cor.test() 함수를 사용하면 된다.

1

cor.test(df$temp, df$atemp)

Pearson’s product-moment correlation data: df$temp and df$atemp t = 594.48, df = 10884, p-value < 2.2e-16 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: 0.9843763 0.9854992 sample estimates: cor 0.9849481 여기서 p-value가 2.2e-16으로 매우 작다. 이는 유의수준 5%로 검정할 경우 귀무가설을 기각하고 대립가설을 채택하여 산출된 피어슨 상관계수 0.9849481이 유의미하다고 할 수 있다.

[내가 하는 통계 분석] 피어슨 상관 계수(Pearson correlation coefficient) in R

반응형

안녕하세요, 산격동 너구리입니다.

이번 포스팅은,

R을 이용한 “피어슨 상관 계수”입니다.

개요

피어슨 상관 계수란??

두 변수의 선형 상관 관계를 계량화한 수치입니다.

결과값은 -1 ~ 1 사이의 값이며,

양의 상관 관계가 있을수록 1에 가깝고, 음의 상관 관계가 있을수록 -1에 가깝습니다.

또한, 상관 관계가 없을수록 0에 가깝습니다.

가정

1. 두 변수는 연속형 변수이다.

2. 두 변수는 정규분포를 따른다.

(간혹 한 변수만 정규분포를 따라도 된다고는 하지만, 이론적으로는 두 변수 모두 정규분포를 따라야합니다.)

3. 두 변수는 선형 관계를 가진다.

위의 가정 외에도 신경 써야하는 부분이 있습니다.

바로 이상치입니다.

극단적으로 값이 크거나 작은 경우가 포함되어 있으면 결과가 왜곡될 수 있습니다.

가설

귀무가설 : 상관계수는 0이다(=상관 관계가 없다).

대립가설 : 상관계수는 0이 아니다(=상관 관계가 있다).

보통 상관 분석을 하면 상관계수와 p-value가 함께 나올텐데요,

p-value가 0.05이상인 경우에는 함께 보여지는 상관계수가 큰 의미가 없습니다.

귀무가설 자체가 “상관 계수는 0이다.”이기 때문에 p-value가 0.05미만일 때에만 상관계수가 의미를 가집니다.

예제

13. [산격동 너구리] 상관 분석 예제.csv 0.01MB

이번 예제로는 변수 3개를 준비했는데, 특별하게 의미를 정의하진 않을게요.

상상력에 한계가;;;;;;;;

그리고 이번 데이터는 분석 가정에 완벽하게 부합하지는 않습니다.

최대한 현실적이면서도, 가정에 완벽한 데이터를 만드는 것도 쉽지는 않네요.

가정이 정확하게 맞진 않지만, 분석 방법이나 절차에 집중해서 봐주시면 되겠습니다.

그리고, 조금 현실적인 이야기인데…

의외로 피어슨 상관계수를 구하면서 가정에 대해 완벽히 체크하는 경우는 흔치 않습니다…

데이터 불러오기

## 데이터 불러오기 data = read.csv(“G:/산격동 너구리/[수정]/예제 파일/13. [산격동 너구리] 상관 분석 예제.csv”, header = T)

가정

1. 선형성 가정

## 선형성 가정 pairs(data)

보통은 산점도를 보고 확인합니다.

VAR2와 VAR3간에 선형성이 보이는 것 같고, 나머지 관계에서는 조금 애매해보입니다.

만약, 선형성에 대해 엄밀하게 따진다면 VAR2와 VAR3간에서만 피어슨 상관 분석을 실시하게 되겠네요.

그보다 더 엄밀하게 따진다면, 어떤 관계에서도 선형성이 없다고 할 수 있겠지만요..ㅎ

따라서, 선형성 부분은 어느정도 주관이 개입될 수 밖에 없습니다.

2. 정규성 가정

## 정규성 가정 apply(data, 2, shapiro.test)

지금 결과로 보면 VAR2를 제외한 나머지 변수에서 정규성 가정이 만족되지 않습니다.

이것도 엄밀하게 따지자면 피어슨 상관 분석을 하기에는 무리가 있습니다.

[현실]

그렇지만,,,,아까 말씀드린 것처럼 상관 분석의 가정을 깊게 따지지 않는 경우도 많습니다.

연구 분야나 목표 저널에 맞춰서 융통성있게 하시는게 더 현실적이지 않을까싶습니다.

[추가 내용]

피어슨 상관 계수의 정규성 가정을 정확하게 표현하면,

“두 변수는 이변량 정규분포를 따른다.”입니다.

하지만, 이변량 정규분포에 대한 정규성 검정이 쉽지 않기 때문에

각 변수에 대한 정규성 검정을 통해서 두 변수가 정규성을 만족하는지 확인하는 것으로 대체합니다.

두 변수가 각각 정규분포라도 이변량 정규분포가 되는지는 확실치 않습니다.

그렇기 때문에 두 변수가 정규성을 만족한다는 것 자체도 이미 완화된 가정이라고 생각할 수 있습니다.

가설

귀무가설 : 두 변수 간 상관계수는 0이다(=상관 관계가 없다).

대립가설 : 두 변수 간 상관계수는 0이 아니다(=상관 관계가 있다).

피어슨 상관 분석

## 피어슨 상관 분석 library(psych) corr.test(data, use = ‘complete’, method = ‘pearson’, adjust = ‘none’)

처음 나오는 행렬이 상관 계수를 나타내는 행렬입니다.

두 번째로 나오는 행렬이

따라서 변수 간 상관 계수와 p-value는 다음과 같습니다.

VAR1 – VAR2 : 0.39 (0.00)

VAR1 – VAR3 : 0.26 (0.00)

VAR2 – VAR3 : 0.66 (0.00)

이렇게 보면 소수점 아래로 더 궁금하실 수도 있는데요,

이럴 때는 결과를 저장해서 하나씩 보면 보실 수 있습니다.

## 세부 결과 res = corr.test(data, use = ‘complete’, method = ‘pearson’, adjust = ‘none’) res$r res$p

피어슨 상관 분석 결과,

모든 변수 간 상관 계수는 유의한 것으로 나옵니다.

따라서, 변수들 간에 유의한 상관 관계가 있음을 확인할 수 있습니다.

상관 계수의 부호에 따라 양의 상관 관계 또는 음의 상관 관계인 것을 확인하시면 됩니다.

이것으로 R을 이용한 피어슨 상관 계수에 대해 마치도록 하겠습니다.

이상, 산격동 너구리였습니다.

감사합니다.

* 잘못된 정보 및 오타가 포함되어 있을 수 있습니다.

그대로 받아들이시기보다는 다른 사람의 의견도 참고하셔서 분석하시길 바랍니다.

* 포스팅 내용 및 통계 분석 관련 질문은 언제나 환영입니다.

가능한 선에서 최대한 답변하도록 하겠습니다.

반응형

결정계수 R^2, 상관계수의 제곱 r^2의 차이 증명(Coefficient of determination VS Squared correlation coefficient)

Introduction

많은 이들이 결정계수 R^2과 상관계수의 제곱 r^2을 동등하게 여긴다. 이는 통계학에서 두드러지는데, 실제로 책 <앤디 필드의 유쾌한 R 통계학>에서는 결정계수를 r^2으로 계산하도록 하고, 통계학 특화 프로그래밍 언어 R의 매우 유명한 package, caret package의 함수 postResample마저도 그렇다.

“ 상관계수를 제곱한 값 , 즉 을 결정계수 (coefficient of determination) 라고 부른다 . 이 값은 한 변수의 변이성 (variability) 또는 변동 (variation) 을 다른 변수가 어느 정도나 공유하는지 말해주는 척도이다 .”

책 <앤디 필드의 유쾌한 R 통계학>

Caret package 개발자의 설명 문서, topepo.github.io/caret/measuring-performance.html#measures-for-regression

그러나 이는 사실이 아니다. 정확히는, 성립할 수도 있지만 일반적으로 그렇지 않다.

우리가 어떤 수학 성적 예측 모델을 만들었다고 해보자. 이 모델은 학생 10명의 수학 성적을 각각 100점, 90점, 80점, 70점, 60점, 50점, 40점, 30점, 20점, 10점으로 예측하였고, 실제 수학 성적은 96점, 95점, 82점, 67점, 63점, 55점, 39점, 32점, 24점, 11점이였다. python의 sci-kit learn package는 이때의 결정계수를 0.488로 계산한다. 반면 R의 caret package는 0.671로 계산한다. 분명히 같은 데이터와 모델에 대한 같은 지표인데도, 값이 다르다. 결정계수의 정의가 모호하기 때문일까? 그렇지 않다.

결정계수의 정의는 이렇다.

$R^{2}=1-\dfrac{\sum 잔차^{2}}{\sum 편차^{2}}$

이때 잔차는 실제값-예측값, 편차=실제값-평균값이다. 또한 $\sum 잔차^{2}$를 $SS_{res}$로, $\sum 편차^{2}$를 $SS_{tot}$로 표기하며, $SS_{reg}=\sum(편차-잔차)^{2}=\sum(예측값-평균값)^{2}$도 사용한다. 즉 $R^{2}=1-\dfrac{SS_{res}}{SS_{tot}}$이다.

정리하면 아래 표와 같다. 이때 $y$는 실제값, $\hat y$는 예측값, $\overline{y}$는 평균값이다.

표기 정의 $SS_{res}$ $\sum(y-\hat y)^{2}=\sum(잔차)^{2}$ $SS_{tot}$ $\sum(y-\overline{y})^{2}=\sum(편차)^{2}$ $SS_{reg}$ $\sum(\hat y -\overline{y})^{2}=\sum(편차-잔차)^{2}$

즉 모델이 완벽한 예측에 성공했다면, 혹은 완벽히 데이터를 설명한다면 예측값이 실제값과 같아져 $R^{2}=1$ 이 된다. 반면 예측에 크게 실패했을 때는 제한 없이, 이를테면 $R^{2}=-100$이 될 수도 있다.

이를 실제 데이터로 생각해보자. 파란색 직선은 예측 모델, 검은색 직선은 실제 데이터의 평균값이다. 빨간색 수직선은 편차=실제값-평균값, 하늘색 수직선은 잔차=실제값-예측값이며 겹치는 부분은 혼합하여 나타냈다. 또한 편차-잔차=예측값-평균값은 검은색 직선과 점들 사이의 거리이다. 이 경우 $R^{2}=0.8192$ 로, 모델이 상당히 훌륭하게 데이터를 설명하고 있음을 알 수 있다.

이 부분에서 결정계수를 상관계수의 제곱으로 처리하는 것이 타당하지 않음을 알 수 있다. 상관계수는 실수이기 때문에 상관계수의 제곱은 항상 0 이상이기 때문이다. 그러나 앞서 서술하였듯이 결정계수는 0 미만이 될 수 있다. 저런 등식이 성립하는 경우는 오직 일부 알고리즘 기반 모델뿐이다. 왜 이러한 오해가 생겼는지 수식적으로 접근해보자. (실제로 결정계수와 상관계수의 제곱은 같을 때가 있으니 말이다.)

피어슨 상관계수(pearson correlation)

우선 상관계수의 정의를 명확히 하고 가겠다. 이 정의를 명확히 아는 사람들은 스크롤을 내려 다음 내용을 봐도 무방하다.

우리는 어떤 하나의 변수의 분포를 표현하기 위해 평균과 분산 또는 표준 편차를 가장 많이 이용한다. 그렇다면 두 개의 변수의 분포는 어떻게 표현할까? 두 변수는 서로 독립적일 수도 있지만 하나의 변수에 따라 다른 하나의 변수가 증가 또는 감소하는 어떤 상관관계를 가지고 있을 수 있다. 물론 단순히 증가나 감소가 아닌 복잡한 관계를 가질 수 있다. 일단 선형 관계를 생각해보자. 이러한 관계는 단순히 각 변수에서의 평균과 분산을 통해 잘 나타날까? 다음 예시를 보자.

위 세 개의 예시는 x, y축 모두 1부터 12까지의 자연수를 갖는 분포를 나타내기 때문에 평균과 표준 편차는 같다. 실제로 변수가 퍼져있는 정도(분산)는 같지만 그 방향(상관관계)은 다르다. 첫 번째는 오른쪽 위 방향으로 퍼져있고, 두 번째는 오른쪽 아래 방향, 세 번째는 모든 방향으로 고르게 퍼져있다. 따라서 두 변수의 분포를 잘 표현하기 위해선 두 변수를 함께 고려하여 산포도를 나타내야 한다. 공분산(covariance)이 이를 위한 지표다. 다음은 공분산에 대한 식으로 분산에 대한 식과 비교해 본다면 더 잘 이해할 수 있을 것이다.

$ {E}(X)=\mu ,\: {E}(Y)=

u$로 표기한다면,

$ {Cov}(X,\:Y)= {E}((X-\mu)(Y-

u))=\dfrac{\sum_{i=1}^{N}(X_{i}-\mu)(Y_{i}-

u)}{N-1}$

이를 조금 정리하면

${Cov}(X,\:Y)={E}((X-\mu)(Y-

u))={E}(XY-X

u -\mu Y+\mu

u)={E}(XY)-{E}(X)

u -\mu{E}(Y)+\mu

u$

즉 ${Cov}(X,\:Y)={E}(XY)-\mu

u$

분산(var)이 다음과 같이 정의된 것과 그 성질을 생각해보자.

${Var}(X)={E}((X-\mu)^{2})=\dfrac{\sum_{i=1}^{N}(X_{i}-\mu)^{2}}{N-1}$

${Var}(X)={E}(X^{2})-\mu^{2}$

이러한 공분산은 두 변수가 양의 상관관계(위 그림에서 1번)를 가지면 양의 값을 가지게 되고 음의 상관관계(위 그림에서 2번)를 가지면 음의 값을 가지게 된다. 그리고 두 변수가 강한 상관관계(직선에 가까운)를 가지면 절댓값이 커지며 반대로 상관관계가 약할수록 0에 가까워진다. 하지만 이런 공분산을 상관성에 적용하기에는 치명적인 단점이 하나 있다. 공분산은 절대적인 크기를 비교할 수 없다. 공분산의 절댓값은 선형성에 영향을 받지만 데이터의 절대적인 크기(더 정확히는 산포도)에도 영향을 받기 때문이다. 즉, 공분산의 절댓값이 더 크더라도 개형이 직선에 가깝다고 말할 수 없다. 이는 같은 분포의 수에 각각 10배씩만 해 보아도 알 수 있다. 10배를 한다고 데이터의 모양은 바뀌지 않지만 공분산은 100배가 된다.

이런 단점을 보완하기 위해 값을 각각의 산포도로 나누어 줄 수 있다. 이와 같이 공분산을 각각의 변수의 표준 편차로 나누어준 값을 피어슨 상관계수라고 한다. 이렇게 정의하면 값이 –1에서 1 사이로 계산되고 각각의 변수의 산포도에 영향을 받지 않게 된다.

$r_{XY}=\dfrac{\sum_{i=1}^{n}(X_{i}-\mu)(Y_{i}-

u)}{\sqrt{\sum_{i=1}^{n}(X_{i}-\mu)^{2}}\sqrt{\sum_{i=1}^{n}(Y_{i}-

u)^{2}}}$

모든 것은 최소자승법으로부터 시작되었다

앞서 서술하였듯 상관계수의 제곱은 마치 결정계수처럼 다뤄져 왔다. 이 시발점은 선형 회귀를 위한 최소자승법이다. 최소자승법은 잔차 $e_{i}=Y_{i}-\hat Y_{i}$ 의 제곱합, 즉 $SS_{res}$ 를 최소화하는 방법으로, 통계학에서 매우 널리 사용된다.

최소자승법을 이용한 선형 회귀에서, 실제값과 예측값 사이의 상관계수 $r(Y,\:\hat Y)$ 은 $r(Y,\:\hat Y)^{2}=\dfrac{SS_{reg}}{SS_{tot}}$ 가 성립하게 된다. 이는 최소자승법을 이용한 선형 회귀의 두 가지 성질 때문이다. 첫째로 ${E}(Y)={E}(\hat Y)=\overline{y}$ 가 되는 성질(다르게 말해 잔차의 합이 0이 되는 것이다), 두 번째로 예측값과 잔차 사이에는 상관관계가 없다는 성질이다. 여기서 상관관계가 없다는 말은 예측값 $\hat y$ 와 잔차 사이의 공분산이 0임을 의미한다. 이 두 성질은 모두 근본적으로 최소자승법에서의 잔차의 성질로부터 유도된다. 이를 이제부터 알아보도록 하자.

$$r(Y,\:\hat Y)^{2}=\dfrac{\left(\sum_{i=1}^{n}(Y_{i}-\overline{y})(\hat Y_{i}-\overline{y})\right)^{2}}{\left(\sum_{i=1}^{n}(Y_{i}-\overline{y})^{2}\right)\left(\sum_{i=1}^{n}(\hat Y_{i}-\overline{y})^{2}\right)}=\dfrac{\left(\sum_{i=1}^{n}(Y_{i}-\hat Y_{i})(\hat Y_{i}-\overline{y})+\sum_{i=1}^{n}(\hat Y_{i}-\overline{y})^{2}\right)^{2}}{\left(\sum_{i=1}^{n}(Y_{i}-\overline{y})^{2}\right)\left(\sum_{i=1}^{n}(\hat Y_{i}-\overline{y})^{2}\right)}$$

$$=\dfrac{\left(\sum_{i=1}^{n}(\hat Y_{i}-\overline{y})^{2}\right)^{2}}{\left(\sum_{i=1}^{n}(Y_{i}-\overline{y})^{2}\right)\left(\sum_{i=1}^{n}(\hat Y_{i}-\overline{y})^{2}\right)}=\dfrac{\sum_{i=1}^{n}(\hat Y_{i}-\overline{y})^{2}}{\sum_{i=1}^{n}(Y_{i}-\overline{y})^{2}}=\dfrac{SS_{reg}}{SS_{t ot}}$$

최소자승법을 이용한 선형회귀에서 잔차의 성질

선형 회귀 모형을 $\hat Y_{i}=\hat\beta_{0}+\hat\beta_{1}X_{i}$로, 잔차를 $e_{i}=Y_{i}-\hat Y_{i}$로 표현하면 아래 성질들이 성립한다. ($\hat\beta_{1}$과 $X_{i}$를 벡터로 생각하여 곱셈 대신 내적을 이용하면 더 많은 변수에도 일반화 가능하다.) $\hat Y_{i}$ 는 예측값을 의미함을 상기하자.

$\sum_{i=1}^{n}e_{i}=\sum^{n}_{i=1}X_{i}e_{i}=\sum^{n}_{i=1}\hat Y_{i}e_{i}=0$

이제 이것이 성립하는 이유를 알아보자!

최소자승법의 정의에 의해 $\hat\beta_{0}$와 $\hat\beta_{1}$은 $\sum_{i=1}^{n}e_{i}^{2}$을 최소로 만들어야 한다. 따라서, $\hat\beta_{0}$와 $\hat\beta_{0}$을 각각에 대하여 편미분하였을 때 그 편미분계수가 0이라는 사실을 이용할 수 있다. $\sum_{i=1}^{n}e_{i}^{2}=\sum_{i=1}^{n}(Y_{i}-\hat\beta_{0}-\hat\beta_{1}X_{i})^{2}$로 표현하여 편미분계수가 0임을 이용하면 아래의 두 식을 얻을 수 있다.

$-2\sum_{i=1}^{n}X_{i}(Y_{i}-\hat\beta_{0}-\hat\beta_{1}X_{i})=0$

$-2\sum_{i=1}^{n}(Y_{i}-\hat\beta_{0}-\hat\beta_{1}X_{i})=0$

다시 $e_{i}=Y_{i}-\hat\beta_{0}-\hat\beta_{1}X_{i}$임을 이용하면 $\sum_{i=1}^{n}e_{i}=\sum_{i=1}^{n}X_{i}e_{i}=0$이 성립한다.

$\hat Y_{i}=\hat\beta_{0}+\hat\beta_{1}X_{i}$이므로 $\sum_{i=1}^{n}\hat Y_{i}e_{i}=0$ 또한 성립한다.

한편, 공분산의 정의에 잔차의 평균이 0이라는 사실을 적용하면, 예측값과 잔차 사이의 공분산의 분자에는 ‘모든 것은 최소자승법으로부터 시작되었다’의 마지막 수식처럼 $\sum_{i=1}^{n}(Y_{i}-\hat Y_{i})(\hat Y_{i}-\overline{y})$ 항이 존재하게 된다. 이때 $e_{i}=Y_{i}-\hat Y_{i}$이므로 식은 $\sum_{i=1}^{n}\hat Y_{i}e_{i}-\overline{y}e_{i}$ 으로 표현되고, $\overline{y}$ 는 상수이다.

따라서, $\sum_{i=1}^{n}(Y_{i}-\hat Y_{i})(\hat Y_{i}-\overline{y})=0$ 이므로 ‘모든 것은 최소자승법으로부터 시작되었다’의 마지막 수식으로부터 상관계수의 제곱이 잔차의 성질에 의해 $\dfrac{SS_{reg}}{SS_{tot}}$ 와 같아짐을 확인할 수 있다.

결정계수가 때때로 상관계수의 제곱과 같은 이유

우리는 바로 전에 최소자승법을 이용한 선형 회귀에서 상관계수의 제곱이 $\dfrac{SS_{reg}}{SS_{tot}}$와 같아지는 것을 확인하였다. 지금부터는 결정계수와 $\dfrac{SS_{reg}}{SS_{tot}}$ 사이의 관계를 알아볼 것이다. 두 식이 같기 위해서, $SS_{t ot}= SS_{res}+ SS_{reg}$가 성립해야 하지만 이는 일반적으로 성립하지 않는다. (이 이유는 결정계수의 정의를 조금만 생각해본다면 알 수 있다.) 그렇다면 최소자승법을 이용한 선형 회귀에서는 어떨까? 최소자승법을 이용한 선형 회귀에서 예측값과 잔차 사이의 공분산이 0이었다는 점을 기억하자.

$SS_{tot}=\sum_{i=1}^{n}(Y_{i}-\overline{y})^{2}=\sum_{i=1}^{n}\left((Y_{i}-\hat Y_{i})+(\hat Y_{i}-\overline{y})\right)^{2}=SS_{res}+SS_{reg}+2\sum_{i=1}^{n}(Y_{i}-\hat Y_{i)(}\hat Y_{i}-\overline{y})=SS_{res}+ SS_{reg}$

즉 최소자승법을 이용한 선형 회귀에서 $SS_{t ot}= SS_{res}+ SS_{reg}$가 성립하므로 이 경우에 $R^{2}=1-\dfrac{SS_{res}}{SS_{t ot}}=\dfrac{SS_{reg}}{SS_{tot}}$임을 알 수 있다. 또한 이때 상관계수의 제곱도 $\dfrac{SS_{reg}}{SS_{tot}}$와 같기 때문에 결정계수와 상관계수의 제곱이 같아진다.

왜 상관계수의 제곱은 결정계수로 둔갑했을까

위에서 살펴본 것처럼 결정계수는 때때로 상관계수의 제곱과 같지만, 결코 등식으로 일반화할 수는 없다. 그럼에도 불구하고 상관계수의 제곱이 결정계수로 둔갑한 이유는 무엇일까? 같은 알파벳이기 때문에 발생한 발음상 혼란, 그리고 대표적 통계적 분석 기법인 최소자승법을 이용한 선형회귀 등에서의 동등성이 있을 것이다. 하지만 이런 이유는 표면적일 뿐, 보다 근본적인 이유가 있다. 바로 통계학과 인공지능이 데이터를 바라보는 관점의 차이다. 통계학 서적들에서 결정계수와 상관계수의 제곱이 혼동된 반면 인공지능 개발에 특화된 sci-kit learn 패키지에서는 명확히 구분되었다는 점을 상기하자. 통계학에서는 데이터를 ‘설명’하기 위해 노력한다. 반면 인공지능은 데이터를 ‘예측’하는 것을 목표로 한다. 즉 각 학문은 같은 데이터를 서로 다른 관점으로 접근한다. 통계학으로부터 파생된 결정계수는, 선형 모델을 집중적으로 다루어 온 통계학의 관점에서 주로 ‘설명력’으로 비추어진다. 상관계수 또한 데이터를 ‘설명’하기 위한 통계적 수단이기 때문에 통계학에서만 유난히 두 계수가 혼동되어 사용되고 있으리라 추정된다. 통계학과 달리 인공지능 분야에서는 비선형 모델들이 적극적으로 활용될 뿐만 아니라 상관계수가 거의 사용되지 않는다. 즉 인공지능 분야에서는 모델들이 얼마나 데이터를 정확하게 ‘예측’하는지의 지표를 훨씬 중요하게 간주하기 때문에 결정계수를 정확한 정의대로 계산한다고 생각할 수 있다.

Written by Xylene & Killer T Cell

키워드에 대한 정보 상관 계수 r

다음은 Bing에서 상관 계수 r 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 [R 강의] 106. 피어슨 상관분석

  • R강의
  • 통계
[R #강의] #106. #피어슨 #상관분석


YouTube에서 상관 계수 r 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 [R 강의] 106. 피어슨 상관분석 | 상관 계수 r, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

See also  Daiwa Emblem Surf 45 Scw Qd Type-R | Máy Câu Cá Daiwa Emblem Surf 45 Scw Qd Type R 3 Lô 인기 답변 업데이트

Leave a Comment