본문 바로가기

수리통계학

(14)
[R] 결합적률생성함수(JMGF)와 수치계산,기각 샘플링 시뮬레이션 GPT의 도움을 빌려서 각 확률변수의 적률생성함수의 결과를 구해두었다. ### 1. Closed form MGF 정의Mx1_cf = 2)) stop("M_X1(t)는 t = 1)) stop("M_X2(t)는 t = 2) inner_scalar = 1) stop inner_scalar > cat("=== M_X1(t=0.5) ===\n"+ ,"닫힌식 :", Mx1_cf(t1), "\n",+ "수치적분 :", Mx1_num(t1), "\n")=== M_X1(t=0.5) === 닫힌식 : 1.333333 수치적분 : 1.333333 > cat("=== M_X2(t=0.3) ===\n",+ "닫힌식 :", Mx2_cf(t2..
비중심 카이제곱분포에 대한 적률생성함수, 특성, 계층모델 당위성 비중심 카이제곱분포에 대해 설명하기에 앞서 중심화된 카이제곱분포에 대한 내용을 우선 짚고 넘어가도록 하겠다. 들어가기에 앞서 센터링이 안되어있다는 것을 알기에 분명히 스퀘어폼을 전개하는 과정에서 복잡할 수 있음을 알 수 있다. 하지만 복잡해도 우리는 대게 mgf에서 적분값이 어느 분포의 전체합으로 사라짐을 이용했기에 확률변수 "Z"를 기반으로 전개해나가야함을 최우선 순위로 인지하고 exp안에 깔끔한 제곱텀이면 Normal로 비례한다는 것을 인지하면 된다. exp()가 곱해졌음을 알 수 있다. 위의 mgf가 non-central chi-square이다.왜 찢냐고 묻는다면, 찢지 않으면 우리가 아는 계층모델이 나타나지 않는다.. t가 살아서 식에서 사라지지 않기에 찢어서 t가 없는 형태로 적으려고 하는 ..
포아송분포 여러검정(균일최강력검정,랜덤화검정,일반화우도비검정) 우선 H1이 복합가설이므로 theta=theta1으로 잡고 MP-test를 진행하여 UMP로 확장이 가능하다는 것을 인지하고,이 분포는 이산형이기에 랜덤화 검정이 가능하다는 것을 알고 있어야한다.또한 일반화우도비검정도 물론 가능하다. 더 나아가 근사일반화우도비검정도 가능하다. 이 중에서 저 4개의 질문을 물었다. 모수나 이표본으로 차원이 늘어난다면 문제가 어려워진다. 흔히 우리가 알고 있는 이표본 t검정 등 말이다. 여기에 귀무가설이 심플이 아니라면 이표본에서는 라그랑지승수법을 이용해 제약식에 있는 최적화문제를 풀어야한다. 이런 문제도 나중에 포스팅하겠다. 또한 귀무가설이 단순가설이 아닐때는 어떻게 하는지에 대한 내용도 같이 추가하겠다. 요점은 1종오류와 2종오류의 트레이드오프 관계이다.
[R]모수와 관측치가 경계에 있을 때 최대우도추정량 시각화 정의대로 푸는데 의심의 여지가 없다.우도함수의 그래프는 theta1에 대해서 증가하는 형태임에는 반대의견은 없을 것이다.  하지만 정말로 표본최소에서 theta1의 최우추정량이 될까? x축을 theta1으로 두고 y축을 theta2를 고정한 로그우도함수로 두었을 때 theta1의 경계를 x보다 크다고 두면 될것인데 이 x가 최소이어야한다는 점.위에서 설명한 말대로 확실히 표본최소 > theta1, 두번째 작은 표본값 >theta1, ..,표본최대 >theta1 모두 만족하려면 표본최소가 MLE라는 것은 논리적으로는 당연하기도 하나 시각화로 나타내면 이것이 당연한 결과인가? 시각화는 어떻게 하는가? x는? 어떻게 잡는가? 등 뜬구름 잡는느낌이 느껴 질 수 있다. 아래는 그에 대한 코드이다.  set.see..
랜덤벡터에 대한 UMVUE 개인적으로 수리통계학을 공부하면서 힘들었던 파트가  몇가지가 있는데, 그 중 하나가 이 벡터로 확장한 UMVUE찾기이다. 정확한 노테이션으로 설명한 곳이  별로 없어서 이해하는데 상당히 오래걸린 파트이다.  벡터로 확장하면 표기법에 목숨을 걸어야 할 정도로 중요하기 때문인데, 벡터표기하나로 문제가 달라질  수 있기에 유의하자.n=1인 다항분포를 예시로 들어보자. 이를 이용해 CSS와 두가지의 UMVUE를 찾아보겠다.
일반분포에서 신뢰구간 구하는 두가지 방법(근사와 정확한신뢰구간) set.seed(1015)theta_true cat("CLT Method 90% CI for theta: [", clt_lower, ",", clt_upper, "]")CLT Method 90% CI for theta: [ 1.641807 , 2.290249 ]> cat("Chi-square Method 90% CI for theta: [", chi_lower, ",", chi_upper, "]")Chi-square Method 90% CI for theta: [ 1.609214 , 2.237641 ]
감마분포 MLE 알파값 뉴튼랩슨법으로 구해보기 nt 뉴튼랩슨 코드는 아래에서 이미 증명과 코드를 만들어두었다.https://pastryofjsmath.tistory.com/63 # x1 = x0 + f(x0)/f'(x0)> # -f(x0) = f'(x0)(x0-x1)> # 0 = f'(x0)(x0-x1) + f(x0)> # y= 0 , y=f'(x0)(x0-x1) + f(x0) > # x1 : x0에서의 접선의기울기의 x절편(y=0)> #뉴튼랩슨####> #1. 함수를 지정하고 이후 반복문 돌리는 방식> li" data-og-host="pastryofjsmath.tistory.com" data-og-source-url="https://pastryofjsmath.tistory.com/63" data-og-url="https://pastryofjsmat..
[R]뉴튼랩슨방법 + 애니메이션으로 시각적확인 > # x1 = x0 + f(x0)/f'(x0)> # -f(x0) = f'(x0)(x0-x1)> # 0 = f'(x0)(x0-x1) + f(x0)> # y= 0 , y=f'(x0)(x0-x1) + f(x0) > # x1 : x0에서의 접선의기울기의 x절편(y=0)> #뉴튼랩슨####> #1. 함수를 지정하고 이후 반복문 돌리는 방식> library(Deriv)> f temp > f_prime tol for(i in 1:30){+ temp 1 && temp[i]-temp[i-1] temp [1] -1.000000e+01 -5.000000e+00 -2.500000e+00 -1.250000e+00 [5] -6.250000e-01 -3.125000e-01 -1.562500e-01 -7.812500..