Р олм-стандартная оценка погрешности различия в SAS прок GENMOD
я преобразую пример SAS PROC GENMOD в R, используя glm в R. код SAS был:
proc genmod data=data0 namelen=30;
model boxcoxy=boxcoxxy ~ AGEGRP4 + AGEGRP5 + AGEGRP6 + AGEGRP7 + AGEGRP8 + RACE1 + RACE3 + WEEKEND +
SEQ/dist=normal;
FREQ REPLICATE_VAR;
run;
мой код R:
parmsg2 <- glm(boxcoxxy ~ AGEGRP4 + AGEGRP5 + AGEGRP6 + AGEGRP7 + AGEGRP8 + RACE1 + RACE3 + WEEKEND +
SEQ , data=data0, family=gaussian, weights = REPLICATE_VAR)
когда я использую summary(parmsg2)
я получаю те же оценки коэффициента, что и в SAS, но мои стандартные ошибки сильно отличаются.
итоговый вывод SAS:
Name df Estimate StdErr LowerWaldCL UpperWaldCL ChiSq ProbChiSq
Intercept 1 6.5007436 .00078884 6.4991975 6.5022897 67911982 0
agegrp4 1 .64607262 .00105425 .64400633 .64813891 375556.79 0
agegrp5 1 .4191395 .00089722 .41738099 .42089802 218233.76 0
agegrp6 1 -.22518765 .00083118 -.22681672 -.22355857 73401.113 0
agegrp7 1 -1.7445189 .00087569 -1.7462352 -1.7428026 3968762.2 0
agegrp8 1 -2.2908855 .00109766 -2.2930369 -2.2887342 4355849.4 0
race1 1 -.13454883 .00080672 -.13612997 -.13296769 27817.29 0
race3 1 -.20607036 .00070966 -.20746127 -.20467944 84319.131 0
weekend 1 .0327884 .00044731 .0319117 .03366511 5373.1931 0
seq2 1 -.47509583 .00047337 -.47602363 -.47416804 1007291.3 0
Scale 1 2.9328613 .00015586 2.9325559 2.9331668 -127
итоговый вывод из R:
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 6.50074 0.10354 62.785 < 2e-16
AGEGRP4 0.64607 0.13838 4.669 3.07e-06
AGEGRP5 0.41914 0.11776 3.559 0.000374
AGEGRP6 -0.22519 0.10910 -2.064 0.039031
AGEGRP7 -1.74452 0.11494 -15.178 < 2e-16
AGEGRP8 -2.29089 0.14407 -15.901 < 2e-16
RACE1 -0.13455 0.10589 -1.271 0.203865
RACE3 -0.20607 0.09315 -2.212 0.026967
WEEKEND 0.03279 0.05871 0.558 0.576535
SEQ -0.47510 0.06213 -7.646 2.25e-14
важность разницы в стандартных ошибках заключается в том, что SAS коэффициенты все статистически значимы, но RACE1
и WEEKEND
коэффициенты на выходе R не являются. Я нашел формулу для вычисления доверительных интервалов Вальда в R, но это бессмысленно, учитывая разницу в стандартных ошибках, так как я не получу одинаковых результатов.
по-видимому, SAS использует стабилизированный гребнем алгоритм Ньютона-Рафсона для своих оценок, которые являются ML. Информация, которую я читал о glm
функция в R заключается в том, что результаты должны быть эквивалент ML. Что я могу сделать, чтобы изменить процедуру оценки в R, чтобы получить эквивалентные коэффициенты и стандартные оценки ошибок, которые были получены в SAS?
чтобы обновить, благодаря ответу Spacedman, я использовал веса, потому что данные от людей в диетическом опросе, и REPLICATE_VAR
- это сбалансированный вес повторной репликации, то есть целое число (и довольно большое, порядка 1000 или 10000s). Веб-сайт, который описывает вес здесь. Я не знаю, почему FREQ
, а не WEIGHT
команда использовалась в SAS. Теперь я проверю, расширяя количество наблюдений с помощью REPLICATE_VAR и перезапуская анализ.
благодаря ответу Бена ниже, код, который я использую сейчас:
parmsg2 <- coef(summary(glm(boxcoxxy ~ AGEGRP4 + AGEGRP5 + AGEGRP6 + AGEGRP7 + AGEGRP8 + RACE1 + RACE3
+ WEEKEND + SEQ , data=data0, family=gaussian, weights = REPLICATE_VAR)))
#clean up the standard errors
parmsg2[,"Std. Error"] <- parmsg2[,"Std. Error"]/sqrt(mean(data0$REPLICATE_VAR))
parmsg2[,"t value"] <- parmsg2[,"Estimate"]/parmsg2[,"Std. Error"]
#note: using the t-distribution for p-values, correct the t-values
allsummary <- summary.glm(glm(boxcoxxy ~ AGEGRP4 + AGEGRP5 + AGEGRP6 + AGEGRP7 + AGEGRP8 + RACE1 +
RACE3 + WEEKEND + SEQ , data=data0, family=gaussian, weights = REPLICATE_VAR))
parmsg2[,"Pr(>|t|)"] <- 2*pt(-abs(parmsg2[,"t value"]),df=allsummary$df.resid)
2 ответов
редактировать: значение документация SAS для FREQ и ваши ответы выше и ниже, Вот что я думаю вы должны попробовать: используйте weights=REPLICATE_VAR
на glm
оператор для настройки относительные взвешивание групп (равенство коэффициентов, которое вы нашли выше, предполагает, что это правильный путь), затем используйте N=sum(REPLICATE_VAR)
в корректировке, предложенной ниже (я также думаю, что вы могли бы использовать lm
вместо glm
для этого проблема... это не будет иметь большого значения, но должно быть немного быстрее и надежнее.)
Что-то вроде:
s <- coef(summary(lm(y~x,data=data2, weights=REPLICATE_VAR)))
s[,"Std. Error"] <- s[,"Std. Error"]/sqrt(sum(data2$REPLICATE_VAR))
s[,"t value"] <- s[,"Estimate"]/s[,"Std. Error"]
s[,"Pr(>|t|)"] <- 2*pt(abs(s[,"t value"]),df=g$df.resid)
FREQ в SAS не совпадает с весами в glm R. В SAS, его количество вхождений этого события. Для R его "то, что каждый ответ y_i является средним значением наблюдений за единицей веса w_i". Эти две вещи не совпадают.
Если вы хотите, чтобы R давал тот же результат, что и SAS (не могу понять, почему), вам, вероятно, нужно повторить каждую строку в фрейме данных " вес " количество раз.
здесь данные составляют 10 строк со всеми весами=2, а data2-20 строк (по 2 копии каждой строки данных) со всеми весами=1:
> summary(glm(y~x,data=data2,weights=weights))$coef
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.32859847 0.13413683 2.4497259 0.02475748
x 0.01540002 0.02161811 0.7123667 0.48537003
> summary(glm(y~x,data=data,weights=weights))$coef
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.32859847 0.20120525 1.6331506 0.1410799
x 0.01540002 0.03242716 0.4749111 0.6475449
немного махнув рукой, N наблюдений одного и того же значения имеют меньшую нечеткость, чем сказать, что это наблюдение является средним из N наблюдений, поэтому SE с повторными наблюдениями будет иметь меньшее SE, чем среднее.