대학원 다닐 때 주로 썼던 통계기법이 일반화/선형 혼합효과 모형(+베이지언)이었는데 데이터 분석쪽에서 쓰이는 가설검정 기법들은 딱 통계분석 책 피면 항상 나오는 t-test, ANOVA나 책 후반 챕터들에 나오는 Chi-squared test 같은 것들이 대부분인 것 같다. 역사가 깊고 보수적인 기법들이라서 그런 건가? 비슷하게 A/B testing도 처음에 볼 때 이게 뭐지 하다가 그냥 two-sample independent sample design[1] 갖고 검정 돌리는 거였다는 걸 깨닫고 나선 이름을 왜 이렇게 헷갈리게 지었을까 싶었음...여튼 실제 산업에서 쓰이는 데이터는 샘플 사이즈가 나 대학원 다닐 때 썼던 거에 비하면 엄청 커서 뭔가 복잡한 걸 쓸 것 같았는데, 저번에 파이콘에서 알게된 데이터 분석가분한테 얘기 들은 것도 그렇고 오히려 크니깐 그냥 안전빵(?)으로 t-test같이 많이들 알려져 있는 걸 쓰는 건가 싶다. 뭐...무슨 기법을 쓰든 결국엔 데이터를 얼마나 잘 모았느냐가 제일 중요한 거겠지만.


  1. 아마도 실제 현업에서는 또 구체적으로 어떻게 실험 디자인을 짜느냐에 따라 달라질 거라 뇌피셜을 세워봄 ↩︎

2

If you have a fediverse account, you can reply to this note from your own instance. Search https://hackers.pub/ap/notes/01998050-606b-712f-9049-f0f88d9a9b15 on your instance and reply to it.