検定におけるサンプルサイズ

ようやく落ち着いてきました。

久しぶりに最近疑問に思っていることを

書いてみたいと思います。

今回は検定についてです。

t検定にしろ,分散分析にしろ

その結果がデータ数に依存するということは

よく問題にされます。

例えば300人のデータを集めて

1要因分散分析をした場合に

かなり小さな差であっても有意になってくると

思います。明らかにデータ数の影響を受けているわけです。

こういう場合,どうすればいいんでしょうか。

サンプルサイズと検定力の話,

effect sizeの話とかありますが

それは正統な?考え方だと思います。

で,当たり前の話はさておき

以下のような操作をしているのを

見たことがありません。

どうなんでしょうか・・・。

例えば,

300人のデータから100人のデータを

(SPSSで)無作為抽出して検定をしてみる。

50人のデータを無作為抽出して検定してみる。

当然?300人のデータよりも100人のデータが,

それよりも50人のデータの方が

検定結果が有意になる可能性は

低くなるでしょう。

300人のデータで有意だったのに,

50人を無作為抽出したデータの場合には,

何度抽出を繰り返したとしても

有意にならなかったとします。

この場合,300人のデータによる

検定結果は何を意味するのでしょうか。

誰かが

「t検定は(全データから無作為抽出をした)50名分のデータで行うこと!!」

というルールを作ってくれればこんな問題は

起きないと思うのですが(笑)

調べていないのでよく分かりませんが,

検定(検定統計量)が考案された

当初はどの程度のサンプルサイズを

想定していたのでしょうか。

数百というデータ数は想定されていなかった

ような気が・・・

どなたかご教授ください

最近の興味でした