การกระจายตัวของค่าตัวอย่าง ( Sampling Distributions )

ืถือเป็นพื้นฐานสำคัญสำหรับผู้ที่จะศึกษาในเรื่องสถิติเชิงอนุมาน ( Inferential Statistics)  เพราะหัวใจสำคัญอยู่ที่ว่า ทำอย่างไรเรา จะใช้สาระที่เราได้จาก การศึกษากลุ่มตัวอย่าง แล้วเราสามารถที่จะสรุปหรืออธิบายถึงประชากรได้อย่างถูกต้องหรือใกล้เคียงที่สุด 

การกระจายตัวของค่ากลางของตัวอย่าง ( Sampling Distributions of the Mean )

 ในหัวข้อนี้เราจะให้ความสำคัญกับการใช้ค่าเฉลี่ยของตัวอย่าง  ( X )  เพื่อพยากรณ์ค่ากลางของประชากร ( m ) ซึ่งเราไม่สามารถรู้ค่า ที่แท้จริงได้   ที่สำคัญคือ เราจะรู้ได้อย่างไรว่า  ( X )  พยากรณ์ค่ากลางของประชากร ( m ) ได้ถูกต้องแค่ไหน ถ้าเราให้ ( X ) คือค่าเฉลี่ย ของตัวอย่าง X1 , X2 , X3 ,...... , Xn  ที่สุ่มเก็บมาจากประชากรหรือกระบวนการ ที่มีค่ากลางคือ  ( m )  และมีค่าเบี่ยงเบนมาตรฐาน (s ) เช่นเดียวกับการ กระจายชนิดอื่น การกระจายของค่ากลางของตัวอย่าง ก็จะมีค่ากลางและค่าเบี่ยงเบนมาตรฐาน เฉพาะเหมือนกัน  โดยที่ค่ากลางจะประมาณเท่ากับค่ากลางของประชากรแม่ ตามสมการ  

โดยธรรมชาติแล้ว การกระจายของประชากรแม่ ย่อมมีการกระจายที่กว้างกว่าการกระจายของค่าตัวอย่าง หรือพูดง่ายๆคือ ค่า ( s ) การกระจายของประชากรจะโตกว่าของตัวอย่าง  โดยประมาณเป็นไปตามสมการต่อไปนี้

โดยที่  

       sx :  ค่า Standard deviation ของการกระจายของค่าเฉลี่ยของตัวอย่าง  

      s  :  ค่า Standard deviation ของการกระจายของประชากร

     : จำนวน ( X )   ตัวอย่าง

นั่นแปลว่า เมื่อจำนวน ( X  )    ตัวอย่าง เพิ่มขึ้น ค่าเบี่ยงเบนมาตรฐานจะยิ่งเล็กลง

 T-Distribution ( Student's t Distribution )

เมื่อเริ่มแรก ได้มีการใช้ Z- Distribution หรือ Standard Normal Distribution อย่างกว้างขวาง ในประเทศยุโรป จนกระทั่งมีวิศวกร ชาวไอร์แลนด์ คนหนึ่งที่ทำงานในโรงงานผลิตเบียร์  ได้สังเกตเห็นว่า  การที่เขาเก็บตัวอย่างมาแค่จำนวนวนไม่มากนั้น ทำให้เขาได้ Distribution ที่ไม่ตรงกับ Standard normal distribution เสมอ และถ้าเขาเพิ่มหรือลดจำนวนตัวอย่างที่สุ่มมา Distribution ก็จะแปรเปลี่ยนไป ดังนั้น จำนวนตัวอย่างจึงมีผลต่อ t-Distribution ด้วยนอกจาก ค่ากลางและค่าเบี่ยงเบนมาตรฐาน แต่เมื่อต้องการอธิบายถึงจำนวนตัวอย่าง เราจะเรียกว่า Degree of freedom แทน เขาได้ทำการทดลองเขียนรายงานและตีพิมพ์ผลสรุปว่า การที่สุ่มตัวอย่างมาแค่จำนวนหนึ่ง หากใช้ Standard normal distribution ในการวิเคราะห์จะให้ผลไม่ถูกต้อง แต่ด้วยข้อกำหนดทางสังคม ในยุคที่ อังกฤษ ปกครองไอร์แลนด์อย่างเข้มงวด เขาจึงไม่อยากแสดงตัวเองว่าเป็นผู้เขียนรายงาน จึงได้ใช้นามแฝงว่า Student's t ต่อมาทฤษฎีนี้ ได้รับการยอมรับเป็นอย่างมาก จึงได้เรียก Distribution ที่ได้จากการสุ่มตัวอย่าง ว่า  Student's t distribution หรือ เรียกย่อๆ ว่า  t - Distribution มาจนถึงบัดนี้

เช่นเดียวกับ Z-Score เมื่อเราเก็บตัวอย่างมา เราก็จะหา T-Score โดยใช้สูตร ดังต่อไปนี้

 

คุณสมบัติของ t-Distribution จะเหมือนกันกับ Standard normal distribution เกือบทุกประการ  เพียงแต่ส่วนปลาย (Tail) ของ t-Distribution จะมีค่า Probability ที่สูงกว่า เมื่อเทียบจุดที่ห่างจากค่ากลางที่เท่ากัน  แต่เมื่อ degree of freedom เข้าหา Infinite นั้น t-Distribution จะมีคุณสมบัติเข้าใกล้ Standard normal distribution เช่นกัน

รูป t-Distribution เพื่อให้มองเห็นภาพ ผลของ degree of freedom และข้อแตกต่าง ของปลาย (Tail) 

 

ดังนั้นเมื่อเราทำการศึกษาตัวอย่าง ค่าที่เราจำเป็นจะต้องรู้ จึงเป็นค่า t  ไม่ใช่ Z อีกต่อไป เช่นเดียวกับ Z-Distribution จะมีตาราง T-Table สำหรับ t-Distribution เหมือนกัน   เวลาเราเขียน ค่า t เราจึงจำเป็นต้องระบุ a และ degree of freedom ด้วยเสมอ  โดยแทนด้วย ( k ) เช่น    ta,k

เนื่องจาก t-Distribution จะมีลักษณะสมมาตรรอบๆ ศูนย์ ( 0 )  ดังนั้น ค่า  t1-a จึงเท่ากับ  -ta

t-Distribution ได้ถูกนำไปใช้เป็นเครื่องมือในการ ทดสอบสมมติฐาน ความแตกต่างของค่ากลางของตัวอย่าง ด้วย เราจึงเรียก วิธีที่เรานำไปใช้ดังกล่าวตามชื่อ t-Distribution ด้วยเช่นกันว่า t-test เป็นต้นว่า  1-Sample t-test หมายถึงการทดสอบค่ากลางของตัวอย่างเพียงกลุ่มเดียวกับค่าที่กำหนด  หรือ 2-Sample t-test หมายถึง การทดสอบความแตกต่างของค่ากลาง ของตัวอย่างสองกลุ่ม

Chi-square Distribution

ไคสแคว์ (Chi-square) ถือได้ว่าเป็น Sampling distribution ที่ถูกนำไปประยุกต์ใช้ในการทดสอบสมมติฐานมากที่สุดอีกชนิดหนึ่ง  พื้นฐานของ Chi-square มีสมการดังต่อไปนี้

เมื่อ x คื่อค่าใดๆ โดยที่ i = 1,2,3...u  และเป็นข้อมูลที่มีการกระจายแบบ Normal distribution และค่าแต่ละค่าต้องเป็นอิสระต่อกันด้วย  ซึ่งจากสมการค่า Chi-square ก็เท่ากับ Zนั่นเอง ซึ่ง u หมายถึง Degree of freedom ของ Chi-square  ดังนั้นจึงเป็นพารามิเตอร์ที่สำคัญของ Chi-square distribution ด้วย โดยที่  m = u และ  s2 = 2u

  แกน Y คือ ค่าฟังก์ชันของ X หรือ f(X)  ส่วนในแกน X คือค่า Chi-square 

จากรูป แสดงให้เห็นถึงความสัมพันธ์กันระหว่าง Degree of freedom กับลักษณะของ Distribution แต่ลักษณะของ Chi-square distribution ที่สำคัญคือ กราฟจะต้องเบ้ขวาเสมอ แต่เมื่อใดก็ตามที่เพิ่มจำนวน Degree of freedom ความเบ้นี้จะลดลงเรื่อย และจะเข้าหา Normal distribution ในที่สุด  

ลักษณะพื้นที่ใต้กราฟของ Chi-square distribution จะถูกนำไปเป็นค่าทดสอบ สำหรับข้อมูลทางสถิติประเภทที่สามารถจัดเป็นหมวดหมู่ได้ (Attribute data ) และใช้ทดสอบค่าความแปรปรวนแบบประชากรเดี่ยว (One-variation test)    ดังนั้นจึงจัดได้ว่า มีความจำเป็นที่เราจะต้องเข้าใจถึงคุณสมบัติของ Chi-square อย่างดี ก่อนนำไปใช้เป็นตัวทดสอบ 

 

F-Distribution

เป็น Sampling distribution อีกชนิดหนึ่งที่มีการประยุกต์ใช้ค่อนข้างมากในการทดสอบค่าความแปรปรวนแบบสองประชากร (Two-variation test) พื้นฐานของ F-Distribution คือเป็นสัดส่วนของค่าความผันแปรของสองข้อมูล โดยมีสมการพื้นฐานดังนี้

โดยที่  s1 > s2

เมื่อสมการพื้นฐานของ F-distribution เกิดจากประชากรสองตัว ดังนั้นตัวแปรที่สำคัญคือ Degree of freedom  (u) จึงต้องคิดของทั้งสองประชากร ดังนั้น  u1  =  n1-1  และ  u2  =  n2-1 

 

   แกน Y คือ ค่าฟังก์ชันของ X หรือ f(X)  ส่วนในแกน X คือค่า F 

จากกราฟลักษณะการกระจายตัวของ F จะเป็นกราฟเบ้ขวาตลอด ซึ่งเป็นลักษณะเดียวกันกับ Chi-square distribution และค่า Degree of freedom มีผลต่อลักษณะการกระจายตัว F 

 


[ HOME ]             [ CONTENTS ]    

Hosted by www.Geocities.ws

1