การทำเหมืองข้อมูล (Data Mining)

Slides:



Advertisements
งานนำเสนอที่คล้ายกัน
ภาควิชาวิทยาการคอมพิวเตอร์ มหาวิทยาลัยสงขลานครินทร์
Advertisements

คณิตศาสตร์ประยุกต์ 2 ค่ามัธยฐาน จัดทำโดย อ.เทวี บัวแย้ม.
การเสนอโครงการวิทยานิพนธ์
ประชากร (Population) จำนวน N สุ่ม (Random) กลุ่มตัวอย่าง (Sample)
ความน่าจะเป็น Probability.
ไม่อิงพารามิเตอร์เบื้องต้น
การกำหนดปัญหา และความต้องการ (Problem Definition and Requirements)
การตั้งสมมติฐานและตัวแปร
บทที่ 12 การวิเคราะห์การถดถอย
การวิเคราะห์ค่าเฉลี่ยของประชากร
ความน่าจะเป็น (Probability)
การออกแบบการวิจัยการเขียนเค้าโครงการวิจัย
การเลือกตัวอย่าง อ.สมพงษ์ พันธุรัตน์.
ระบบสื่อการสอนอิเล็กทรอนิกส์ E-learning วิชาภาษาอังกฤษ 1
Naïve Bayesian Classification
Decision Tree.
จำนวนเต็ม จำนวนเต็ม  ประกอบด้วย                   1. จำนวนเต็มบวก    ได้แก่  1 , 2 , 3 , 4, 5 , ....                   2.  จำนวนเต็มลบ      ได้แก่  -1.
ภาควิชาวิศวกรรมคอมพิวเตอร์ มิถุนายน ๒๕๕๒
Probability & Statistics
ฝ่ายกิจการคณะวุฒยาจารย์ สำนักงานสภามหาวิทยาลัย
บทที่ 1 ทักษะกระบวนการ และโครงงานทางวิทยาศาสตร์
Bayes’ Theorem Conditional Prob มีหลาย condition A1, A2, A3, …., An
คณะครุศาสตร์อุตสาหกรรม สถาบันเทคโนโลยีพระจอมเกล้าเจ้าคุณทหารลาดกระบัง
Classification Abstraction
บทที่ 3 แบบจำลองข้อมูล Data Models Algebra
การเขียนโปรแกรมเชิงวัตถุ ด้วยภาษาจาวา
การวัดประสิทธิภาพ.
Chapter 2 Database systems Architecture
ระบบจำนวนเต็ม โดย นางสาวบุณฑริกา สูนานนท์
ประชากร และกลุ่มตัวอย่าง
บทที่ 1 หลักการเขียนโปรแกรมเชิงวัตถุ
การเขียนรายงานการใช้เอกสารประกอบการสอน
สถิติเชิงสรุปอ้างอิง(Inferential or Inductive Statistics)
ระบบเบิกจ่าย การ LOCK รายการตั้งเบิกกรณีที่มีค่าปรับ
ทำการตั้งเบิกเพิ่ม แบบฟอร์ม GFMIS.ขบ.03 เพื่อชดใช้ใบสำคัญ
การทดสอบสมมติฐาน
การวิจัยในชั้นเรียนด้านอาชีวศึกษา
ค33211 คณิตศาสตร์สำหรับ คอมพิวเตอร์ 5
การประยุกต์ใช้ค่าเงินที่เปลี่ยนแปลงตามเวลา
การแจกแจงปกติ.
การหาผลคูณและผลหารของเลขยกกำลัง
ชุดฝึกแทนค่าตัวแปรในนิพจน์พีชคณิต
ค21201 คณิตศาสตร์เพิ่มเติม 1
Classification Data mining การทำเหมืองข้อมูลแบบจำแนก
ความหมายของวิทยาศาสตร์
การทำเหมืองข้อมูล (Data Mining)
คณิตศาสตร์ (ค33101) ชั้นมัธยมศึกษาปีที่ 3 สอนโดย ครูปพิชญา คนยืน.
เรื่องการประยุกต์ของสมการเชิงเส้นตัวแปรเดียว
หลักการเขียนโปรแกรม ( )
การทำเหมืองข้อมูล (Data Mining)
เรื่องการประยุกต์ของสมการเชิงเส้นตัวแปรเดียว
Chi-Square Test การทดสอบไคสแควร์ 12.
ค่าความจริงของประโยคที่มีตัวบ่งปริมาณ 2 ตัว
สื่อการสอนด้วยโปรมแกรม “Microsoft Multipoint”
สาระการเรียนรู้ที่ ๙ ประโยคเปิด
คณิตศาสตร์พื้นฐาน ค ชั้นมัธยมศึกษาปีที่ 3 โดย ครูชำนาญ ยันต์ทอง
การทำเหมืองข้อมูล (Data Mining)
วิธีเรียงสับเปลี่ยนและวิธีจัดหมู่
ผศ.สุโกศล วโนทยาพิทักษ์
ชื่อผู้วิจัย นายอภิเชษฐ เพ็ชรอินทร์ สังกัด วิทยาลัยเทคโนโลยีภูเก็ต
ปัญหา คิดสนุก.
โครงสร้างข้อมูลแบบ สแตก (stack)
Lab 8: การจำแนกประเภทข้อมูล ใช้ทฤษฎีของเบย์
Summations and Mathematical Induction Benchaporn Jantarakongkul
การทำเหมืองข้อมูล (Data Mining)
สมการเชิงเส้นตัวแปรเดียว สอนโดย ครูประทุมพร ศรีวัฒนกูล
ค31212 คณิตศาสตร์สำหรับ คอมพิวเตอร์ 2
การคำนวณหาค่าคงที่สมดุล
การเตรียมข้อมูล (Data preparation)
Data Mining Dr. Wararat Rungworawut การทำเหมืองข้อมูล (Data Mining) สอนโดย ผศ. ดร. วรารัตน์ สงฆ์แป้น ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์
ใบสำเนางานนำเสนอ:

การทำเหมืองข้อมูล (Data Mining) 322475 การทำเหมืองข้อมูล (Data Mining) บทที่ 8: การจำแนกประเภทโดยใช้กฎของเบย์ (Bayesian Learning) สอนโดย อาจารย์ วรารัตน์ รุ่งวรวุฒิ ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์มหาวิทยาลัยขอนแก่น

การจำแนกประเภทโดยใช้กฎของเบย์ เป็นการจำแนกประเภทโดยใช้หลักสถิติในการพยากรณ์ความน่าจะ เป็นของสมาชิก เรียกว่า ทฤษฎีของเบย์ (Bayesian theorem) เป็นการเรียนรู้เพิ่มได้ : ตัวอย่างใหม่ที่ได้มาถูกนำมาปรับเปลี่ยนการแจก แจงซึ่งมีผลต่อการเพิ่ม / ลดความน่าจะเป็น ทำให้มีการเรียนรู้ที่เปลี่ยนไป วิธีการนี้ตัวแบบจะถูกปรับเปลี่ยนไปตามตัวอย่างใหม่ที่ได้โดยผนวกกับ ความรู้เดิมที่มี การทำนายค่าคลาสเป้าหมายของตัวอย่างใช้ความน่าจะเป็นมากที่สุดของ ทุกสมมติฐาน

ทฤษฎีของเบย์ (Bayesian theorem) ให้ D แทนข้อมูลที่นำมาใช้ในการคำนวณการแจกแจงความน่าจะเป็น posteriori probability ของสมมติฐาน h คือ P(h|D) ตามทฤษฎี P(h) คือ ความน่าจะเป็นก่อนหน้าของสมมติฐาน h P(D) คือ ความน่าจะเป็นก่อนหน้าของชุดข้อมูลตัวอย่าง D P(h|D) คือ ความน่าจะเป็นของ h เมื่อรู้ D P(D|h) คือ ความน่าจะเป็นของ D เมื่อรู้ h

ตัวอย่าง:: การพยากรณ์อากาศ การพยากรณ์อากาศ (Weather forecast) ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ 0.008 ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการทำนายทั้งหมด (Predict-hur) แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% เช่นกัน (Predict- nohur) P(~h) = 1- P(h) P(h) + P(~h) = 1 P(hurricane) = 0.008 P(~h) P(~hurricane) = 1 – P(hurricane) = 0.992 P(h)

ตัวอย่าง:: การพยากรณ์อากาศ การพยากรณ์อากาศ (Weather forecast) ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ 0.008 ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการทำนายทั้งหมด (Predict-hur) แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% เช่นกัน (Predict-nh) P(hurricane) = 0.008 P(~hurricane) = 0.992 P(hurricane) P(predict-hur | hurricane) = 0.98 P(predict-nh) = 0.02 P(predict-h) = 0.98 P(predict-nohur | hurricane) = 0.02

ตัวอย่าง:: การพยากรณ์อากาศ การพยากรณ์อากาศ (Weather forecast) ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ 0.008 ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการทำนายทั้งหมด (Predict-hur) แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% (Predict-nohur) P(~hurricane) P(predict-nh) = 0.97 P(predict-h) = 0.03 P(hurricane) = 0.008 P(~hurricane) = 0.992 P(predict-h|hurricane) = 0.98 P(predict-h|~hurricane) = 0.03 P(predict-nh|hurricane) = 0.02 P(predict-nh| ~hurricane) = 0.97

ตัวอย่าง:: การพยากรณ์อากาศ ถ้าสุ่มวันขึ้นมา จากทักษะที่ทอมทำนายการเกิดเฮอร์ริเคน จะเชื่อเขาหรือไม่?? ความน่าจะเป็นที่เขาทำนายถูกต้อง? ความน่าจะเป็นที่เขาทำนายผิด? P(hurricane) = 0.008 P(~hurricane) = 0.992 P(predict-h|hurricane) = 0.98 P(predict-h|~hurricane) = 0.03 P(predict-nh|hurricane) = 0.02 P(predict-nh| ~hurricane) = 0.97 P(p-h|h)P(h)‏ P(h|p-h) = = 0.98*0.008 = 0.0078 P(p-h)‏ P(p-h|~h)P(~h)‏ P(~h|p-h) = = 0.03*0.992  = 0.0298 P(p-h)‏

ตัวอย่าง:: มะเร็ง (Cancer) คนไข้คนหนึ่งไปตรวจหามะเร็ง ผลการตรวจเป็นบวก(+) อยากทราบว่า เราควร วินิจฉัยโรคคนไขคนนี้ว่าเป็นมะเร็งจริงหรือไม่? ความเป็นจริง คือ ผลการตรวจเมื่อเป็นบวกจะให้ความถูกต้อง 98% กรณีที่มีโรคนั้นอยู่จริง ผลการตรวจเมื่อเป็นลบจะให้ความถูกต้อง 97% กรณีที่ไม่มีโรคนั้น 0.008 ของประชากรทั้งหมดเป็นโรคมะเร็ง จากความน่าจะเป็นข้างต้น เราจะทราบว่าความน่าจะเป็นต่อไปนี้ P(cancer) = P(~cancer) = P(+ | cancer) = P(- | cancer) = P(+ |~ cancer) = P(- |~ cancer) =

ตัวอย่าง:: มะเร็ง (Cancer) เราสามารถคำนวณค่าความน่าจะเป็นของสมมติฐานว่าคนไข้เป็น / ไม่เป็น โรคมะเร็ง เมื่อทราบผลตรวจเป็นบวก โดยใช้กฎของเบย์ ดังนี้ ความน่าจะเป็นที่คนไข้คนนี้จะเป็นโรคมะเร็งเมื่อผลตรวจเป็นบวก เท่ากับ P(cancer |+) = ความน่าจะเป็นที่คนไข้คนนี้จะไม่เป็นโรคมะเร็งเมื่อผลตรวจเป็นบวก เท่ากับ P(~cancer |+) = P(+|cancer)P(cancer)‏ = P(+|~cancer)P(~cancer)‏ =

วิธีการเรียนรู้เบย์อย่างง่าย (Naïve Bayesian Learning) โดยแต่ละ instance x มี n แอททริบิวต์ หรือ x= {A1, …, An} และมี Ci เป็น class label Naïve Bayes Classifier = Max (P(Ci)  P(Aj |Ci) ) P(A1,…, An) Max P’(Ci)  P’(Aj |Ci) n i=1 m j=1 C =

ตัวอย่าง: ผิวไหม้ (subburn) Sample ID Hair color Eye Color Weight Apply lotion Sun burn S1 black Dark overweight No - S2 red normal + S3 Blonde light Overweight S4 Red underweight S5 Black Yes S6 S7 S8 Normal S9 S10 S11 S12 Underweight S13 S14 no

ตัวอย่าง: ผิวไหม้ (subburn) Instance x = <hair color= red, eye color = dark, weight= overweight, apply lotion = no> เพราะฉะนั้น เมื่อ instance ใหม่เข้ามาถามว่า ผิวจะไหม้หรือไม่ C1 : sun burn is + : P(+).P(red|+).P(dark|+).P(overweight|+).P(apply lotion|+) C2 : sun burn is - : P(-).P(red|-).P(dark|-).P(overweight|-).P(apply lotion|-)  X belongs to class (“sunburn = -”)

ตัวอย่าง: เล่นเทนนิส (Play tennis) No Strong High Mild Rain D14 Yes Weak Normal Hot Overcast D13 D12 Sunny D11 D10 Cool D9 D8 D7 D6 D5 D4 D3 D2 D1 PlayTennis Wind Humidity Temp. Outlook Day

ตัวอย่าง: เล่นเทนนิส (Play tennis) ออกไปเล่นเทนนิสได้หรือไม่ New instance x = <Sunny, Cool, High, Strong> P(yes)P(sunny|yes)P(cool|yes)P(high|yes)P(strong|yes)‏ P(yes) = 9/14 = 0.64 P(sunny|yes) = 2/9 = 0.22 P(cool|yes) = 3/9 = 0.33 P(high|yes) = 3/9 = 0.33 P(strong|yes) = 3/9 = 0.33 = 0.0051 C = Max P’(Ci)  P’(Aj |Ci) n i=1 m j=1

ตัวอย่าง: เล่นเทนนิส (Play tennis) ออกไปเล่นเทนนิสได้หรือไม่ New instance x = <Sunny, Cool, High, Strong> P(no)P(sunny|no)P(cool|no)P(high|no)P(strong|no)‏ P(no) = 5/14 = 0.36 P(sunny|no) = 3/5 = 0.6 P(cool|no) = 1/5 = 0.2 P(high|no) = 4/5 = 0.8 P(strong|no) = 3/5 = 0.6 = 0.0207 C = Max P’(Ci)  P’(Aj |Ci) n i=1 m j=1  New instance is “play tennis = no”

วิธีการเรียนรู้เบย์อย่างง่าย (Naïve Bayesian Learning) ข้อดี ง่ายต่อการนำไปใช้ เพราะใช้การคำนวณที่ง่าย ได้ผลลัพธ์ที่สามารถนำไปประยุกต์ใช้ได้ดี ข้อเสีย ใช้ได้กับ attribute ที่เป็นอิสระกันเท่านั้น

ตัวจะแนกประเภทที่ดีที่สุดแบบเบย์ (Bayes Optimal Classifier) พิจารณา จากความน่าจะเป็น 3 สมมติฐาน P(h1|D) = 0.4, P(h2|D) = 0.3, P(h3|D) = 0.3 ถ้าให้ new instance x เข้าไปถาม จะตอบว่า h1(x) = +, h2(x) = -, h3(x) = - What’s hMAP(x) ? What's most probable classification of x?

Bayes Optimal Classifier ตัวอย่าง: P(h1|D) = .4, P(-|h1) = 0, P(+|h2) = 1 P(h2|D) = .3, P(-|h2) = 1, P(+|h3) = 0 P(h3|D) = .3, P(-|h3) = 1, P(+|h3) = 0, เพราะฉะนั้น hi H P(+|hi) P(hi|D) = (1*0.4)+(0*0.3)+(0*0.3) = 0.4 hi H P( -|hi) P(hi|D) = (0*0.4)+(1*0.3)+(1*0.3) =0.6 is MAP class h1 h2 h3