Chapter 8 Classification อาจารย์อนุพงศ์ สุขประเสริฐ

Slides:



Advertisements
งานนำเสนอที่คล้ายกัน
K-Nearest Neighbour Algorithm
Advertisements

Chapter 8 : Logic Modeling & Data Modeling
ความก้าวหน้าของการพัฒนา ระบบระบุผู้พูดภาษาไทย
Multilayer Feedforward Networks
Naïve Bayesian Classification
Decision Tree.
Quick Review about Probability and
Adaline and Delta rule training for NN
7.2 ลวดลายบนพื้นผิว (Texture)
การเลือกจำนวน Hidden Node ที่เหมาะสมกับโครงข่ายประสาทเทียม
การใช้ซอฟต์แวร์ WEKA.
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
Chapter 3 Simple Supervised learning
Classification Data mining การทำเหมืองข้อมูลแบบจำแนก
การทำเหมืองข้อมูล (Data Mining)
School of Information Communication Technology,
Artificial Neural Network โครงข่ายประสาทเทียม
การทำเหมืองข้อมูล (Data Mining)
การทำเหมืองข้อมูล (Data Mining)
คลังคำศัพท์ PRECALCULUS
ต้นไม้ Tree [1] ผู้สอน อาจารย์ ยืนยง กันทะเนตร
Chapter 5: Instance-Based Learning
CPE 332 Computer Engineering Mathematics II Chapter 3 Eigenvector and Diagonalization.
ศูนย์ข้อมูลกลางเพื่อบริหารจัดเก็บและใช้ประโยชน์
ว่าที่ ร.ต.หญิงวรรณธิดา วรสุทธิพงษ์ ครูแผนกวิชาคอมพิวเตอร์ธุรกิจ
Introduction to Intelligent Systems
Chapter 3 : แบบจำลองฐานข้อมูล (Data Model)
Thanapon Thiradathanapattaradecha
การทดสอบซอฟต์แวร์ Software Testing
สถิติอ้างอิง: ไร้พารามิเตอร์ (Inferential Statistics: Nonparametric)
Data Management (การจัดการข้อมูล)
Data Structure & Algorithm Concept
บทที่ 5 แบบจำลองกระบวนการ
การกำหนดสัดส่วนการจองและการจองเกิน
การวิเคราะห์เชิงปริมาณเบื้องต้น
กฎความสัมพันธ์ Association Rules อาจารย์อนุพงศ์ สุขประเสริฐ
Data mining สุขฤทัย มาสาซ้าย.
CPE 332 Computer Engineering Mathematics II
13 October 2007
Chapter 6 Information System Development
Introduction to Data mining
การวิเคราะห์การถดถอย และสหสัมพันธ์อย่างง่าย
การเรียนรู้ต้นไม้ตัดสินใจ (Decision Tree Learning)
บทที่ 3 แบบจำลองของฐานข้อมูล (Database Model)
Chapter 7 Clustering อาจารย์อนุพงศ์ สุขประเสริฐ
UML (Unified Modeling Language)
Dr.Surasak Mungsing CSE 221/ICT221 การวิเคราะห์และออกแบบขั้นตอนวิธี Lecture 04: การวิเคราะห์หาความซับซ้อนด้านเวลา ในรูป.
แนะนำรายวิชา การออกแบบระบบการจัดการเรียนรู้บนเครือข่าย
Data Management (การจัดการข้อมูล)
ค่าใช้จ่ายในการฝึกอบรม การจัดงาน และการประชุมระหว่างประเทศ
การวิเคราะห์อนุกรมเวลา และการพยากรณ์
การจัดการเทคโนโลยีสารสนเทศ ในสถานศึกษา
สถาบันพัฒนาบุคลากรด้านการพัฒนาเมือง
สถาบันพัฒนาบุคลากรด้านการพัฒนาเมือง
บทที่ 9 การอธิบายกระบวนการแบบต้นไม้.
Information Retrieval
การวิเคราะห์และออกแบบขั้นตอนวิธี
การสอบป้องกันวิทยานิพนธ์
การประชุมใหญ่สามัญประจำปี 2561
การพัฒนา IT ให้บูรณาการเข้ากับโครงสร้างและระบบงาน
CPE 332 Computer Engineering Mathematics II
ข้าวโพดเลี้ยงสัตว์ ภาวะการณ์ผลิต/การตลาด
บทที่ 3 กระบวนการผลิตซอฟต์แวร์ (Software Process)
CPE 332 Computer Engineering Mathematics II
ประกาศในราชกิจจานุเบกษา วันที่ 22 พฤษภาคม 2562
Chapter 7 Clustering อาจารย์อนุพงศ์ สุขประเสริฐ
แผนงานโครงการที่จะนำไปใช้เพื่อ การแก้ปัญหาสุขภาพหรือบริการ
การเขียนโปรแกรมคอมพิวเตอร์ แบบภาษาเชิงวัตถุ
Chapter 4: Probability ความน่าจะเป็น.
ใบสำเนางานนำเสนอ:

Chapter 8 Classification อาจารย์อนุพงศ์ สุขประเสริฐ คณะการบัญชีและการจัดการ มหาวิทยาลัยมหาสารคาม

Content การจำแนกประเภทข้อมูล (Classification) เทคนิคการการจำแนกประเภท ข้อมูล (Classification Techniques) Decision Tree Naive Bayes Linear Regression Neural Network K-Nearest Neighbors (kNN) Support Vector Machines (SVM)

การจำแนกข้อมูล (Classification)

จุดประสงค์ของการจำแนกประเภทข้อมูล คือการสร้างโมเดลการแยกแอทริบิวท์หนึ่งโดยขึ้นกับ แอทริบิวท์อื่น โมเดลที่ได้จากการจำแนกประเภท ข้อมูลจะทำให้สามารถพิจารณาคลาสในข้อมูลที่ยัง มิได้แบ่งกลุ่มในอนาคตได้ เทคนิคการจำแนก ประเภทข้อมูลนี้ได้นำไปประยุกต์ใช้ในหลายด้าน เช่น การจัดกลุ่มลูกค้าทางการตลาด, การตรวจสอบ ความผิดปกติ และการวิเคราะห์ทางการแพทย์ เป็น ต้น

เทคนิคการการจำแนกข้อมูล (Classification Techniques) เทคนิคการจำแนกประเภทข้อมูลเป็นกระบวนการสร้าง โมเดลจัดการข้อมูลให้อยู่ในกลุ่มที่กำหนดมาให้จาก กลุ่มตัวอย่างข้อมูลที่เรียกว่าข้อมูลสอนระบบ (training data) ที่แต่ละแถวของข้อมูลประกอบด้วย ฟิลด์หรือแอทริบิวท์จำนวนมาก แอทริบิวท์นี้อาจเป็น ค่าต่อเนื่อง (continuous) หรือค่ากลุ่ม (categorical) โดยจะมีแอทริบิวท์แบ่ง (classifying attribute) ซึ่งเป็นตัวบ่งชี้คลาสของข้อมูล

เทคนิคการการจำแนกข้อมูล (Classification Techniques) เทคนิคในการจำแนกกลุ่มข้อมูลด้วยคุณลักษณะต่างๆ ที่ได้มีการกำหนดไว้แล้วสร้างแบบจำลองเพื่อการ พยากรณ์ค่าข้อมูล (Predictive Model) ในอนาคต เรียกว่า Supervised learning ซึ่งได้แก่ Decision Tree Naive Bayes K-Nearest Neighbors (kNN) Linear Regression Neural Network

Decision Tree Decision Tree การทำงานเป็นโหนด โหนดที่เป็นทั่วๆ ไป X , โหลดที่เป็นลีฟโหลดไม่มี อะไรมาต่อ Y โหนดบนสุด Root มีเส้นที่เชื่อมเรียก กิ่ง หรือ Branch , Internal Node ตัวอธิบายการ ตัดสินใจไปเรื่อยๆ ข้อดี สามารถแทนความหมายได้ง่าย เป็น white box model เป็นเทคนิสตที่ให้ผลเร็วเมื่อเทียบกับเทคนิคอื่น ผลลัพธ์ที่ได้สามารถนำไปใช้งานได้เลย และ สามารถแปลงเป็นกฏได้ ให้ความแม่นยำสูง

Decision Tree Decision Tree เป็นเทคนิคที่จาแนกทาการหาจาก Training Data ที่เรามี Attribute ทั่วไปที่มีเช่น มี Free, won ,Cash จาก Label ที่เรามี มันจะต้องมีการแบ่งแยก คาตอบได้อย่างชัดเจนที่สุด ด้วยการคานวณค่า Entropy (เอ็นโทปี้) และ Information Gain (IG) สูตร Entropy (c1) = -p(c1) log p(c1) IG (parent, child) = Entropy (parent) – [p(c1) x Entropy(c1) + p(c2) x Entropy(c2)+…] ลักษณะของค่า Entropy ถ้าค่าเหมือนกันหมดจะมีค่าเป็น ศูนย์ มาจากสูตร ความน่าจเป็น 1 แอททริบิวต์ไหนที่จะนามาเป็น Root Node คือเอาแอทริ บิวต์ที่สามารถแบ่งแยกคำตอบได้อย่างชัดเจนก่อน

Example: Weather Data เก็บสภาพภูมิอากาศจานวน 14 วันเพื่อพิจารณาว่ามี การแข่งขันกีฬาได้หรือไม่ (ถามว่ามี Yes กี่ตัว ตอบ = 9 แทนด้วยรูปสีฟ้า No = 5 แทนด้วยสีส้ม) ผลของวงกลมยังไม่ได้แบ่งข้อมูลออกมานาออกมา พอทคานวณ เข้าสูตร Entropy = 0.97 มีค่าใกล้ 1 แล้วทาการกรองข้อมูลจาก 14 ตัวที่มีผลเป็น Sunny โหนดไหนแบ่งแยกคาตอบได้อย่างชัดเจนเป็น root node ก่อน ในตัวอย่างเลือก outlook เพราะมีคา ตอบ outlook = overcast ที่เป็นสีฟ้าล้วนให้คาตอบ ในทางเดียวได้ชัดเจน โมเดลเปลี่ยนตามดาต้าที่มี แต่ถ้ามีข้อมูลใหม่มันต้อง เรียนรู้ได้มากขึ้น

Workshop : Decision Tree

Naive Bayes ใช้หลักการความน่าจะเป็น (Probablility) ไม่ต้องใช้ Tree โอกาสที่เกิดเหตุการณ์จากเหตุการณ์ทั้งหมด ใช้ สัญลักษณ์ P() หรือ Pr() เช่น การโยนเหรียญความน่าจะเป็นของการเกิดหัวและก้อย โอกาสที่จะออกหัว มีความน่าจะเป็น ½ = 0.5 โอกาสที่จะออกก้อย มีความน่าจะเป็น ½ = 0.5 ความน่าจะเป็นของการพบ spam email มี email ทั้งหมด 100 ฉบับ มี spam email ทั้งหมด 20 ฉบับ มี normal email ทั้งหมด 80 ฉบับ โอกาสที่ email จะเป็น spam มีความน่าจะเป็น 20/100 = 0.2 หรือ P(spam) = 0.2 โอกาสที่ email จะเป็น normal มีความน่าจะเป็น 80/100 = 0.8 หรือ P(normal) = 0.8

Probability Joint Probability คือ ความน่าจะเป็นของ 2 เหตุการณ์ที่เกิดขึ้นร่วมกัน ตัวอย่าง: ความน่าจะเป็นที่มีคำว่า Free อยู่ใน spam mail สัญลักษณ์ P(Free=Y ∩ spam) ความน่าจะเป็นที่มีคำว่า Free ใน normal mail ความน่าจะเป็นที่เป็น spam mail ความน่าจะเป็นที่มีคำว่า Free ใน spam mail

Naive Bayes ใช้หลักการความน่าจะเป็น (probability) P(A|B) คือ ค่า conditional probability หรือค่าความน่าจะเป็นที่เกิดเหตุการณ์ B ขึ้นก่อนและจะมีเหตุการณ์ A ตามมา P(A ∩ B) คือ ค่า joint probability หรือค่าความน่าจะเป็นที่เหตุการณ์ A และเหตุการณ์ B เกิดขึ้นร่วมกัน P(B) คือ ค่าความน่าจะเป็นที่เหตุการณ์ B เกิดขึ้น

Naive Bayes ในลักษณะเดียวกันเราจะเขียน P(B|A) หรือค่าความ น่าจะเป็นที่เหตุการณ์ A เกิดขึ้นก่อนและเหตุการณ์ B เกิดขึ้นตามมาทีหลังได้เป็น

Naive Bayes จากทั้ง 2 แบบจะเห็นว่ามีค่า P(A ∩ B) ที่เหมือนกันอยู่ ดังนั้นเราสามารถเขียนสมการของ P(A ∩ B) ได้เป็นดังนี้ และนี่คือสมการที่เรียกว่า Bayes theorem หรือทฤษฎี ของเบย์ ในการนำไปใช้งานทางด้าน data mining ใน ที่นี้จะขอเปลี่ยนสัญลักษณ์ A และ B เสียใหม่ให้ เป็น A และ C โดยที่ A คือ แอตทริบิวต์ (attribute)​ และ C คือ ค่าคลาส (class) ดังสมการด้านล่าง

Naive Bayes จากสมการของ Bayes จะมี 3 ส่วนที่สำคัญ คือ Posterior probability หรือ P(C|A) คือ ค่าความน่าจะเป็นที่ข้อมูลที่มีแอตทริบิวต์เป็น A จะมีคลาส C Likelihood หรือ P(A|C) คือ ค่าความน่าจะเป็นที่ข้อมูล training data ที่มีคลาส C และมีแอตทริบิวต์ A โดยที่ A = a1 ∩ a2 … ∩ aMโดยที่ M คือจำนวนแอตทริบิวต์ใน training data Prior probability หรือ P(C) คือ ค่าความน่าจะเป็นของคลาส C

                                                                                                                                                                                                  Naive Bayes แต่การที่แอตทริบิวต์ A = a1 ∩ a2 … ∩ aM ที่เกิดขึ้นใน training data อาจจะมีจำนวนน้อยมากหรือไม่มี รูปแบบของแอตทริบิวต์แบบนี้เกิดขึ้นเลย ดังนั้นจึงได้ ใช้หลักการที่ว่าแต่ละแอตทริบิวต์เป็น independent ต่อกันทำให้สามารถเปลี่ยนสมการ P(A|C) ได้เป็น ต่อไปจะแสดงวิธีการคำนวณค่าต่างๆ จากไฟล์ training data เพื่อสร้างเป็นโมเดล Naive Bayes ใน บทความนี้จะใช้ข้อมูลเดียวกันกับบทความที่ผ่านมา นั่นคือข้อมูล weather ดังในตารางที่ 1 (ผู้อ่าน สามารถทำการ sort หรือ filter เฉพาะค่าที่ต้องการ ดู เพื่อคำนวณตามไปได้อย่างง่ายครับ)

Workshop : Naive Bayes

K-Nearest Neighbors คือ วิธีการในการจัดแบ่งคลาส เทคนิคนี้จะตัดสินใจ ว่าคลาสใดที่จะแทนเงื่อนไขหรือกรณีใหม่ๆ ได้บ้าง โดยการตรวจสอบจำนวนบางจำนวน (“K” ใน K- nearest neighbor) ของกรณีหรือเงื่อนไขที่เหมือนกัน หรือใกล้เคียงกันมากที่สุด โดยจะหาผลรวม (Count Up)ของจำนวนเงื่อนไข หรือกรณีต่างๆสำหรับแต่ละ คลาส และกำหนดเงื่อนไขใหม่ๆ ให้คลาสที่เหมือนกัน กับคลาสที่ใกล้เคียงกันมากที่สุด

K-Nearest Neighbors จะตัดสินใจ ว่าคลาสใดที่จะแทนเงื่อนไขหรือกรณี ใหม่ๆ ได้ ตรวจสอบจำนวนบางจำนวน (“k” ใน k-Nearest Neighbor) ของกรณีหรือเงื่อนไขที่เหมือนกันหรือ ใกล้เคียงกันมากที่สุด โดยจะหาผลรวมของจำนวน เงื่อนไข หรือกรณีต่างๆ สำหรับแต่ละคลาส กำหนดเงื่อนไขใหม่ๆ ให้คลาสที่เหมือนกันกับคลาสที่ ใกล้เคียงกันมากที่สุด

ฟังก์ชั่นการดำเนินการในอัลกอริทึม k-NN ฟังก์ชั่นระยะทาง (Distance Function) เป็นการคำนวณค่าระยะห่างระหว่างสองเรคคอร์ดข้อมูล เพื่อที่จะมาวัดความคล้ายคลึงกันของข้อมูล โดยมีเงื่อนไข คือ ค่าระยะทาง(ความห่าง)ที่คำนวณได้ต้องไม่ติดลบ ถ้าตำแหน่งเดียวกันฟังก์ชันต้องเป็นศูนย์(ค่าเหมือนกัน) การคำนวณวัดระยะทางไปกลับต้องเท่ากัน

ฟังก์ชั่นการดำเนินการในอัลกอริทึม k-NN การดำเนินการการหาระยะทางระหว่าง จุด A และ B ใด ๆ ทำได้โดย ใส่ค่าสัมบูรณ์ (Absolute) ให้กับค่าระยะทาง: |A-B| ยกกำลังสองให้กับค่าระยะทาง : (A-B)2

ฟังก์ชั่นการดำเนินการในอัลกอริทึม k-NN ฟังก์ชั่นการรวม (Combination Function) เป็นการรวมกันของผลลัพธ์ที่ได้จากการคำนวณค่า Distance โดยทำการเรียงลำดับค่าDistance จาก น้อยไปมาก หลังจากนั้นดูจากค่า “k” ว่ากำหนดเป็น เท่าไร แล้วนำลำดับที่เรียงได้มาเทียบกับคลาสข้อมูล ที่เรียงแล้วนำมาตอบ นิยมใช้การรวมระยะห่างโดย ใช้วิธีแบบยูคลิเดียน (Euclidean Distance)

ฟังก์ชั่นการดำเนินการในอัลกอริทึม k-NN นิยามตัวอย่าง x ด้วยเวกเตอร์คุณลักษณะ x=<a1(x), a2(x),…, an(x)> นิยามระยะห่างระหว่างตัวแปรตัวอย่าง xi และ xj ดัง สมการ

การเรียนรู้ของอัลกอริทึม k-NN เมื่อมีการกำหนดตัวอย่างค้นถาม Xq แล้ว การ เรียนรู้ประกอบด้วย 2 ขั้นตอน 1. ใช้มาตรวัดระยะห่างคำนวณหาตัวอย่าง k ตัวที่อยู่ ใกล้ Xq มากที่สุดจากเซตตัวอย่างสอน 2. ประมาณค่าฟังก์ชั่นเป้าหมายของตัวอย่างค้นถาม Xq ด้วยค่าฟังก์ชั่นเป้าหมายของตัวอย่าง Xi จำนวน k ตัวที่อยู่ใกล้ Xq มากที่สุด

การเรียนรู้ของอัลกอริทึม k-NN ประมาณค่าฟังก์ชั่นเป้าหมายของตัวอย่างค้นถาม Xq ค่าฟังก์ชั่นเป้าหมายเป็นค่าไม่ต่อเนื่อง  เลือกค่าส่วนมาก ของค่าฟังก์ชั่นเป้าหมายของตัวอย่าง Xi จำนวน k ตัวที่ อยู่ใกล้ Xq มากที่สุด

การเรียนรู้ของอัลกอริทึม k-NN ค่าฟังก์ชั่นเป้าหมายเป็นค่าจำนวนจริง  ค่าเฉลี่ย ของค่าฟังก์ชั่นเป้าหมายของตัวอย่าง Xi จำนวน k ตัวที่อยู่ใกล้ Xq มากที่สุด

การเรียนรู้ของอัลกอริทึม k-NN ตัวอย่างของตัวอย่างค้นถามในปริภูมิข้อมูล แสดงได้โดย แผนภาพโวโรนอย (Voronoi Diagram) ดังรูปแสดงจุดใน ปริภูมิ 2 มิติ และค่าฟังก์ชั่นเป้าหมายแบบบูลีน (Boolean) จะเห็นว่าวิธีการแบบ 1-NN จำแนกประเภทตัวอย่างค้นถาม Xq เป็นประเภทบวก(+) ส่วนวิธีการแบบ 5-NN จำแนก ประเภทตัวอย่างค้นถาม Xq เป็นประเภทลบ (-) แผนภาพ Voronoi Diagram

k-NN แบบถ่วงน้ำหนักด้วยระยะทาง (Distance-Weighted k-NN) ผลเสียคือการทำงานของจำแนกประเภทจะช้าลง ในการปรับ kNN ให้ละเอียดขึ้น โดยการให้ น้ำหนักที่มากกว่ากับตัวอย่างที่ใกล้กับตัวอย่างค้นถาม มากกว่า การคำนวณค่าน้ำหนัก ใช้สมการ

k-NN แบบถ่วงน้ำหนักด้วยระยะทาง (Distance-Weighted k-NN) โดยใช้สมการที่ (9.5) สำหรับฟังก์ชั่นเป้าหมายที่ เป็นค่าไม่ต่อเนื่อง (Discrete-Valued Target Functions) และใช้สมการที่ (9.6) สำหรับฟังก์ชั่นเป้าหมายที่ เป็นค่าต่อเนื่อง (Real-Valued Target Functions)

ความถดถอยแบบถ่วงน้ำหนักท้องถิ่น (Locally Weighted Regression) เนื่องจาก k-NN จะให้ค่าประมาณฟังก์ชั่นเป้าหมาย ท้องถิ่นที่แตกต่างกันไปสำหรับแต่ละตัวอย่างค้นถาม Xq จึงเกิดคำถามว่าเราน่าจะสร้างเป็นฟังก์ชั่นประมาณ ค่าซึ่งเข้ากับตัวอย่างสอนละแวกใกล้เคียงกับตัวอย่าง ค้นถาม โดยฟังก์ชั่นที่สร้างนั้น อาจเป็นฟังก์ชั่นเชิงเส้น (Linear Function) ฟังก์ชั่นกำลังสอง (Quadratic Function) ฟังก์ชั่นข่ายงานประสาทเทียมหลายชั้น (Multilayer Neural Network) หรือฟังก์ชั่นรูปแบบอื่น ๆ

ความถดถอยแบบถ่วงน้ำหนักท้องถิ่น (Locally Weighted Regression) ฟังก์ชั่นที่สร้างขึ้นเป็นรูปแบบนัยทั่วไป (Generalization) โดยใช้หลักของการถดถอยแบบถ่วง น้ำหนักท้องถิ่น คือ ท้องถิ่น (Local) เนื่องจากฟังก์ชั่นเป้าหมายขึ้นอยู่กับ ตัวอย่างที่อยู่ใกล้กับตัวอย่างค้นถาม Xq ถ่วงน้ำหนัก (Weighted) เนื่องจากมีการให้น้ำหนักการมี ส่วนร่วมของตัวอย่างสอนตามระยะห่างจากตัวอย่างค้นถาม Xq ความถดถอย (Regression) เนื่องจากเป็นการประมาณ ฟังก์ชั่นค่าจริงที่ให้มีความผิดพลาดน้อยที่สุด

ความถดถอยแบบถ่วงน้ำหนักท้องถิ่น (Locally Weighted Regression) ตัวอย่างการใช้ฟังก์ชั่นเชิงเส้นเพื่อประมาณฟังก์ชั่น เป้าหมาย ใช้ Linear Function เพื่อประมาณค่าฟังก์ชั่น เป้าหมายดังนี้ สมการที่ (9.7)

ความถดถอยแบบถ่วงน้ำหนักท้องถิ่น (Locally Weighted Regression) ในสมการที่ (9.8) ใช้หลักการปรับน้ำหนัก (Weight) แบบเดียวกับ Neural Network โดยใช้ หลักการของ Gradient Descent หาค่าความ ผิดพลาด (Error) น้อยที่สุดของการคำนวณค่า weight

ทางเลือกค่าความผิดพลาด ทางเลือกนิยามค่าความผิดพลาดที่เป็นไปได้ 3 แบบคือ Squared error over k Nearest Neighbors Distance-weighted squared error over the entire set D of training data Combine 1 and 2 หมายเหตุ K คือ เคอร์เนลฟังก์ชั่น หรือ ฟังก์ชั่นผกผัน (inverse function) กับระยะห่าง ใช้เพื่อกำหนดน้ำหนักสำหรับตัวอย่างสอนแต่ละตัว

ข้อดีและข้อเสียของ k-NN สามารถจำลองฟังก์ชั่นเป้าหมายที่ซับซ้อนด้วยชุดของ ค่าประมาณแบบท้องถิ่นที่ซับซ้อนได้ สารสนเทศที่ปรากฎอยู่ในชุดข้อมูลสอนไม่สูญหาย เนื่องจากถูกจัดเก็บแยกไว้ต่างหาก เวลาที่ใช้สอนจะรวดเร็ว เนื่องจากการเป็นการเรียนรู้ แบบเกียจคร้าน

ข้อดีและข้อเสียของ k-NN ค่าใช้จ่ายตอนจำแนกประเภทสูง เนื่องจากการคำนวณ เกิดขึ้นขณะค้นถามมากกว่าตอนสอน ความยากในการกำหนดมาตรวัดระยะห่างที่เหมาะสม วิธีจำแนกประเภทแบบเพื่อนบ้านใกล้สุด k ตัว เหมาะกับ ชุดข้อมูลสอนที่มีปริมาณมาก และตัวอย่างมีคุณลักษณะ ไม่เกิน 20 คุณลักษณะ ต้องการวิธีการจัดทำดัชนีหน่วยความจำ (Memory Indexing) ที่มีประสิทธิภาพ (มีการจัดเก็บตัวอย่างสอนไว้ ต่างหาก) ผลกระทบเชิงลบจากคุณลักษณะที่ไม่เกี่ยวข้อง ต่อมาตร วัดระยะห่าง หรือการเกิด Curse of Dimensionality

Workshop : K-Nearest Neighbors

Linear Regression 𝑦 =𝑎+𝑏𝑥 การวิเคราะห์การถดถอยเชิงเส้นตรง (Linear regression analysis) จะเป็นการทำนายข้อมูลที่มีค่า เชิงตัวเลขที่ เกี่ยวข้องกับ response variable “𝑦” โดยการพิจารณา ค่า predictor variable “𝑥” เพียงแค่ ค่าเดียวด้วยการ ประยุกต์ใช้ฟังก์ชันเชิงเส้นตรง (Linear function) ที่ซึ่ง สามารถคำนวณได้จาก 𝑦 =𝑎+𝑏𝑥 เมื่อ a คือ ค่าสัมประสิทธิ์ความถดถอยที่ซึ่งจะเป็นตัวก าหนดจุดตัดแกน y (y-intercept) และ b คือ ค่า สัมประสิทธิ์ความถดถอยที่ซึ่งจะเป็นตัวก าหนดความลาด เอียงของเส้นตรง

Workshop : Linear Regression

Artificial Neural Network: NN โครงข่ายประสาทเทียม หรือ เครือข่ายประสาท เทียม (Artificial Neural Network: ANN)” หมายถึง คอมพิวเตอร์ที่สามารถเลียนแบบการทํางานของสมอง มนุษย์ได้ ด้วยการ ประมวลผลข้อมูลสารสนเทศ และองค์ความรู้ได้ในคราวละมากๆ เป็นรวมกลุ่มแบบ ขนาน ของหน่วยประมวลผลย่อยๆ ซึ่งการเชื่อมต่อ ในโครงสร้างทําให้เกิดความรู้ ประสบการณ์ ความ ฉลาดของข่ายงาน

Artificial Neural Network โครงข่ายประสาทเทียม ประกอบไปด้วย 3 ชั้น ได้แก่ ชั้นอินพุต (Input Layer) ชั้นซ่อน (Hidden Layer) ชั้นเอาท์พุต (Output Layer)

Artificial Neural Network ชั้นอินพุต (Input Layer) เป็นชั้นที่รอรับข้อมูลเข้าสู่โครงข่ายประสาทเทียม ข้อมูลที่นำเข้าสู่โครงข่าย ก็คือข้อมูลที่ผ่านการ เตรียมข้อมูลดังที่ได้แสดงไว้ในขั้นตอนการเตรียม ข้อมูลของโครงข่ายประสาทเทียม Input Layer ...

Artificial Neural Network ในการรู้จำลายมือเขียนภาษาไทยนี้จะใช้ค่า ลักษณะเฉพาะของตัวอักขระ (Feature Extractions) มาเป็นค่าอินพุตของโครงข่าย ดังนั้นจำนวนโหนดในชั้นอินพุคจะมีจำนวน ลักษณะเฉพาะของตัวอักขระที่หาได้ Input Layer ...

Artificial Neural Network ชั้นซ่อน (Hidden Layer) เป็นชั้นที่เพิ่มประสิทธิภาพในการจัดกลุ่มข้อมูล โดยมีสมการในการคำนวณดังสมการ **e ≈ 2.71828 เพื่อที่จะส่งต่อไปยังชั้นเอาต์พุต Hidden Layer ...

Artificial Neural Network สมการ ได้มาจาสมการ ซึ่ง Sigmoid Function เป็นฟังก์ชันกระตุ้น เรียกว่า “Sigmoid Function”

Artificial Neural Network Output Layer เป็นชั้นที่คำนวณหาผลลัพธ์ของโครงข่ายประสาทเทียม โดยมีสมการในการคำนวณดังสมการ **e ≈ 2.71828 จำนวนโหนดในชั้นเอาต์พุต จะขึ้นอยู่กับจำนวนกลุ่มข้อมูล ที่ต้องการจัด Output Layer ...

Workshop : Artificial Neural Network

The end Q & A