ดาวน์โหลดงานนำเสนอ
งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ
ได้พิมพ์โดยWinai Chaipoowapat ได้เปลี่ยน 10 ปีที่แล้ว
1
Back-Propagation Learning (การเรียนรู้แบบแพร่กลับ) (ต่อ)
ไกรฤกษ์ เชยชื่น, M.Eng. Electrical
2
วิเคราะห์การใช้งานเครือข่ายแบบแพร่กลับ
- การลู่เขา (Convergence) ของอัลกอริทึ่มการฝึกสอนเป็นส่วนที่จำเป็น - พารามิเตอร์ของเครือข่ายถือเป็นสิ่งแรกที่ผู้ใช้เครือข่ายประสาทเทียมทุกรูปแบบต้องคำนึงถึง
3
การเลือกพารามิเตอร์ของเครือข่าย
- โครงสร้างของเครือข่ายมีผลโดยตรงต่อประสิทธิภาพ การประมาณค่าฟังก์ชัน - จำนวนนิวรอนและจำนวนชั้นซ่อนเร้นจะต้องเหมาะสม - โดยทั่วไปแล้วเราไม่สามารถบอกได้ว่าจำนวนดังกล่าวคืออะไร - ตัวเลือกดังกล่าวยอมขึ้นอยู่กับความซับซ้อนของฟังก์ชัน
4
ลองเปลี่ยน ความซับซ้อนของฟังก์ชัน
เมื่อ ใช้โครงสร้าง เหมือนกันคือ 1-2-1 (input 1 layer, hidden 2 layer, output 1 layer)
5
1-10-1
6
การลู่เข้า (Convergence)
- การฝึกสอนของเครือข่ายซึ่งมุ่งเน้นไปที่ทำให้ค่าความผิดพลาดกำลังสองเฉลี่ยมีค่าน้อยที่สุด - การลู่เข้าอาจลู่เข้าสู่ local minimum ซึ่งค่า weight และ ไบแอส อาจไม่ใช่ค่าที่ถูกต้อง - ค่าอัตราการเรียนรู้ที่ต่ำๆ ช่วยยืนยันการลู่เข้าแต่จะใช้เวลานาน
7
การทำให้เป็นกรณีทั่วไป (Generalization)
- คือความสามารถในการเป็นกรณีทั่วไปได้ นั่น คือจากการฝึกสอนด้วยจำนวนตัวอย่าง (คู่อินพุต/เป้าหมาย) จำนวนที่จำกัด เครือข่ายสามารถทำงานเป็นกรณีทั่วไปได้ โดยครอบคลุมคูอินพุต/เป้าหมายที่ไม่ใช่ตัวอย่างในชุดข้อมูลที่ใช้ฝึกสอนได้อย่างถูกต้อง การปรับแตงอัลกอริทึมการเรียนรูแบบแพรกลับ
8
การปรับแต่งอัลกอริทึมการเรียนรู้แบบแพร่กลับ
- เราสามารถดูประสิทธิภาพของเครือข่ายได้จากพื้นผิวค่าความผิดพลาด (Error surface) คำสั่ง Demo BP ของ Matlab คือ nnd12sd1 - การลู่เข้าของการฝึกสอนสำหรับค่าเริ่มต้นที่ ตำแหน่งต่างๆ จะเห็นได้ว่าไม่ใช่ทุกค่าเริ่มต้นที่ให้การลู่เข้าสู่คำตอบที่ต้องการได้
9
การปรับแต่งอัลกอริทึมการเรียนรู้แบบแพร่กลับ
Global minimum Local minimum - การลู่เข้าของการฝึกสอนสำหรับค่าเริ่มต้นที่ ตำแหน่งต่างๆ จะเห็นได้ว่าไม่ใช่ทุกค่าเริ่มต้นที่ให้การลู่เข้าสู่คำตอบที่ต้องการได้
10
การปรับแต่งอัลกอริทึมการเรียนรู้แบบแพร่กลับด้วย โมเมนตัม
โมเมนตัมใช้หลักการของ Low pass filter ซึ่งจะใช้ ค่าคงที่โมเมนตัม, η ในการกรองเอาความถี่สูงออกไป สมการพื้นฐานแสดงได้ดังนี้ New output Old output input
11
การปรับแต่งอัลกอริทึมการเรียนรู้แบบแพร่กลับด้วย โมเมนตัม
η=0.2 η=0.4 η=0.7 η=0.9
12
การปรับแต่งอัลกอริทึมการเรียนรู้แบบแพร่กลับด้วย โมเมนตัม
ไม่มี โมเมนตัม มี โมเมนตัม
13
อัตราการเรียนรู้ที่ปรับค่าได้ (Variable Learning Rate)
ถ้าการ Training เป็นไปด้วยดี ( error decreased) แล้วเพิ่ม step size α = α*1.1 ถ้าการ Training เป็นไปไม่ดี ( error increased) แล้วลด step size α = α*0.5 ถ้าการ Training เป็นไปด้วยดีพอใช้ ( error decreased) ไม่ต้องปรับ learning rate *ฟังก์ชันที่ใช้ในการปรับค่าตั้งต้นของ network net=init(net)
14
Matlab command Steepest descent with momentum Adaptive learning rate
net=newff(minmax(p),[3,1],{'tansig','purelin'},'traingdm'); net.trainParam.show = 50; net.trainParam.lr = 0.05; net.trainParam.mc = 0.9; % mc = momentum constant net.trainParam.epochs = 300; net.trainParam.goal = 1e-5; Adaptive learning rate net=newff(minmax(p),[3,1],{'tansig','purelin'},'traingda'); net.trainParam.show = 50; net.trainParam.lr = 0.05; net.trainParam.lr_inc = 1.05; % lr_inc = learning rate increasing net.train.Param.lr_dec = 0.7; % lr_dec = learning rate decreasing net.trainParam.epochs = 300; net.trainParam.goal = 1e-5; [net,tr]=train(net,p,t);
งานนำเสนอที่คล้ายกัน
© 2024 SlidePlayer.in.th Inc.
All rights reserved.