งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

- การลู่เข Œ า (Convergence) ของอัลกอริทึ่มการฝึกสอน เป็นส่วนที่จำเป็น - พารามิเตอร์ของเครือข่ายถือเป็นสิ่งแรกที่ผู้ใช้เครือข่าย ประสาทเทียมทุกรูปแบบต้องคำนึงถึง.

งานนำเสนอที่คล้ายกัน


งานนำเสนอเรื่อง: "- การลู่เข Œ า (Convergence) ของอัลกอริทึ่มการฝึกสอน เป็นส่วนที่จำเป็น - พารามิเตอร์ของเครือข่ายถือเป็นสิ่งแรกที่ผู้ใช้เครือข่าย ประสาทเทียมทุกรูปแบบต้องคำนึงถึง."— ใบสำเนางานนำเสนอ:

1

2 - การลู่เข Œ า (Convergence) ของอัลกอริทึ่มการฝึกสอน เป็นส่วนที่จำเป็น - พารามิเตอร์ของเครือข่ายถือเป็นสิ่งแรกที่ผู้ใช้เครือข่าย ประสาทเทียมทุกรูปแบบต้องคำนึงถึง

3 - โครงสร้างของเครือข่ายมีผลโดยตรงต่อประสิทธิภาพ การประมาณค่าฟังก์ชัน - จำนวนนิวรอนและจำนวนชั้นซ่อนเร้นจะต้องเหมาะสม - โดยทั่วไปแล้วเราไม่สามารถบอกได้ว่าจำนวนดังกล่าวคือ อะไร - ตัวเลือกดังกล่าวย ‹ อมขึ้นอยู่กับความซับซ้อนของฟังก์ชัน

4 ลองเปลี่ยน ความซับซ้อนของฟังก์ชัน เมื่อ ใช้โครงสร้าง เหมือนกันคือ (input 1 layer, hidden 2 layer, output 1 layer)

5

6 - การฝึกสอนของเครือข่ายซึ่งมุ่งเน้นไปที่ทำให้ค่าความ ผิดพลาดกำลังสองเฉลี่ยมีค่าน้อยที่สุด - การลู่เข้าอาจลู่เข้าสู่ local minimum ซึ่งค่า weight และ ไบแอส อาจไม่ใช่ค่าที่ถูกต้อง - ค่าอัตราการเรียนรู้ที่ต่ำๆ ช่วยยืนยันการลู่เข้าแต่จะใช้ เวลานาน

7 - คือความสามารถในการเป็นกรณีทั่วไปได้ นั่น คือจากการฝึกสอนด้วยจำนวนตัวอย่าง ( คู่อินพุต / เป้าหมาย ) จำนวนที่ จำกัด เครือข่ายสามารถทำงานเป็นกรณีทั่วไปได้ โดยครอบคลุมคู ‹ อินพุต / เป้าหมายที่ไม่ใช่ตัวอย่างในชุดข้อมูลที่ใช้ฝึกสอนได้อย่าง ถูกต้อง การปรับแต ‹ งอัลกอริทึมการเรียนรู Œ แบบ แพร ‹ กลับ

8 - เราสามารถดูประสิทธิภาพของเครือข่ายได้จากพื้นผิวค่า ความผิดพลาด (Error surface) คำสั่ง Demo BP ของ Matlab คือ nnd12sd1 - การลู่เข้าของการฝึกสอนสำหรับค่าเริ่มต้นที่ ตำแหน่งต่างๆ จะเห็นได้ว่าไม่ใช่ทุกค่า เริ่มต้นที่ให้การลู่เข้าสู่คำตอบที่ต้องการได้

9 Global minimum Local minimum

10 โมเมนตัมใช้หลักการของ Low pass filter ซึ่งจะใช้ ค่าคงที่โมเมนตัม, η ในการกรอง เอาความถี่สูงออกไป สมการพื้นฐานแสดงได้ดังนี้ input Old output New output

11 η=0.2η=0.4 η=0.7η=0.9

12 ไม่มี โมเมนตัม มี โมเมนตัม

13 ถ้าการ Training เป็นไปด้วยดี ( error decreased) แล้วเพิ่ม step size ถ้าการ Training เป็นไปไม่ดี ( error increased) แล้วลด step size α = α*1.1 α = α*0.5 ถ้าการ Training เป็นไปด้วยดีพอใช้ ( error decreased) ไม่ต้องปรับ learning rate * ฟังก์ชันที่ใช้ในการปรับค่าตั้งต้นของ network net=init(net)

14 Steepest descent with momentum net=newff(minmax(p),[3,1],{'tansig','purelin'},'traingdm'); net.trainParam.show = 50; net.trainParam.lr = 0.05; net.trainParam.mc = 0.9; % mc = momentum constant net.trainParam.epochs = 300; net.trainParam.goal = 1e-5; Adaptive learning rate net=newff(minmax(p),[3,1],{'tansig','purelin'},'traingda'); net.trainParam.show = 50; net.trainParam.lr = 0.05; net.trainParam.lr_inc = 1.05;% lr_inc = learning rate increasing net.train.Param.lr_dec = 0.7;% lr_dec = learning rate decreasing net.trainParam.epochs = 300; net.trainParam.goal = 1e-5; [net,tr]=train(net,p,t);


ดาวน์โหลด ppt - การลู่เข Œ า (Convergence) ของอัลกอริทึ่มการฝึกสอน เป็นส่วนที่จำเป็น - พารามิเตอร์ของเครือข่ายถือเป็นสิ่งแรกที่ผู้ใช้เครือข่าย ประสาทเทียมทุกรูปแบบต้องคำนึงถึง.

งานนำเสนอที่คล้ายกัน


Ads by Google