tieu luan mang noron

20
MẠNG NƠ RON NHÂN TẠO VÀ ỨNG DỤNG Nhóm thực hiện: Nhóm7 – KHMT 2011 Lê Văn Hòa Nguyễn Hoàng Long Ngô Minh Tiến Hồ Hải Quân 1

Upload: hoang-thai

Post on 30-Dec-2014

58 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Tieu Luan Mang Noron

1

MẠNG NƠ RON NHÂN TẠOVÀ ỨNG DỤNG

Nhóm thực hiện: Nhóm7 – KHMT 2011 Lê Văn Hòa

Nguyễn Hoàng Long Ngô Minh Tiến Hồ Hải Quân

Page 2: Tieu Luan Mang Noron

2

Nội dung trình bày1. Phát biểu bài toán

2. Mô tả dữ liệu

3. Thiết kế và cài đặt

4. Kết quả và phân tích

5. Kết luận

Page 3: Tieu Luan Mang Noron

3

1. Phát biểu bài toánBài toán: Bệnh viện đại học Billings Chicago đã tiến hành nghiên

cứu về sự sống còn của những bệnh nhân đã trải qua phẫu thuật ung

thư vú. Người ta đã thấy rằng dựa vào 3 chỉ số, tuổi của bệnh nhân

tại thời điểm tiến hành phẩu thuật, năm bênh nhân tiến hành phẩu

thuật, số hạch dương tính được phát hiện, thì ta có thể xác định

được bệnh nhân có thế sống dưới 5 năm hay trên 5 năm.

Dữ liệu được lấy tại địa chỉ sau:

http:// archive.ics.uci.edu/ml/datasets/Haberman%27s+Survival

tên của tập dữ liệu là: Haberman's Survival

Page 4: Tieu Luan Mang Noron

4

1. Phát biểu bài toánCác đặc trưng

ages: Tuổi của bệnh nhân tại thời điểm phẩu thuật.year: Năm bệnh nhân tiến hành phẩu thuật nodes: Số hạch dương tính được phát hiện.

Quá trình phân lớp (classification) 1: Khả năng sống sót của bệnh nhân từ 5 năm trở lên.-1: Khả năng sống sót của bệnh nhân dưới 5 năm.

Page 5: Tieu Luan Mang Noron

5

2. Mô tả tập dữ liệuDữ liệu vào: Ta có các giá trị đầu vào ages, year, nodes

được chuyển về đoạn [0, 1].

Dữ liệu ra: Với 2 giá trị

1: Khả năng sống sót từ 5 năm trở lên.

-1: Khả năng sống sót dưới 5 năm.

Tiến hành 2 thử nghiệm

Page 6: Tieu Luan Mang Noron

6

2. Mô tả tập dữ liệuThử nghiệm 1: Dữ liệu có thể phân tách tuyến tính

Dữ liệu huấn luyện 115 mẫu, 80 mẩu 1, 35 mẫu -1Dữ liệu test 50 mẫu 30 mẫu 1 và 20 mẫu -1

Page 7: Tieu Luan Mang Noron

7

2. Mô tả tập dữ liệuThử nghiệm 2: Dữ liệu không thể phân tách tuyến tính

Dữ liệu huấn luyện 256 mẫu, 80 mẫu -1, 176 mẫu 1Dữ liệu test 50 mẫu, 12 mẫu -1, 38 mẫu 1

Page 8: Tieu Luan Mang Noron

8

3. Thiết kế và cài đặt Với mạng Perceptron 1 lớp:

Hàm kích hoạt: hardlim

Số vòng huấn luyện: 100

Page 9: Tieu Luan Mang Noron

9

3. Thiết kế và cài đặt Với mạng Adaline

Loại mạng: linear layer (train)Số vòng huấn luyện: 1000Ngưỡng 0,01

Page 10: Tieu Luan Mang Noron

10

3. Thiết kế và cài đặtVới mạng perceptron 2 lớp

Số vòng huấn luyện: 100Hàm kích hoạt: tansig

Page 11: Tieu Luan Mang Noron

11

4. Kết quả và phân tíchThử nghiệm 1:

Độ chính xác của 3 mạng

Đối với dữ liệu huấn luyện:Loại mạng Số mẫu phân

lớp saiSố mẫu phân lớp đúng

Tổng số mẫu Tỉ lệ lỗi phân lớp sai

Tỉ lệ phân lớp đúng

adaline 0 115 115 0% 100%

Perceptron 1 lớp 0 115 115 0% 100%

Perceptron 2 lớp 0 115 115 0% 100%

Page 12: Tieu Luan Mang Noron

12

4. Kết quả và phân tíchĐối với dữ liệu test: dữ liệu test không phân tách tuyến tính

Nhận xét: Đối với dữ liệu phân tách tuyến tính khi huấn luyện cả 3 đều cho kết quả huấn luyện 100%. Nhưng khi test với dữ liệu không phân tách tuyến tính thì mạng perceptron 2 lớp cho kết quả tốt nhât.

Loại mạng Số mẫu phân lớp sai

Số mẫu phân lớp đúng

Tổng số mẫu Tỉ lệ lỗi phân lớp sai

Tỉ lệ phân lớp đúng

adaline 1 49 50 2% 98%

Perceptron 1 lớp 20 30 50 40% 60%

Perceptron 2 lớp 0 50 50 0% 100%

Page 13: Tieu Luan Mang Noron

13

4. Kết quả và phân tíchTốc độ hội tụ của hàm lỗi (MSE)

Adaline Perceptron 1 lớp Perceptron 2 lớp

Nhận xét: Độ hội tự hàm lỗi Perceptron 2 lớp là nhỏ nhất rồi đến Adaline.

Page 14: Tieu Luan Mang Noron

14

4. Kết quả và phân tíchTổng lỗi bình phương với dữ liệu test

Nhận xét: Mạng perceptron 2 lớp có tổng lỗi bình phương thấp nhất, rồi đến mạng adaline.

Loại mạng Số phân lớp sai/tổng số E

Adaline 1/50 4Perceptron 1 lớp 20/50 80Perceptron 2 lớp 0/50 0

Page 15: Tieu Luan Mang Noron

15

4. Kết quả và phân tíchThử nghiệm 2

Độ chính xác của 3 mạng

Đối với dữ liệu huấn luyện

Loại mạngSố mẫu phân

lớp saiSố mẫu phân

lớp đúngTổng số mẫu

Tỉ lệ lỗi phân lớp sai

Tỉ lệ phân lớp đúng

adaline 256 0 256 100% 0%

Perceptron 1 lớp

47 209 256 18,4% 81,6%

Perceptron 2 lớp

0 256 256 0% 100%

Page 16: Tieu Luan Mang Noron

16

4. Kết quả và phân tích Đối với dữ liệu test: dữ liệu test không phân tách tuyến tính

Nhận xét: Đối với dữ liệu huấn luyện và test mạng perceptron 2 lớp thực hiện tốt nhất rồi đến perceptron 1 lớp.

Loại mạng Số mẫu phân lớp sai

Số mẫu phân lớp đúng

Tổng số mẫu Tỉ lệ lỗi phân lớp sai

Tỉ lệ phân lớp đúng

adaline 50 0 50 100% 0%

Perceptron 1 lớp

24 26 50 48% 52%

Perceptron 2 lớp

0 50 50 0% 100%

Page 17: Tieu Luan Mang Noron

17

4. Kết quả và phân tíchTốc độ hội tụ của hàm lỗi (MSE)

Adaline Perceptron 1 lớp Perceptron 2 lớp

Nhận xét: ta thấy độ hội tụ hàm lỗi của mạng perceptron 2 lớp là nhỏ nhất rồi đến perceptron 1 lớp

Page 18: Tieu Luan Mang Noron

18

4. Kết quả và phân tíchTổng lỗi bình phương đối với dữ liệu test

Nhận xét: Tổng lỗi bình phương đối với mạng perceptron 2

lớp là thấp nhất, rồi đến mạng perceptron 1 lớp.

Loại mạng Số phân lớp sai/tổng số E

Adaline 50/50 200

Perceptron 1 lớp 24/50 96

Perceptron 2 lớp 0/50 0

Page 19: Tieu Luan Mang Noron

19

5. Kết luậnMạng perceptron 2 lớp cho kết quả tốt hơn hẵn so với mạng

perceptron 1 lớp và mạng adaline.

Trong trương hợp phân tách tuyến tính thì mạng perceptron 1

lớp và mạng adaline thực hiện phân lớp tốt. Nhưng với dữ liệu

không phân tách tuyến tính thì 2 mạng này khi thực hiện phân

lớp là không tốt.

Vì vậy đối với dữ liệu cần đưa vào như thế nào thì ta có thể

chọn lựa mô hình cho phù hợp.

Page 20: Tieu Luan Mang Noron

20

CÁM ƠN THẦY VÀ CÁC BẠN ĐÃ CHÚ Ý LẮNG NGHE