Neural Network With Matlab #2: Cấu trúc mạng nơ-ron

Thảo luận trong 'TRÍ TUỆ NHÂN TẠO' bắt đầu bởi Cu Bo, 14 Tháng bảy 2016.

Chia sẻ trang này

Lượt xem: 1,834

  1. Cu Bo

    By:Cu Boin: 14 Tháng bảy 2016
    Cu Bo

    Tham gia ngày:
    25 Tháng bảy 2014
    Bài viết:
    13
    Đã được thích:
    8
    Neural Network With Matlab #2:
    Cấu trúc mạng nơ-ron

    [​IMG]

    Có thể có 2 hoặc nhiều hơn số nơ-ron trong một lớp, và một mạng nơ-ron có thể có nhiều lớp liên kết với nhau. Đầu tiên hãy đến với một lớp đơn có nhiều nơ-ron bên trong.

    Nhiều nơ-ron trong một lớp

    Ta có một mạng nơ-ron chỉ có 1 lớp với R tín hiệu vào và S nơ-ron.

    [​IMG]
    Trong mạng này, mỗi phần tử của vector input p được liên kết với đầu vào mỗi nơ-ron thông qua ma trận weight W. Bộ cộng của nơ-ron thứ i tiếp nhận weight input Wp và bias b để tạo thành một đầu ra vô hướng n(i). Các phần tử n(i) của các bộ cộng sẽ tập hợp với nhau tạo thành một vector input n với s phần tử. Cuối cùng đầu ra của lớp nơ-ron ta thu được một cột vector a.

    Chú ý:
    Số lượng đầu vào có thể khác so với số lượng nơ-ron của một lớp (S khác R). Trong một lớp, không bắt buộc số lượng đầu vào bằng số nơ-ron của nó.

    Các phần tử của vector input được đưa vào mạng thông qua ma trận Weight W.

    [​IMG]
    Trong đó: Chỉ số hàng trong các phần tử ma trận W cho biết đích đến nơ-ron của Weight, và chỉ số cột cho biết nơi xuất phát của các Weight. Ví dụ: w(1,2) cho biết sự có mặt của phần tử 2 tín hiệu vào và phần tử đó được đưa đến nơ-ron thứ nhất sau khi tích với Weight w(1,2).

    Mạng có S nơ-ron vào R đầu vào có thể được thể hiện như sau:

    [​IMG]
    Với p là vector input có độ lớn R, W là ma trận Weight có kích thước SxR, a và b là các vector có độ lớn S. Như chúng ta đã biết, một lớp nơ-ron có ma trận Weight, toán tử nhân, vector bias b, bộ cộng, và hàm truyền.

    Đầu vào và lớp


    Để có thể khảo sát mạng nhiều lớp thì chúng ta cần phải đưa ra các ký hiệu quy ước cho một lớp mạng, giúp ta có thể phân biệt được các phần tử của các lớp khác nhau.

    Ta gọi ma trận weight liên kết với các đầu vào là input weight; và gọi ma trận weight đến từ đầu ra của lớp là layer weight. Ta dùng các chỉ số mũ để thể hiện cho nguồn (chỉ số thứ 2) và đích (chỉ số thứ nhất) cho các weight khác nhau và một số phần tử trong mạng. Để minh họa, ta khảo sát một lớp có nhiều đầu vào:

    [​IMG]
    Như bạn có thể thấy, ta có nhãn của ma trận weight kết nối với vector đầu vào p là ma trận Input Weight (IW{1,1}) có nguồn là 1 (chỉ số thứ hai) và đích là 1 (chỉ số thứ nhất). Đồng thời, các phần tử của lớp 1, như là bias b{1}, đầu vào hàm truyền n{1}, và đầu ra a{1} thể hiện a,b,n đều có liên kết với lớp thứ 1.

    Trong phần sau, chúng ta sẽ sử dụng ma trận Layer Weight (LW) giống như ma trận Input Weight (IW).

    Trong một mạng net cụ thể, các phần tử được thể hiện trong Matlab:

    Mã:
    net.IW{1,1};
    net.b{1};
    n{1} = net.IW{1,1} + net.b{1};
    Đi ngủ mai viết tiếp :3
     
    Last edited: 14 Tháng bảy 2016
    Lu ROm thích bài này.