SI

Uczenie perceptronu

Zagadnienia

Uczenie nadzorowane

Uczenie nie nadzorowane

TLDR Uczenie nadzorowane wymaga etykietowanych danych treningowych, podczas gdy uczenie nienadzorowane może być stosowane do danych bez etykiet lub z częściowymi etykietami.

Reguła Hebba

Ogólna reguła uczenia neuronu, zwana także regułą Hebba, opiera się na zasadzie modyfikacji wag połączeń między neuronami w zależności od aktywności tych neuronów.

Ogólna reguła uczenia neuronu mówi, że:

Ogólnie rzecz biorąc, reguła Hebbiana opiera się na zasadzie, że neurony, które są aktywowane jednocześnie, prawdopodobnie mają związek funkcjonalny i warto zwiększyć siłę połączenia między nimi, aby ułatwić przetwarzanie informacji. Z drugiej strony, neurony, które są aktywowane w odwrotnych sekwencjach, prawdopodobnie nie są ze sobą związane i warto osłabić ich połączenie.

Formalnie, reguła Hebba może być wyrażona w postaci równania wag:

\[\Delta w_{ij} = \eta \cdot x_i \cdot y_j\] \[\Delta w_{ij} -\text{ to zmiana wagi i-tego wejścia}\] \[η - \text{to współczynnik uczenia (learning rate)}\] \[x_i - \text{to aktywacja neuronu wejściowego i}\] \[y_j - \text{to aktywacja neuronu j}\]

Uczenie perceptronu jest zazwyczaj przeprowadzane w sposób nadzorowany, gdzie każda próbka treningowa ma przypisaną etykietę klasy. (poprzednie laboratorium).

Jednakże, jeśli chcemy wykorzystać perceptron do uczenia nienadzorowanego, możemy dostosować procedurę trenowania, aby sieć “uczyła się” struktury danych, ale bez korzystania z etykiet klas. Jednym z podejść do uczenia nienadzorowanego perceptronu jest zastosowanie reguły Hebba.

Reguły uczenia

Ogólna reguła uczenia

\[\Delta \boldsymbol{w}=c * r(\boldsymbol{w}, \boldsymbol{x}, d) * \boldsymbol{x}\]

gdzie:

Reguła Hebba

Metoda uczenia - nienadzorowana

Sygnał uczący

\[r=y=f\left(\boldsymbol{w}^{\boldsymbol{t}} \boldsymbol{x}\right)\]

Korekta wag

\[\Delta \boldsymbol{w}=c y \boldsymbol{x}=c f\left(\boldsymbol{w}^t \boldsymbol{x}\right) \boldsymbol{x}\]

Reguła Perceptronowa

Metoda uczenia - nadzorowana

Sygnał uczący

\[r=d-y\]

Korekta wag

\[\Delta \boldsymbol{w}=c\left(d-f\left(\boldsymbol{w}^t \boldsymbol{x}\right)\right) \boldsymbol{x}\]

Funkcja celu

Funkcja celu, znana również jako funkcja kosztu lub funkcja straty, jest to funkcja, która mierzy, jak dobrze model przewiduje rzeczywiste wartości na podstawie danych wejściowych. Jest to kluczowa koncepcja w uczeniu maszynowym, ponieważ podczas trenowania modelu próbujemy minimalizować wartość tej funkcji, aby uzyskać jak najlepsze dopasowanie do danych treningowych.

Poniżej znajduje się kilka popularnych funkcji celu, które są stosowane w różnych problemach uczenia maszynowego:

Zadania

Zadanie 1

Opracować program do uczenia reguł bramki NAND pojedynczego dwuwejściowego sztucznego neuronu z unipolarną funkcją przejścia. Uczenie zrealizować w oparciu o regułę Hebba a następnie perceptronową.

Przygotowany program powinien realizować powyższe wymagania, a także umożliwiać testowanie nauczonego neuronu na różnych kombinacjach wejść.

Zadanie 2

Opracować program, który w oparciu o wzór opisujący działanie neuronu wyznaczy odpowiedzi dla wszystkich możliwych wektorów wejściowych. Następnie porównać uzyskane wyniki z oczekiwanymi odpowiedziami.

Przygotowany program powinien umożliwiać testowanie neuronu na wszystkich możliwych kombinacjach wejść oraz porównywanie uzyskanych wyników z oczekiwanymi odpowiedziami.

Zadanie 3

Badanie wpływu wartości współczynnika uczenia na przebieg procesu uczenia i efektywność działania sieci.

Ostatecznie, sporządzona tabela powinna umożliwić zrozumienie, jak wartość współczynnika uczenia wpływa na proces uczenia oraz jakość działania sieci neuronowej.

Lp. Ilość powtórzeń uczenia
  ( c = x )
  ( c = 100x )
  ( c = 0.01x )
1.  
2.  
 
10.  
Wartość średnia  
Mediana  

Zadanie 4

Badanie wpływu błędu końcowego (założonej wartości funkcji celu) na przebieg procesu uczenia i efektywność działania sieci.

Ostatecznie, sporządzona tabela powinna umożliwić zrozumienie, jak wartość błędu końcowego wpływa na proces uczenia oraz jakość działania sieci neuronowej.