Opublikowano Dodaj komentarz

Różne typy klasyfikatorów

Pomówmy teraz o klasyfikatorach Perceptronowych – jest to koncepcja zaczerpnięta ze sztucznych sieci neuronowych. Problemem jest tutaj zaklasyfikowanie tego do dwóch klas, X1 lub klasy X2. Istnieją dwa wejścia podane do perceptronu i jest sumowanie pomiędzy nimi; wejścia to Xi1 i Xi2 i są z nimi związane wagi, w1 i w2. Czapka Yi z zewnątrz jest pożądanym wyjściem, a w0 jest wagą do niego, a naszym pożądanym wyjściem jest to, że system może dokładnie sklasyfikować dane do klas. Możesz łatwo powiązać to równanie z regresją liniową; gdzie, Y jest zmienną zależną podobną do Y^. W0 to punkt przecięcia, W1 i W2 to nachylenia. X1 i X2 są zmiennymi niezależnymi. Kiedy mówimy, że losowe wagi są generowane, oznacza to, że losowa symulacja ma miejsce w każdej iteracji. Kiedy mamy jedno pożądane wyjście, które pokazujemy modelowi, maszyna musi wymyślić wyjście podobne do naszego oczekiwania. Początkowo, może to nie być tak dokładne. Ale w miarę kontynuacji „treningu” maszyna staje się coraz dokładniejsza. Wraz z upływem czasu, błąd minimalizuje się. W zależności od złożoności danych i liczby klas, rozwiązanie lub osiągnięcie poziomu dokładności, który jest akceptowalny dla trenera, może zająć więcej czasu. Oznacza to, że jeśli dane są złożone, maszyna będzie potrzebowała więcej iteracji, zanim osiągnie poziom dokładności, którego od niej oczekujemy. Te iteracje nazywane są Epochami w sztucznych sieciach neuronowych w problemach głębokiego uczenia.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *