Most beszéljünk a perceptron osztályozókról – ez egy mesterséges neurális hálózatokból származó fogalom. A probléma itt az, hogy két osztályba soroljuk, X1 vagy X2 osztályba. Két bemenet van megadva a perceptron számára, és van egy összegzés a kettő között; a bemenet Xi1 és Xi2, és vannak hozzá tartozó súlyok, w1 és w2. A kívülről jövő Yi sapka a kívánt kimenet, w0 pedig a hozzá tartozó súly, a kívánt kimenetünk pedig az, hogy a rendszer pontosan osztályokba tudja sorolni az adatokat. Ezt az egyenletet könnyen kapcsolatba hozhatja a lineáris regresszióval; ahol Y a függő változó, hasonlóan az Y^-hez. W0 a metszéspont, W1 és W2 a meredekség. X1 és X2 a független változók. Amikor azt mondjuk, hogy véletlen súlyok generálódnak, ez azt jelenti, hogy minden iterációban véletlenszerű szimuláció történik. Ha van egy kívánt kimenetünk, amelyet megmutatunk a modellnek, a gépnek a várakozásunkhoz hasonló kimenettel kell előállnia. Kezdetben lehet, hogy ez nem lesz olyan pontos. De ahogy a “képzés” folytatódik, a gép egyre pontosabb lesz. Az idő múlásával a hiba minimalizálódik. Az adatok összetettségétől és az osztályok számától függően hosszabb időbe telhet a megoldás, illetve az oktató számára elfogadható pontossági szint elérése. Ez azt jelenti, hogy ha az adatok összetettek, a gépnek több iterációra lesz szüksége, mire eléri azt a pontossági szintet, amit elvárunk tőle. Ezeket az iterációkat a mesterséges neurális hálózatokban mélytanulási problémáknál epocháknak nevezik.
Legutóbbi bejegyzések
- Software Case Tools Overview
- Természetes módszerek, hogy gyorsabban nőjön a hajad egy rossz hajvágás után
- How to Run a Small Commercial Cleaning Company
- Dentil
- Winning Tips – What to Wear for Spring Family Pictures
- Buyer’s Guide: Interior Paints
- Divergence Definition and Uses
- Pitbull ausztrál juhász keverék tények
- Best Overnite Express Tracking
- Öt ok, amiért fontosak Izrael békeszerződései az Egyesült Arab Emírségekkel és Bahreinnel