Posted on Hozzászólás most!

Az osztályozók különböző típusai

Most beszéljünk a perceptron osztályozókról – ez egy mesterséges neurális hálózatokból származó fogalom. A probléma itt az, hogy két osztályba soroljuk, X1 vagy X2 osztályba. Két bemenet van megadva a perceptron számára, és van egy összegzés a kettő között; a bemenet Xi1 és Xi2, és vannak hozzá tartozó súlyok, w1 és w2. A kívülről jövő Yi sapka a kívánt kimenet, w0 pedig a hozzá tartozó súly, a kívánt kimenetünk pedig az, hogy a rendszer pontosan osztályokba tudja sorolni az adatokat. Ezt az egyenletet könnyen kapcsolatba hozhatja a lineáris regresszióval; ahol Y a függő változó, hasonlóan az Y^-hez. W0 a metszéspont, W1 és W2 a meredekség. X1 és X2 a független változók. Amikor azt mondjuk, hogy véletlen súlyok generálódnak, ez azt jelenti, hogy minden iterációban véletlenszerű szimuláció történik. Ha van egy kívánt kimenetünk, amelyet megmutatunk a modellnek, a gépnek a várakozásunkhoz hasonló kimenettel kell előállnia. Kezdetben lehet, hogy ez nem lesz olyan pontos. De ahogy a “képzés” folytatódik, a gép egyre pontosabb lesz. Az idő múlásával a hiba minimalizálódik. Az adatok összetettségétől és az osztályok számától függően hosszabb időbe telhet a megoldás, illetve az oktató számára elfogadható pontossági szint elérése. Ez azt jelenti, hogy ha az adatok összetettek, a gépnek több iterációra lesz szüksége, mire eléri azt a pontossági szintet, amit elvárunk tőle. Ezeket az iterációkat a mesterséges neurális hálózatokban mélytanulási problémáknál epocháknak nevezik.

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük