Geplaatst op Geef een reactie

Different types of classifiers

Nou, laten we het hebben over Perceptron classifiers- het is een concept afkomstig uit kunstmatige neurale netwerken. Het probleem hier is om deze in twee klassen in te delen, X1 of klasse X2. Er worden twee inputs aan de perceptron gegeven en er is een optelling tussenin; de input is Xi1 en Xi2 en er zijn gewichten aan verbonden, w1 en w2. De Yi cap van buitenaf is de gewenste output en w0 is een gewicht daaraan, en onze gewenste output is dat het systeem gegevens accuraat in de klassen kan indelen. U kunt deze vergelijking gemakkelijk in verband brengen met lineaire regressie; waarin, Y de afhankelijke variabele is vergelijkbaar met Y^. W0 is het intercept, W1 en W2 zijn hellingen. X1 en X2 zijn onafhankelijke variabelen. Wanneer we zeggen dat willekeurige gewichten worden gegenereerd, betekent dit dat in elke iteratie een willekeurige simulatie plaatsvindt. Wanneer wij een gewenste output hebben die wij aan het model tonen, moet de machine met een output komen die overeenkomt met onze verwachting. In het begin is dat misschien niet zo nauwkeurig. Maar naarmate de “training” vordert, wordt de machine nauwkeuriger. Naarmate de tijd verstrijkt, wordt de fout kleiner. Afhankelijk van de complexiteit van de gegevens en het aantal klassen, kan het langer duren om een oplossing te vinden of een nauwkeurigheidsniveau te bereiken dat aanvaardbaar is voor de trainer. Dit betekent dat wanneer de gegevens complex zijn, de machine er meer iteraties over zal doen voordat het een nauwkeurigheidsniveau kan bereiken dat wij van haar verwachten. Deze iteraties worden Epochs genoemd in kunstmatige neurale netwerken bij deep learning problemen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *