Publié le Laisser un commentaire

Différents types de classificateurs

Maintenant, parlons des classificateurs Perceptron- c’est un concept tiré des réseaux neuronaux artificiels. Le problème ici est de classer ceci en deux classes, X1 ou la classe X2. Deux entrées sont données au perceptron et il y a une sommation entre les deux ; les entrées sont Xi1 et Xi2 et des poids y sont associés, w1 et w2. Le cap Yi de l’extérieur est la sortie souhaitée et w0 est un poids qui lui est associé, et notre sortie souhaitée est que le système puisse classer les données dans les classes avec précision. Vous pouvez facilement relier cette équation à la régression linéaire ; dans laquelle, Y est la variable dépendante similaire à Y^. W0 est l’intercept, W1 et W2 sont les pentes. X1 et X2 sont des variables indépendantes. Lorsque nous disons que des poids aléatoires sont générés, cela signifie que la simulation aléatoire se produit à chaque itération. Lorsque nous avons un résultat souhaité que nous montrons au modèle, la machine doit produire un résultat similaire à notre attente. Au départ, il se peut qu’elle ne soit pas aussi précise. Mais, au fur et à mesure de la « formation », la machine devient plus précise. Au fil du temps, l’erreur se réduit. Selon la complexité des données et le nombre de classes, il peut falloir plus de temps pour résoudre ou atteindre un niveau de précision acceptable pour le formateur. Cela signifie que lorsque les données sont complexes, la machine prendra plus d’itérations avant d’atteindre le niveau de précision que nous attendons d’elle. Ces itérations sont appelées Epochs dans les réseaux de neurones artificiels dans les problèmes d’apprentissage profond.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *