Veröffentlicht am Schreib einen Kommentar

Unterschiedliche Arten von Klassifizierern

Lassen Sie uns nun über Perceptron-Klassifizierer sprechen – ein Konzept, das aus künstlichen neuronalen Netzen stammt. Das Problem besteht hier darin, diese in zwei Klassen zu klassifizieren, X1 oder X2. Das Perzeptron erhält zwei Eingaben und dazwischen eine Summierung; die Eingaben sind Xi1 und Xi2, und es gibt damit verbundene Gewichte, w1 und w2. Die Yi-Kappe von außen ist die gewünschte Ausgabe und w0 ist eine Gewichtung dazu, und unsere gewünschte Ausgabe ist, dass das System die Daten genau in die Klassen klassifizieren kann. Sie können diese Gleichung leicht mit der linearen Regression in Verbindung bringen, wobei Y die abhängige Variable ähnlich wie Y^ ist. W0 ist der Achsenabschnitt, W1 und W2 sind die Steigungen. X1 und X2 sind unabhängige Variablen. Wenn wir sagen, dass zufällige Gewichte generiert werden, bedeutet dies, dass in jeder Iteration eine zufällige Simulation stattfindet. Wenn wir eine gewünschte Ausgabe haben, die wir dem Modell vorgeben, muss die Maschine eine Ausgabe liefern, die unseren Erwartungen entspricht. Anfänglich ist sie vielleicht nicht so genau. Aber mit fortschreitendem „Training“ wird die Maschine immer genauer. Mit der Zeit minimiert sich der Fehler. Je nach Komplexität der Daten und der Anzahl der Klassen kann es länger dauern, bis das Problem gelöst ist oder eine Genauigkeit erreicht wird, die für den Trainer akzeptabel ist. Das bedeutet, dass die Maschine bei komplexen Daten mehr Iterationen benötigt, bevor sie eine Genauigkeit erreicht, die wir von ihr erwarten. Diese Iterationen werden in künstlichen neuronalen Netzen bei Deep-Learning-Problemen als Epochen bezeichnet.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.