Extension des perceptrons: des entrées binaires aux valeurs réelles

Extension des perceptrons: des entrées binaires aux valeurs réelles

Extension des perceptrons: des entrées binaires aux valeurs réelles 💻📊🔬

Dans notre conférence précédente, nous avons discuté du Perceptron, un concept fondamental de l'apprentissage automatique. Aujourd'hui, allons plus loin et explorons comment nous pouvons étendre ses capacités pour gérer les entrées réelles.

Pourquoi aller au-delà du binaire?

La conception initiale du Perceptron a limité ses valeurs d'entrée à 1 et 0 (binaire). Cependant, il n'y a aucune raison logique de nous limiter à une gamme aussi étroite. En permettant aux nombres réels en tant que valeurs d'entrée, nous pouvons représenter un spectre d'informations plus large.

Réglage de l'équation Perceptron

Pour y parvenir, nous apporterons quelques ajustements mineurs à l'équation de Perceptron:'
z = w1x1 + w2x2 + ... + wnxn + b'
Ici, «B» représente un terme de biais constant souvent appelé «biais». En déplaçant le seuil vers la gauche et en introduisant ce nouveau terme, nous avons une représentation plus générale du Perceptron.

Représentation graphique

Examinons la représentation graphique de cette fonction. L'équation suivante est ce qui détermine la sortie:'
f (z) = 1 si z> 0, sinon 0'
Dans ce cas, une valeur «z» inférieure à zéro entraîne une sortie de zéro, tandis qu'une valeur supérieure ou égale à zéro donne une sortie d'une. Cette fonction est connue sous le nom de fonctionStepet sert de fonction d'activation.

La fonction sigmoïde: une alternative plus lisse

La fonction étape présente certains défis lors de la formation de notre perceptron en utilisant des données historiques, en particulier lorsqu'ils traitent des problèmes de classification comme l'ensemble de données MNIST. La fonction sigmoïde offre une alternative plus fluide et plus gérable. Avec la fonction sigmoïde, les changements sont progressifs, ce qui facilite le contrôle du comportement du modèle.

En remplaçant la fonction d'étape par une fonction d'activation sigmoïde, nous créons ce que l'on appelle un neuron_sigmoïde ou un neurone _logiste. Cette nouvelle formule cellulaire ressemble:'
f (z) = 1 / (1 + e ^ -z)'
Avec cette modification, notre cellule neuronale artificielle peut désormais accepter n'importe quel nombre d'entrées réelles et produire une sortie entre 0 et 1.

La prochaine fois sur les bases de l'apprentissage automatique

Dans notre prochaine conférence, nous explorerons comment créer un réseau neuronal artificiel en utilisant ces cellules individuelles. Restez à l'écoute pour plus d'informations sur le monde de l'apprentissage automatique!

Discutons de votre projet

Parlons de votre projet et trouvons la meilleure solution pour booster votre activité en ligne.

Optionnel

Max 500 caractères