Change Password

Please enter the password.
Please enter the password. Between 8-64 characters. Not identical to your email address. Contain at least 3 of: uppercase, lowercase, numbers, and special characters.
Please enter the password.
Submit

Change Nickname

Current Nickname:
Submit

Apply New License

License Detail

Please complete this required field.

  • Ultipa Graph V4

Standalone

Please complete this required field.

Please complete this required field.

The MAC address of the server you want to deploy.

Please complete this required field.

Please complete this required field.

Cancel
Apply
ID
Product
Status
Cores
Applied Validity Period(days)
Effective Date
Excpired Date
Mac Address
Apply Comment
Review Comment
Close
Profile
  • Full Name:
  • Phone:
  • Company:
  • Company Email:
  • Country:
  • Language:
Change Password
Apply

You have no license application record.

Apply
Certificate Issued at Valid until Serial No. File
Serial No. Valid until File

Not having one? Apply now! >>>

Product Created On ID Amount (USD) Invoice
Product Created On ID Amount (USD) Invoice

No Invoice

v4.5
Search
    Français
    v4.5

      Rétropropagation

      La rétropropagation (ou BP, pour Backward Propagation) est une technique fondamentale utilisée dans la formation de modèles pour les embeddings de graphes.

      L'algorithme BP comprend deux étapes principales :

      • Propagation avant : Les données d'entrée sont introduites dans la couche d'entrée d'un réseau de neurones ou modèle. Elles passent ensuite par une ou plusieurs couches cachées avant de générer une sortie à partir de la couche de sortie.
      • Rétropropagation : La sortie générée est comparée à la valeur réelle ou attendue. Ensuite, l'erreur est transmise de la couche de sortie à travers les couches cachées jusqu'à la couche d'entrée. Durant ce processus, les poids du modèle sont ajustés à l'aide de la technique de descente de gradient.

      Les ajustements itératifs des poids constituent le processus d'apprentissage du réseau de neurones. Nous allons expliquer davantage avec un exemple concret.

      Préparations

      Réseau de Neurones

      Les réseaux de neurones sont généralement composés de plusieurs composants essentiels : une couche d'entrée, une ou plusieurs couches cachées, et une couche de sortie. Voici un exemple simple d'architecture de réseau de neurones :

      Dans cette illustration, x est le vecteur d'entrée contenant 3 caractéristiques, y est la sortie. Nous avons deux neurones h1 et h2 dans la couche cachée. La fonction d'activation sigmoïde est appliquée dans la couche de sortie.

      De plus, les connexions entre les couches sont caractérisées par les poids : v11 ~ v32 sont les poids entre la couche d'entrée et la couche cachée, w1 et w2 sont les poids entre la couche cachée et la couche de sortie. Ces poids sont essentiels dans les calculs effectués au sein du réseau de neurones.

      Fonction d'Activation

      Les fonctions d'activation permettent au réseau de neurones d'effectuer une modélisation non linéaire. Sans fonctions d'activation, le modèle ne peut exprimer que des mappings linéaires, limitant ainsi leur capacité. Une large gamme de fonctions d'activation existe, chacune servant un objectif unique. La fonction sigmoïde utilisée dans ce contexte est décrite par la formule et le graphique suivants :

      Poids Initiaux

      Les poids sont initialisés avec des valeurs aléatoires. Supposons que les poids initiaux soient les suivants :

      Échantillons d'Entraînement

      Considérons trois ensembles d'échantillons d'entraînement comme indiqué ci-dessous, où l'exposant indique l'ordre de l'échantillon :

      • Entrées : x(1)=(231), x(2)=(102), x(3)=(311)
      • Sorties : t(1)=0.64, t(2)=0.52, t(3)=0.36

      L'objectif principal du processus de formation est d'ajuster les paramètres du modèle (poids) afin que la sortie prédite/calculée (y) s'aligne étroitement avec la sortie réelle (t) lorsqu'on lui fournit l'entrée (x).

      Propagation Avant

      Couche d'Entrée → Couche Cachée

      Les neurones h1 et h2 sont calculés par :

      Couche Cachée → Couche de Sortie

      La sortie y est calculée par :

      Voici le calcul des 3 échantillons :

      x
      h1 h2 s y t
      x(1)=(231) 2.4 1.8 2.28 0.907 0.64
      x(2)=(102) 0.75 1.2 0.84 0.698 0.52
      x(3)=(311) 1.35 1.4 1.36 0.796 0.36

      Apparemment, les trois sorties calculées (y) sont très différentes de celles attendues (t).

      Rétropropagation

      Fonction de Perte

      Une fonction de perte est utilisée pour quantifier l'erreur ou la disparité entre les sorties du modèle et les sorties attendues. Elle est aussi appelée fonction objectif ou fonction de coût. Utilisons ici l'erreur quadratique moyenne (MSE) comme fonction de perte E :

      m est le nombre d'échantillons. Calculez l'erreur de cette série de propagation avant ainsi :

      (0.64-0.907)2 + (0.52-0.698)2 + (0.36-0.796)2 2×3 =0.234

      Une valeur plus petite de la fonction de perte correspond à une plus grande précision du modèle. L'objectif fondamental de la formation du modèle est de minimiser la valeur de la fonction de perte le plus possible.

      Considérez les entrées et sorties comme des constantes, tout en s'intéressant aux poids en tant que variables au sein de la fonction de perte. L'objectif est donc d'ajuster les poids de manière à obtenir la plus faible valeur de la fonction de perte - c'est là que la technique de la descente de gradient entre en jeu.

      Dans cet exemple, la descente de gradient par lot (BGD) est utilisée, c'est-à-dire que tous les échantillons sont impliqués dans le calcul du gradient. Fixez le taux d'apprentissage η=0.5.

      Couche de Sortie → Couche Cachée

      Ajustez les poids w1 et w2 respectivement.

      Calculez la dérivée partielle de E par rapport à w1 avec la règle de chaîne:

      où,

      Calculez avec les valeurs :

      E y = (0.907-0.64) + (0.698-0.52) + (0.796-0.36) 3 = 0.294

      y s = 0.907×(1-0.907) + 0.698×(1-0.698) + 0.796×(1-0.796) 3 = 0.152

      s w1 = 2.4 + 0.75 + 1.35 3 = 1.5

      Alors, E w1 = 0.294 × 0.152 × 1.5 = 0.067

      Étant donné que tous les échantillons sont impliqués dans le calcul de la dérivée partielle, lors du calcul de ys et sw1, nous prenons la somme de ces dérivées sur tous les échantillons et obtenons ensuite la moyenne.

      Donc, w1 est mis à jour de w1 = w1 - η E w1 = 0.8 - 0.5 × 0.067 = 0.766 .

      Le poids w2 peut être ajusté de manière similaire en calculant la dérivée partielle de E par rapport à w2. Dans cette ronde, w2 est mis à jour de 0.2 à 0.167.

      Couche Cachée → Couche d'Entrée

      Ajustez les poids v11 ~ v32 respectivement.

      Calculez la dérivée partielle de E par rapport à v11 avec la règle de chaîne:

      Nous avons déjà calculé Ey et ys, ci-dessous sont les deux suivants :

      Calculez avec les valeurs :

      E y = 0.294

      y s = 0.152

      s h1 = 0.8

      h1 v11 = 2 + 1 + 3 3 = 2

      Alors, E v11 = 0.294 × 0.152 × 0.8 × 2 = 0.072 .

      Donc, v11 est mis à jour à v11 = v11 - η E v11 = 0.15 - 0.5 × 0.072 = 0.114 .

      Les poids restants peuvent être ajustés de manière similaire en calculant la dérivée partielle de E par rapport à chacun d'eux. Dans cette ronde, ils sont mis à jour comme suit :

      • v12 est mis à jour de 0.2 à 0.191
      • v21 est mis à jour de 0.6 à 0.576
      • v22 est mis à jour de 0.3 à 0.294
      • v31 est mis à jour de 0.3 à 0.282
      • v32 est mis à jour de 0.5 à 0.496

      Itérations d'Entraînement

      Appliquez les poids ajustés au modèle et procédez à la propagation avant en utilisant les mêmes trois échantillons. Dans cette itération, l'erreur résultante E est réduite à 0.192.

      L'algorithme de rétropropagation effectue de manière itérative les étapes de propagation avant et de rétropropagation pour entraîner le modèle. Ce processus continue jusqu'à ce que le nombre d'entraînements désigné ou la limite de temps soit atteinte, ou lorsque l'erreur diminue jusqu'à un seuil prédéfini.

      Please complete the following information to download this book
      *
      公司名称不能为空
      *
      公司邮箱必须填写
      *
      你的名字必须填写
      *
      你的电话必须填写