@prefix owl: <http://www.w3.org/2002/07/owl#> .
@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
<http://data.loterre.fr/ark:/67375/8LP-M7H9HK89-Z>
  skos:altLabel "backward propagation of errors"@en, "feedback propagation"@en, "rétropropagation d'erreurs"@fr, "error back propagation"@en, "rétropropagation des erreurs"@fr, "error feedback propagation"@en, "backprop"@en, "rétropropagation d'erreur"@fr, "rétropropagation de l'erreur"@fr ;
  skos:example "Par ailleurs, les cellules LSTM sont plus efficaces pour retenir les informations utiles lors de la rétropropagation du gradient, qui permet de corriger les différences entre les prédictions sortantes et celles désirées en calculant le gradient de l'erreur pour chaque neurone, de la dernière couche vers la première. (Dalloux, 2017)"@fr, "L'entropie croisée est utilisée pour la fonction de coût et Adadelta est utilisé pour la rétropropagation du gradient. (Thompson, Asher, Mulleer & Auguste, 2019)"@fr, "L'algorithme de rétropropagation utilise la technique de la descente du gradient pour minimiser la distance entre la sortie désirée et la sortie obtenue par le réseau : (Ayech, Mahfouf & Zribi, 2006)"@fr, "Le perceptron utilisé comporte une seule couche cachée avec 15 neurones et exploite l'algorithme de rétropropagation. (Brun, Smaïli & Hat-on, 2003)"@fr ;
  skos:definition "Méthode en apprentissage supervisé qui consiste à mettre à jour les poids de chaque neurone de la dernière couche vers la première en estimant les différences entre les sorties et les sorties désirées pour à terme réduire les erreurs et améliorer la prédiction. (Adapté de Wikipédia)"@fr, "A gradient estimation technique used in supervised machine learning which consists in updating the weights of the neural network by iteratively propagating the error backward from the output layer to the input layer and then minimize the difference between the predicted and actual output. The backpropagation algorithm is used in image, speech, and pattern recognition as well as classification."@en ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  skos:prefLabel "backpropagation"@en, "rétropropagation"@fr ;
  dc:modified "2025-02-12T13:14:57"^^xsd:dateTime ;
  skos:hiddenLabel "Backpropagation"@en, "Rétropropagation"@fr ;
  skos:note "The term back-propagation is often misunderstood as meaning the whole learning algorithm for multilayer neural networks. Backpropagation refers only to the method for computing the gradient, while other algorithms, such as stochastic gradient descent, is used to perform learning using this gradient. (Goodfellow et al., 6.5 Back-Propagation and Other Differentiation Algorithms, Deep Learning, 2016)"@en ;
  a skos:Concept ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-NC68DDGT-D> ;
  skos:exactMatch <https://www.wikidata.org/wiki/Q798503> .

<http://data.loterre.fr/ark:/67375/8LP-NC68DDGT-D>
  skos:prefLabel "apprentissage supervisé"@fr, "supervised learning"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-M7H9HK89-Z> .

