@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix ltk: <http://data.loterre.fr/ark:/67375/LTK> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .

<http://data.loterre.fr/ark:/67375/8LP-RTVC3B7T-9>
  skos:prefLabel "algorithme de classification"@fr, "classification algorithm"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-HDSWQT4S-9> .

<http://data.loterre.fr/ark:/67375/8LP-HDSWQT4S-9>
  skos:example "We use the stochastic gradient descent algorithm to resolve the optimization problem and set default values for other learning parameters. (Sun & Xu, 2011)"@en, "All the language models were trained to minimize the negative log-likelihood of the training data by stochastic gradient algorithms. (Takahashi & Tanaka-Ishii, 2019)"@en, "Standard stochastic gradient descent algorithm is employed to update parameters. (Chen, Sun & Han, 2018)"@en, "La minimisation de cet objectif est réalisée par SGD, comme dans le cas de counterfit. (Ferret, 2017)"@fr, "Pour toutes les optimisations par SGD, le taux d'apprentissage était égal à 0,01. (Ferret, 2017)"@fr, "We employ standard stochastic gradient descent algorithm to update the parameters. (An, Bo, Han & Sun, 2019)"@en, "Cette minimisation est réalisée par une descente de gradient stochastique (SGD). (Ferret, 2017)"@fr, "We choose stochastic gradient descent algorithm to optimize parameters. (Qian, Sha, Chang, Liu & Zhang, 2017)"@en ;
  skos:exactMatch ltk:-DF6LPDQ5-M, <https://www.wikidata.org/wiki/Q7617819> ;
  dc:modified "2024-05-03T07:45:45"^^xsd:dateTime ;
  skos:prefLabel "descente du gradient stochastique"@fr, "stochastic gradient descent"@en ;
  skos:altLabel "SGD"@en, "algorithme du gradient stochastique"@fr, "stochastic gradient algorithm"@en ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-LZRB5NR4-F> ;
  a skos:Concept ;
  skos:hiddenLabel "Stochastic gradient descent"@en, "Descente du gradient stochastique"@fr ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-RTVC3B7T-9> ;
  skos:definition "Algorithme de descente de gradient dans lequel la taille du lot est de un. En d'autres termes, le [Stochastic Gradient Descent) s'entraîne sur un seul exemple choisi uniformément au hasard dans un ensemble d'entraînement. (source :  <a href=\"https://developers.google.com/machine-learning/glossary/\">https://developers.google.com/machine-learning/glossary/</a>)"@fr, "A gradient descent algorithm in which the batch size is one. In other words, SGD trains on a single example chosen uniformly at random from a training set. ( <a href=\"https://developers.google.com/machine-learning/glossary/\">https://developers.google.com/machine-learning/glossary/</a>)."@en .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
<http://data.loterre.fr/ark:/67375/8LP-LZRB5NR4-F>
  skos:prefLabel "optimiseur Adam"@fr, "Adam optimizer"@en ;
  a skos:Concept ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-HDSWQT4S-9> .

