@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix inist: <http://www.inist.fr/Ontology#> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .

<http://data.loterre.fr/ark:/67375/8LP-N657SLSC-M>
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-G006D599-R> ;
  skos:definition "A statistic used to assess the effectiveness of machine learning classification models. ( <a href=\"https://bootcamp.uxdesign.cc/cohens-kappa-score-33a0710b2fe0\">https://bootcamp.uxdesign.cc/cohens-kappa-score-33a0710b2fe0</a>)"@en, "Indice statistique variant entre 0 et 1, utilisé notamment pour évaluer le degré d'accord (de concordance) entre deux juges, évaluateurs ou observateurs quant à la manière de classer un ensemble d'individus ou d'objets dans un certain nombre de catégories définissant les modalités d'une variable nominale (catégories non ordonnées). (Institut de recherche et de documentation pédagogique, 2016)"@fr ;
  skos:example "L'accord inter-annotateur est calculé avec le kappa de Cohen (Cohen, 1960). (Grabar & Eshkol-Taravella, 2016)"@fr, "Cohen's Kappa scores (Cohen 1960) for POS tags and dependency labels in all evaluation conditions are above 0.96. (Berzak, Kenney, Spadine, Wang, Lam, Mori, Garza & Katz, 2016)"@en, "We computed the inter-annotator agreement in terms of Cohen's Kappa (Îº) score (Cohen 1960) to check the validity. (Hossain, Sharif, Hoque & Preum, 2024)"@en, "Le kappa de Cohen obtenu est de 0,69 pour les dimensions et de 0,70 pour les fonctions communicatives, ce qui correspond à un accord substantiel. (Salim, Hernandez & Morin, 2016)"@fr, "Note that computing Cohen's Kappa here is somewhat artificial as in the real world there is an (almost) unlimited space of possible Wikipedia identifiers. (Lin & Zeldes, 2021)"@en, "To evaluate the annotator's performance on this task we evaluate the inter-annotator agreement (IAA) for each of the 13 topics using Cohen's Kappa (CK) score. (Dalal, Srivastava & Singh, 2023)"@en, "The Cohen's kappa coefficients are above 0.7 indicating a high correlation and agreement between the two human annotators. (Li, Zhao, Wen & Song, 2019)"@en ;
  skos:altLabel "coefficient Kappa"@fr, "κ de Cohen"@fr, "Cohen's Kappa score"@en, "coefficient Kappa de Cohen"@fr, "méthode du Kappa"@fr, "Cohen's kappa coefficient"@en, "coefficient de kappa"@fr ;
  skos:prefLabel "kappa de Cohen"@fr, "Cohen's kappa"@en ;
  skos:hiddenLabel "Kappa de Cohen"@fr, "Cohen's Kappa"@en ;
  inist:definitionalContext "Cohen's kappa coefficient is a statistic that is used to measure inter-rater reliability for categorical items. (Jamali, Yaghoobzadeh & Faili, 2022)"@en ;
  skos:exactMatch <https://www.wikidata.org/wiki/Q1107106> ;
  a skos:Concept ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  dc:modified "2024-06-26T08:27:14"^^xsd:dateTime .

<http://data.loterre.fr/ark:/67375/8LP-G006D599-R>
  skos:prefLabel "measure"@en, "mesure"@fr ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-N657SLSC-M> .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
