Actions

L’Annotateur: Difference between revisions

From Algolit

 
(2 intermediate revisions by 2 users not shown)
Line 1: Line 1:
 
par Algolit
 
par Algolit
  
L'annotateur demande au visiteur de l'aider à annoter les archives du Mundaneum.
+
[https://gitlab.constantvzw.org/algolit/mundaneum/tree/master/exhibition/4-Informants/the-annotator Sources sur Gitlab]
  
Le processus d'annotation est une étape cruciale de l'apprentissage automatique supervisé où l'algorithme reçoit des exemples de ce qu'il doit apprendre. Un filtre anti-spam sera alimenté d'exemples de spam et de messages réels. Ces exemples sont des entrées ou des lignes du jeu de données avec une étiquette, spam ou non spam.
+
L'Annotateur demande au visiteur de l'aider à annoter les archives du Mundaneum.
  
L'annotation d'un jeu de données est un travail exécuté par des humains, qui choisissent une étiquette pour chaque ligne du jeu de données. Pour assurer la qualité des étiquettes, plusieurs annotateurs doivent voir la même ligne et donner la même étiquette avant qu'un exemple ne soit inclus dans les données de formation. Une fois qu'un nombre suffisant d'échantillons de chaque étiquette a été recueilli dans le jeu de données, l'ordinateur peut lancer le processus d'apprentissage.
+
Le processus d'annotation est une étape cruciale de l'apprentissage automatique supervisé où l'algorithme reçoit des exemples de ce qu'il doit apprendre. Un filtre anti-spam sera alimenté d'exemples de spam et de messages réels. Ces exemples sont des entrées du jeu de données prévues d'une étiquette, spam ou non spam.
  
Dans cette interface, nous vous demandons de nous aider à classer les textes nettoyés des archives du Mundaneum afin d'élargir notre set d’entraînement et d'améliorer la qualité de l'installation 'Classifying the World' dans Oracles.
+
L'annotation d'un jeu de données est un travail exécuté par des humains, qui choisissent une étiquette pour chaque entrée du jeu de données. Pour assurer la qualité des étiquettes, plusieurs annotateurs doivent voir la même entrée et donner la même étiquette avant qu'un exemple ne soit inclus dans les données d'entraînement. Une fois que toutes les données d'entraînement ont été prévues d'une étiquette, l'ordinateur peut lancer le processus d'apprentissage.
 +
 
 +
Dans cette interface, nous vous demandons de nous aider à classer les textes nettoyés des archives du Mundaneum afin d'élargir notre set d’entraînement et d'améliorer la qualité de l'installation 'Classer le Monde' dans Oracles.
 +
 
 +
-------------------
  
 
Concept, code, interface : Gijs de Heij
 
Concept, code, interface : Gijs de Heij

Latest revision as of 17:53, 4 June 2019

par Algolit

Sources sur Gitlab

L'Annotateur demande au visiteur de l'aider à annoter les archives du Mundaneum.

Le processus d'annotation est une étape cruciale de l'apprentissage automatique supervisé où l'algorithme reçoit des exemples de ce qu'il doit apprendre. Un filtre anti-spam sera alimenté d'exemples de spam et de messages réels. Ces exemples sont des entrées du jeu de données prévues d'une étiquette, spam ou non spam.

L'annotation d'un jeu de données est un travail exécuté par des humains, qui choisissent une étiquette pour chaque entrée du jeu de données. Pour assurer la qualité des étiquettes, plusieurs annotateurs doivent voir la même entrée et donner la même étiquette avant qu'un exemple ne soit inclus dans les données d'entraînement. Une fois que toutes les données d'entraînement ont été prévues d'une étiquette, l'ordinateur peut lancer le processus d'apprentissage.

Dans cette interface, nous vous demandons de nous aider à classer les textes nettoyés des archives du Mundaneum afin d'élargir notre set d’entraînement et d'améliorer la qualité de l'installation 'Classer le Monde' dans Oracles.


Concept, code, interface : Gijs de Heij