Actions

Rencontres Algolittéraires: Difference between revisions

From Algolit

 
(29 intermediate revisions by 4 users not shown)
Line 1: Line 1:
 
__NOTOC__
 
__NOTOC__
 
+
== Á Propos==
== Introduction Générale==
+
* [[Un Itinéraire Algolittéraire]]
* [[Rencontres Algolittéraires - Algolit|Algolit]] - needs check
+
* [[Programme]]
* [[Program]] = [[Programme]] - needs check
 
  
 
==Oeuvres Algolittéraires==
 
==Oeuvres Algolittéraires==
* [[Oulipo recipes]] = [[Recettes Oulipo]]
+
Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.
* [[i-could-have-written-that]] = [[i-could-have-written-that FR]]  
+
* [[i-could-have-written-that FR]]  
* [[The Weekly Address, A model for a politician]] - needs check
+
* [[The Weekly Address, Un modèle pour un politicien]]
* [[In the company of CluebotNG]] = [[En compagnie de CluebotNG]] - decide on link to False Positive page
+
* [[En compagnie de CluebotNG]]  
 +
* [[Recettes Oulipo]]  
  
 
==Explorations Algolittéraires==
 
==Explorations Algolittéraires==
=== What the Machine Writes: a closer look at the output / Ce que la machine écrit: mise au point sur la sortie===
+
Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.
* [[CHARNN text generator]] = [[Générateur de texte CHARNN]] - needs check
+
=== Ce que la machine écrit: mise au point sur la sortie===
* [[You shall know a word by the company it keeps]] = [[Vous connaîtrez un mot par la compagnie qu'il tient]]
+
Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?
 +
* [[Générateur de texte CHARNN]]  
 +
* [[Vous connaîtrez un mot par la compagnie qu'il tient]]
  
 
===Comment la machine lit: dissection des réseaux neuronaux===
 
===Comment la machine lit: dissection des réseaux neuronaux===
  
 
====Ensemble de données ====
 
====Ensemble de données ====
* [[Many many words]] = [[Beaucoup, beaucoup de mots]]  
+
Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.
* [[The data (e)speaks]] = [[La donnée (e)parle]] - needs to be completed
+
* [[Beaucoup, beaucoup de mots]]  
  
=====Ensembles de données publics communs=====
+
=====Ensembles de données publics=====
* [[Common Crawl]] = [[Common Crawl FR]]
+
Les ensembles de données publics les plus utilisées sont rassemblés sur [https://aws.amazon.com/public-datasets/ Amazon].
* [[WikiHarass]] = [[WikiHarass FR]]
+
Nous avons regardé de près les deux jeux suivants:
 +
* [[Common Crawl FR]]
 +
* [[WikiHarass FR]]
  
 
=====Ensembles de données Algolittéraires =====
 
=====Ensembles de données Algolittéraires =====
* [[Frankenstein]] = [[Frankenstein FR]]
+
Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.
* [[Learning from Deep Learning]] = [[Apprendre de l'apprentissage profond]]
+
* [[La donnée (e)parle]]  
* [[nearbySaussure]]  
+
* [[Frankenstein FR]]
* [[astroBlackness]]
+
* [[Apprendre de l'apprentissage profond]]
 +
* [[PrèsdeSaussure]]  
 +
* [[AstroBlackness FR]]
  
 
====Des mots aux nombres ====
 
====Des mots aux nombres ====
* [[A Bag of Words]] = [[Un sac de mots]]
+
Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.
* [[A One Hot Vector]] = [[Un vecteur one-hot]] - needs check
+
* [[Un sac de mots]]
 
+
* [[Un vecteur one-hot]]
====Exploration de paysages Multiidmensionnels: le plongement lexical ====
+
* [[Exploration de Paysages Multidimensionels: Sur le plongement lexical]]
* [[About Word embeddings]] = [[Sur le plongement lexical]]  
+
* [[Plongement lexical: un cas d'étude]]
* [[Crowd Embeddings]] = [[Crowd Embeddings FR]]  
 
  
 
=====Différents portraits du plongement lexical =====
 
=====Différents portraits du plongement lexical =====
* [[Word embedding Projector]] = [[Projecteur de plongement lexical]]  
+
* [[Projecteur de plongement lexical]]  
* [[The GloVe Reader]] = [[Le Lecteur GloVe]] - Decide on Link to GloVe page...
+
* [[Le Lecteur GloVe]]
  
 
=====Inspection de la technique =====
 
=====Inspection de la technique =====
* [[word2vec_basic.py]] = [[word2vec_basic.py FR]] - translated! > small updates around the change of dataset, perhaps good to check?
+
* [[word2vec_basic.py FR]]  
* [[Reverse Algebra]] - ready!
+
* [[Algèbre Inversée]]
  
 
===Comment une machine pourrait parler ===
 
===Comment une machine pourrait parler ===
* [[We Are A Sentiment Thermometer]] = [[Nous sommes un thermomètre de sentiments]]- translated!
+
Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?
 +
* [[Nous sommes un thermomètre sentimental]]
  
 
== Sources ==
 
== Sources ==
* [[Algoliterary Toolkit]] = [[Boîte à outils Algolittéraire]]- translated!
+
Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.
* [[Algoliterary Bibliography]] = [[Bibliographie Algolittéraire]] - translated! > updated, would be nice to translate the headers
+
* [[Boîte à outils Algolittéraire]]
 +
* [[Bibliographie Algolittéraire]]

Latest revision as of 15:23, 2 November 2017

Á Propos

Oeuvres Algolittéraires

Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.

Explorations Algolittéraires

Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.

Ce que la machine écrit: mise au point sur la sortie

Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?

Comment la machine lit: dissection des réseaux neuronaux

Ensemble de données

Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.

Ensembles de données publics

Les ensembles de données publics les plus utilisées sont rassemblés sur Amazon. Nous avons regardé de près les deux jeux suivants:

Ensembles de données Algolittéraires

Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.

Des mots aux nombres

Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.

Différents portraits du plongement lexical
Inspection de la technique

Comment une machine pourrait parler

Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?

Sources

Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.