Actions

Rencontres Algolittéraires: Difference between revisions

From Algolit

(General Introduction)
 
(79 intermediate revisions by 5 users not shown)
Line 1: Line 1:
 
__NOTOC__
 
__NOTOC__
 +
== Á Propos==
 +
* [[Un Itinéraire Algolittéraire]]
 +
* [[Programme]]
  
Hey Emma,
+
==Oeuvres Algolittéraires==
This is a start of the French version of the Algoliterary Encounters catalog. We marked the pages below that are ready to be translated.
+
Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.  
 +
* [[i-could-have-written-that FR]]
 +
* [[The Weekly Address, Un modèle pour un politicien]]
 +
* [[En compagnie de CluebotNG]]
 +
* [[Recettes Oulipo]]
  
It would be nice to translate the titles of the works into French as well, the titles below are still the English ones. And it would be great if you could do the headers as well.
+
==Explorations Algolittéraires==
 +
Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.
 +
=== Ce que la machine écrit: mise au point sur la sortie===
 +
Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?
 +
* [[Générateur de texte CHARNN]]
 +
* [[Vous connaîtrez un mot par la compagnie qu'il tient]]
  
Thanks a lot!
+
===Comment la machine lit: dissection des réseaux neuronaux===
  
---
+
====Ensemble de données ====
 +
Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.
 +
* [[Beaucoup, beaucoup de mots]]
  
== General Introduction ==
+
=====Ensembles de données publics=====
* [[Algolit's Algoliterary Journey|Algolit]] = [[Rencontres Algolittéraires - Algolit|Algolit]] - already translated!
+
Les ensembles de données publics les plus utilisées sont rassemblés sur [https://aws.amazon.com/public-datasets/ Amazon].
* [[Program]] - ready!
+
Nous avons regardé de près les deux jeux suivants:
 +
* [[Common Crawl FR]]
 +
* [[WikiHarass FR]]
  
==Algoliterary works==
+
=====Ensembles de données Algolittéraires =====
* [[Oulipo scripts]] - ready!
+
Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.
* [[i-could-have-written-that]] - ready!
+
* [[La donnée (e)parle]]  
* Obama, model for a politician
+
* [[Frankenstein FR]]
* [[In the company of CluebotNG]] - ready!
+
* [[Apprendre de l'apprentissage profond]]
 +
* [[PrèsdeSaussure]]
 +
* [[AstroBlackness FR]]
  
==Algoliterary explorations==
+
====Des mots aux nombres ====
===A few outputs to see how it works===
+
Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.
* CHARNN text generator
+
* [[Un sac de mots]]
* [[You shall know a word by the company it keeps]]  
+
* [[Un vecteur one-hot]]
 +
* [[Exploration de Paysages Multidimensionels: Sur le plongement lexical]]
 +
* [[Plongement lexical: un cas d'étude]]
  
===Parts of NN process===
+
=====Différents portraits du plongement lexical =====
 +
* [[Projecteur de plongement lexical]]
 +
* [[Le Lecteur GloVe]]
  
==== Datasets ====
+
=====Inspection de la technique =====
* [[Many many words]] - ready!
+
* [[word2vec_basic.py FR]]
 +
* [[Algèbre Inversée]]
  
* [[Common Crawl]]
+
===Comment une machine pourrait parler ===
* [[Frankenstein]]
+
Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?
* [[Learning from Deep Learning]]
+
* [[Nous sommes un thermomètre sentimental]]
* [[AnarchFem]]
 
* [[WikiHarass]]
 
* [[Tristes Tropiques]]
 
  
==== From words to numbers ====
+
== Sources ==
* [[bag-of-words]]
+
Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.
* [[one-hot-vector script]]
+
* [[Boîte à outils Algolittéraire]]
* [[word embeddings]]
+
* [[Bibliographie Algolittéraire]]
 
 
==== Different views on the data ====
 
* [[Word embedding Projector]] - ready!
 
* [[5 dimensions 32 graphs]]
 
* [[The GloVe Reader]] - ready!
 
 
 
==== Creating word embeddings using word2vec ====
 
* [[Crowd Embeddings]]
 
* [[word2vec_basic.py]]
 
* [[softmax annotated]]
 
* [[Reverse Algebra]]
 
 
 
=== Autonomous machine as inspection ===
 
* [[We Are A Sentiment Thermometer]] - ready!
 
 
 
===Algoliterary Toolkit===
 
* [[Algoliterary Toolkit introduction]]
 
* [[jinja-cgi interface template]]
 
* [[text-punctuation-clean-up.py]]
 
 
 
===Bibliography===
 
* [[Algoliterary Bibliography]]
 

Latest revision as of 15:23, 2 November 2017

Á Propos

Oeuvres Algolittéraires

Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.

Explorations Algolittéraires

Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.

Ce que la machine écrit: mise au point sur la sortie

Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?

Comment la machine lit: dissection des réseaux neuronaux

Ensemble de données

Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.

Ensembles de données publics

Les ensembles de données publics les plus utilisées sont rassemblés sur Amazon. Nous avons regardé de près les deux jeux suivants:

Ensembles de données Algolittéraires

Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.

Des mots aux nombres

Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.

Différents portraits du plongement lexical
Inspection de la technique

Comment une machine pourrait parler

Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?

Sources

Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.