Rencontres Algolittéraires: Difference between revisions
From Algolit
(→What the Machine Writes: a closer look at the output / Ce que la machine écrit: mise au point sur la sortie) |
|||
(43 intermediate revisions by 4 users not shown) | |||
Line 1: | Line 1: | ||
__NOTOC__ | __NOTOC__ | ||
+ | == Á Propos== | ||
+ | * [[Un Itinéraire Algolittéraire]] | ||
+ | * [[Programme]] | ||
− | + | ==Oeuvres Algolittéraires== | |
− | + | Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes. | |
+ | * [[i-could-have-written-that FR]] | ||
+ | * [[The Weekly Address, Un modèle pour un politicien]] | ||
+ | * [[En compagnie de CluebotNG]] | ||
+ | * [[Recettes Oulipo]] | ||
− | + | ==Explorations Algolittéraires== | |
+ | Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017. | ||
+ | === Ce que la machine écrit: mise au point sur la sortie=== | ||
+ | Deux réseaux neuronaux sont présentés, quels contenus produisent-ils? | ||
+ | * [[Générateur de texte CHARNN]] | ||
+ | * [[Vous connaîtrez un mot par la compagnie qu'il tient]] | ||
− | + | ===Comment la machine lit: dissection des réseaux neuronaux=== | |
− | - | + | ====Ensemble de données ==== |
+ | Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles. | ||
+ | * [[Beaucoup, beaucoup de mots]] | ||
− | == | + | =====Ensembles de données publics===== |
− | + | Les ensembles de données publics les plus utilisées sont rassemblés sur [https://aws.amazon.com/public-datasets/ Amazon]. | |
− | * [[ | + | Nous avons regardé de près les deux jeux suivants: |
+ | * [[Common Crawl FR]] | ||
+ | * [[WikiHarass FR]] | ||
− | == | + | =====Ensembles de données Algolittéraires ===== |
− | * [[ | + | Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations. |
− | * [[ | + | * [[La donnée (e)parle]] |
− | * [[ | + | * [[Frankenstein FR]] |
− | * [[ | + | * [[Apprendre de l'apprentissage profond]] |
+ | * [[PrèsdeSaussure]] | ||
+ | * [[AstroBlackness FR]] | ||
− | == | + | ====Des mots aux nombres ==== |
− | === | + | Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation. |
− | * [[ | + | * [[Un sac de mots]] |
− | * [[ | + | * [[Un vecteur one-hot]] |
+ | * [[Exploration de Paysages Multidimensionels: Sur le plongement lexical]] | ||
+ | * [[Plongement lexical: un cas d'étude]] | ||
− | === | + | =====Différents portraits du plongement lexical ===== |
+ | * [[Projecteur de plongement lexical]] | ||
+ | * [[Le Lecteur GloVe]] | ||
− | ==== | + | =====Inspection de la technique ===== |
− | * [[ | + | * [[word2vec_basic.py FR]] |
− | * [[ | + | * [[Algèbre Inversée]] |
− | === | + | ===Comment une machine pourrait parler === |
− | + | Si un modèle d'apprentissage automatique pouvait parler, que dirait-il? | |
− | + | * [[Nous sommes un thermomètre sentimental]] | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | * | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
== Sources == | == Sources == | ||
− | * | + | Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés. |
− | * | + | * [[Boîte à outils Algolittéraire]] |
+ | * [[Bibliographie Algolittéraire]] |
Latest revision as of 15:23, 2 November 2017
Á Propos
Oeuvres Algolittéraires
Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.
- i-could-have-written-that FR
- The Weekly Address, Un modèle pour un politicien
- En compagnie de CluebotNG
- Recettes Oulipo
Explorations Algolittéraires
Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.
Ce que la machine écrit: mise au point sur la sortie
Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?
Comment la machine lit: dissection des réseaux neuronaux
Ensemble de données
Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.
Ensembles de données publics
Les ensembles de données publics les plus utilisées sont rassemblés sur Amazon. Nous avons regardé de près les deux jeux suivants:
Ensembles de données Algolittéraires
Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.
- La donnée (e)parle
- Frankenstein FR
- Apprendre de l'apprentissage profond
- PrèsdeSaussure
- AstroBlackness FR
Des mots aux nombres
Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.
- Un sac de mots
- Un vecteur one-hot
- Exploration de Paysages Multidimensionels: Sur le plongement lexical
- Plongement lexical: un cas d'étude
Différents portraits du plongement lexical
Inspection de la technique
Comment une machine pourrait parler
Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?
Sources
Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.