Semaine Data SHS 2020

Projet audiovisuel

Dans le cadre de sa plateforme universitaire de données (PUD) PANELS, la MSH Lyon St-Etienne organise du 7 au 11 décembre 2020 une semaine « Data SHS », qui aura pour thématique générale « Traiter et analyser des données en sciences humaines et sociales ». Cette semaine, inscrite dans le plan national de formations de la TGIR Progedo, propose une série de conférences et d’ateliers pratiques autour des méthodes de traitement et d’analyse de données en sciences humaines et sociales. Ces présentations seront aussi l’occasion d’aborder les principes et outils utiles à l’Open science et à la gestion de données « FAIR » en SHS.
Ces conférences et ateliers ont un double objectif : présenter en détails les fondements théoriques des méthodes d’analyse et de représentation de données SHS et expliciter les moyens de leur mise en œuvre pratique.
Le but est de permettre aux participants d’adapter ces méthodes à leurs propres travaux, de façon la plus autonome possible.
5 grandes thématiques ont été retenues pour cette semaine de conférences et d’ateliers :
– gestion de données en SHS : retours d’expérience, débat et RGPD (3 modules) ;
– textométrie en SHS : outils, méthodes et applications (3 modules) ;
– panorama et écriture de l’objet « Data papers » (3 modules) ;
– grandes enquêtes internationales et bases de données quantitatives, TGIR Progedo (3 modules) ;
– cartographie et analyse spatiale appliquées aux SHS (1 module).
Play Video

Projet /

Culture numérique, culture des données

Culture numérique, culture des données : approches épistémologiques, politiques et concrètes
Intervenant : Eric Guichard, maître de conférences HDR en sciences de l’information et de la communication (ENSSIB, TRIANGLE – UMR 5206)
 
À partir d’exemples tirés de la Covid et de la téléphonie mobile, il sera montré en quoi la culture numérique relève de la culture de l’écrit contemporain, avec son lot de ségrégations et d’émancipations. Une précision sera également effectuée sur l’OPA intellectuelle des GAFAM et équivalents sur les illettrés du numérique que nous sommes (presque) tous. La présentation finira sur une proposition de moyens afin d’y remédier, de relier technologie de l’intellect et pensée critique. Si le temps le permet, un débat aura lieu avec les participants autour de l’évolution des épistémologies des sciences sociales, du fait du passage de l’écriture imprimée à l’écriture numérique. Les exemples renverront à du small comme à du big data, à partir de sources publiques. Les outils informatiques évoqués seront d’âges divers.

Culture numérique, culture des données

Play Video
Play Video

Projet /

La textométrie, une approche quantitative et qualitative des données textuelles

La textométrie, une approche quantitative et qualitative des données textuelles
Intervenant : Bénédicte Pincemin, chargée de recherche en linguistique (CNRS, IHRIM – UMR 5317)
 
Cet exposé entend d’abord questionner les réalités concrètes des « données textuelles », et reconnaître la diversité des points de vue sur ces données, qui peuvent être très différents dans un contexte de production ou de recherche, et au sein même de la recherche entre sciences sociales et sciences humaines. À cette diversité de points de vue répond une diversité de méthodes et d’outils – CAQDAS, concordanciers, text mining –, au sein desquels situer la textométrie.
Le propos sera centré sur l’approche textométrique. Nous illustrerons cette approche en parcourant les principaux types de questions pour lesquels la textométrie a développé des outils : que peut-on faire avec un logiciel de textométrie ? Puis, prenant du recul, nous mettrons en évidence des principes sous-jacents et des éléments méthodologiques forts de l’approche textométrique, à discuter en regard des attentes de la recherche en SHS.
Le logiciel open-source TXM sera le principal support de l’exposé.

L’enregistrement vidéo a subi un léger dysfonctionnement et certaines diaporamas n’apparaissent pas lors de la lecture de la vidéo.
Voici le timing pour retrouver les diaporamas non enregistrées :
0:24:30 à 0:25:08 à diapo 17
0:30:17 à 0:33:00 à diapo 19
0:33:00 à 0:33:06 à diapo 20
0:33:06 à diapo 21
1:29:47 à 1:30:21 à diapo 67
1:30:22 à 1:32:00 à diapo 68
1:32:00 à 1:32:12 à diapo 69
1:32:12 à diapo 70 

 

 

La textométrie, une approche quantitative et qualitative des données textuelles

Play Video
Play Video

Projet /

Analyse de graphes avec attributs textuels pour l’étude des réseaux sociaux

Analyse de graphes avec attributs textuels pour l’étude des réseaux sociaux
Intervenant : Antoine Gourru, doctorant en informatique et mathématiques (Univ. Lyon 2, ERIC – EA 3083)
 
Un graphe est un objet mathématique défini par un ensemble d’entités, appelées nœuds, connectées par des liens. Par exemple, les réseaux sociaux forment des graphes : un ensemble d’utilisateurs se « suivent », se « connectent ».
L’étude des graphes et de leurs propriétés est un domaine à part entière depuis le XVIIIe siècle. En plus des liens, les nœuds possèdent la plupart du temps un ensemble d’attributs (âge d’un utilisateur, son sexe). Un attribut particulièrement intéressant à prendre en compte dans la modélisation est le texte (en général les publications), central dans l’analyse des réseaux de type Twitter, ou Facebook. De nombreuses méthodes d’analyse de données et d’apprentissage automatique permettent d’analyser les graphes avec attributs textuels, qui sont des objets a priori complexes.
Le module sera découpé en trois parties : 1) une introduction théorique sur les graphes ; 2) une session pratique sur leur manipulation/visualisation grâce au logiciel Gephi ; 3) une présentation des travaux récents conduits au laboratoire ERIC sur les graphes avec attributs textuels.

Analyse de graphes avec attributs textuels pour l’étude des réseaux sociaux

Play Video
Play Video

Projet /

Les data papers dans les stratégies de publication des chercheurs

Les data papers dans les stratégies de publication des chercheurs
Intervenant : Cherifa Boukacem-Zeghmouri, professeur en sciences de l’information et de la communication (Univ. Lyon 1, ELICO – EA 4147)
 
Le propos de cette intervention est de situer la place des data papers dans les stratégies de publication des chercheurs, selon les disciplines. En se fondant sur les résultats d’une recherche observant les mutations de la communication scientifique, il s’agira de montrer comment le data paper a acquis de la visibilité et de la légitimité dans certaines communautés, et contribue aujourd’hui à diversifier les vecteurs de la communication scientifique.

Les data papers dans les stratégies de publication des chercheurs

Play Video
Play Video

Projet /

Data papers, une introduction

Data papers, une introduction
Intervenant : Joachim Schöpfel, maître de conférences en sciences de l’information et de la documentation (Univ. Lille, GERIICO – UR 4073)
 

L’intervention introduira le nouveau concept des articles de données (data papers) : Quelles sont leurs fonctions ? Quelle structure, quel contenu, quelle taille ? Quelles consignes aux auteurs ? Elle donnera aussi un aperçu du paysage actuel : Combien d’articles de données, dans quelles revues et dans quels domaines ? Chez quels éditeurs ? En libre accès ou pas ? Un aspect intéressant des data papers est leur lien avec les entrepôts de données qui développent des fonctionnalités pour une génération automatique d’un data paper, y compris l’envoi à une plateforme de revue.

Data papers, une introduction

Play Video
Play Video

Projet /

Rédiger des Data papers à l’aide de Jupyter Notebook

Rédiger des Data papers à l’aide de Jupyter Notebook
Intervenant : Romain Mularczyk, ingénieur d’études en Gestion de données (Univ. Lyon 2, MSH Lyon St-Etienne, USR 2005)
 
Dans ce mini-atelier/démo, il vous sera présenté les fonctionnalités de Jupyter Notebook, une application opensource permettant de créer et partager des documents contenant du code informatique pouvant être exécuté.
Cela sera également l’occasion d’une démonstration de ses capacités en vue de la rédaction d’un Data paper.

Rédiger des Data papers à l’aide de Jupyter Notebook

Play Video
Play Video

Projet /

La TGIR Progedo et son département « Données historiques, économiques et financières »

La TGIR Progedo et son département « Données historiques, économiques et financières »
Intervenant : Sandra Brée, chargée de recherche en histoire et démographie (Univ. Lyon 2, LARHRA – UMR 5190) et responsable du Département « Données historiques, économiques et financières » de la TGIR Progedo
 
Cette session vous présentera PROGEDO, la Très Grande Infrastructure de Recherche chargée d’impulser et structurer une politique publique des données pour la recherche en sciences sociales. Pour développer la culture de données dans les communautés de recherche SHS, PROGEDO travaille à faire connaître le vaste ensemble de statistiques et d’enquêtes publiques produites en France et œuvre à en faciliter et organiser l’accès.
L’accent sera ensuite mis sur le département « Données historiques, économiques et financières » de PROGEDO, qui a pour ambition de recenser les bases de données quantitatives existantes dans le domaine, de les valoriser et d’inciter à partager ses propres bases de données quantitatives afin qu’elles puissent être utilisées par le plus grand nombre. Seront présentés les missions et les objectifs de ce nouveau département créé en 2020.

La TGIR Progedo et son département « Données historiques, économiques et financières »

Play Video
Play Video

Projet /

La plateforme de données des acteurs du territoire de la Métropole de Lyon

La plateforme de données des acteurs du territoire de la Métropole de Lyon : data.grandlyon.com
Intervenant : Emmanuel Gastaud, chef de produit plateforme data (Métropole de Lyon, Service Données Métropolitaines)
 
La Métropole de Lyon considère la donnée comme un actif à haute valeur ajoutée : c’est une matière première indispensable pour une métropole innovante. Sa stratégie de la donnée répond à plusieurs enjeux qui seront détaillés et s’appuie sur un écosystème riche : des partenaires territoriaux du secteur privé, du secteur académique, du secteur public, des laboratoires d’innovation… qui peuvent être producteurs ou ré-utilisateurs des données.

La plateforme data.grandlyon.com est tout à la fois un outil de collecte, de normalisation et de publication des données du territoire. Elle permet, par un système de licences de réutilisation, de répondre aux exigences de l’open data, à la mise à disposition de données d’intérêt général, et à la réutilisation de données en mode privé au sein de projets partenariaux. Différents exemples de réutilisation des données seront abordés.
Les rubriques et fonctionnalités du portail data.grandlyon.com seront présentées, en particulier les fonctionnalités de recherche et de navigation dans les quelques 950 jeux de données disponibles. Seront également détaillées les différentes possibilités d’accès à la donnée, téléchargement ou utilisation de web services notamment (API). En fonction des attentes des participants, un focus pourra également être fait sur l’architecture technique de la plateforme.

 

La plateforme de données des acteurs du territoire de la Métropole de Lyon

Play Video
Play Video

Projet /

Magrit, exemples pratiques à la réalisation de cartes thématiques géostatistiques

Magrit, exemples pratiques à la réalisation de cartes thématiques géostatistiques : mini-atelier de démonstrations partagées
Intervenants : Hervé Parmentier, assistant ingénieur cartographe/géomaticien (ENS de Lyon, EVS – UMR 5600)
 
Magrit est une application en ligne de cartographie thématique statistique développée par Matthieu Viry, Timothée Giraud et Nicolas Lambert au sein du pôle géomatique de l’UMS RIATE. Les concepteurs sont ingénieurs en traitement, analyse et représentation de données.
L’objectif de ce mini-atelier démo est de montrer à partir d’exemples existants comment réaliser des cartographies unies et bivariées partant de variables statistiques quantitatives, des fonds de carte, aux données attributaires, en passant par les représentations spatiales, puis mises en cartes et en pages conformes aux règles de la cartographie, jusqu’enfin leurs exports au format PDF ou SVG. Nous essayerons ainsi par cette approche d’analyser les potentialités de cet outil cartographique simplifiant à la fois cet art, ses techniques et cette science.

Magrit, exemples pratiques à la réalisation de cartes thématiques géostatistiques

Play Video

Montage

Justine Chapelon

Image

visioconférence enregistrée

Autres projets

#25imagesSHS