Savoirs

Parcours du catalogue par genre

  • Genres Généralités Savoir et communication
  • «
  • 1
  • 2
  • 3
  • ...
  • 131
  • 132
  • 133
  • »

Maxime Boidy - Synthèse de la journée

Maxime BOIDY

38min37

Histoire et scénarios visuels - Contribution du design graphique

Notre environnement numérique nous offre un potentiel d’invention dont l’exploration notamment par les designers, peut agir sur les conditions de production, de diffusion et d’appropriation des savoirs. Le designer graphique peut dessiner, photographier, filmer, écrire des programmes. Il analyse, organise, structure un ensemble de données qu’elles soient textuelles, iconographiques ou sonores inscrites dans une approche sensible. Le design graphique est donc un ensemble de choix conceptuels et plastiques qui agit doublement sur les conditions d’écriture de l’histoire et sur l’inconscient de la lecture.
L’écriture des récits historiques déterminée par le livre
imprimé dont la structure a été définie au cours des 4
derniers siècles, suffit-elle aujourd’hui à dire et à transmettre la complexité des processus historiques ?
Au regard de l’évolution des pratiques culturelles,
les historiens ne sont-ils pas conviés à s’interroger
sur une tradition qui fait du texte le moyen privilégié
de la transmission de l’histoire ?
Quels seraient les moyens et les outils à notre disposition aujourd’hui pour “représenter” les processus historiques
et visualiser la profondeur temporelle ?

VisualGraphs

02min26

VisualGraphs est un logiciel de visualisation et d'exploration de données sous forme de graphes. Il permet une visualisation des données de manière originale mettant en évidence les liens entre elles.
VisualGraphs a été développé au sein de la MSH Val de Loire sous la licence libre CeCILL. Le code du logiciel est disponible sur SourceSup, la plateforme d'hébergement de projets informatiques de l'Enseignement Supérieur et de la Recherche et donc accessible à tous.
L'Atelier Numérique de la MSH Val de Loire met VisualGraphs à disposition des chercheurs de ses équipes membres et offre un accompagnement dans le cadre de leur projets de recherche.
www.msh-vdl.fr/offre-de-service/visualgraphs

Distributed data structures and consistency criteria

Achour MOSTEFAOUI

39min44

Les systèmes distribués sont divers mais
peuvent être classés en deux classes principales, ceux à
communication par messages et ceux à mémoire partagée. Depuis
qu'il a été montré par Attiya et al. que les deux modèles sont
équivalents et que l'on peut émuler l'un au dessus de l'autre,
une littérature abondante a été produite sur l'émulation de
différentes structures de données partagées. Un point important
concerne la cohérence garantie par une implémentation d'un
objet donné. Un nombre important de critères de cohérence a
été proposé par différentes communautés (atomicité, PRAM,
cohérence causale, cohérence cache, cohérence à terme, etc.).
Le critère le plus intuitif étant la linéarisabilité. Une
implémentation linéarisable se comporte exactement comme si
l'objet était physiquement unique et accédé en concurrence. Ce
critère étant coûteux à mettre en oeuvre, des critères plus
faibles. L'un deux la cohérence séquentielle en est la plus
proche. Elle offre les mêmes garanties que la linéarisabilité à
un coût théoriquement plus faible. Cependant, ce critère n'est
pas composable. Dans la présentation présente, on propose une
mise en oeuvre d'une mémoire partagée séquentiellement
cohérente beaucoup moins coûteuse qu'une mémoire linéarisable
et on donne deux contextes d'utilisation très couramment
rencontrés où la cohérence séquentielle est composable.

A brief history of atomic commitment

Rachid GUERRAOUI

33min21

Cet exposé retrace brièvement l'historique de
l'algorithmique répartie à travers l'un de ses problèmes les plus fondamentaux:
la validation atomique.

Détecteurs de défaillance

Carole DELPORTE

44min56

Cet exposé fait un tour d'horizon sur les détecteurs
de défaillances, introduits par Chandra et Toueg en 1996.  Michel Raynal a
largement participé aux recherches sur ce sujet.

Indistinguishability, Duality and Necessary Conditions

Yoram MOSES

49min34

This talk discusss the most fundamental notion in distributed computing. I will
present and prove a universal property for distributed computing, and discuss
implications and applications.

 

Tasks, algorithms, and models of distributed computing with Michel (together with other colleagues)

Sergio RAJSBAUM

37min39

In this talk, I describe some of the work I have done
with Michel (and others) over a very productive period that started 15 years
ago, and hopefully will last for many more years, where we have published an
average of two conference papers and one journal paper per year, and have met
many times in Mexico, France and other places. I concentrate on our more recent
work on interval-linearizability, a notion we introduced to specify objects
more general than the usual sequentially specified objects. While tasks
explicitly state what might happen when a set of processes run concurrently,
objects only specify what happens when processes access the object
sequentially. Remarkably, these are two approaches that have largely remained
independent since the early days of the theory of distributed computing. I
describe the bridges we establish between these two paradigms, and our
discussions about what is a distributed problem, and what it means to solve it.

Folding Turing is hard but feasible

Nicolas Schabanel

1h10min13

We introduce and study the computational
power of Oritatami, a theoretical model to explore greedy molecular
folding, by which the molecule begins to fold before waiting the end of
its production. This model is inspired by our recent experimental work
demonstrating the construction of shapes at the nanoscale by folding an
RNA molecule during its transcription from an engineered sequence of
synthetic DNA. While predicting the most likely conformation is known to
be NP-complete in other models, Oritatami sequences fold optimally in
linear time. Although our model uses only a small subset of the
mechanisms known to be involved in molecular folding, we show that it is
capable of efficient universal computation, implying that any extension
of this model will have this property as well.

This result is the first principled construction in this research
direction, and motivated the development of a generic toolbox, easily
reusable in future work. One major challenge addressed by our design is
that choosing the interactions to get the folding to react to its
environment is NP-complete. Our techniques bypass this issue by allowing
some flexibility in the shapes, which allows to encode different
« functions » in different parts of the sequence (instead of using the
same part of the sequence). However, the number of possible interactions
between these functions remains quite large, and each interaction also
involves a small combinatorial optimisation problem. One of the major
challenges we faced was to decompose our programming into various levels
of abstraction, allowing to prove their correctness thoroughly in a
human readable/checkable form.

We hope this framework can be generalised to other discrete dynamical
systems, where proofs of such large objects are often difficult to get.

Joint work with Cody
Geary (Caltech), Pierre-Étienne Meunier (Tapdance, Inria Paris), et
Shinnosuke Seki (U. Electro-Communications, Tokyo)

Adding Concurrency to Smart Contracts

Maurice HERLIHY

44min08

Modern cryptocurrency systems, such as Ethereum,
permit complex financial transactions through scripts called *smart contracts*.
These smart contracts are executed many, many times, always without
concurrency. First, smart contracts are serially executed before being recorded
on the blockchain, and once recorded, they are serially re-executed whenever it
is necessary to check that the blockchain is correct. Such serial execution
limits system throughput and fails to exploit today's concurrent multicore and
cluster architectures.



This talk presents a novel way to permit miners and validators to execute smart
contracts in parallel. A party attempting to add a smart contract to the
blockchain executes multiple smart contracts speculatively, in parallel, thus
``discovering'' a serializable concurrent schedule for those transactions. This
schedule is captured and encoded as a parallel but deterministic fork-join
program used by later validators to re-execute those transactions concurrently
and securely.



Experiments show non-trivial speedup with even a small number of cores.



Joint work with Thomas Dickerson, Eric Koskinen, and Paul Gazzillo.

Débat « L’imagination au pouvoir » lors de « La Nuit des idées » du 25 janvier 2018.

1h13min46

 

 

Débat sur le thème de l’ « imagination au
pouvoir », ayant eu lieu lors de la Nuit des Idées à Varsovie, le 25
janvier 2018, suite à la diffusion du film Le
Redoutable sur le cinéaste Jean Godard.

 

Intervenants :

Nicolas Maslowski, directeur du Centre
de Civilisation Française et d’Etudes Francophones à l’Université de Varsovie.

Michel Hazanavicius, cinéaste et
metteur en scène du film Le Redoutable.


Pierre Lévy, Ambassadeur de
France en Pologne.

Ewa Winicka, journaliste
chroniqueuse pour Polityka.

Zofia Zalewska, anthoropologue et
journaliste.

Bernard Perret, socioéconomiste
et anthropologue, enseignant à l’Institut Catholique de Paris.

An extensionalist analysis of computer simulations

Franck VARENNE

1h01min52

The current spreading of multi-scale and multi-process integrative
simulations is challenging for the philosophy of science. What is the
epistemic function of such a simulation? What does it really show? On
what grounds? Is it an experimental design or a theoretical
construction? To contribute to these debates, I suggest analyzing the
ways computer simulations (CSs) are using symbols. To this end, I will
present an extensionalist analysis of CSs. This approach puts the
emphasis not on languages nor on models, but more precisely on symbols,
on their extensions, and on their various ways of referring to data or
theories. It shows that the chains of reference of symbols in a CS are
multiple and of different kinds, especially in integrative simulations.
Once these chains are recognized and understood, the associated
processes of calibration and validation can be further explained. It
finally becomes possible to explain the reasons why some complete
reduction of the role of CSs to classical epistemic functions such as
“experience”, “experiment”, or “theoretical argument” has become
doubtful.
  • «
  • 1
  • 2
  • 3
  • ...
  • 131
  • 132
  • 133
  • »