Jump to Navigation

Previous seminars


  • 18 mars 2019 11h, salle de réunion, bâtiment 210
    Amandine Cornille
    (INRA - Université Paris-Sud - CNRS - AgroParisTech, Génétique Quantitative et Évolution)
    Ecological drivers and genomics bases of the aphid-apple-bacteria interaction in the context of domestication

    Amandine’s research aims at unravelling the evolutionary forces underlying the adaptation of populations and the emergence of new species, using population genetics and genomics approaches combined with field experiments. She has studied both short and long evolutionary timescales (domestication and wild species divergence, respectively) to investigate the ecological factors and genomic processes underlying adaptation. Her research is now also moving toward the study of plant biotic interactions, which are fundamental to our understanding of biodiversity and adaptation; research over the past decades has indeed clearly demonstrated that interactions between species are major drivers of adaptive evolution. Amandine will present the main results of her past research on the apple domestication and the link with her starting project on the impact of apple domestication on the adaptation of a major apple aphid pest Dysaphis plantaginea (the rosy apple aphid) to the cultivated apple (Malus domestica).

  • 4 mars 2019 11h, salle de réunion, bâtiment 210
    Ralf Steuer
    (Humboldt, Universität zu Berlin, Institut of Theoretical Biology)
    Cellular resource allocation and the architecture of phototrophic growth

    The potential offered by cyanobacteria will undoubtedly play a major role in mastering the challenges of the 21st century – from securing global food supply to the synthesis of renewable raw materials. As yet, however, fundamental questions regarding the metabolic principles of cyanobacterial phototrophic growth are not resolved: How are metabolic, photosynthetic, and ribosomal proteins optimally partitioned during phototrophic growth? What is the highest growth rate a cyanobacterium can attain?
    The presentation will describe our recent efforts to answer these questions using experimental and constraint-based computational models: we describe phototrophic growth as a cellular resource allocation problem and estimate the costs and benefits of all metabolic constituents of a cyanobacterial cell. Of particular interest are the cellular organization that enables fast phototrophic growth and the corresponding intracellular limits on growth rates. The model-derived resource allocation is in good agreement with experimental findings. I will provide an outlook how such analyses has implications for ecology and models of global biogeochemical cycles.

    [1] Zavřel T(*), Faizi M, Loureiro C, Poschmann G, Stühler K, Sinetova M, Zorina A, Steuer R(*), Červený J (2019) Quantitative insights into the cyanobacterial cell economy. eLife  [* corresponding authors]
    [2] Faizi M, Zavrel T, Loureiro C, Cerveny J, Steuer R (2018) A model of optimal protein allocation during phototrophic growth. Biosystems 166, 26-36.
    [3] Reimers AM, Knoop H, Bockmayr A, Steuer R (2017) Cellular trade-offs and optimal resource allocation during cyanobacterial diurnal growth. Proc Natl Acad Sci U S A. Pii: 201617508.
    [4] Westermark S and Steuer R (2016) Toward multiscale models of cyanobacterial growth: a modular approach. Front. Bioeng. Biotechnol. 4:95.
    [5] Knoop H, Gruendel M, Zilliges Y, Lehmann R, Hoffmann S, Lockau W, Steuer R (2013) Flux balance analysis of cyanobacterial metabolism: The metabolic network of Synechocystis sp. PCC 6803. PLoS Comput Biol 9(6): e1003081.

  • 18 février 2019 11h, salle de réunion, bâtiment 210
    Sébastien Picault
    (INRA-Oniris BIOEPAR Nantes et Univ. Lille-CNRS CRIStAL)
    L'Intelligence Artificielle pour l'épidémiologie prédictive : faciliter la co-construction et la révision des modèles

    La modélisation mécaniste permet de mieux comprendre la propagation de pathogènes dans et entre populations, d’en prédire la dynamique dans des situations contrastées, et d'identifier les mesures de gestion les plus pertinentes. Les enjeux sanitaires actuels demandent toutefois une diversité d'expertises qui accroît la complexité des modèles et rend coûteuse leur conception, au risque de réduire leur fiabilité, maintenabilité et réutilisabilité.

    Mes travaux à BIOEPAR (Nantes) visent à élaborer un nouveau cadre de conception de modèles mécanistes en épidémiologie via des recherches en Intelligence Artificielle. L'utilisation de systèmes multi-agents multi-niveaux permet d'encapsuler les paradigmes classiques de modélisation (modèles à compartiments vs. centrés individus) à différentes échelles (individu, population, métapopulation) dans un formalisme homogène et modulaire, facilitant le changement de
    représentation pour un même système. Simultanément, l'élaboration d'un langage domaine-spécifique (DSL) pour l’épidémiologie permet d’expliciter les hypothèses, paramètres, processus mobilisés, et donc de renforcer l'implication des experts non modélisateurs dès la conception des modèles et tout au long du processus de développement.

    La combinaison d’une approche multi-agents et d'un DSL a ainsi conduit au framework EMULSION, développé depuis fin 2016 à BIOEPAR. Je montrerai
    une application d'EMULSION à l'étude d'une zoonose endémique du bétail (la fièvre Q), pour comparer diverses hypothèses (états de santé pertinents, forme de la fonction de dispersion par le vent, etc.), eu égard aux données disponibles, et ainsi mieux comprendre la contribution des mouvements commerciaux vs. des conditions environnementales dans la propagation du pathogène à l'échelle d’un territoire.

    Enfin, je présenterai comment ces travaux ouvrent la voie à une production automatisée d’outils d'aide à la décision dédiés aux gestionnaires de la santé (techniciens conseils, vétérinaires, décideurs publics).

  • 4 février 2019 11h, salle de réunion, bâtiment 210
    Vincent Miele
    (UCB Lyon1, UMR CNRS 5558 LBBE)
    Exploring multiplex ecological networks

    Within an ecosystem, species interact with each other in many different ways, including predation, competition, and facilitation, and this can be modelled as a network of multiple interaction types (called "multiplex" network). The variety of interaction types that link species to each other has long been recognized but has rarely been synthesized for entire multi-species ecosystems. In a first part, I will present our recent study [1] on a unique marine ecological network that integrates thousands of trophic and non-trophic interactions. Using network statistical modeling, we showed that the diverse interaction types have a suprinsingly simple non-random organization. In a second part, I will present our recent study [2] where we investigated the role of the diversity of interaction types per se for species diversity and the functioning of ecological communities, using a bio-energetic consumer-resource dynamical model in which we incorporated the non-trophic interactions.

    En collaboration avec Sonia Kéfi (CNRS, Institut des sciences de l'évolution, Montpellier).

    [1] Kéfi et al, PLoS Biol (2016), https://doi.org/10.1371/journal.pbio.1002527
    [2] Miele et al, biorxiv (2018), https://doi.org/10.1101/411249

  • 21 janvier 2019 11h, salle de réunion, bâtiment 210
    Paul Bastide
    (KU Leuven)
    A flexible Bayesian framework to study viral trait evolution

    During the course of an outbreak or epidemic, many viral pathogens are known to evolve rapidly, leaving imprint of the pattern of spread in their genomes. Uncovering the molecular footprint of this transmission process is a key goal of phylodynamic inference. Relatively less focus has been put on the evolution of quantitative phenotypic traits of viruses. Traits such as geographical location or virulence can be studied using phylogenetic Comparative Methods (PCMs) that account for a shared evolutionary history among the set of non-independent samples. Conditioning on such an history, the observed traits can be seen as the result of a stochastic process running on the branches of a phylogenetic tree. The Ornstein-Uhlenbeck (OU) process is often used to model stabilizing selection toward an optimal trait value. For a multivariate trait, the dynamics of the trajectory is controlled by a selection strength matrix, that is only constrained to have positive eigenvalues. Depending on the form of this matrix, the OU can have a variety of behaviors, and is hence suited to model various biological processes.

    We propose a Bayesian inference framework for the study of this flexible model. Using a Markov Chain Monte Carlo (MCMC) based method, one critical aspect is to be able to sample uniformly in the space of constrained matrices, both for the selection strength and the variance matrix, in a context where traditional Gibbs sampling cannot be used. This can be done using a smooth transformation that maps the parameters to an unconstrained space. We investigated the use of two such maps, along with adequate prior distributions. MCMC methods also rely on multiple likelihood evaluations, at each step of the chain. Exploiting the tree structure, we studied a fast and flexible algorithm to compute both the likelihood and its gradient for a wide class of processes, that contains but is not limited to the OU. This makes it possible to use efficient sampling methods, such as the Hamiltonian Monte Carlo (HMC).

    We implemented the new framework in BEAST, a widely used and flexible phylodynamics software. This allows us to leverage on the many other tools of the BEAST ecosystem, such as the phylogenetic factor model, that can be used to model extra-environmental variation, or the marginal likelihood estimation for model selection. It also offers us the possibility to integrate the results over the space of all probable trees, in an integrated analysis that directly starts from the genomic sequences, instead of relying on a fixed tree. We illustrate the use of this framework for the study of the heritability of virulence of the human immunodeficiency virus (HIV), a question that has attracted a lot of attention recently, and for which model choice is a recognized critical aspect.

  • 7 janvier 2019 11h, salle de réunion, bâtiment 210
    Nathanael Hozé
    (Institut Pasteur, Unité de Modélisation mathématique des maladies infectieuses)
    Assessing the level of virus circulation in the context of high cross-reactivity: the case of chikungunya and mayaro fever in French Guiana

    Dengue, chikungunya and Zika have recently caused large outbreaks in the Americas. Besides those, other arboviruses may have been overlooked. For example, Mayaro virus (MAYV), which was first identified in 1954 in Trinidad, is very rarely detected by Sentinel surveillance in French Guiana (FG). However, we cannot rule out that some MAYV infections may have been misdiagnosed because Mayaro fever shares symptoms with other arboviral infections and there is cross-reactivity between MAYV and chikungunya virus (CHIKV). We propose a statistical approach to assess the circulation of both MAYV and CHIKV in FG using a multiplexed cross-sectional serological survey that includes 2,697 individuals sampled over the FG territory. We account explicitly for the cross-reactivity between MAYV and CHIKV. We find that 41% (95% CI: 35%, 48%) of MAYV cases might be misdiagnosed as CHIKV positive with serology assays. Our framework also allows testing and exploring different scenarios of virus circulation for each region of the territory. We find that MAYV has been circulating for years in the southern part of FG, affecting mostly adult males, and we estimate seroprevalence as high as 27% (95% CI: 19%, 35%) in some regions. On the opposite, a CHIKV epidemic hit FG in 2014, was more present in the northern, coastal regions and infected women more than men. 


  • 17 décembre 2018 11h, salle de réunion, bâtiment 210
    Sarah Lemler
    (CentraleSupelec, MICS)
    Estimation on a jump diffusion process with jumps driven by a Hawkes process

    In neurosciences, two kinds of data are available: a continuous signal coming from the action potential of one single neuron along time, and several discrete signals which are the spike train of several neurons (the occurring times when the action potential overcomes a threshold). Usually these two kinds of data are investigated separately using either diffusion processes to describe the dynamic of the action potential or counting processes to describe the graph of connectivity between neurons (see [3]). We propose a new model which allows to deal with both type of signals in a single procedure to take into accounts the whole information. This new approach can be applied to neurosciences issues but also to other fields as in finance to model financial assets. Our model is a jump-diffusion model driven by a multidimensional Hawkes process (see [1]).  Assuming that we have high frequencies observations of the process together with observations of the multidimensionnal Hawkes process, we focus first on the nonparametric estimation of the drift function, when the other coefficients are assumed to be known (see [2]) and then we consider a simultaneous estimation of both parameters the jump parameter and the drift, assuming that $\sigma$ is known. The proposed method is based on a mean squared regression approach. The novelty here lies in the contrast function which takes into account the multidimensional Hawkes process. We will also discuss about the existence of a stationary measure for our process and ergodicity results that we need to obtain oracle inequalities for our estimators. Finally, a numerical study illustrates our purpose.

    [1] P. Brémaud and L. Massoulié. Stability of nonlinear Hawkes processes. The Annals of Probability, 24, 1996, 1563-1588
    [2] F. Comte and V. Genon-Catalot and Y. Rozenholc. Penalized nonparametric mean square estimation of the coefficients
    of diffusion processes. Bernoulli, 13, 2007, 514-543
    [3] P. Reynaud-Bouret and V. Rivoirard and C. Tuleau-Malot. Inference of functional connectivity in neurosciences via Hawkes processes. Global Conference on Signal and Information Processing (GlobalSIP), 2013 IEEE,  317-320
  • 3 décembre 2018 11h, salle de réunion, bâtiment 210
    Radu Stoica
    (Université de Lorraine, Institut Elie Cartan de Lorraine, Nancy)
    ABC Shadow algorithm: a tool for statistical analysis of spatial patterns

    This talk presents an original ABC algorithm, {\it ABC Shadow}, that can be applied to sample posterior densities that are continuously differentiable. The proposed algorithm solves the main condition to be fulfilled by any ABC algorithm, in order to be useful in practice. This condition requires enough samples in the parameter space region, induced by the observed statistics. The algorithm is tuned on the posterior of a Gaussian model which is entirely known, and then it is applied for the statistical analysis of several spatial patterns. These patterns are issued or assumed to be outcomes of point processes. The considered models are: Strauss, Candy and area-interaction. Results on real data, representing the galaxies distribution in our Universe, are also shown.

  • 19 novembre 2018 11h, salle de réunion, bâtiment 210
    Amandine Véber
    (Ecole Polytechnique, CMAP)
    Le processus Lambda-Fleming-Viot spatial : un modèle d'évolution en espace continu

    Ce processus a été introduit en 2008 par N. Barton (IST Austria) et A. Etheridge (U. Oxford) pour modéliser l'évolution de la diversité génétique au sein d'une population ayant une structure spatiale continue (un champ, une forêt, les Alpes, ...). Dans ce modèle, la régulation locale de la taille de population est assurée en encodant les reproductions non par des "horloges" individuelles, mais par une suite aléatoire d'évènements couvrant une certaine zone géographique et ayant un certain impact. Après avoir présenté le modèle, nous discuterons de tout le travail qui reste à faire pour mettre au point des méthodes statistiques permettant de reconstruire certains de ses paramètres-clés à partir de données.

  • 5 novembre 2018 11h, salle de réunion, bâtiment 210
    Zhanwu Dai
    (INRA, UMR EGFV, Centre Inra de Nouvelle-Aquitaine-Bordeaux)
  • 22 octobre 2018 11h, salle de réunion, bâtiment 210
    Christian Vestergaard
    (CNRS-Institut Pasteur, Decision and Bayesian Computation Group)
    Randomized reference models for studying contagion processes in temporal networks

    Many dynamical systems can successfully be analyzed using the temporal network formalism. This is notably the case for the human interaction networks that support the spread of contagion and information processes in the population. Empirical temporal networks and dynamic processes that take place in these situations show heterogeneous, non-Markovian, and intrinsically correlated dynamics, making their analysis particularly challenging. Randomized reference models (RRMs) constitute a versatile toolbox for studying such systems. Defined as ensembles of random networks with given features constrained to match those of an input (empirical) network, they may be used to identify statistically significant features in empirical temporal networks (i.e.\ different from the null random networks) and to infer the effects of such features on dynamical processes unfolding in the network. However, the effects of most randomization procedures on temporal network features remain poorly understood, rendering their use non-trivial and susceptible to misinterpretation.

    Here we propose a unified framework for classifying and understanding microcanonical RRMs (MRRMs), which constrain chosen features to take exactly the same value as in the empirical network but are otherwise random. The framework lets us order MRRMs and deduce their effects on important temporal network features, and we use it to show how we may generate new MRRMs from existing ones by sequential composition of independent MRRMs. We show how to apply the framework to unravel how different features of an empirical network of mobile-phone calls influence the spread of information.

  • 8 octobre 2018 11h, salle de réunion, bâtiment 210
    Elie Desmond-Le Quéméner
    (INRA LBE)
    Microbial thermodynamics: a tool for the understanding of mixed microbial consortia

    The research conducted at LBE (Laboratoire de Biotechnologie de l'Environnement) in Narbonne aims to develop the concept of environmental biorefinery, which consists in treating the by-products of human activities (waste, agricultural residues, effluents) and valorizing them as resources of industrial interest (bioenergies, biomolecules, organic amendment), meanwhile minimizing their environmental and health impact. In this context, my research focus on the understanding of the rules governing microbial ecosystems at the heart of the functioning of these bioprocesses, in order to develop explanatory and predictive models for their control and optimization. Here I will present how microbial thermodynamics can be used:
    -together with microbial transition state theory to predict microbial dynamics and functional community patterns
    -to reveal extracellular electron transfer mediated parasitism
    -to predict individual Operational Taxonomic Units (OTU) metabolism in mixed culture processes
    I will also introduce few perspectives for the modelling of biotic interactions in microbial ecosystems (time-series analyses, individual based modelling...)

  • 10 septembre 2018 11h, salle de réunion, bâtiment 210
    Liubov Tupikina
    (Ecole Polytechnique, Laboratoire de Physique de la Matière Condensée)
    Heterogeneous network models
    I will present some of our results on the general topic of random walks on networks. In particular, I will discuss the results about how heterogeneities influence the dynamics of, so-called, continuous time random walk model. Then I will talk about some further applications of the heterogeneous random walk model to the epidemiological models on static and temporal networks. Moreover, I will present some results of the discrete-state models on small graphs and discuss the challenges of the presented methods applications to the real data.
  • 11 juin 2018 11h, salle de réunion, bâtiment 210
    Tatiana Giraud
    (CNRS-UPS-AgroParisTech, UMR UMR 8079 Ecologie, Systématique et Evolution)
    Domestication of cheese-making fungi

    Domestication is an excellent model for studies of adaptation because it involves recent and strong selection on a few, identified traits. Few studies have focused on the domestication of fungi, despite their importance to bioindustry and to a general understanding of adaptation in eukaryotes. Penicillium fungi are ubiquitous molds among which two distantly related species have been independently selected for cheese-making, P. roqueforti for blue cheeses like Roquefort, and P. camemberti for soft cheeses like Camembert. The selected traits include morphology, aromatic profile, lipolytic and proteolytic activities, and ability to grow at low temperatures, in a matrix containing bacterial and fungal competitors. By comparing the genomes of ten Penicillium species, we show that adaptation to cheese was associated with multiple recent horizontal transfers of large genomic regions carrying crucial metabolic genes. We identified seven horizontally-transferred regions (HTRs) spanning more than 10 kb each, flanked by specific transposable elements, and displaying nearly 100% identity between distant Penicillium species. Two HTRs carried genes with functions involved in the utilization of cheese nutrients or competition and were found nearly identical in multiple strains and species of cheese-associated Penicillium fungi, indicating recent selective sweeps; they were experimentally associated with faster growth and greater competitiveness on cheese and contained genes highly expressed in the early stage of cheese maturation.

     We also used population genomics to reconstruct the evolutionary history of Penicillium roqueforti. Four populations were identified, including two containing only cheese strains (one corresponding to the emblematic Roquefort “protected designation of origin” strains), and two non-cheese populations including silage and food-spoiling strains. Approximate Bayesian computation analyses indicated that the two cheese populations were derived from independent domestication events. The non-Roquefort population had experienced a stronger genetic bottleneck and displayed greater fitness for traits related to industrial cheese maturation, such as greater lipolysis, cheese cavity colonization and salt tolerance. It probably originated from the industrial selection of a single clonal lineage and is used worldwide for the production of all types of blue cheese other than Roquefort. The Roquefort population resulted from a softer domestication event, probably due to the ancient use of different strains across multiple farms, with possible selection for slower growth before the invention of refrigeration and for greater spore production on the traditional multiplication medium (bread). We detected genomic regions affected by recent positive selection and genomic islands specific to one of the cheese populations, some of which corresponded to putative horizontal gene transfer events. This study sheds light on the processes of adaptation to rapid environmental changes, has industrial implications and raises questions about the conservation of genetic resources.

  • 28 mai 2018 11h, salle de réunion, bâtiment 210
    Zhanwu Dai
    (INRA, UMR EGFV, Centre Inra de Nouvelle-Aquitaine-Bordeaux )
    Reporté à une date ultérieure
  • 14 mai 2018 [annulé et repoussé à une date ultérieure] 11h, salle de réunion, bâtiment 210
    Elie Desmond-Le Quéméner
    (INRA, UR 050 LBE)
    Séminaire repoussé à une date ultérieure
  • 23 avril 2018 [annulé et repoussé à une date ultérieure] 11h, salle de réunion, bâtiment 210
    Victor Picheny
    (INRA, MIA Toulouse)
    Séminaire reporté à une date ultérieure
  • 9 avril 2018 11h, salle de réunion, bâtiment 210
    Andreas Dräger
    (University of Tubingen, Applied Bioinformatics Group)
  • 26 mars 2018 11h, salle de réunion, bâtiment 210
    Julie Josse
    (École Polytechnique, CMAP)
    Distributed Multi-Level Matrix Completion for Medical Databases

    Gathering the information contained in the databases of several hospitals is a step toward personalized medical care as it increases the chances of finding similar patient profiles and therefore provinding them better treatment. However, there are technical (computations and storage issues) and social barriers (privacy concerns) to the aggregation of medical data. Both obstacles can be overcome by turning to distributed computations so that hospitals only share some intermediate results instead of the raw data. As it is often the case, the medical databases are incomplete. One aim of the project is to impute the data of one hospital using the data of the other hospitals. This could also be an incentive to encourage the hospitals to participate in the project. In this talk, we will describe a single imputation method for multi-level (hierarchical) data that can be used to impute both quantitative, categorical and mixed data. This method is based on multi-level simultaneous component analysis (MLSCA) which basically decomposes the variability in both a between and within (hospitals) variability and performs a SVD on each part. The imputation method can be seen as an extension of matrix completion methods. The methods and their distributed versions are implemented in an R package.

  • 12 mars 2018 11h, salle de réunion, bâtiment 210
    Marie-Laure Martin-Magniette
    (AgroParisTech-INRA, UMR 518 MIA / IPS2)
    Modèles de mélange gaussiens et de graphes pour mieux comprendre la réponse aux stress de la plante modèle Arabidopsis
    Les données transcriptomiques sont la source la plus importante de données disponibles actuellement sur les organismes. Pour la plante modèle Arabidopsis, son transcriptome a pu être mesuré dès le début des années 2000 par des puces à ADN. Depuis 2010, nous avons entrepris de faire une étude globale de la réponse aux stress de la plante. Après une présentation du contexte biologique, je présenterai une analyse de coexpression de plusieurs catégories de stress réalisée à l'aide de mélanges gaussiens. Dans la seconde partie de l'exposé, je vous présenterai la construction d'un réseau de corégulation et comment l'étude de ce réseau avec un modèle de mélange de graphes (Stochastic Block Models) a permis de prédire la fonction de certains gènes mal annotés et d'identifier une voie de réponse aux stress.
  • 12 mars 2018 10h, salle de réunion, bâtiment 210
    El Houcine Bergou
    Random Direct Search Method for Unconstrained Smooth Minimization

    In this work we consider the problem of unconstrained minimization of a smooth function in $R^n$ in a
    setting where only function evaluations are possible. We design a novel random direct search (RDS)
    method and analyze its complexity. At each iteration, RDS generates a random search direction according
    to a certain fixed probability law. Our assumptions on this law are very mild. For instance, we allow for
    the uniform distribution on the sphere and also distributions that concentrate all measure on a positive
    spanning set. Given a current iterate $x$, the objective function is compared at three points: $x$, $x+\alpha s$
    and $x-\alpha s$, where $\alpha>0$ is a stepsize parameter and $s$ is the random search direction. The best of these
    three points is the next iterate.

    The complexity of RDS depends on the probability law via a simple characteristic closely related to the cosine measure
    which is used in the analysis of deterministic direct search (DDS) methods. Unlike in DDS, where $O(n)$ function
    evaluations must be performed in each iteration in the worst case, our random search method only requires two new function
    evaluations per iteration. Consequently, while DDS depends quadratically on $n$, our method depends linearly on $n$.

  • 12 février 2018 11h, salle de réunion, bâtiment 210
    Séminaire annulé
  • 29 janvier 2018 11h, salle de réunion, bâtiment 210
    Elad Noor
    (ETH Zurich, Institute of Molecular Systems Biology)
    The Hidden costs of enzymatic catalysis
    The existence of a trade-off between the biomass yield and growth rate of cells has been used to explain aerobic fermentation in cancer cells (Warburg effect), yeast cells (Crabtree effect) and in bacteria such as E. coli. This trade-off relies on the assumption that even though fermentation pathways produce 5-10 times less ATP per glucose, respiration requires so much more resources and is therefore inefficient when carbon is not limiting. Is this trade-off a universal constraint imposed by thermodynamics, or a coincidental feature of the specific enzyme kinetic parameters that evolved in these organisms? To answer this question we developed a new method called Enzyme-Flux Cost Minimization (EFCM) to model the costs of both respiration and fermentation (along with ~1000 other flux combinations called elementary flux modes). We find that the trade-off in E. coli is not universal and depends strongly on the availability of oxygen. This framework successfully predicts in vivo enzyme concentrations, and has applications in metabolic engineering where similar candidate pathways can be compared not just by their yields, but also by their costs.
  • 15 janvier 2018 11h, salle de réunion, bâtiment 210
    Nicolas Brunel
    Optimal control and additive perturbations helps in estimating ill-posed and uncertain dynamical systems

    Ordinary Differential Equations (ODE) are routinely calibrated on real data for estimating unknown parameters or for reverse-engineering of biological systems. Nevertheless, standard statistical technics can give disappointing results because of the complex relationship between parameters and states, that makes the corresponding estimation problem ill-posed. Moreover, ODE are mechanistic models that are prone to modelling errors, whose influences on inference are often neglected during statistical analysis. We propose a regularised estimation framework that consists in adding a perturbation to the original ODE. This perturbation facilitates data fitting and represents also possible model misspecifications, so that parameter estimation is done by solving a trade-off between data fidelity and model fidelity. We show that the underlying optimisation problem is an optimal control problem, that can be solved by the Pontryagin Maximum Principle for general nonlinear and partially observed ODE. The same methodology can be used for the joint estimation of finite and time-varying parameters. We show, in the case of a well-specified parametric model, that our estimator is consistent and reaches the root-$n$ rate. Numerical experiments considering various sources of model misspecifications shows that Tracking still furnish accurate estimates.

    In a second part of the talk, we present a novel algorithm that deals directly with the log-likelihood of the observations and avoid the use of a nonparametric proxy. The inference still uses a perturbed model that is estimated based on the discretisation in time and of the perturbation function (piecewise constant). We focus on linear ODEs and show that we can compute efficiently the parameter estimator by dynamic programming.

    The computational speed enables to address the estimation of (relatively) high-dimensional systems, and to implement standard computationally intensive procedure such as cross-validation and bootstrap. Finally, we show that we can use our approach to estimate nonlinear ODEs used for modelling bacteria interactions in microbiome.


  • 18 décembre 2017 11h, salle de réunion, bâtiment 210
    Jessica Tressou
    (AgroParisTech-INRA, UMR 518 MIA)
    Principes du bootstrap en iid et pour les chaînes de Markov : application aux valeurs extrêmes
    Après avoir présenté brièvement le principe du bootstrap dans le cadre indépendant et identiquement distribué et montré sur un exemple ses limites dans le cas des valeurs extrêmes, je montrerai comment on peut définir une procédure de bootstrap régénératif sur des chaines de Markov. Cette méthode, développée par Patrice Bertail et Stéphane Clémençon dans un article publié dans Bernoulli en 2006, a ensuite été appliquée à plusieurs types d'estimateurs (U-statistiques, R-statistiques, L-statistiques).
    Je présenterai plus en détails les applications en lien avec les valeurs extrêmes.
    Bertail P, Clémençon S, Tressou J, 2009. Extreme value statistics for Markov chains via the (pseudo-)regenerative method. Extremes, 12(4), 327-360.
    Bertail P, Clémençon S, Tressou J, 2013. Regenerative Block-Bootstrap Confidence Intervals for Tails and Extremal Indexes. Electronic Journal of Statistics, 7, 1224-1248.
  • 4 décembre 2017 11h, salle de réunion, bâtiment 210
    Corinne Vacher
    (Université de Bordeaux - INRA, UMR Biogeco)
    La phyllosphère: une jungle microbienne à l'interface plante-climat

    Les plantes interagissent avec des microorganismes tout au long de leur cycle de vie. Ces communautés microbiennes modulent la résistance des plantes contre de multiples stress, influencent leur capacité à se reproduire et contribuent au fonctionnement des écosystèmes. Les communautés microbiennes de la phyllosphère, qui sont à l'interface entre la plante et l'atmosphère, pourraient jouer un rôle non-négligeable dans la réponse des plantes au changement climatique. Une meilleure prise en compte de ces communautés, voire leur pilotage, pourrait permettre de renforcer la résilience des écosystèmes. Afin de prédire la dynamique et l'évolution des communautés microbiennes de la phyllosphère, il est nécessaire de disposer d'un cadre conceptuel qui intègre la plante, l'atmosphère et les microorganismes qui se développent à leur interface. En s'appuyant sur la théorie de Mark Vellend (2010), nous avons proposé d'analyser la structure de ces communautés à l'aide de quatre processus: la sélection, la diversification évolutive, la dispersion et la dérive. La sélection, qui est exercée par les traits et le microclimat foliaires et par les interactions entre microorganismes, filtre parmi tous les microorganismes présents sur les feuilles ceux qui parviendront à y survivre. La diversification évolutive génère des microorganismes possédant de nouvelles fonctions, tandis que la dispersion permet à certains microorganismes d'atteindre l'habitat foliaire. La dérive écologique, quant à elle, crée des variations aléatoires dans les abondances microbiennes. Si de nombreuses études démontrent l'influence de ces quatre processus, il reste encore de nombreux défis à relever. L'un d'entre eux, que j'illustrerai plus en détail, est de parvenir à déchiffrer les réseaux d'interactions entre les microorganismes à partir de données de séquençage haut-débit et d'évaluer l'influence de ces réseaux sur la santé de la plante.

    Travail joint avec

    Charlie PAUVERT, Arndt HAMPE, Annabel PORTE, Ursula SAUER, Stéphane COMPANT et Cindy MORRIS et basé sur les publications

    Vacher, C., Hampe, A., Porté, A.J., Sauer, U., Compant, S., Morris, C.E. 2016. The phyllosphere: microbial jungle at the plant-climate interface. Annual Review of Ecology, Evolution, and Systematics, 47: 1-24

    Stéphane A.P. Derocles, David A Bohan, Alex J. Dumbrell, James J.N. Kitson, François Massol, Charlie Pauvert, Manuel Plantegenest, Corinne Vacher, Darren M. Evans. Biomonitoring for the 21st century: integrating Next Generation Sequencing with Ecological Network Analysis. Submitted to Advances in Ecological Research.

  • 20 novembre 2017 11h, salle de réunion, bâtiment 210
    Marco Bellinzoni
    (Institut Pasteur, Unité de Microbiologie Structurale )
    Unusual features in actinobacterial α-ketoacid dehydrogenase complexes: challenging old beliefs
    Pyruvate dehydrogenase (PDH) and α-ketoglutarate dehydrogenase (KDH) are conserved, tripartite enzyme complexes that carry out essential reactions in central metabolism. Despite their overall conservation, an increasing amount of evidence points to the presence of unique features in the structure and regulation of the actinobacterial versions of these enzymes. I will resume our ongoing studies on the components of a mixed PDH/KDH supercomplex from the species Mycobacterium smegmatis and Corynebacterium glutamicum, and show how our findings challenge old paradigms about the architecture and the regulation of these fascinating enzymatic machines.
  • 6 novembre 2017 11h, salle de réunion, bâtiment 210
    Sylvain Billiard
    (Université de Lille - CNRS, Unité Evo-Eco-Paléo)
    Rejuvenating functional responses with the renewal theory

    How fast do interactions occur between individuals is central in ecology. Functional responses are classically used to describe the number of predation, mating, competition, etc. in a given timeframe. Hundreds of different forms of functional responses have been proposed in the ecological and mathematical literature. It is well known that this form can dramatically affect the stability and dynamics of populations. Yet, the forms given to functional responses are generally poorly justified from the individual point of view, most ecologists generally adopting a phenomenological approach, in a purely deterministic framework. Here, we propose a novel and original stochastic approach based on the renewal theory. We show how it is possible to derive classical and novel functional responses from the behaviors of the individuals by modelling the time taken by all activities that must be fulfilled for an interaction to be successful. We show how a stochastic approximation of the functional responses can be obtained thanks to the renewal theory. We give applications of our theoretical framework and discuss the importance of interactions as a source of stochasticity in ecological models.

  • 16 octobre 2017 11h, salle de réunion, bâtiment 210
    séance annulée
  • 2 octobre 2017 11h, salle de réunion, bâtiment 210
    Pierre Latouche
    (Université Paris 1, Laboratoire SAMM)
    Multiple change points detection and clustering in dynamic networks

    The increasing amount of data stored in form of dynamic interactions between actors necessitates the use of methodologies to automatically extract relevant information. The interactions can be represented by dynamic networks in which most existing methods look for clusters of vertices to summarize the data. In this work, a new framework is proposed in order to cluster the vertices while detecting change points in the intensities of the interactions. These change points are key in the understanding of the temporal interactions. The model used involves non-homogeneous Poisson point processes with cluster dependent piecewise constant intensity functions and common discontinuity points.  A variational expectation maximization algorithm is derived for inference. We show that the pruned exact linear time method, originally developed for change points detection in univariate time series, can be considered for the maximization step. This allows the detection of both the number of change points  and their location.  Experiments on artificial and real datasets are carried out and the proposed approach is compared with related methods.

  • 18 septembre 2017 11h, salle de réunion, bâtiment 210
    Wolfram Liebermeister
    (INRA, MaIAGE)
    Enzyme and flux cost functions for metabolic modelling

    Metabolic fluxes in cells are sometimes assumed to reflect an economical use of enzymes. To apply this principle of "minimal enzyme cost" and to study its consequences, I consider two types of computational metabolic models: models in which fluxes are given and metabolite levels are chosen to minimise enzyme cost; and models in which the fluxes themselves are optimised. In the first case, optimal enzyme and metabolite levels can be computed by solving a convex optimization problem, and connections between enzyme cost and reaction thermodynamics become very apparent. In the second case, we obtain a nonlinear version of flux balance analysis, a method commonly used in flux prediction. Optimal metabolic fluxes can be found be screening the elementary flux modes, a well-defined set of maximally sparse flux distributions. Altogether, we obtain a tractable method for predicting optimal fluxes, metabolite levels, and enzyme levels in kinetic models of central metabolism.

  • 26 juin 2017 11h, salle de réunion, bâtiment 210
    Annulé (AG du département MIA)
  • 12 juin 2016 11h, salle de réunion, bâtiment 210
    Christophe Biernacki
    (Université de Lille 1, Modal, INRIA Lille Nord-Europe)
    About two disinherited sides of statistics: data units and computational saving
    Statistics often focuses on designing models, theoretical estimates, related algorithms and model selection. However, some sides of this whole process are somewhat not really tackled by statisticians, leaving the practitioner with some empirically choices, thus poor theoretical warranties. In this context, we identify two situations of interest which are firstly the data unit definition, in case where the practitioner hesitates between few, and secondly the way of saving computational time, for instance by early stopping rules of some estimating algorithms.
    In the first case (data units), we highlight that it is possible to embed data unit selection into a classical model selection principle. We introduce the problem in a regression context before to focus on the model-based clustering and co-clustering context, for data of different kinds (continuous, categorical). It is a joint work with Alexandre Lourme (University of Bordeaux).
    In the second case (computational saving), we recall that an increasingly recurrent statistical question is to design a trade-off between estimate accuracy and computation time. Most estimates practically arise from algorithmic processes aiming at optimizing some standard, but usually only asymptotically relevant, criteria. Thus, the quality of the resulting estimate is a function of both the iteration number and also the involved sample size. We focus on estimating an early stopping time of a gradient descent estimation process aiming at maximizing the likelihood in the simplified context of linear regression (with some discussion in other contexts). It is a joint work with Alain Célisse and Maxime Brunin (University of Lille and Inria, both).
  • 29 mai 2017 11h, salle de réunion, bâtiment 210
    Jean-Christophe Palauqui
    (Institut Jean-Pierre Bourgin, UMR1318 INRA-AgroParisTech)
    Etude descriptive et modélisation du développement embryonnaire chez Arabidopsis thaliana
    L’acquisition des grands plans d’organisation d’une plante s’opère au cours de l’embryogenèse précoce. Ce processus, très stéréotypé chez Arabidopsis, conduit à la mise en place d’un organisme pluricellulaire, permettant d’assurer les fonctions essentielles après germination de la graine. Au travers d’une étude descriptive 3D de l’organisation des plans de divisions, qui retrace l’historique des événements de divisions cellulaires, nous développons une approche de modélisation de la division cellulaire basée sur la géométrie de la cellule.
  • 15 mai 2017 11h, salle de réunion, bâtiment 210
    Melina Gallopin
    (UPSay, I2BC)
    Nonlinear network-based quantitative trait prediction from transcriptomic data

    Quantitatively predicting phenotype variables by the expression changes in a set of candidate genes is of great interest in molecular biology but it is also a challenging task for several reasons. First, the collected biological observations might be heterogeneous and correspond to different biological mechanisms. Secondly, the gene expression variables used to predict the phenotype are potentially highly correlated since genes interact through unknown regulatory networks. In this talk, we present a novel approach designed to predict quantitative traits from transcriptomic data, taking into account the heterogeneity in biological observations and the hidden gene regulatory networks. The proposed model performs well on prediction but it is also fully model-based, which facilitates the downstream biological interpretation. The model provides clusters of individuals based on the relation between gene expression data and the phenotype, and also leads to infer a gene regulatory network specific for each cluster of individuals.
    We perform numerical simulations to demonstrate that our model is competitive with other prediction models, and we demonstrate the predictive performance and the interpretability of our model to predict olfactory behavior from transcriptomic data on real data from Drosophila Melanogaster Genetic Reference Panel (DGRP).

  • 24 avril 2017 11h, salle de réunion, bâtiment 210
    Vincent Briane
    (INRIA, IRISA Rennes)
    An adaptive statistical test to detect non Brownian diffusion from particle trajectories

    (This is a joint work with the supervisors of my PhD Myriam Vimond and Charles Kervrann.)

    Assessing the dynamics of particles inside live cell is of paramount interest to understand cell mechanisms. In this presentation, we assume that the motions of particles follow a certain class of random process: the diffusion processes. Our contribution is to propose a statistical method able to classify the motion of the observed trajectories into three groups: subdiffusion (the particle is trapped in a confined domain or moves in a crowded area), superdiffusion (the particle moves in a specific direction thanks to a molecular motor) and free diffusion (namely Brownian motion). This method is an alternative to Mean Square Displacement (MSD) analysis. We assess our procedure on both simulations and real cases.

  • 20 mars 2017 11h, salle de réunion, bâtiment 210
    Simon Cauchemez
    (Institut Pasteur, Unité Modélisation mathématique des maladies infectieuses)
    Statistical analysis and modelling of epidemics

    Looking at a number of examples from recent outbreaks such as Zika in the Americas, Ebola in West Africa or MERS-CoV in the Middle, I will discuss the challenges associated with the analysis of epidemic data as well as the role modelling can play in the management of these epidemics.

  • 6 mars 2017 11h, salle de réunion, bâtiment 210
    Séminaire annulé
  • 20 févrrier 2017 11h, salle de réunion, bâtiment 210
    Coralie Fritsch
    (Institut Elie Cartan Lorraine, Inria, équipe Tosca)
    Dynamique adaptative de populations bactériennes dans un bioréacteur

    Je présenterai une approche numérique pour déterminer la possibilité d'invasion de populations bactériennes mutantes dans un bioréacteur. Pour cela, j'introduirai tout d'abord un modèle stochastique individu-centré et un modèle déterministe EDP de croissance-fragmentation. Je présenterai le lien entre les fitness d'invasion de ces deux modèles, définies respectivement par la probabilité de survie de la population et la valeur propre principale d'un certain opérateur. Je donnerai ensuite des résultats sur les variations de ces fitness d'invasion en fonction d'un paramètre environnemental du modèle (agissant sur la croissance et la division des bactéries). Enfin, j'appliquerai ces résultats à un modèle de bioréacteur afin de décrire une méthode numérique pour l'étude de la dynamique adaptative de la population bactérienne.

  • Lundi 13 février 2017 11h, salle de réunion, bâtiment 210
    Vyacheslav Kungurtsev
    (Czech Technical University in Prague, Department of Computer Science)
    Nonlinear Optimization, Algorithms for Problems Satisfying Weak Geometric Assumptions, and Problems Arising in Big Data

    In this talk I will present an introduction to the foundations of mathematical programming and optimization theory and review my work on algorithms provably convergent under weak problem assumptions and parallel algorithms suitable for large scale big data machine learning applications. Nonlinear continuous optimization is a mature and active field shown to be effective in solving problems arising from a myriad of applications, including engineering and data science. How wide a class of problems a particular algorithm is capable of solving depends on the algorithm formulation being able to take advantage of problem structure and geometric properties. Algorithms that converge reliably and quickly for a broad range of constrained medium-scale problems have been developed recently, advancing the state of the art. The age of big data necessitates the use of parallel architectures in the computation of an algorithm''s procedural steps. I will present a framework for using problem structure to quickly and reliably solve a large scale nonconvex optimization problem as would arise in machine learning.

  • 30 janvier 2017 11h, salle de réunion, bâtiment 210
    Kevin Cohen
    (University of Colorado, School of Medicine, Biomedical Text Mining Group, Computational Bioscience Program, USA)
    Synthetic lethal screen reranking with natural language processing

    High-throughput assays are an experimental paradigm that has revolutionized biology in recent decades.  They are very powerful, but produce large numbers of false positives that impede the efficient analysis of experimental data.  This talk will discuss the use of natural language processing to deal with the false positive problem, focusing on a type of high-throughput assay called a synthetic lethal screen.

  • 16 Janvier 2017 11h, salle de réunion, bâtiment 210
    Etienne Birmelé
    (Paris Descartes, MAP5)
    Étude des perturbations des régulations géniques dans le cancer de la vessie

    Certains types de cancer de la vessie se comportent de façon très similaires à des cellules saines en train de proliférer ou de se différencier, laissant à penser que la tumeur utilise principalement le réseau de régulation préexistant. Le projet LIONS, en collaboration avec les universités d'Evry, Montpellier et York, ainsi qu'avec l'institut Curie, cherche à déterminer quels sont les facteurs de transcription (TF) clés de la tumorigénèse, c'est-à-dire dont une altération dans le mécanisme de régulation rend le comportement cellulaire pathologique.

    D'un point de vue statistique, cette notion, différente de celle d'expression différentielle, nécessite de 1) disposer d'un réseau de référence correspondant aux cellules saines 2) établir un score de dérégulation indiquant quels gènes ont un comportement anormal dans la tumeur 3) déterminer les jeux minimaux de TF expliquant ces comportement anormaux. L'exposé développera les pistes étudiées actuellement pour chacun de ces points.


  • 5 décembre 2016 11h, salle de réunion, bâtiment 210
    Michael Blum
    (Univ. J. Fourier & CNRS, Laboratoire TIMC-IMAG, Grenoble)
    Détection d'outliers en grande dimension: application à la génomique des populations

    Notre objectif est de détecter quelles sont les variables outliers dans des jeux de données de grande dimension. Les méthodes de détection d'outliers sont utilisées en génomique pour détecter quels sont les gènes qui permettent aux individus de s’adapter à leur environnement. Nous proposons une approche rapide basée sur l’analyse en composantes principales. Le principe est de considérer comme gènes candidats ceux qui sont excessivement corrélés avec les composantes principales. Pour ce faire, nous calculons pour chaque marqueur génétique un vecteur qui mesure l’association entre un marqueur génétique et les composantes principales. Nous utilisons ensuite la distance de Mahalanobis pour trouver quels sont les vecteurs atypiques. En utilisant un jeu de données humains comprenant un peu plus d’un millier d’individus et des centaines de milliers de marqueurs génétiques, nous montrons que cette approche permet de détecter des exemples d’adaptation biologique chez l’homme.

  • 21 novembre 11h, salle de réunion, bâtiment 210
    Olivier Martin
    (AgroParisTech-INRA, UMR 791 MOSAR)
    Modéliser la dynamique des phénotypes à l'échelle de la vie de l'animal : du système biologique au système d'élevage

    Le couplage de modèles dynamiques est illustré à travers un exemple appliqué aux performances productives et reproductives des vaches.Ce travail s'inscrit dans le cadre du projet européen PROLIFIC et aborde la problématique générale de la fertilité des troupeaux bovins laitiers.

    Un modèle des performances à l'échelle de la vie de la vache est d'abord brièvement présenté (GARUNS : Martin and Sauvant, 2010ab). Ce modèle est lui-même le produit d'un couplage d'un modèle théorique de la dynamique des priorités entre fonctions vitales et d'un modèle de partition de l'énergie. Dans le modèle GARUNS, il n'y a pas de régulation de la reproduction et les dates d'insemination associées à chaque cycle de reproduction sont contrôlées par des paramètres fixes. Ce modèle du système animal n'intègre donc pas de variabilité des performances de reproduction qui découle en particulier des anomalies de cyclicité et des échecs d'insémination.

    Un modèle du système reproducteur est ensuite présenté (RPM : Martin et al., 2012). Ce modèle repose sur un cadre conceptuel générique de représentation du fonctionnement du système reproducteur. Dans ce modèle, des unités biologiques, comme l'ovaire, l'uterus ou l'embryon, intéragissent par des signaux hormonaux qui régulent leur dynamique de fonctionnement. Selon leur état de compétence, ces unités sont susceptibles de produire un signal ou de réagir à un signal en changeant d'état de compétence. Chaque unité biologique est ainsi décrite à travers des cycles d'états de compétence dont la dynamique est régulée par la signalisation hormonale. La dynamique d'ensemble du système reproducteur émerge de la dynamique des intéractions entre les unités biologiques. Dans le cadre du projet PROLIFIC, deux modèles ont été développés sur la base de ce cadre conceptuel: une version dite "heavy", conçue pour intégrer les connaissances sur les mécanismes physiologiques sous-jacents et une version dite "lite", conçue pour le couplage avec le modèle GARUNS, permettant de simuler la variabilité des cycles de reproduction et opérationnelle pour des simulations rapides.

    Un modèle du système d'élevage est brièvement décrit (BSM : Friggens et al., unpub.). A l'échelle du troupeau, ce modèle contrôle les individus vaches représentées explicitement par des versions du couple GARUNS-RPMlite. Ce modèle simule les pratiques d'élevage en matière d'alimentation, de détection d'oestrus, d'insémination, de réforme et de sélection génétique. En pratique, pour le couplage entre GARUNS et RPMlite à l'échelle d'un individu, BSM fournit le temps d'insémination au modèle GARUNS, décidé sur la base de la dynamique d'estrus produite par RPMlite et de la stratégie de reproduction fixée.

    Le couplage des trois modèles est ensuite abordé. Cette exemple correspond au couplage de modèles basés sur des concepts similaires (priorié vs états de compétence), avec des pas de temps différents (d vs h) et dans un contexte du couplage d'un modèle avec un modèle pré-existant. Le modèle GARUNS produit une dynamique de performances productives, en particulier le bilan énergétique et le niveau de turnover du métabolisme énergétique, qui régule RPMlite. RPMlite produit une signalisation hormonale (potentiellement lue et interprétée par BSM) et fournit les temps de conception au modèle GARUNS. Le modèle GARUNS enclenche alors un cycle de reproduction enchaînant une gestation et une lactation (ou éventuellement un avortement qui interromp le cycle), ce qui modifie la dynamique du métabolisme énergétique. Le couplage repose ainsi sur une boucle entre les modèles GARUNS et RPMlite.

    Des résultats de simulations sont enfin présentés pour illustrer la variabilité des performances de reproduction produites par le couplage GARUNS+RPMlite.

  • 7 novembre 2016 11h, salle de réunion, bâtiment 210
    Kevin Cohen
    (University of Colorado, School of Medicine, Biomedical Text Mining Group)


  • 17 octobre 2016 11h, salle de réunion, bâtiment 210
    Florence Débarre
    (Collège de France, CIRB CNRS UMR 7241)
    Evolution in spatially heterogeneous environments

    Understanding the links between the diversity of habitats and biodiversity is a core topic in Ecology, Evolution and Conservation Biology; mathematical and computational models can help provide qualitative answers to this question. During my talk, I will present some ecological (short-term) and evolutionary (long-term) consequences of spatial structuring and environmental heterogeneities. I will start with the example of resistance to treatments, and will show how spatial heterogeneities can help limit the spread of resistance. Then I will move on to a more ecological model and will present results on the evolution of specialist and generalist strategies in a spatially heterogeneous environment. 

  • 26 septembre 11h, salle de réunion, bâtiment 210
    Tabea Rebafka
    (UPMC, LPMA)
    Estimation et clustering dans un modèle de processus de Poisson semiparamétrique à blocs stochastiques pour des réseaux d’interaction longitudinaux

    In this work, we introduce a Poisson process stochastic block model for recurrent interaction events, where each individual belongs to a latent group and interactions between two individuals follow a conditional inhomogeneous Poisson process whose intensity is driven by the individuals’ latent groups. The model is semiparametric as the intensities per group pair are modeled in a nonparametric way. First an identifiability result on the weights of the latent groups and the nonparametric intensities is established. Then we propose an estimation procedure, relying on a semi parametric version of a variational expectation-maximization algorithm. Two different versions of the method are proposed, using either histogram-type (with an adaptive choice of the partition size) or kernel intensity estimators. We also propose an integrated classification likelihood criterion to select the number of latent groups. Asymptotic consistency results are then explored, both for the estimators of the cumulative intensities per group pair and for the kernel procedures that estimate the intensities per group pair. Finally, we carry out synthetic experiments and analyse several real datasets to illustrate the strengths and weaknesses of our approach.
    This is joint work with Catherine Matias et Fanny Villers.

  • 12 Septembre 2016 11h, salle de réunion, bâtiment 210
    Ludovic Cottret
    Analyse de la robustesse phénotypique d'une bactérie phytopathogène par intégration du réseau métabolique et du réseau de régulation

    Dans l'analyse du réseau métabolique, la robustesse d'un phénotype est communément définie comme la capacité du métabolisme à maintenir ce phénotype malgré des perturbations génétiques ou environnementales. Plusieurs éléments peuvent être à l'origine de la robustesse phénotypique : la versatilité, i.e. la capacité du système à fonctionner à partir de différents nutriments; la redondance fonctionnelle comprenant la redondance génétique et les voies métaboliques alternatives; et enfin le contrôle du système qui intervient pour capter et compenser efficacement les perturbations.

    Nous nous sommes intéressés à l'analyse de la robustesse phénotypique chez une bactérie phytopathogène, Ralstonia solanacearum. Plus particulièrement, nous avons tenté de prédire l'influence du réseau de régulation de la virulence sur la robustesse phénotypique. Pour cela, nous avons d'abord effectué une reconstruction de haute qualité du réseau métabolique et du réseau de régulation de la virulence grâce à une suite d'outils automatiques et semi automatiques. Ensuite, nous avons développé une librairie Java, appelée FlexFlux, destinée à l'analyse de balance des flux (FBA). L'originalité de FlexFlux est d'intégrer de façon native le réseau de régulation et le réseau de métabolique dans chacune de ces fonctions. Nous verrons enfin comment nous avons utilisé FlexFlux pour mesurer la robustesse de plusieurs phénotypes (liés ou non à la virulence) et l'influence du réseau de régulation de la virulence sur celle-ci.

  • 12 septembre 2016 10h, salle de réunion, bâtiment 210
    Catherine Larédo
    (INRA, MaIAGE)
    Estimation paramétrique pour des équations différentielles stochastiques à effets mixtes à partir de données longitudinales discrétisées.

    Les équations différentielles stochastiques fournissent un cadre naturel pour modéliser la variabilité intrinsèque inhérente à de nombreux processus physiques à temps continu.Quand ces processus sont observés sur plusieurs individus ou unités expérimentales, les équations différentielles stochastiques à effets mixtes (SDEME) permettent de quantifier simultanément la variabilité intrinsèque (variabilité intra) et la variabilité entre individus (variabilité inter). Ces dynamiques modélisées par des processus à temps continu sont généralement observées avec un certain pas de temps (données discrétisées). Du fait de la difficulté à étudier la vraisemblance, faire l’inférence à partir d’observations discrétisées de SDEME est un problème ouvert d’un point de vue théorique pour des modèles généraux de SDEME. Nous étudions ici des cas pour lesquels on dispose d’approximations explicites de la vraisemblance.

    Travail en collaboration avec Maud Delattre (AgroParisTech, France) et Valentine Genon-Catalot
    (UMR CNRS 8145, Laboratoire MAP5, Université Paris Descartes, Sorbonne Paris Cité, France).

  • 20 juin 2016 11h, salle de réunion, bâtiment 210
    Julien Chiquet
    (AgroParisTech-INRA, UMR 518 MIA)
    Fast tree inference with weighted fusion penalties

    Given a data set with many features observed in a large number of conditions, it is desirable to fuse and aggregate conditions which are similar to ease the interpretation and extract the main characteristics of the data. This paper presents a multidimensional fusion penalty framework to address this question when the number of conditions is large. If the fusion penalty is encoded by an ℓq-norm, we prove for uniform weights that the path of solutions is a tree which is suitable for interpretability. For the ℓ1 and ℓ-norms, the path is piecewise linear and we derive a homotopy algorithm to recover exactly the whole tree structure. For weighted ℓ1-fusion penalties, we demonstrate that distance-decreasing weights lead to balanced tree structures. For a subclass of these weights that we call “exponentially adaptive”, we derive an O(n log(n)) homotopy algorithm and we prove an asymptotic oracle property. This guarantees that we recover the underlying structure of the data efficiently both from a statistical and a computational point of view. We provide a fast implementation of the homotopy algorithm for the single feature case, as well as an efficient embedded cross-validation procedure that takes advantage of the tree structure of the path of solutions. Our proposal outperforms its competing procedures on simulations both in terms of timings and prediction accuracy. As an example we consider phenotypic data: given one or several traits, we reconstruct a balanced tree structure and assess its agreement with the known taxonomy.

  • 23 mai 2016 11h, salle de réunion, bâtiment 210
  • 18 avril 2016 11h, salle de réunion, bâtiment 210
  • 4 avril 2016 11h, salle de réunion, bâtiment 210
    Argyris Kalogeratos
    (ENS Cachan, CMLA)
    Algorithmes efficaces pour contenir des processus épidémiques sur réseaux à l'aide de ressources d'efficacité limitée / Suppressing epidemics on arbitrary networks using treatment resources of limited efficiency

    Résumé : Dans de nombreuses situations réelles, il est essentiel de supprimer un processus de diffusion indésirable (virus, information, comportements, etc.) en temps réel. Cette exposé proposera des méthodes pour l'allocation dynamique de ressources pour des épidémies de type SIS (en temps continu) à l'aide d'un budget de ressources limité à disposition des autorités.
    Dans cet exposé, nous montrerons que la structure macroscopique et microscopique du réseau joue un rôle clé dans l'explication de ces phénomènes de propagation et deux stratégies seront présentées : a) une approche simple et focalisée sur l'évolution court-terme du processus, et b) une approche plus sophistiquée qui utilise un ordre de priorité (précalculée avant l'épidémie) spécifiant le déroulement de la stratégie de guérison.

    Abstract: In many real-life situations, it is critical to dynamically suppress or remove an undesired diffusion process (viruses, information, behaviors, etc.). The talk will present a framework for Dynamic Resource Allocation (DRA) assuming a continuous-time SIS epidemic model, and that a budget of treatment resources of limited efficiency are at the disposal of authorities.
    Special emphasis will be given on the macroscopic and microscopic (or local) properties of the network structure for the problem and two strategies will be presented that fall in this framework: a) a simple yet effective greedy approach, and b) a more sophisticated one that uses a precomputed priority plan of how the healing strategy should proceed on a specific network.

  • 21 mars 2016 11h, salle de réunion, bâtiment 210
    Avner Bar-Hen
    (Université Paris Descartes - CNRS, Laboratoire MAP5, UMR 8145)
    Détection de cluster spatiale en utilisant la distance au plus proche voisin

    Afin de caractériser l'impact des processus écologiques sur la distribution spatiale des espèces d'arbres, nous présentons une méthode pour détecter des clusters de points. Notre méthode est basée sur une transformation itérative de la distance entre les points. Notre approche a l'avantage d'être indépendante d'une forme arbitraire de cluster et permet un ajustement pour les covariables. La comparaison de la distance observée entre points avec un processus de référence conduit à une classification hiérarchique des clusters. Le choix du nombre optimal de clusters est effectuée en utilisant la statistique de Gap. Notre procédure est illustrée sur une répartition spatiale des espèces de la Dicorynia en Guyane française.

  • 7 mars 2016 11h, salle de réunion, bâtiment 210
    Marie Suez
    Diversité génétique des populations de cerfs élaphe (Cervus elaphus) en Île-de-France, en liaison avec l'anthropisation.

    Au cours des 60 dernières années le développement des infrastructures de transports (Autoroutes, Lignes Grandes Vitesse, Nationales doubles voies) a fragmenté l’habitat des cerfs élaphe (Cervus elaphus). D’après les observations naturalistes, cette anthropisation a causé la fragmentation de deux populations géographiques existantes en sept dans la partie Sud et d’une en trois dans la partie Nord.

    Afin d’évaluer l’impact de ces infrastructures sur la structuration génétique de ces populations de cerfs, nous avons échantillonné chacune de ces populations grâce à la coopération de trois fédérations de chasse. Le cours laps de temps écoulé depuis la construction de ces infrastructures nous a conduits à choisir comme marqueurs moléculaires les microsatellites, efficaces dans l’inférence d’évènements récents. Les nouvelles techniques de séquençages (NGS) permettent d’obtenir d’importants jeux de données rapidement, nous avons choisi d’utiliser ces méthodes de séquençage pour obtenir nos données. Aucun logiciel ne permettant de traiter les données de séquençage haut débit des microsatellites pour des espèces dont le génome n’est pas complètement séquencé, nous avons alors réalisé un programme, MicNeSs qui permet de génotyper rapidement et objectivement (sans intervention humaine) un grand nombre d’individus et de locus. Nous avons utilisé MicNeSs pour génotyper 345 individus pour 17 locus microsatellites. A partir de ce jeu de données, nous avons montré l’existence d’une structuration génétique des populations de cerfs élaphe en Île-de-France en liaison avec les infrastructures routières et ferroviaires. Nous avons mis en évidence un effet fort des jumelages autoroutes/LGV et une efficacité différentielle des passages grande faune de 2ème et 3ème génération sur les populations de cerfs élaphe en Île-de-France.

  • 22 février 2016 11h, salle de réunion, bâtiment 210
    Youssef Diouane
    (ISAE - SupAéro)
    Globally convergent evolution strategies with application to an Earth imaging problem in geophysics.

    In recent years, there has been significant and growing interest in Derivative-Free Optimization (DFO). This field can be divided into two categories: deterministic and stochastic. Despite addressing the same problem domain, only few interactions between the two DFO categories were established in the existing literature. In this thesis, we attempt to bridge this gap by showing how ideas from deterministic DFO can improve the efficiency and the rigorousness of one of the most successful class of stochastic algorithms, known as Evolution Strategies (ES’s). We propose to equip a class of ES’s with known techniques from deterministic DFO. The modified ES’s achieve rigorously a form of global convergence under reasonable assumptions. By global convergence, we mean convergence to first-order stationary points independently of the starting point. The modified ES’s are extended to handle general constrained optimization problems. Furthermore, we show how to significantly improve the numerical performance of ES’s by incorporating a search step at the beginning of each iteration. In this step, we build a quadratic model using the points where the objective function has been previously evaluated. Motivated by the recent growth of high performance computing resources and the parallel nature of ES’s, an application of our modified ES’s to Earth imaging geophysics problem is proposed. The obtained results provide a great improvement to known solutions of this problem.

  • 18 février 2016 (attention, jour et heure exceptionnels) 11h30, salle de réunion, bâtiment 210
    Stefanie Widder
    (Division of Computational Systems Biology, Univ. of Vienna)
    (Self)-Organization of the human microbiota in health and disease

    Central to understanding the behavior of microbial communities (MC) are microbial interactions and their organization. In my talk I will give two examples where community-wide interactions lead to complex behavior of the MC. Pathogenic microbiota cause chronic infections in the airways of cystic fibrosis patients. We show that organization into two competing communities and shifts in their interactions, as well as in their metabolic core processes are associated to a shift in the severity of the disease. Using network analysis and the keystone concept, we propose functional and taxonomic keystones as targets for novel drug development. The human gut microbiome is characterized by seemingly opposing trends: stability of a (functional) core community and pronounced variability throughout lifetime and between subjects. We explore self-organization as potential mechanism underlying these evidences. We use a modeling approach to analyze the time behavior of gut microbiota and find that the community stratifies into three sub-groups linked to lifetime and abundance. In time the gut community exhibits pink noise and scale-invariance, hallmarks for self-organization.

  • 8 février 2016 11h, salle de réunion, bâtiment 210
    Nicolas BOUSQUET
    (EDF, R&D)
    Estimer des indicateurs de risque par simulation de modèles complexes "boîte noire" en tirant parti de contraintes de forme (monotonie, convexité...), avec applications en aide à la décision

    Les modèles boîte noire sont de plus nombreux dans les études d'impact et de gestion des ressources (industrielles, environnementales, etc.). Souvent déterministes, ils sont utilisés pour mener des simulations à partir d'entrées rendues stochastiques, car considérées incertaines par essence ou mal connues. Des indicateurs classiques d'aide à la décision en sortie des modèles sont des probabilités de dépassement, ou des quantiles. Ne pouvant entrer dans le modèle par des méthodes intrusives, de nombreuses techniques d'estimation par réduction de variance (par rapport à des approches de Monte Carlo classiques) de ces indicateurs sont maintenant disponibles. Cependant, elles nécessitent souvent des hypothèses de régularité qui ne peuvent être vérifiées (et sont fausses lorsque le phénomène modélisé subit des effets falaises de perte de continuité), et ont un coût de simulation potentiellement très élevé, qui interdit de les utiliser dans de nombreux cas concrets. C'est pourquoi des méthodes ont été très récemment développées pour pallier ces difficultés en tirant parti des contraintes (ou propriétés) de forme s'exerçant sur les sorties de tels modèles. Un cas important est celui de la monotonie. La convexité est aussi évoquée. L'exposé présentera la construction de telles méthodes, détaillera les outils théoriques nécessaires pour étudier le bien-fondé de l'estimation, et montrera des résultats théoriques et appliqués sur des cas industriels.


  • 25 janvier 2016 11h, salle de réunion, bâtiment 210
    Sophie DONNET
    (AgroParisTech-INRA, UMR 518 MIA)
    Bayesian estimation for multidimensional Hawkes processes

    Multidimensional Hawkes processes are used to modelise multivariate neuron spike data. The estimation of intensity functions allows to understand the neuronal interaction structure. In a non-parametric frequentist framework, LASSO estimators have been proposed in the literature. In this work, we propose a Bayesian non-parametric estimation. We sample the posterior distribution through a Sequential Monte Carlo algorithm, well adapted to point processes.

  • 11 janvier 2016 11h, salle de réunion, bâtiment 210
    Jean-Benoist LEGER
    (INRA, MaIAGE)
    Modèle de graphes à espace latent continu de type SBM

    De nombreuses données entre des éléments peuvent être présentés sous
    forme de réseaux. Ces données peuvent être binaires, comme une
    présence/absence de relation, quantifiées, continues, où être valuées
    sur d'autres espaces. Pour construire un modèle probabiliste adapté à
    ces données des hypothèses sont nécessaires. Des hypothèses
    d'appartenance des nœuds à des classes latentes et une indépendance de
    la loi sur les lien conditionnellement à la loi sur les nœuds conduit à
    des modèles de type SBM (Stochastic Block Models). Il est possible de
    relacher la contrainte sur l'espace latent à valeurs discrètes pour se
    placer dans un espace latent à valeurs continues, ce qui conduit à des
    modèles de type MMSBM. (Mixed Membership SBM).

    Il est également possible de disposer d'information extérieures pouvant
    être introduites sous forme de covariables.

    Cette présentation introduira les modèles de graphes à classes latentes
    de type SBM, avec ou sans covariables pour diverses lois de
    probabilités sur les liens. Elle présentera l'extension à la classe
    latente continue, et introduira une méthode d'estimation basée sur le


  • 15 décembre 2015 11h, salle de réunion, bâtiment 210
    Edward IONIDES
    (University of Michigan, Department of Statistics )
    Inference for dynamic and latent variable models via iterated, perturbed Bayes maps

    Iterated filtering algorithms are stochastic optimization procedures for latent variable models that recursively combine parameter perturbations with latent variable reconstruction. Previously, theoretical support for these algorithms has been based on the use of conditional moments of perturbed parameters to approximate derivatives of the log likelihood function. We introduce a new theoretical approach based on the convergence of an iterated Bayes map. A new algorithm supported by this theory displays substantial numerical improvement on the computational challenge of inferring parameters of a partially observed Markov process.

  • 30 novembre 11h, salle de réunion, bâtiment 210
    Pierre Larmande
    (IRD, South Green, Montpellier)
    Enabling knowledge management in the Agronomic Domain

    The drastic growth in data in the recent years, within the Agronomic sciences has brought the concept of knowledge management to the forefront. Some of the factors that contribute to this change include a) conducting high-throughput experiments have become affordable, the time spent in generating data through these experiments are minuscule when compared to its integration and analysis; b) publishing data over the web is fairly trivial and c) multiple databases exist for each type of data (i.e. ‘omics’ data) with a possible overlap or slight variation in its coverage [1, 2]. In most cases these sources remain autonomous and disconnected. Hence, efficiently managed data and the underlying knowledge in principle will make data analysis straightforward aiding in more efficient decision making. We are involved in developing methods to aid data integration and knowledge management within the domain of Agronomic sciences to improve information accessibility and interoperability. To this end, we address the challenge by pursuing several complementary research directions towards: distributed, heterogeneous data integration.

    Goble, C. and Stevens, R. (2008) State of the nation in data integration for bioinformatics. Journal of Biomedical Informatics, 41(5), 687-693.
    Antezana, E., et al. (2009) Biological knowledge management: the emerging role of the Semantic Web technologies.Brief. in Bioinformatics,10(4), 392-407.

  • 16 novembre 11h, salle de réunion, bâtiment 210
    Fabrice Rossi
    (équipe SAMM, Université Paris 1 Panthéon-Sorbonne)
    Analyse exploratoire de graphes dynamiques

    Nous étudions dans ce travail des données d'interaction, constituées de triplets source, destination, instant. Ce type de données est assez fréquent dans les relations intermediées informatiquement, comme par exemple les emails (expéditeur, récepteur, horodatage de la connexion au serveur STMP), les appels téléphoniques, les SMS, etc. On peut les voir comme un graphe dynamique : les sources et destinations forment les sommets du graphe, alors que les arcs sont les ntraces des interactions. Une fonction de présence indique si un arc est actif à un instant donné.

    Nous proposons une méthode d'analyse exploratoire de ce type de données par tri-classification : nous construisons des classes de sources, des classes de destinations et des intervalles de temps qui garantissent une forme de stationnarité locale des interactions à l'intersection de trois classes. La méthode proposée ne demande aucun paramètre utilisateur et donne des résultats très satisfaisants sur des données réelles volumineuses.

  • 2 novembre 2015 11h, salle de réunion, bâtiment 210
    Isabelle Bloch
    (UMR 5141 LTCI, Telecom ParisTech - CNRS)
    Modèles symboliques pour la reconnaissance de structures dans les images et l'interprétation de scènes

    Nous présenterons l'intérêt de la modélisation de connaissances pour guider l'inteprétation d'images, en insistant sur les connaissances structurelles telles que des relations spatiales.
    Ces connaissances peuvent être modélisées sous forme d'ontologies, de graphes, ou encore de réseaux de contraintes, associés à des représentations floues de relations spatiales.
    Nous illustrerons quelques méthodes de reconnaissance d'objets et de scènes, guidées par ces modèles, en particulier en imagerie cérébrale.

  • 5 octobre 11h, salle de réunion, bâtiment 210
    Christopher Quince
    (Warwick Medical School, University of Warwick)
    Probabilistic Modelling of Microbial Community Structure

    I will give an overview of methods that use generative probabilistic models to describe microbial community structure as determined through next generation sequencing. I will discuss the concept that the human gut microbiota is derived from a finite number of discrete types or enterotypes. I will show that Dirichlet-multinomial mixtures allow a more nuanced description of enterotypes as diffuse peaks in community configurations. I will then extend the idea of Dirichlet priors for community configurations to hierarchical Dirichlet processes which allow ‘unseen’ species to be modelled. I will use these both as a means for fitting the ecological model, Hubbell’s Unified Neutral Theory of Biodiversity, and for avoiding rarefaction in microbial community diversity estimation.

  • 2 octobre (attention jour et heure exceptionnels) 10h45, salle de réunion, bâtiment 210
    Philipp W. Messer
    (Department of Biological Statistics and Computational Biology, Cornell University)
    Understanding the rapid evolution of pesticide and drug resistance

    We typically think of evolution as a slow and gradual process, driven by the accumulation of small changes over millions of years. While it is well known that evolution can be much faster when humans impose artificial selection, for instance during animal breeding, such rapid evolutionary responses are generally thought to rely on the availability of standing genetic variation. However, recent studies of the evolution of pesticide and drug resistance revealed that adaptation can be rapid despite requiring complex alleles that are not initially present in a population. Furthermore, it appears that rapid adaptation does not always follow the classic selective sweep model, but often produces so-called soft selective sweeps, where multiple adaptive alleles of independent mutational origin sweep through the population at the same time. In my talk, I will show how the emerging field of population genomics can help us uncover the mechanisms that underlie these rapid evolutionary responses and explain the frequent occurrence of soft selective sweeps. I will also discuss the challenges this poses for computational approaches aimed at identifying adaptive loci, as well as for our theoretical understanding of adaptive dynamics, and present new strategies for tackling these problems.

  • 21 septembre 11h, salle de réunion, bâtiment 210
    Jean-Michel Marin
    (UMR CNRS 5149, Institut de Mathématiques et Modélisation, Université de Montpellier)
    Méthodes d’inférence de l’histoire démographique de populations structurées à partir de données de polymorphisme génétique

    Un des principaux développements de la modélisation en génétique des populations est l’utilisation des méthodes dites coalescentes ou généalogiques. Le but est de reconstruire des éléments de l'histoire de populations. Pour examiner la structure des données génétiques, ces méthodes utilisent l'arbre généalogique des gènes. La formulation d’un modèle est contrainte par un scénario évolutif qui imite la réalité historique et démographique de l'espèce. Un tel scénario résume l’histoire évolutive des populations par une suite d'événements démographiques depuis une population ancestrale. Ces événements sont constitués de divergences, des migrations et des variations de tailles entre les populations. Les jeux de données que l’on considère sont constitués d'informations génétiques issues de plusieurs locus. Les modèles que nous étudions sont sous l'hypothèse de neutralité qui implique l'absence d'effet de sélection. Avec ces modèles, nous pouvons inférer de quelle sources ancestrale provient une population récente, décrire des voies d’invasion de populations... Il faut alors utiliser une procédure de choix de modèle, chaque hypothèse correspond à un scénario démographique. La plupart du temps, on ne sait pas calculer la vraisemblance de données de polymorphisme. Dans cet exposé, nous présenterons les défis statistiques véhiculés par ces modèles sans vraisemblance explicite. Puis, nous montrerons comment certaines méthodes bayésiennes approchées permettent d’y répondre.

  • 7 septembre 2015 11h, salle de réunion, bâtiment 210
    Wolfram Liebermeister
    (Institut für Biochemie, Charité - Universitätsmedizin Berlin)
    Enzyme economy in metabolic networks

    It often assumed - sometimes tacitly - that cells use their enzyme resources economically. This hypothesis can be studied by analysing enzyme requirements in kinetic models. I discuss models in which enzyme levels must realize a given flux distribution. The search for cost-optimal enzyme and metabolite levels can be formulated as a convex optimization problem. The enzyme profiles are shaped by opposing tendencies: a need for sufficient saturation with substrate, and an avoidance of small thermodynamic forces. The resulting prediction of metabolite and enzyme levels can complement constraint-based approaches for flux prediction, such as Resource Balance Analysis.

  • 1er juin 2015 11h, salle de réunion, bâtiment 210
    Marion Leclerc
    (INRA Micalis, Equipe PhylHom)



  • 18 mai 2015 11h, salle de réunion, bâtiment 210
    Khashayar Pakdaman
    (U. Paris Diderot - CNRS, UMR 7592 Institut Jacques Monod, Biologie computationnelle et biomathématiques)
    Noise variability and synchronization
    Motivated by experiemental studies on the influence of noise on neuronal behavior, this presentation will review our work on the impact of stochastic variability on neuronal dynamics and synchronization of neuronal assemblies.


Main menu 2

by Dr. Radut