Janvier - Février - Mars - Avril - Mai - Juin - Octobre - Novembre - Décembre


Janvier : Jeudi 13 janvier 2011 de 14h00-15h00

Thème « Apprentissage statistique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Edouard Pauwels (CBIO, 06pauwel@ensmp.fr)

Titre: Analyse statistique de liens entre les espaces moléculaires et phénotypiques

Résumé:Dans le cadre du développement de médicaments, il est nécessaire de pouvoir prévoir et comprendre l'activité d'une molécule sur l'organisme. Les méthodes d'analyse de données peuvent apporter une compréhension statistique et être utilisées dans un cadre de prédiction. L'interprétation des résultats de ces méthodes devient toutefois hasardeuse en grandes dimensions. L'introduction d'une contrainte forçant la sparsité dans l'analyse, permet d'améliorer la qualité de l'interprétation ainsi que les performances de prédiction de la méthode. Je présenterai dans un premier temps une méthode récente d'analyse de données basée sur la décomposition pénalisée de matrices de covariance. Les performances de prédiction de la méthode seront comparées à celles d'autres méthodes d'apprentissage (SVM, Nearest Neighboor) dans le cadre de deux études biologiques : Interactions protéines-ligands et effet secondaires de médicaments.

 


Février : Jeudi 10 février 2011 de 14h00-15h00

Thème « Traitement du signal » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-224.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Ram Sommaraju (CAS et INRIA, a.somaraju@gmail.com).

Titre: Degrees of Freedom of a Communication Channel

Résumé: A fundamental problem in any communication system is, given a communication channel between a transmitter and a receiver, can the channel be decomposed into independent sub-channels ? As an initial example to motivate this question, we look at the classical problem of evaluating the (Shannon) capacity of a band-limited channel. This evaluation uses the singular value decomposition theorem of linear operators defined on Hilbert spaces.
We then examine how one can model general communication channels using (linear) compact operators between Banach spaces and ask the question: is it possible to find "singular vectors" and "singular values" which can be used to decompose the communication channel into sub-channels. We provide a possible solution to the problem of decomposing such a communication channel and leave the audience with some open questions in both classical and quantum information theory.

 


Mars : Jeudi 10 mars 2011 de 14h00-15h00

Thème « Cryptographie » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Fabien Coelho (CRI, fabien.coelho@mines-paristech.fr).

Titre: Fonctions cryptographiques de preuve d'effort

Résumé: Les fonctions cryptographiques de preuve d'effort ont été introduites en 1993 par Dwork et Naor. Elles sont une mesure économique de régulation de l'accès à un service, en permettant à un serveur de requérir de la part d'un client qui lui demande un service un calcul long (timbre virtuel) pour prouver son intérêt, la vérification du calcul devant être rapide du côté du serveur.Un exemple typique d'un tel système est "hashcash" qui a été proposé comme élément de régulation des spams. Il s'agit de concevoir des fonctions non optimisables (au sens informatique du terme) qui requiert un temps de calcul important, par exemple une recherche de solution dans un ensemble, la solution trouvée étant rapide à vérifier. Nous présenterons les deux types de fonctions de preuve d'effort, "challenge-response" interactives et "solution-verification" sans interaction.
Nous introduirons deux critères d'optimalité pour ces fonctions, les appliquerons aux fonctions proposées dans la littérature, puis discuterons de la borne et de la variance du temps de calcul pour le client.Nous discuterons ensuite d'une classe de fonctions de preuve d'effort, proposée par Martín Abadi (actuellement au Collège de France) qui vise à limiter les performances en introduisant des accès mémoire dans le calcul, de manière à dépendre des performances des accès mémoire, qui varient moins d'une machine à l'autre que les performances des processeurs.
Nous présenterons enfin deux nouvelles fonctions de type "solution-vérification", l'une optimal et limité par des accès mémoire, la seconde limitée par les calculs et semi-optimale mais de temps de calcul borné et de variance très faible.


Avril : Jeudi 14 avril 2011 de 14h00-16h00

Thème « Apprentissage » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-224.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur: Yufei Han  (CAOR, Yufei.Han@mines-paristech.fr).

Titre: Data mining of Network-level Road Traffic States based on Non-Negative Matrix Factorization.

Résumé:In this presentation, we will introduce our work on modeling and describing network-level road traffic states. Based on the proposed mechanisms, we can evaluate network-level traffic states of large-scale traffic network directly. Typically, network-level measurements of road traffic states with respect to a large traffic network are represented in the form of high-dimensional vectors, of which the dimensionality is proportional to the amount of roads in the network. Therefore, it results in difficulty in data mining tasks of the network-level traffic states. To attack this issue, we propose to use non-negative matrix factorization to project the high-dimensional network-level traffic state to low-dimensional manifolds, which is much easier to handle. Thanks to representative power of non-negative matrix factorization method, we can keep as much network-level traffic information as possible, while relax the curse of dimensionality. Based on the derived low-dimensional manifolds, we perform clustering of the network-level road traffic states, in order to find out the typical configurations of network-level traffic states. This provides prior knowledge of evolution of traffic flows in a large-scale traffic network. Following this idea, we further propose to predict network-level road traffic states directly by performing neural network based prediction on the derived low-dimensional representation of network-level traffic states, in stead of the original high-dimensional road traffic state measurements. This part of work is still under way.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Guillaume Thibault (CMM, guillaume.thibault@mines-paristech.fr).

Titre: Imagerie multi paramétrique pour la découverte automatique de molécules protéiques agissant sur la division cellulaire en oncologie.

Résumé: Au cours de ces dernières années, des stratégies de criblage de molécules basées sur la recherche d'un effet pharmacologique au niveau cellulaire, plutôt que moléculaire, ont pris un nouvel essor grâce au concept de criblage phénotypique à haut contenu (HCS). Ce type de criblage permet de sélectionner directement des molécules capables de pénétrer les cellules et d'induire un changement phénotypique cellulaire d'intérêt. Il s'appuie sur l'utilisation combinée : Du marquage de protéines spécifiques présentes dans les cellules (GFP ou anticorps fluorescents) ; De l'imagerie microscopique automatisée ; De l'analyse d'images. L'analyse de changements phénotypiques complexes, combinant plusieurs marqueurs, plusieurs paramètres calculés à partir de ces différents marqueurs et plusieurs conditions de traitement, offre la possibilité de générer un phénotype et/ou des profils phénotypiques caractéristiques de l'effet pharmacologique d'une molécule donnée. La comparaison de profils phénotypiques peut alors permettre de sélectionner des molécules au mécanisme d'action original et/ou agissant sur des cibles innovantes. Pour être performants, les criblages phénotypiques nécessitent la mise en place de solutions technologiques adaptées à la détection, la quantification et l'analyse des changements observés.

L'objectif du projet RAMIS est de développer une stratégie innovante de criblage basée sur l'imagerie haute résolution pour la caractérisation phénotypique de nouvelles molécules et de nouvelles cibles interférant avec la division cellulaire de cellules cancéreuses humaines, en particulier avec la mitose. Le projet comprend deux axes bien distincts mais complémentaires : La constitution d'une base de données d'images à haut contenu d'information représentative de phénotypes induits par des traitements de référence (molécules, ARN interférent). Les images sont acquises avec une plate-forme de microscopie à fluorescence automatisée, à partir de cellules multi-marquées (ADN, microtubules, centrosomes, autre protéine). Dans un premier temps, ces images sont annotées manuellement par des experts afin de catégoriser chaque cellule et de formaliser la connaissance par apprentissage ; Le développement d'un logiciel, appelé RAMIS (Rock, Module d'Analyse et Interface pour le Screening), capable d'analyser ces images au niveau des cellules individuelles et de la population de cellules, et capable de générer et comparer des profils phénotypiques caractéristiques des traitements appliqués. Ce logiciel basé sur le dialogue homme-machine est organisé autour : (a) d'un moteur de consensus formalisant les connaissances de biologistes experts,(b) de bases de phénotypes / profils phénotypiques, (c) d'un moteur de recherche et de comparaison pour permettre l'identification et la caractérisation de traitements originaux.


Mai : Jeudi 12 mai 2011 de 14h00-16h00

Thème « Contrôle et estimation » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-213.

2. Descriptif :

PREMIER EXPOSÉ: 14h00-15h00

Orateur:Lghani Menhour (CAOR, lmenhour@ensmp.fr)

Titre: Commande, estimation et diagnostic en dynamique des véhicules.

Résumé: La première partie de l'exposé est consacrée à la présentation d'une approche pour diagnostiquer les situations critiques provoquées par l'atteinte des limites physiques du véhicule. Cette application est connue sous le nom "diagnostic de rupture d'un itinéraire", elle consiste à identifier la vitesse limite de franchissement d'une infrastructure. Cette vitesse est mise en évidence par un fonctionnement du véhicule dans les zones non-linéaires. L'exploration vers la dynamique limite requiert un modèle du véhicule réaliste. La première phase de cette approche, est consacrée à la conception de lois de commande pour extrapoler le comportement du modèle du véhicule.  La deuxième phase de cette approche est l'estimation du dévers de la chaussée. Cette estimation est réalisée par un observateur à entrée inconnue, ceci dans le but de rendre la trajectoire plus réaliste et de tenir compte des effets du dévers sur le comportement dynamique du véhicule. La troisième phase de cette approche, présente l'extrapolation du comportement du véhicule, observé lors d'un passage en sollicitations modérées, vers une perte de contrôle virtuelle, cette extrapolation est réalisée en utilisant plusieurs instances du modèle dynamique exécutées avec des vitesses incrémentées, ces modèles sont contrôlés par des lois de commande et couplés à l'observateur du dévers. La dernière phase est consacrée à l'étude et à l'analyse des sorties des modèles extrapolés, en utilisant des critères de détection de la dynamique limite du véhicule. Une comparaison avec des données réelles est réalisée en utilisant les données expérimentales du véhicule prototype Peugeot 307 de l'IFSTTAR (ex INRETS/LCPC).
La deuxième partie de cet exposé est réservée à la présentation des résultats préliminaires obtenus dans le cadre du projet ANR-INOVE. Ces travaux portent sur la commande non linéaire couplée (longitudinale et latérale). La stratégie de commande proposée ici contrôle à la fois les mouvements longitudinal et latéral du véhicule via respectivement le couple de traction/freinage à la roue et l'angle de braquage. Cette commande utilise à la fois la linéarisation par feedback statique et une approche algébrique pour estimer les dérivées des signaux de références mesurées.  Cette méthode sera utilisée pour réaliser des manœuvres couplées comme le contrôle d'inter-distances entre véhicule et/ou l'évitement d'obstacles, le changement de voies ou toute autre manœuvre qui nécessite un contrôle couplé des mouvements longitudinaux et latéraux. Les premiers résultats de validation sont obtenus en comparant les performances de cette loi de contrôle pilotant un modèle du véhicule non linéaire à 10DDL avec des données expérimentales mesurées sous de fortes sollicitations dynamiques.

SECOND EXPOSÉ: 15h00-16h00

Orateur: Al Kassem Jebai (CAS, al-kassem.jebai@ensmp.fr).

Titre: Modélisation des moteurs à aimants permanents avec saturations magnétiques.

Résumé: Les moteurs synchrones à aimants permanents PMSM (Permanent Magnet Synchronous Motors) sont largement utilisés dans les applications industrielles grâce à leur rendement élevé. Pour contrôler ces moteurs, l'estimation de la position du rotor est nécessaire surtout à basse vitesse où il y a un problème théorique  d'observabilité. Un capteur de position ou de vitesse a un coût élevé et peut parfois dégrader la fiabilité et la robustesse du contrôleur.
Au cours des vingt dernières années plusieurs stratégies d'estimation de la position à partir des signaux électriques (courant et tension) ont été élaborées. Ces méthodes sont basées sur le modèle mathématique du moteur ou sur l'ajout des signaux hautes fréquences. En revanche, des phénomènes non linéaires comme la saturation magnétique introduisent des erreurs sur la position estimées surtout à basse vitesse. Ces erreurs dégradent les performances du contrôleur et peuvent conduire à l'instabilité du moteur.
On présente un modèle mathématique du moteur PMSM qui prend en compte les effets non linéaires de la saturation magnétique. Ce modèle provient d'une formulation énergétique. En effet, on modifie l'énergie magnétique du moteur en ajoutant des paramètres de saturation. Ce modèle est validé expérimentalement. Il permet d'expliquer et de compenser les erreurs d'estimation de la position du moteur dues à la saturation magnétique. Ce travail s'effectue dans le cadre d'une thèse avec Schneider Toshiba Inverter Europe (STIE). 


Juin : Jeudi 9 juin 2011 de 14h00-15h00

Thème « Modèles multi-échelles » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Dominique Jeulin (CMM, dominique.jeulin@mines-paristech.fr)

Titre: Modèles probabilistes multi-échelles pour simuler des  microstructures complexes

Résumé: Les microstructures complexes rencontrées dans les matériaux impliquent souvent des  textures hétérogènes multi-échelles, qui peuvent être modélisées par des ensembles aléatoires développés en Morphologie Mathématique. Notre approche  s'appuie sur des images 2D ou 3D. Une caractérisation morphologique complète est utilisée pour l'identification d'un modèle de structure aléatoire. Dans cette présentation, nous  considérons des  modèles d'ensembles aléatoires booléens construits à partir de processus ponctuels multi-échelles de Cox, pour reproduire des microstructures présentant des hétérogénéités à différentes échelles. L'effet de ces échelles  multiples sur le comportement physique de milieux hétérogènes est illustré par des applications à des milieux réels.


Octobre : Jeudi 13 octobre 2011 de 14h00-15h00

Thème « Invariance et filtrage » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Stéphane Mallat (CMAP, Ecole Polytechnique, Paris)

Titre: Classification et Représentations Invariantes

Résumé: La classification de signaux (audio, images...) nécessite d'utiliser des représentations invariantes par l'action de certains groupes finis tels que des translations, des rotations ou des transformations affines. Stabiliser la classification relativement à des déformations élastiques impose aussi une continuité Lipschitzienne sur le groupe des difféomorphismes, que l'on n'obtient pas avec des représentations usuelles (Fourier, ondelettes).
Nous introduisons une classe d'opérateurs qui satisfont ces conditions d'invariance et de continuité Lipschitzienne, par une procédure non-linéaire de dispersion multi-échelle. Ces décompositions ont des similarités avec les opérateurs de dispersion en physique quantique et les invariants de Jauge. On obtient de nouvelles représentations des processus stationnaires, avec des applications pour la classification d'images, de textures et de sons. Certains enjeux de modélisation neurophysiologique du cortex visuel seront discutés.

Lien utile : http://www.cmap.polytechnique.fr/scattering 


Novembre : Jeudi 10 novembre 2011 de 14h00-15h00

Thème « Apprentissage et Bio-informatique » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Jean-Philippe Vert (CBIO, jean-philippe.vert@mines-paristech.fr)

Title: Machine learning and bioinformatics

Abstract: I will present a few problems in bioinformatics and cancer genomics that call for new data analysis and modelling methods. I will discuss some approaches we have been developing recently with statistical machine learning tools, in particular to introduce data- and problem-specific prior knowledge in statistically sound and computationally efficient procedures.


Décembre : Jeudi 8 décembre 2011 de 14h00-15h00

Thème « Parcimonie » :

1. Lieu :
Mines ParisTech, Bd Saint-Michel
salle  L-218.

2. Descriptif :

UN SEUL EXPOSÉ: 14h00-15h00

Orateur: Francis Bach (INRIA/ENS, francis.bach@inria.fr)

Title: Structured sparsity and convex optimization, Francis Bach

Abstract: The concept of parsimony is central in many scientific domains. In the context of statistics, signal processing or machine
learning, it takes the form of variable or feature selection problems, and is commonly used in two situations: First,  to make the model or the prediction more interpretable or cheaper to use, i.e., even if the underlying problem does not admit sparse solutions, one looks for the best sparse approximation. Second, sparsity can also be used given prior knowledge that the model should be sparse. In these two situations, reducing parsimony to finding models with low cardinality turns out to be limiting, and structured parsimony has emerged as a fruitful practical extension, with applications to image processing, text processing or bioinformatics.
In this talk, I will review recent results on structured sparsity, as it applies to machine learning and signal processing. (joint work with R. Jenatton, J. Mairal and G. Obozinski)