Seminar of Departement 1 at LORIA

Seminar of Departement Algorithms, Computation, Image and Geometry at LORIA







                  This page presents seminars of the department Algorithms, Computation, Image and Geometry together with more specialized team seminars from teams ABC, Adagio, Alice, Caramba Gamble, Magrit, and MFX.

2018




CARAMBA Seminar.


23 mai 2019, 10h30h Salle Jean Legras
Robin Larrieu , LIX
Fast polynomial reduction for generic bivariate ideals
Let A, B in K[X,Y] be two bivariate polynomials over an effective field K, and let G be the reduced Gröbner basis of the ideal I := <A,B> generated by A and B, with respect to some weighted-degree lexicographic order. Under some genericity assumptions on A,B, we will see how to reduce a polynomial with respect to G with quasi-optimal complexity, despite the fact that G is much larger than the intrinsic complexity of the problem. For instance, if A,B have total degree n, that is O(n2) coefficients, then G has O(n3) coefficients but reduction can be done in time O(n2). We will consider two situations where these new ideas apply, leading to different algorithms: - First, there is a class called "vanilla Gröbner bases" for which there is a so-called terse representation that, once precomputed, allows to reduce any polynomial P in time O(n2). In this setting, assuming suitable precomputation, multiplication and change of basis can therefore be done in time O(n2) in the quotient algebra K[X,Y] / <A,B>. - Then, we assume that A and B are given in total degree and we consider the usual degree lexicographic order. Although the bases are not vanilla in this case, they admit a so-called concise representation with similar properties. Actually, the precomputation can also be done efficiently in this particular setting: from the input A,B, one can compute a Gröbner basis in concise representation in time O(n2). As a consequence, multiplication in K[X,Y] / <A,B> can be done in time O(n2) including the cost of precomputation.


SÉMINAIRE DU DÉPARTEMENT proposé par MFX.


29 novembre 2018, 10h00 Ampgi Gilles Kahn (C)
Jean-Baptiste Labrune, Bell Labs
Radical Design: augmented environments for building dynamic objects with active matter
Programmable matter, also called active matter, is a class of physical and biological materials that allow new kind of affordances and interactions (Tibbits, Active Matter, MIT Press, 2017). Static entities become dynamic and can shapeshift, turn elastic or solid on demand. Active matter is still a prototype in laboratories, hence not easily available nor simple to use for non-experts.
However, like VLSI opened the field for advanced software engineering, technologies such as 3D / 4D printing and bio/nano-assemblers will probably popularize them soon. In this new context, how will we program but also design with these new materials? What will be the appropriate tools and interaction paradigms to build this world that Ivan Sutherland defined as "ultimate" ?
On the basis of my research as PhD at INRIA and postdoc at the MIT Medialab, i will show some initial answers to these questions. I will detail in particular how the vision of Radical Atoms (Ishii, Labrune & al 2012) proposes a new kind of paradigm called Radical Design, connecting biology, material science, computational modelling of microstructures, HCI and design.
Jean-Baptiste Labrune is a designer & researcher, specialized in the study of creative places and processes. His researches focus on the notion of "Exaptation", the way in which users of technology reconfigure and hack it, producing original and unexpected functions and uses. He completed his Phd at INRIA and postdoc at MIT, then became researcher at Bell Labs and interaction design professor at ENSAD (Arts Décos School). He organizes and lead many "hybrid" workshops in art & sciences places in France (Arts Décos, Beaux-Arts, Palais de Tokyo, Mains d'Oeuvres) & internationally (Mediamatic, Interaction Design Institute Ivréa, IMAL, Hangar, Hyperwerk, Akademie Schloss Solitude, MIT Medialab).




COLLOQUIUM DU LORIA, proposé par le département

27 novembre 2018, 13:30, Amphi Gilles Kahn
Claire Mathieu, École Normale Spérieure
Stable Matching in Practice
la page du colloquium


SÉMINAIRE DU DÉPARTEMENT proposé par ALICE.


8 novembre 2018, 10h00 Salle Jacques-Louis Lyons (A008)
Etienne Corman, Carnegie Mellon University
Numerical Representation of Geometry for Shape Deformation
Geometric data are today largely available and accessible due to the democratization of 3D modelling softwares and low-cost 3D scanning techniques. Thus, defining a compelling representation in order to compare, measure similarity or find similar patterns between non-Euclidean data has become one great challenge in geometry processing. We propose a novel way to capture and characterize distortion between pairs of shapes by extending the recently proposed framework of shape differences built on functional maps. We demonstrate that a set of four operators is complete, capturing intrinsic and extrinsic structure and fully encoding a shape up to rigid motion in both discrete and continuous settings.




SÉMINAIRE DU DÉPARTEMENT proposé par GAMBLE.

8 novembre 2018, 14h00 Salle Jean Legras (A006)
Chee Yap, New-York University
Subdivision Path Planning in Robotics: Theory and Practice
ABSTRACT: Motion planning is a fundamental problem in robotics. We propose to design path planners based on three foundations:
(1) The notion of ``resolution-exact'' planners. Conceptually, it avoids the zero problem of exact computation.
(2) The use of ``soft predicates'' for achieving such algorithms in the subdivision approach.
(3) The ``feature-based technique'' for constructing such soft predicates.
We formulate an algorithmic framework called ``Soft Subdivision Search'' (SSS) that incorporates these ideas. There are many parallels between our framework and the well-known Sampling or Probabilistic Roadmap framework. Both frameworks lead to algorithms that are - practical - easy to implement - flexible and extensible - with adaptive and local complexity. In contrast to sampling and previous resolution approaches, SSS confers strong theoretical guarantees, including halting.
In a series of papers we demonstrated the power of these ideas, by producing planners for planar robots with 2, 3 and 4 degrees of freedom (DOF) that outperform or matches state-of-art sampling-based planners. Most recently, we produced a planner for two spatial robots (rod and ring) with 5 DOFs. Non-heuristic planners for such robots has been considered a challenge for the subdivision approach. We outline a general axiomatic theory underlying these results, including subdivision in non-Euclidean configuration spaces,
Joint work with Y.J.Chiang, C.H.Hsu, C.Wang, Z.Luo, B.Zhou, J.P.Ryan.


GAMBLE Seminar.


7 novembre 2018, 10h30 Salle Jean Legras (A008)
Chee Yap, New-York University
Continuous Amortization and the Complexity of Root Isolation
The problem of isolating all roots (real or complex) of a polynomial is a highly classical problem. For integer polynomials, it has been known for 30 years from the work of Schönhage and Pan that the bit-complexity of this problem is O(n2 L) when the polynomial has degree n with L-bit coefficients. Pan informally calls such bounds "near optimal". But their algorithm has never been implemented. Until recently, it was assumed that such near-optimal complexity requires the divide-and-conquer method of Schönhage.
Meanwhile, subdivision algorithms for root isolation have proved efficient and widely implemented. But the worst case complexity of subdivision algorithms always lagged behind the divide-and-conquer algorithms. In the last few years, this gap is finally closed for complex roots [ISSAC'2016]. Moreover, our near-optimal root isolation algorithm was implemented this year with good preliminary results.
In this talk, we focus on some techniques that proved useful in the complexity analysis of subdivision algorithms -- in particular the idea of "Continuous Amortization".
Based on several papers with M.Sagraloff, V.Sharma, M.Ruben, J.Xu and M.Burr.




SÉMINAIRE DU DÉPARTEMENT proposé par GAMBLE.

11 juillet 2018, 14h30 Salle Philippe Flajolet (C005)
Nicolas Delanoue, Université d'Angers
Calcul par intervalles et transport optimal
Le problème du transport optimal a été premièrement formalisé par le mathématicien français Gaspard Monge en 1781. Depuis Kantorovich, ce problème (généralisé) est formulé avec la théorie de la mesure et a été remis sur le devant de la scène par Cédric Villani (médaille Fields 2010).
Récemment, si la fonction qui apparaît dans le coût est polynomial, Jean Bernard Lassere et Didier Henrion ont proposé une méthode de résolution basée sur les moments des mesures pour reformuler le problème. Leur approche génère un problème de programmation linéaire avec contraintes convexes.
En s'appuyant sur le calcul par intervalles, nous proposons une discrétisation garantie qui génère un programme linéaire avec contraintes linéaires dont l'optimum est une borne inférieure de la valeur de l'optimum du problème de Kantorovich. Durant la présentation, je rappellerai le problème de Kantorovich et discuterai de notre approche. Si le temps le permet, je parlerai d'une discrétisation garantie du dual qui donne une borne supérieure de l'optimum.
[1] Topics in Optimal Transportation, Cédric Villani, AMS (2003).
[2] Optimal Transportation and Economic Applications, Guillaume Carlier, link


MAGRIT Seminar.


lundi 18 juin 2018, 9h00) Salle C103
Robert D. Howe Harvard Biorobotics Lab
Ultrasound guided heart surgery: Ultrasound image processing, fast motion compensation, catheter robot control.
To treat defects within the heart, surgeons currently use stopped-heart techniques. These procedures are highly invasive and incur a significant risk of neurological impairment. We are developing methods for performing surgery within the heart while it is beating. New real-time 3-D ultrasound imaging allows visualization through the opaque blood pool, but this imaging modality poses difficult image processing challenges due to poor resolution, acoustic artifacts, and data rates of 30 to 40 million voxels per second. To track instruments within the heart we have developed a Radon transform-based algorithm. Implementation using a graphics processor unit (GPU) enables real-time processing of the ultrasound data stream. For manipulation of rapidly moving cardiac tissue we have created a fast robotic device that can track the tissue based on ultrasound image features. This allows the surgeon to interact with the heart as if it was stationary. Our in vitro studies show that this approach enhances dexterity and lowers applied forces. To complete integration of ultrasound imaging with the robotic device we have developed a predictive controller that compensates for the imaging and image processing delays to ensure good tracking performance. We will present applications of this technology in atrial septal defect closure and mitral valve annuloplasty procedures, demonstrating the potential for improved patient outcomes.


MAGRIT Seminar.


mercredi 6 juin 2018, 15h00) Salle A006
Peter E. Hammer Harvard Biorobotics Lab
Using engineering and computational methods to inform surgery for congenital heart disease.
Surgeons have traditionally used an approach based on clinical experience and intuition. However, in congenital heart disease, the variety of anatomical abnormality is almost endless, defying an experience-based approach. Analytical approaches based on quantitative analysis and engineering principles have been proposed and show promise to help improve surgical management in highly complex cases. In this talk, examples will be presented to show the use of quantitative approaches to inform surgery, including: (1) characterization of the mechanical properties of cardiovascular tissues and use of this data to guide surgical techniques, (2) simulation to explore novel methods for valve reconstruction in the growing child, (3) lumped element modeling of the circulation to aid in decision-making for complex circulations.




JOURNÉE DES DOCTORANTS DU DÉPARTEMENT

25 mai 2018, Salle Philippe Flajolet (C005)




SÉMINAIRE DU DÉPARTEMENT proposé par ALICE.

11 mai 2018, 13h15 Salle Jean Legras (A008)
Brian Wyvill, Université de Victoria (Canada)
Implicit Modelling for Animation
Modelling with triangle meshes has been well supported in both hardware and software for computer animation, but problems arise with meshes when defining closed volumes and arbitrary topologies. Representing volumes as procedural implicit models makes for simple collision tests and methods for deformations. An example in modelling is presented for constructing smooth isolated or interconnected 3-D inscribed volumes. This approach can be used to build porous structures, including volcanic rocks, liquid or dry foam, and tiny creatures know as radiolarians. In animation, a series of research projects between French and Canadian researchers has led to an implicit approach to high quality skinning for character animation enhancing existing mesh approaches. This talk gives a high level view of these projects and shows that implicit modelling is a practical methodology for use in the animation and games industry.
Bio: Brian Wyvill is a professor at the University of Victoria in Canada. He has been conducting research in computer graphics since the early 1970s and spent several decades working on implicit modelling, and on the intersection between computing and art. Brian worked on the original Alien movie and has presented several animated shorts at the SIGGRAPH electronic theatre. He is currently on the board of Eurographics and ACM SIGGRAPH vice-president.


GAMBLE Seminar.


3 avril 2018, 10h00 Salle Bob
Olivier Devillers, LORIA
Codage compact de triangulation
Alors que les codages classiques (winged edge) utilisent 19n ou 13 n références pour stocker une triangulation de genre 0 de n points, je présenterai une structure permettant
- avec 4n références de naviguer d'un triangle à l'autre en temps constant
- avec 5n références de, en plus, accéder aux sommets en temps constant et divers variantes permettant de concilier cette structure compacte avec un format de compression à 4n bits, de stocker des informations dans les faces de la triangulation ou dans les coins des triangles. Il s'agit d'un travail commun avec Luca Castelli Aleardi (LIX) (Le papier)


ABC Seminar.


16 mars 2018, 11h00 Salle Flajolet
Jean-Baptiste Courbot, INRIA, Paris
Détection, segmentation et poursuite d'objets dans des images
Cette présentation abordera trois contributions dans le domaine du traitement d'images, correspondant à mes travaux de thèse puis de post-doctorat. La première problématique est celle de la détection d'objets très peu lumineux dans des images hyperspectrales astronomiques pour lesquelles chaque pixel contient une information résolue sur une portion du spectre lumineux. Dans ce cadre, je présenterai des tests de type Generalized Likelihood Ratio qui permettent de spécifier les informations spatiales, spectrales et de similarité des objets recherchés. Ensuite, je présenterai une formulation du problème de détection comme un cas particulier de segmentation d'images par champs de Markov couples. Ce cadre permet de proposer une segmentation bayésienne non supervisée et robuste à la présence de bruit extrêmement fort dans les images. J'aborderai dans une troisième partie mes travaux actuels, qui répondent à une problématique d'analyse de la dynamique nuageuse dans des séquences d'images. Ce problème est abordé sous l'angle du filtrage particulaire multi-objets d'une part, et de la formulation de problèmes d'optimisation parcimonieuse d'autre part.


ADAGIO Seminar.


14 mars 2018, 14h00 Salle Bob
Odyssée Merveille, ICube, Strasbourg
RORPO : une méthode morphologique pour l'analyse des structures curvilignes. Applications au filtrage et à la segmentation des vaisseaux sanguins.
L'analyse des structures curvilignes en 3 dimensions est un problème difficile en analyse d'images. En effet, ces structures sont fines, facilement corrompues par le bruit et présentent une géométrie complexe. Depuis plusieurs années, de nombreuses méthodes spécialement dédiées au traitement d'images contenant des structures curvilignes ont vu le jour. Ces méthodes concernent diverses applications en science des matériaux, télédétection ou encore en imagerie médicale. Malgré cela, l'analyse des structures curvilignes demeure une tâche complexe. Dans cette présentation nous parlerons de la caractérisation des structures curvilignes pour l'analyse d'images. Nous présenterons en premier lieu une nouvelle méthode appelée RORPO, à partir de laquelle deux caractéristiques peuvent être calculées. La première est une caractéristique d'intensité, qui préserve l'intensité des structures curvilignes tout en réduisant celle des autres structures. La deuxième est une caractéristique de direction, qui fournit en chaque point d'une image, la direction d'une structure curviligne potentielle. RORPO, contrairement à la plupart des méthodes de la littérature, est une méthode non locale, non linéaire et mieux adaptées à l'anisotropie intrinsèque des structures curvilignes. Cette méthode repose sur une notion récente de Morphologie Mathématique: les opérateurs par chemins. RORPO peut directement servir au filtrage d'images contenant des structures curvilignes, afin de spécifiquement les préserver, mais aussi de réduire le bruit. Mais les deux caractéristiques de RORPO peuvent aussi être utilisées comme information a priori sur les structure curvilignes, afin d'être intégrées dans une méthode plus complexe d'analyse d'image. Dans un deuxième temps, nous présenterons ainsi un terme de régularisation destiné à la segmentation variationnelle, utilisant les deux caractéristiques de RORPO. L'information apportée par ces deux caractéristiques permet de régulariser les structures curvilignes seulement dans la direction de leur axe principal. De cette manière, ces structures sont mieux préservées, et certaines structures curvilignes déconnectées par le bruit peuvent aussi être reconnectées. Des résultats en 2D et 3D de ces méthodes seront enfin présentés sur des images de vaisseaux sanguins provenant de diverses modalités.




COLLOQUIUM DU LORIA, proposé par le département

16 janvier 2018, 13:30, Amphi Gilles Kahn
Grégoire Allaire, CMAP, École Polytechnique
Taking into account additive manufacturing constraints in topology optimization of structures
la page du colloquium

2017




GAMBLE Seminar.


8 novembre 2017, 11h00 Salle Jacques-Louis Lions
Vicent Despré, Gamble
Computing the Geometric Intersection Number of Curves.
The geometric intersection number of a curve C on a surface is the minimal number of self-intersections of any homotopic curve, i.e. of any curve obtained from C by continuous deformation. We give a quadratic algorithm to tackle this problem. The algorithm is purely combinatorial but the proof involves some basic hyperbolic geometry. All the point is to describe a discrete structure that has a similar behaviour as the continuous hyperbolic case. I will first explain what is a hyperbolic surface and why this geometric structure is useful and then show how we discretized it. (joint work with Francis Lazarus, GIPSA-Lab)


MAGRIT Seminar.


2 octobre 2017, 9h30 Salle C103
Fabien Pierre, Magrit
Colorisation de vidéos : de l'état-de-l'art aux débouchés industriels.
La colorisation d'image est un problème extrêmement mal posé mais qui intéresse l'industrie du divertissement. Ce double point de vue en fait un sujet très attractif. Dans cet exposé, on présentera l'état de l'art et les méthodes qui ont été développées par l'orateur pendant sa thèse. Celles-ci reposent sur des approches non-locales et variationnelles. Les fonctionnelles utilisées sont non-lisses et non-convexes et ont fait l'objet de techniques de minimisation originales. Cela a permis d'implémenter un logiciel expérimental qui associe l'utilisateur à une approche basée-exemple ce qui donne une méthode efficace, flexible et rapide. Une extension à la vidéo est proposée, dont l'implémentation en GPU permet une interactivité de l'approche variationnelle avec l'utilisateur. Néanmoins, celle-ci n'est pas opérationnelle aux yeux d'experts du milieu de la colorisation. En vue de se conformer à ces besoins, quelques pistes seront proposées.

Workshop organized by GAMBLE.


September 25-26 2017, Room Philippe Flajolet,
10 talks, Workshop of the associated team "Astonishing"
More info


CARAMBA Seminar.


21 septembre 2017, 10h30h Salle Jacques-Louis Lyons
Laurent Imbert , LIRMM
Randomized Mixed-Radix Scalar Multiplication
Depuis 1996 et les premiers travaux de Kocher sur le sujet, les éveloppeurs d'algorithmes cryptographiques savent qu'ils doivent impérativement veiller à protéger leurs implémentations contre les attaques par canaux cachés. Ces attaques visent aussi bien les implémentations matérielles que logicielles et s'appliquent aux algorithmes symmètriques et asymètriques. Aprés un rapide tour d'horizon de ces attaques, je présenterai un nouvel algorithme de multiplication scalaire sur courbe elliptique concu pour résister à la plupart des attaques par observation pour un surcoût inférieur aux contremesures classiques (ou presque).


MAGRIT Seminar.


6 juin 2017, 14h Salle C103
Thomas Waite, Harvard Biorobotics Lab
Cosserat Rods for Modeling Robotic Catheter Systems
Tendon-driven robotic catheters are capable of precise execution of minimally invasive cardiac procedures including ablations and imaging. However, these procedures require accurate modeling of not only the catheter and tendons but also their interactions with surrounding tissue and vasculature. For this reason, mechanically-derived models provide a clear advantage over geometric models, given the ease with which mechanical models handle contact fores and friction. As a solution, we present a fully-mechanical model of a tendon-driven robotic catheter system based on Cosserat rods and integrated with a stable, implicit scheme. We rst validate the physical accuracy of the Cosserat rod as a model for a simple catheter centerline against an analytical model for large deformations and experimental data. We then expand the system by adding a second Cosserat rod to model a single tendon in addition to the catheter, and define the constraints of the tendon-catheter system with penalty forces. We then validate the resulting tendon-catheter system against experimental data to prove its physical accuracy. This model represents a new contribution to the field of robotic catheter modeling in which both the tendons and catheter are modeled by fully-mechanical Cosserat rods and fully validated against experimental data.




JOURNÉE DES DOCTORANTS DU DÉPARTEMENT

31 mai 2017, Salle Philippe Flajolet (C005)




MAGRIT Seminar.


30 mai 2017, 14h Salle C103
Douglas Perrin, Harvard Biorobotics Lab
Machine Learning and Image Processing: from the Lab to Clinical Use
In this presentation I will talk about our work in the Cardiac Surgery Department at Boston Children's Hospital on translating recent results in machine learning and image processing from the lab into clinical use. Our approach has been to build collaborative teams consisting of medical fellows, surgical and cardiology attending physicians, industrial collaborators, and faculty from the Harvard School of Engineering and Applied Sciences along with their Ph.D. students and post-docs. I will be talking about some of the benefits and pitfalls of this approach. Specifically, challenges surrounding getting data within a hospital environment as well as lessons learned on project integration across clinical and engineering expertise. I will go into detail on one project where we have been using machine learning to inspect echo-cardiograms for congenital heart defects. Ultrasound images are quite different from natural images, for which artificial neural networks have already been successfully applied to for classification tasks. This imaging modality has a more challenging noise profile than photography images and may not have features directly linked to the specific class (i.e. the pathology). That said we have had success extracting intrinsic characteristics (view) from these types of images and our classification results are more accurate than simple random chance for several of the pathologies of interest. We believe this work represent an important step in developing automated screening tools for these diseases. In the case of birthing centers without pediatric cardiologist on site, these methods represent an effective way to transfer expertise from larger centers that will have a direct impact on the number of newborns with these pathologies that can be detected and treated.


ALICE Seminar.


19 mai 2017, 14:00 Salle B013 (Bob)
Jeanne Pellerin, Université de Louvain
How Many Ways are there to Subdivide a Hexahedron in Tetrahedra?
Indirect hex-dominant meshing methods rely on the combination of the elements of a tetrahedral mesh into hexahedra. Before combining tetrahedra into hexahedra, we should be able to enumerate the different subdivision patterns of a hex into tetrahedra. We will show that when distorted, however valid finite elements, hexes are accounted for, the number of possible subdivision patterns is larger than previously thought. We present an algorithm that does not rely on any predefined pattern and build the largest set of potential hexes from an input tetrahedral mesh.




SÉMINAIRE DU DÉPARTEMENT

11 mai 2017, 14h Salle Philippe Flajolet (C005)
Marie-Françoise Roy, Université de Rennes 1
Interpolation d'Hermite multivariée symetrique, doubles sommes de Sylvester et sous-résultants.
Les doubles sommes de Sylvester sont des expressions en fonctions des racines de deux polynômes qui donnent une autre approche de la théorie des sous-resultants, habituellement définis grace à la matrice de Sylvester.
Dans le cas de racines multiples la définition de Sylvester donne une valeur 0/0 dont il s'agit de lever l'indétermination. La clé est l'utilisation d'une extension de l'interpolation d'Hermite aux polynômes multivariés symétriques et des déterminants de Vandermonde generalisés.
Travail en commun avec Aviva Szpirglas


MAGRIT Seminar.


7 avril 2017, 11h Salle C103
Fabien Pierre, Technische Universität Kaiserslautern
Problèmes liés à la couleur
Cet exposé traite de problèmes liés à la couleur. En particulier, on s'intéresse à des problématiques communes à la colorisation d'images, de vidéos et au rehaussement de contraste. Si on considère qu'une image est composée de deux informations complémentaires, une achromatique (sans couleur) et l'autre chromatique (en couleur), les applications étudiées consistent à traiter une de ces deux informations en préservant sa complémentaire. En colorisation, la difficulté est de calculer une image couleur en imposant son niveau de gris. Le rehaussement de contraste vise à modifier l'intensité d'une image en préservant sa teinte. Ces problématiques communes m'ont conduit à étudier formellement la géométrie de l'espace RGB. On a démontré que les espaces couleur classiques de la littérature pour résoudre ces types de problème conduisent à des erreurs. Un algorithme, appelé spécification luminance-teinte, qui calcule une couleur ayant une teinte et une luminance données est décrit dans cet exposé. L'extension de cette méthode à un cadre variationnel a été proposée. Ce modèle a été utilisé avec succès pour rehausser les images couleur, en utilisant des hypothèses connues sur le système visuel humain. Les méthodes de l'état-de-l'art pour la colorisation d'images se divisent en deux catégories. La première catégorie regroupe celles qui diffusent des points de couleurs posés par l'utilisateur pour obtenir une image colorisée (colorisation manuelle). La seconde est constituée de celles qui utilisent une image couleur de référence ou une base d'images couleur et transfèrent les couleurs de la référence sur l'image en niveaux de gris (colorisation basée exemple). Les deux types de méthodes ont leurs avantages et inconvénients. Dans cet exposé, on présente un modèle variationnel pour la colorisation basée exemple. Celui-ci est étendu en une méthode unifiant la colorisation manuelle et basée exemple. Enfin, nous décrivons des modèles variationnels qui colorisent des vidéos tout en permettent une interaction avec l'utilisateur.


MAGRIT Seminar.


6 avril 2017, 14h Salle C103
Ronan Sicre, INRIA-Rennes
Part-based methods
Ronan will present his works in the fields of computer vision and pattern recognition, with a focus on part-based methods. Parts are mid-level features that are learned from data. They are generative and distinctive, meaning that they occur often in some part of the training data and rarely in the rest. Once parts are learned, they are alligned to produce global representations and perform classification. These representations outperform global CNN descriptions. The most recent works allows to learn parts in an unsupervised fashion. In these works parts are applied to image classification and retrieval, but could be applied on other types of data.


MAGRIT Seminar.


31 mars 2017, 14h Salle C103
Bruno Sciolla, INSA-Lyon
Améliorer l'apprentissage de formes pour la segmentation par des réseaux de neurones profonds
Les réseaux de neurones convolutionnels sont très performants pour extraite des caractéristiques locales et émergentes à grande échelle de données spatio-temporelles. Nous nous intéressons en particulier aux réseaux de neurones dédiés à la segmentation - c'est à dire à produire des cartes d'étiquettes. Les réseaux actuels donnent des segmentations qui manquent de cohérence globale : cela tient au fait que l'architecture par convolution donne accès aux caractéristiques au voisinage d'un point donné, mais pas aux étiquettes prédites. Nous proposons une architecture de réseau "Refine", dans laquelle le réseau a accès à ses propres étiquettes inférées, qui permet un meilleur apprentissage de formes. Cette méthode peut-être vue comme une amélioration de l'apprentissage supervisé profond dédiée à la segmentation. Nous illustrons cette méthode pour la segmentation de la prostate sur des données IRM 3D.


ALICE Seminar.


24 mars 2017, Salle B011 (Alice)
Aldo Gonzalez Lorenzo, Université de Marseille
Homologie algorithmique appliquée aux objets discrets
La théorie de l'homologie formalise la notion de trou dans un espace. Pour un sous-ensemble de l'espace Euclidien, on définit une séquence de groupes d'homologie, dont leurs rangs sont interprétés comme le nombre de trous de chaque dimension. Ainsi, β0, le rang du groupe d'homologie de dimension zéro, est le nombre de composantes connexes, β1 est le nombre de tunnels ou anses et β2, est le nombre de cavités. Ces groupes sont calculables quand l'espace est décrit d'une façon combinatoire, comme c'est le cas pour les complexes simpliciaux ou cubiques. À partir d'un objet discret (un ensemble de pixels, voxels ou leur analogue en dimension supérieure) nous pouvons construire un complexe cubique et donc calculer ses groupes d'homologie.
Je vais présenter trois approches relatives au calcul de l'homologie sur des objets discrets. En premier lieu, j'introduirai le champ de vecteurs discret homologique, une structure combinatoire généralisant les champs de vecteurs gradients discrets, qui permet de calculer les groupes d'homologie. Cette notion permet de voir la relation entre plusieurs méthodes existantes pour le calcul de l'homologie et révèle également des notions subtiles associés. Je présenterai ensuite un algorithme linéaire pour calculer les nombres de Betti dans un complexe cubique 3D, ce qui peut être utilisé pour les volumes binaires. Enfin, je vais présenter deux mesures (l'épaisseur et la largeur) associées aux trous d'un objet discret, ce qui permet d'obtenir une signature topologique et géométrique plus intéressante que les simples nombres de Betti. Cette approche fournit aussi quelques heuristiques permettant de localiser les trous, d'obtenir des générateurs d'homologie ou de cohomologie minimaux, d'ouvrir et de fermer les trous.

ALICE Seminar.


March 8th 2017, 14:30 Room B013
Mélina Skourass, MIT
Design and Fabrication of Deformable Objects

Deformable objects have a plethora of applications: they can be used for entertainment, advertisement, engineering, robotics, medical applications and many more. However the design of custom deformable objects is a difficult task. The designer must foresee and invert the effects of external forces on the behavior of the object in order to make the right design decisions. In this talk, I will present different approaches based on physics-based simulation and inverse modeling techniques that alleviate these difficulties and allow the designer to easily create custom deformable objects by automating some of the most tedious aspects of the design process. The framework that we introduce is tailored to the design of various objects such as inflatable membranes, actuated characters and topology optimization of high-resolution functional objects.


GAMBLE Seminar.


February 22th 2017, Room A006
Adrien Poteaux, LIFL
Singularities of a plane algebraic curve: improving the Newton-Puiseux algorithm.

Puiseux series (generalization of Taylor series above critical points) are a fundamental object in the theory of plane algebraic curves [4]. Nevertheless, their computation is not easy ; existing algorithms (usually the Newton-Puiseux algorithm and its variants [1]) are purely symbolic algorithm with high complexity. Running computations numerically provide Taylor series with a small convergence radius ; in particular, this does not provide any information on the structure of the Puiseux series (that is one of the main interest of their computation).

More precisely, considering a bivariate polynomial F ∈ K[X, Y] with K a number field, and C = {(xₒ , yₒ) ∈ ℂ² | F (xₒ , yₒ) = 0} the associated plane algebraic curve, computing the Puiseux series with the Newton-Puiseux algorithm generate field extension of high degrees (up to D3 if D is the total degree of F ) ; more importantly, there is an important coefficient growth. The binary complexity estimate of P.G. Walsh in O(D^(36+ε)) illustrates this problem [5], and practical experiments confirm a bad behavior. To overcome these difficulties, the following strategy has been developed in [2]:

  1. Find the structure of the Puiseux series modulo a “well chosen” prime number p
  2. Use this structure to compute a numerical approximation of the coefficients of the Puiseux series.

It remains to deal with the arithmetic complexity of the algorithm. Duval proved a O(D^8) complexity result [1]. This has been improved to O˜(D^5) in [2] by truncating powers of X during the computation and introducing fast multiplication. More recently, we showed in [3] how to reduce the total number of recursive calls of the algorithm from O(D2) to O˜(D), leading to a complexity in O˜(D^4).

This talk will first describe the context, and the rational Newton-Puiseux algorithm of [1]. We will also briefly describe the symbolic-numeric strategy of [2], Finally, we will focus on the arithmetic complexity, presenting results of [2, 3], and a new divide and conquer algorithm that reduce the complexity to O˜(D3).

This work begun during my PhD, under the supervision of Marc Rybowicz, who also participated to [3]. The new divide and conquer algorithm is being written in collaboration with Martin Weimann.

References :

[1] D. Duval. Rational Puiseux Expansions. Compositio Mathematica, 70:119–154, 1989.

[2] Adrien Poteaux. Calcul de développements de Puiseux et application au calcul de groupe de monodromie d’une courbe algébrique plane. PhD thesis, Université de Limoges, 2008.

[3] A. Poteaux & M. Rybowicz Improving Complexity Bounds for the Computation of Puiseux Series over Finite Fields. ISSAC 2015, à paraître.

[4] R. J. Walker. Algebraic Curves. Springer-Verlag, 1950.

[5] P. G. Walsh. A Polynomial-time Complexity Bound for the Computation of the Singular Part of an Algebraic Function. Mathematics of Computation, 69:1167–1182, 2000.


Workshop organized by ALICE.


February 2nd 2017, Amphi
9 talks, Workshop on Shape Synthesis for Modeling and Fabrication
More info

2016


VEGAS Seminar.


November 15th 2016, Room A006
Mickaël Buchet, Tohoku University
Interprétation et utilisation de l'analyse topologique de données
L'analyse topologique de données et l'utilisation de la persistance ont donné des résultats discriminants intéressants, notamment pour l'analyse en science des matériaux. Les techniques actuelles permettent de fournir des signatures et certaines statistiques, cependant, du point de vue applicatif, des informations supplémentaires sont désirées. Une meilleure compréhension de la structure est requise lorsque l'on cherche à optimiser les propriétés de matériaux et l'origine physique des structures topologiques.
Dans cet exposé, je présenterai certains résultats actuels obtenus en science des matériaux et une nouvelle approche pour aider à la compréhension des phénomènes physiques. J'aborderai également certains problèmes connexes directement reliés à la structure et la combinatoire, aléatoire ou non, de structures géométriques.

This page is maintained by Olivier.Devillers(at)inria.fr