Accueil bibliothèque de L'INSA Lyon

  • 281 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Titre Auteur
Gómez-Mendoza Juan Bernardo. A contribution to mouth structure segmentation in images towards automatic mouth gesture recognition. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Ce travail présente une nouvelle méthodologie pour la reconnaissance automatique des gestes de la bouche visant à l'élaboration d'IHM pour la commande d'endoscope. Cette méthodologie comprend des étapes communes à la plupart des systèmes de vision artificielle, comme le traitement d'image et la segmentation, ainsi qu'une méthode pour l'amélioration progressive de l'étiquetage obtenu grâce à la segmentation. Contrairement aux autres approches, la méthodologie est conçue pour fonctionner avec poses statiques, qui ne comprennent pas les mouvements de la tête. Beaucoup d'interêt est porté aux tâches de segmentation d'images, car cela s'est avéré être l'étape la plus importante dans la reconnaissance des gestes. En bref, les principales contributions de cette recherche sont les suivantes: La conception et la mise en oeuvre d'un algorithme de rafinement d'étiquettes qui dépend d'une première segmentation/pixel étiquetage et de deux paramétres corrélés. Le rafineur améliore la précision de la segmentation indiquée dans l'étiquetage de sortie pour les images de la bouche, il apporte également une amélioration acceptable lors de l'utilisation d'images naturelles. La définition de deux méthodes de segmentation pour les structures de la bouche dans les images; l'une fondée sur les propriétés de couleur des pixels, et l'autre sur des éléments de la texture locale, celles-ci se complétent pour obtenir une segmentation rapide et précise de la structure initiale. La palette de couleurs s'avére particuliérement importante dans la structure de séparation, tandis que la texture est excellente pour la séparation des couleurs de la bouche par rapport au fond. La dérivation d'une procédure basée sur la texture pour l'automatisation de la sélection des paramètres pour la technique de rafinement de segmentation discutée dans la première contribution. Une version améliorée de l'algorithme d'approximation bouche contour présentée dans l'ouvrage de Eveno et al. [1, 2], ce qui réduit le nombre d'itérations nécessaires pour la convergence et l'erreur d'approximation finale. La découverte de l'utilité de la composante de couleur CIE à statistiquement normalisée, dans la différenciation lévres et la langue de la peau, permettant l'utilisation des valeurs seuils constantes pour effectuer la comparaison.
This document presents a series of elements for approaching the task of segmenting mouth structures in facial images, particularly focused in frames from video sequences. Each stage is treated separately in different Chapters, starting from image pre-processing and going up to segmentation labeling post-processing, discussing the technique selection and development in every case. The methodological approach suggests the use of a color based pixel classification strategy as the basis of the mouth structure segmentation scheme, complemented by a smart pre-processing and a later label refinement. The main contribution of this work, along with the segmentation methodology itself, is based in the development of a color-independent label refinement technique. The technique, which is similar to a linear low pass filter in the segmentation labeling space followed by a nonlinear selection operation, improves the image labeling iteratively by filling small gaps and eliminating spurious regions resulting from a prior pixel classification stage. Results presented in this document suggest that the refiner is complementary to image pre-processing, hence achieving a cumulative effect in segmentation quality. At the end, the segmentation methodology comprised by input color transformation, preprocessing, pixel classification and label refinement, is put to test in the case of mouth gesture detection in images aimed to command three degrees of freedom of an endoscope holder.
Mot(s) clés libre(s) : Endoscopie, Reconnaissance de mouvement, Vision artificielle, Segmentation d'images, Interface Homme Machine, Mouvement de la bouche, Mouvement des lèvres, Medical Imaging, Endoscopy, Movement recognition, Image segmentation, Lips segmentation, Gesture classification, Human machine modelling, Human face modeling
 |  Notice

Gómez-Mendoza Juan Bernardo. A contribution to mouth structure segmentation in images towards automatic mouth gesture recognition. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Ce travail présente une nouvelle méthodologie pour la reconnaissance automatique des gestes de la bouche visant à l'élaboration d'IHM pour la commande d'endoscope. Cette méthodologie comprend des étapes communes à la plupart des systèmes de vision artificielle, comme le traitement d'image et la segmentation, ainsi qu'une méthode pour l'amélioration progressive de l'étiquetage obtenu grâce à la segmentation. Contrairement aux autres approches, la méthodologie est conçue pour fonctionner avec poses statiques, qui ne comprennent pas les mouvements de la tête. Beaucoup d'interêt est porté aux tâches de segmentation d'images, car cela s'est avéré être l'étape la plus importante dans la reconnaissance des gestes. En bref, les principales contributions de cette recherche sont les suivantes: La conception et la mise en oeuvre d'un algorithme de rafinement d'étiquettes qui dépend d'une première segmentation/pixel étiquetage et de deux paramétres corrélés. Le rafineur améliore la précision de la segmentation indiquée dans l'étiquetage de sortie pour les images de la bouche, il apporte également une amélioration acceptable lors de l'utilisation d'images naturelles. La définition de deux méthodes de segmentation pour les structures de la bouche dans les images; l'une fondée sur les propriétés de couleur des pixels, et l'autre sur des éléments de la texture locale, celles-ci se complétent pour obtenir une segmentation rapide et précise de la structure initiale. La palette de couleurs s'avére particuliérement importante dans la structure de séparation, tandis que la texture est excellente pour la séparation des couleurs de la bouche par rapport au fond. La dérivation d'une procédure basée sur la texture pour l'automatisation de la sélection des paramètres pour la technique de rafinement de segmentation discutée dans la première contribution. Une version améliorée de l'algorithme d'approximation bouche contour présentée dans l'ouvrage de Eveno et al. [1, 2], ce qui réduit le nombre d'itérations nécessaires pour la convergence et l'erreur d'approximation finale. La découverte de l'utilité de la composante de couleur CIE à statistiquement normalisée, dans la différenciation lévres et la langue de la peau, permettant l'utilisation des valeurs seuils constantes pour effectuer la comparaison.
This document presents a series of elements for approaching the task of segmenting mouth structures in facial images, particularly focused in frames from video sequences. Each stage is treated separately in different Chapters, starting from image pre-processing and going up to segmentation labeling post-processing, discussing the technique selection and development in every case. The methodological approach suggests the use of a color based pixel classification strategy as the basis of the mouth structure segmentation scheme, complemented by a smart pre-processing and a later label refinement. The main contribution of this work, along with the segmentation methodology itself, is based in the development of a color-independent label refinement technique. The technique, which is similar to a linear low pass filter in the segmentation labeling space followed by a nonlinear selection operation, improves the image labeling iteratively by filling small gaps and eliminating spurious regions resulting from a prior pixel classification stage. Results presented in this document suggest that the refiner is complementary to image pre-processing, hence achieving a cumulative effect in segmentation quality. At the end, the segmentation methodology comprised by input color transformation, preprocessing, pixel classification and label refinement, is put to test in the case of mouth gesture detection in images aimed to command three degrees of freedom of an endoscope holder.
Mot(s) clés libre(s) : Endoscopie, Reconnaissance de mouvement, Vision artificielle, Segmentation d'images, Interface Homme Machine, Mouvement de la bouche, Mouvement des lèvres, Medical Imaging, Endoscopy, Movement recognition, Image segmentation, Lips segmentation, Gesture classification, Human machine modelling, Human face modeling
 |  Notice  |  Texte intégral

Ovreiu Elena. Accurate 3D mesh simplification. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Les objets numériques 3D sont utilisés dans de nombreux domaines, les films d'animations, la visualisation scientifique, l'imagerie médicale, la vision par ordinateur.... Ces objets sont généralement représentés par des maillages à faces triangulaires avec un nombre énorme de triangles. La simplification de ces objets, avec préservation de la géométrie originale, a fait l'objet de nombreux travaux durant ces dernières années. Dans cette thèse, nous proposons un algorithme de simplification qui permet l'obtention d'objets simplifiés de grande précision. Nous utilisons des fusions de couples de sommets avec une relocalisation du sommet résultant qui minimise une métrique d'erreur. Nous utilisons deux types de mesures quadratiques de l'erreur : l'une uniquement entre l'objet simplifié et l'objet original (Accurate Measure of Quadratic Error (AMQE) ) et l'autre prend aussi en compte l'erreur entre l'objet original et l'objet simplifié ((Symmetric Measure of Quadratic Error (SMQE)) . Le coût calculatoire est plus important pour la seconde mesure mais elle permet une préservation des arêtes vives et des régions isolées de l'objet original par l'algorithme de simplification. Les deux mesures conduisent à des objets simplifiés plus fidèles aux originaux que les méthodes actuelles de la littérature.
Complex 3D digital objects are used in many domains such as animation films, scientific visualization, medical imaging and computer vision. These objects are usually represented by triangular meshes with many triangles. The simplification of those objects in order to keep them as close as possible to the original has received a lot of attention in the recent years. In this context, we propose a simplification algorithm which is focused on the accuracy of the simplifications. The mesh simplification uses edges collapses with vertex relocation by minimizing an error metric. Accuracy is obtained with the two error metrics we use: the Accurate Measure of Quadratic Error (AMQE) and the Symmetric Measure of Quadratic Error (SMQE). AMQE is computed as the weighted sum of squared distances between the simplified mesh and the original one. Accuracy of the measure of the geometric deviation introduced in the mesh by an edge collapse is given by the distances between surfaces. The distances are computed in between sample points of the simplified mesh and the faces of the original one. SMQE is similar to the AMQE method but computed in the both, direct and reverse directions, i.e. simplified to original and original to simplified meshes. The SMQE approach is computationnaly more expensive than the AMQE but the advantage of computing the AMQE in a reverse fashion results in the preservation of boundaries, sharp features and isolated regions of the mesh. For both measures we obtain better results than methods proposed in the literature.
Mot(s) clés libre(s) : Imagerie numérique, Imagerie médicale, Vision par ordinateur, Objet numérique 3D, Maillage, Simplification maillage, Accurate Measure of Quadratic Error - AMQE, Symmetric Measure of Quadratic Error - SMQE, Digital imaging, Medical imaging, Computer vision, Complex 3D digital objects, Accurate measure of quadratic error - AMQE, Symmetric measure of quadratic error - SMQE, Edge collapse, Mesh simplification
 |  Notice

Ovreiu Elena. Accurate 3D mesh simplification. 2012 / Thèses / accès numérique libre
Résumé
Résumé
Les objets numériques 3D sont utilisés dans de nombreux domaines, les films d'animations, la visualisation scientifique, l'imagerie médicale, la vision par ordinateur.... Ces objets sont généralement représentés par des maillages à faces triangulaires avec un nombre énorme de triangles. La simplification de ces objets, avec préservation de la géométrie originale, a fait l'objet de nombreux travaux durant ces dernières années. Dans cette thèse, nous proposons un algorithme de simplification qui permet l'obtention d'objets simplifiés de grande précision. Nous utilisons des fusions de couples de sommets avec une relocalisation du sommet résultant qui minimise une métrique d'erreur. Nous utilisons deux types de mesures quadratiques de l'erreur : l'une uniquement entre l'objet simplifié et l'objet original (Accurate Measure of Quadratic Error (AMQE) ) et l'autre prend aussi en compte l'erreur entre l'objet original et l'objet simplifié ((Symmetric Measure of Quadratic Error (SMQE)) . Le coût calculatoire est plus important pour la seconde mesure mais elle permet une préservation des arêtes vives et des régions isolées de l'objet original par l'algorithme de simplification. Les deux mesures conduisent à des objets simplifiés plus fidèles aux originaux que les méthodes actuelles de la littérature.
Complex 3D digital objects are used in many domains such as animation films, scientific visualization, medical imaging and computer vision. These objects are usually represented by triangular meshes with many triangles. The simplification of those objects in order to keep them as close as possible to the original has received a lot of attention in the recent years. In this context, we propose a simplification algorithm which is focused on the accuracy of the simplifications. The mesh simplification uses edges collapses with vertex relocation by minimizing an error metric. Accuracy is obtained with the two error metrics we use: the Accurate Measure of Quadratic Error (AMQE) and the Symmetric Measure of Quadratic Error (SMQE). AMQE is computed as the weighted sum of squared distances between the simplified mesh and the original one. Accuracy of the measure of the geometric deviation introduced in the mesh by an edge collapse is given by the distances between surfaces. The distances are computed in between sample points of the simplified mesh and the faces of the original one. SMQE is similar to the AMQE method but computed in the both, direct and reverse directions, i.e. simplified to original and original to simplified meshes. The SMQE approach is computationnaly more expensive than the AMQE but the advantage of computing the AMQE in a reverse fashion results in the preservation of boundaries, sharp features and isolated regions of the mesh. For both measures we obtain better results than methods proposed in the literature.
Mot(s) clés libre(s) : Imagerie numérique, Imagerie médicale, Vision par ordinateur, Objet numérique 3D, Maillage, Simplification maillage, Accurate Measure of Quadratic Error - AMQE, Symmetric Measure of Quadratic Error - SMQE, Digital imaging, Medical imaging, Computer vision, Complex 3D digital objects, Accurate measure of quadratic error - AMQE, Symmetric measure of quadratic error - SMQE, Edge collapse, Mesh simplification
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Sakka Omar. Alignement sémantique entre référentiels d'entreprise : Application aux systèmes d'exécution de la fabrication (MES). 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'interopérabilité entre applications d'entreprise est une problématique à multiples facettes. Pour y répondre, nous avons investigué l'alignement sémantique des connaissances sur les processus et objets métier supportés par les différentes applications d'entreprise. Ces connaissances sont souvent hétérogènes selon les métiers et implémentées de manières diverses, engendrant ainsi des conflits sémantiques dues aux différentes interprétations des acteurs. Nous étudions l'identification de correspondances et/ou de conflits sémantiques entre ces connaissances, plus particulièrement dans le domaine des applications de gestion d atelier (MES Manufacturing Execution System). Nous proposons une démarche de formalisation de ces connaissances sous la forme d'un référentiel standardisé conforme à la norme ISO 62264 : "le référentiel MES", ainsi qu une démarche d'enrichissement de ce référentiel par alignements successifs avec d autres normes et/ou référentiels. Nous définissons ainsi formellement un méta-modèle qui décrit les relations sémantiques entre les éléments des référentiels à aligner, et des règles de contrôle sémantique pour garder la cohérence du référentiel MES et sa conformité au standard. Enfin, nous présentons une démarche d'alignement des besoins client sur le référentiel MES pour aider à la mise en œuvre des applications d'entreprise. Ce travail de recherche a été réalisé dans le cadre d un projet de Recherche et Développement soutenu par le cluster économique EDIT de la région Rhône-Alpes, et sur ses résultats ont été utilisés dans une nouvelle offre de MES à la carte .
Interoperability between enterprise applications is a multifaceted problem. In response, we have investigated the semantic alignment of business process and object knowledge supported by enterprise applications. This knowledge is heterogeneous across business and is implemented in different ways, generating semantic conflicts due to different interpretations of the actors. We study the identification of correspondences and/or conflicts between semantic knowledge, especially in the field of Manufacturing Execution System (MES). We propose an approach to formalize knowledge as a standardized repository ISO 62264 compliant: the "MES repository", and an approach to enhance the MES repository by successive alignments with other standards and/or repositories. Thus, we formally define a meta-model that describes the semantic relationships between elements of the aligned repositories, and semantic control rules to keep MES repository consistency and its ISO compliance. Finally, we present an approach to align customer needs with the MES repository, in order to assist the implementation of enterprise applications. This PhD thesis was conducted as part of a research and development project supported by the economic Cluster Edit (Rhône-Alpes, France), and its results have been used in the new proposal on demand MES .
Mot(s) clés libre(s) : Génie industriel, Gestion de la production, Système d'exécution de la fabrication, MES - Manufacturing Excecution System, Alignement sémantique, Interopérabilité, Modelisation de processus, Engineering, Production planning, Manufacturing execution system, Semantic alignement, Interoperability, Process modeling
 |  Notice

Sakka Omar. Alignement sémantique entre référentiels d'entreprise : Application aux systèmes d'exécution de la fabrication (MES). 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'interopérabilité entre applications d'entreprise est une problématique à multiples facettes. Pour y répondre, nous avons investigué l'alignement sémantique des connaissances sur les processus et objets métier supportés par les différentes applications d'entreprise. Ces connaissances sont souvent hétérogènes selon les métiers et implémentées de manières diverses, engendrant ainsi des conflits sémantiques dues aux différentes interprétations des acteurs. Nous étudions l'identification de correspondances et/ou de conflits sémantiques entre ces connaissances, plus particulièrement dans le domaine des applications de gestion d atelier (MES Manufacturing Execution System). Nous proposons une démarche de formalisation de ces connaissances sous la forme d'un référentiel standardisé conforme à la norme ISO 62264 : "le référentiel MES", ainsi qu une démarche d'enrichissement de ce référentiel par alignements successifs avec d autres normes et/ou référentiels. Nous définissons ainsi formellement un méta-modèle qui décrit les relations sémantiques entre les éléments des référentiels à aligner, et des règles de contrôle sémantique pour garder la cohérence du référentiel MES et sa conformité au standard. Enfin, nous présentons une démarche d'alignement des besoins client sur le référentiel MES pour aider à la mise en œuvre des applications d'entreprise. Ce travail de recherche a été réalisé dans le cadre d un projet de Recherche et Développement soutenu par le cluster économique EDIT de la région Rhône-Alpes, et sur ses résultats ont été utilisés dans une nouvelle offre de MES à la carte .
Interoperability between enterprise applications is a multifaceted problem. In response, we have investigated the semantic alignment of business process and object knowledge supported by enterprise applications. This knowledge is heterogeneous across business and is implemented in different ways, generating semantic conflicts due to different interpretations of the actors. We study the identification of correspondences and/or conflicts between semantic knowledge, especially in the field of Manufacturing Execution System (MES). We propose an approach to formalize knowledge as a standardized repository ISO 62264 compliant: the "MES repository", and an approach to enhance the MES repository by successive alignments with other standards and/or repositories. Thus, we formally define a meta-model that describes the semantic relationships between elements of the aligned repositories, and semantic control rules to keep MES repository consistency and its ISO compliance. Finally, we present an approach to align customer needs with the MES repository, in order to assist the implementation of enterprise applications. This PhD thesis was conducted as part of a research and development project supported by the economic Cluster Edit (Rhône-Alpes, France), and its results have been used in the new proposal on demand MES .
Mot(s) clés libre(s) : Génie industriel, Gestion de la production, Système d'exécution de la fabrication, MES - Manufacturing Excecution System, Alignement sémantique, Interopérabilité, Modelisation de processus, Engineering, Production planning, Manufacturing execution system, Semantic alignement, Interoperability, Process modeling
 |  Notice  |  Texte intégral

Gonzalez-Merchan Carolina. Amélioration des connaissances sur le colmatage des systèmes d'infiltration d'eaux pluviales. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Les ouvrages d'infiltration sont utilisés aujourd hui comme alternative au réseau d assainissement pluvial. Ils réduisent les risques d'inondation, contribuent au piégeage de polluants permettant ainsi de limiter la détérioration des milieux aquatiques superficiels et sont reconnus pour recharger la nappe. Cependant leur fonctionnement est affecté à long terme par le colmatage réduisant leur performance hydraulique. Par ailleurs, lorsque ces systèmes sont munis de surverses, le colmatage limite les capacités d'interception des flux d'eau et des polluants. Le colmatage constitue donc un facteur clé dans le fonctionnement de ces systèmes tant sur un plan hydraulique qu'environnemental. Cette thèse a pour but de mesurer et de comprendre l'évolution spatio-temporelle du colmatage à une échelle mégascopique (l'échelle d'un ouvrage extensif type) et diachronique (sur le moyen terme). Pour cela une approche expérimentale a été menée au sein de l'Observatoire de Terrain en Hydrologie Urbaine (OTHU) selon trois niveaux d'investigation sur un même ouvrage en conditions réelles de fonctionnement. Un premier niveau (échelle globale) a consisté à mesurer l'évolution temporelle du système pris dans son ensemble grâce au calage de la résistance hydraulique au sens du modèle de Bouwer. Cette étape a nécessité de mesurer et d'exploiter des données en continu de flux d eau, de sédiments, de matière organique apportés au système, les facteurs environnementaux comme la température d'air et d'eau, l'ensoleillement, le rythme, la nature des événements pluvieux, la saisonnalité, etc., sur un historique de 8 ans. Cette étape nous a mis en évidence la dynamique d'évolution du colmatage et le rôle bénéfique du développement de la végétation sur le maintien de la capacité d'infiltration globale d'un ouvrage de ce type. Un deuxième niveau (échelle semi globale) nous permettant de distinguer l'évolution temporelle du colmatage du fond et des parois, a montré leur dynamique respective (rapide pour le fond, très lente voire inexistante pour les parois). Un troisième niveau (échelle locale) a tenté d'explorer la répartition spatiale et temporelle du colmatage sur le fond des ouvrages sur des échelles de temps plus courtes. L'approche expérimentale a consisté à caractériser la couche colmatante en terme physico chimique et dans une moindre mesure biologique (conductivité hydraulique à saturation, granulométrie, porosité, masse volumique apparente, masse volumique des particules solides, matière organique, biomasse). Elle a analysé également le rôle de la végétation spontanée sur la capacité d'infiltration vis-à-vis des caractéristiques de l'horizon de surface et la structure aérienne et racinaire des espèces présentes. Enfin des analyses statistiques de l'évolution du colmatage à chaque échelle a mis en évidence la part potentiellement importante du colmatage biologique sur ces systèmes alors que, pour la gestion des eaux pluviales ce facteur est généralement négligé.
Infiltration systems are widely used in urban stormwater management. Infiltration systems can significantly reduce stormwater discharges to sewer systems and may therefore contribute to the mitigation of flooding problems. In addition infiltrations systems also help to reduce stormwater pollution, contribute to groundwater recharge and to water course protection. However, the hydraulic performance of infiltration systems decreases with time due to clogging effects. A clogged layer limits the transfer of water and pollutants in infiltrations systems. The clogging has a significant impact on the long-term performance of a system. The aim of this PhD study is to better understand spatio-temporal evolution of clogging on large infiltration systems involving different scales: (i) global scale, (ii) semi - global (the whole bottom and the sides), (iii) local scale (different part of the bottom). An experimental approach has been carried out in the OTHU project (Field Observatory on Urban Hydrology, www.othu.org). An infiltration basin studied with three investigations scales under real operation conditions. In a global scale, the temporal clogging evolution of the system was evaluated in terms of hydraulic resistance. This clogging indicator was calibrated from Bouwer s model. Water inflow, TSS, COD, climatic factors (air temperature and solar energy), stormwater events and season variations were measured. The results describe the clogging evolution over 8 years. It indicates that vegetation may have a beneficial effect on infiltration capacity. In a semi global scale study, clogging evolution at the bottom and the sides, of the infiltration basin was evaluated. It proved that the clogging mainly occurs at the bottom, that is, the bottom was clogged fast and the clogging at the sides was slow. Local scale study, spatial distribution and temporal evolution of clogging at the bottom with in situ measurements during 2 years were investigated. The study characterised the clogged layer, with bio physic-chemical parameters (i.e., were investigated hydraulic conductivity, porosity, grain size, dry bulk density, organic matter and biomass content). This analyze compared also the role of different types of spontaneous vegetation. The result showed the high spatio-temporal heterogeneity on the infiltration surface. Statistical analysis of clogging evolution in each scale showed the significant impacts of biological activity in the stormwater infiltration basins, which was often neglected
Mot(s) clés libre(s) : Génie des eaux, Traitement des eaux, Pluie, Réseau d'assainissement, Bassin d' infiltration, Eaux pluviales, Hydrologie urbaine, Colmatage, Infiltration bassin, Stormwater, Clogging, Urban hdrology
 |  Notice

Gonzalez-Merchan Carolina. Amélioration des connaissances sur le colmatage des systèmes d'infiltration d'eaux pluviales. 2012 / Thèses / accès numérique libre
Résumé
Résumé
Les ouvrages d'infiltration sont utilisés aujourd hui comme alternative au réseau d assainissement pluvial. Ils réduisent les risques d'inondation, contribuent au piégeage de polluants permettant ainsi de limiter la détérioration des milieux aquatiques superficiels et sont reconnus pour recharger la nappe. Cependant leur fonctionnement est affecté à long terme par le colmatage réduisant leur performance hydraulique. Par ailleurs, lorsque ces systèmes sont munis de surverses, le colmatage limite les capacités d'interception des flux d'eau et des polluants. Le colmatage constitue donc un facteur clé dans le fonctionnement de ces systèmes tant sur un plan hydraulique qu'environnemental. Cette thèse a pour but de mesurer et de comprendre l'évolution spatio-temporelle du colmatage à une échelle mégascopique (l'échelle d'un ouvrage extensif type) et diachronique (sur le moyen terme). Pour cela une approche expérimentale a été menée au sein de l'Observatoire de Terrain en Hydrologie Urbaine (OTHU) selon trois niveaux d'investigation sur un même ouvrage en conditions réelles de fonctionnement. Un premier niveau (échelle globale) a consisté à mesurer l'évolution temporelle du système pris dans son ensemble grâce au calage de la résistance hydraulique au sens du modèle de Bouwer. Cette étape a nécessité de mesurer et d'exploiter des données en continu de flux d eau, de sédiments, de matière organique apportés au système, les facteurs environnementaux comme la température d'air et d'eau, l'ensoleillement, le rythme, la nature des événements pluvieux, la saisonnalité, etc., sur un historique de 8 ans. Cette étape nous a mis en évidence la dynamique d'évolution du colmatage et le rôle bénéfique du développement de la végétation sur le maintien de la capacité d'infiltration globale d'un ouvrage de ce type. Un deuxième niveau (échelle semi globale) nous permettant de distinguer l'évolution temporelle du colmatage du fond et des parois, a montré leur dynamique respective (rapide pour le fond, très lente voire inexistante pour les parois). Un troisième niveau (échelle locale) a tenté d'explorer la répartition spatiale et temporelle du colmatage sur le fond des ouvrages sur des échelles de temps plus courtes. L'approche expérimentale a consisté à caractériser la couche colmatante en terme physico chimique et dans une moindre mesure biologique (conductivité hydraulique à saturation, granulométrie, porosité, masse volumique apparente, masse volumique des particules solides, matière organique, biomasse). Elle a analysé également le rôle de la végétation spontanée sur la capacité d'infiltration vis-à-vis des caractéristiques de l'horizon de surface et la structure aérienne et racinaire des espèces présentes. Enfin des analyses statistiques de l'évolution du colmatage à chaque échelle a mis en évidence la part potentiellement importante du colmatage biologique sur ces systèmes alors que, pour la gestion des eaux pluviales ce facteur est généralement négligé.
Infiltration systems are widely used in urban stormwater management. Infiltration systems can significantly reduce stormwater discharges to sewer systems and may therefore contribute to the mitigation of flooding problems. In addition infiltrations systems also help to reduce stormwater pollution, contribute to groundwater recharge and to water course protection. However, the hydraulic performance of infiltration systems decreases with time due to clogging effects. A clogged layer limits the transfer of water and pollutants in infiltrations systems. The clogging has a significant impact on the long-term performance of a system. The aim of this PhD study is to better understand spatio-temporal evolution of clogging on large infiltration systems involving different scales: (i) global scale, (ii) semi - global (the whole bottom and the sides), (iii) local scale (different part of the bottom). An experimental approach has been carried out in the OTHU project (Field Observatory on Urban Hydrology, www.othu.org). An infiltration basin studied with three investigations scales under real operation conditions. In a global scale, the temporal clogging evolution of the system was evaluated in terms of hydraulic resistance. This clogging indicator was calibrated from Bouwer s model. Water inflow, TSS, COD, climatic factors (air temperature and solar energy), stormwater events and season variations were measured. The results describe the clogging evolution over 8 years. It indicates that vegetation may have a beneficial effect on infiltration capacity. In a semi global scale study, clogging evolution at the bottom and the sides, of the infiltration basin was evaluated. It proved that the clogging mainly occurs at the bottom, that is, the bottom was clogged fast and the clogging at the sides was slow. Local scale study, spatial distribution and temporal evolution of clogging at the bottom with in situ measurements during 2 years were investigated. The study characterised the clogged layer, with bio physic-chemical parameters (i.e., were investigated hydraulic conductivity, porosity, grain size, dry bulk density, organic matter and biomass content). This analyze compared also the role of different types of spontaneous vegetation. The result showed the high spatio-temporal heterogeneity on the infiltration surface. Statistical analysis of clogging evolution in each scale showed the significant impacts of biological activity in the stormwater infiltration basins, which was often neglected
Mot(s) clés libre(s) : Génie des eaux, Traitement des eaux, Pluie, Réseau d'assainissement, Bassin d' infiltration, Eaux pluviales, Hydrologie urbaine, Colmatage, Infiltration bassin, Stormwater, Clogging, Urban hdrology
 |  Notice  |  Texte intégral  |  Droits d'utilisation

Chagheri Samaneh. An XML document representation method based on structure and content : application in technical document classification. 2012 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'amélioration rapide du nombre de documents stockés électroniquement représente un défi pour la classification automatique de documents. Les systèmes de classification traditionnels traitent les documents en tant que texte plat, mais les documents sont de plus en plus structurés. Par exemple, XML est la norme plus connue et plus utilisée pour la représentation de documents structurés. Ce type des documents comprend des informations complémentaires sur l'organisation du contenu représentées par différents éléments comme les titres, les sections, les légendes etc. Pour tenir compte des informations stockées dans la structure logique, nous proposons une approche de représentation des documents structurés basée à la fois sur la structure logique du document et son contenu textuel. Notre approche étend le modèle traditionnel de représentation du document appelé modèle vectoriel. Nous avons essayé d'utiliser d'information structurelle dans toutes les phases de la représentation du document: -procédure d'extraction de caractéristiques, -La sélection des caractéristiques, -Pondération des caractéristiques. Notre deuxième contribution concerne d'appliquer notre approche générique à un domaine réel : classification des documents techniques. Nous désirons mettre en œuvre notre proposition sur une collection de documents techniques sauvegardés électroniquement dans la société CONTINEW spécialisée dans l'audit de documents techniques. Ces documents sont en format représentations où la structure logique est non accessible. Nous proposons une solution d'interprétation de documents pour détecter la structure logique des documents à partir de leur présentation physique. Ainsi une collection hétérogène en différents formats de stockage est transformée en une collection homogène de documents XML contenant le même schéma logique. Cette contribution est basée sur un apprentissage supervisé. En conclusion, notre proposition prend en charge l'ensemble de flux de traitements des documents partant du format original jusqu'à la détermination de la ses classe Dans notre système l'algorithme de classification utilisé est SVM.
Rapid improvement in the number of documents stored electronically presents a challenge for automatic classification of documents. Traditional classification systems consider documents as a plain text; however documents are becoming more and more structured. For example, XML is the most known and used standard for structured document representation. These documents include supplementary information on content organization represented by different elements such as title, section, caption etc. We propose an approach on structured document classification based on both document logical structure and its content in order to take into account the information present in logical structure. Our approach extends the traditional document representation model called Vector Space Model (VSM). We have tried to integrate structural information in all phases of document representation construction: -Feature extraction procedure, -Feature selection, -Feature weighting. Our second contribution concerns to apply our generic approach to a real domain of technical documentation. We desire to use our proposition for classifying technical documents electronically saved in CONTINEW; society specialized in technical document audit. These documents are in legacy format in which logical structure is inaccessible. Then we propose an approach for document understanding in order to extract documents logical structure from their presentation layout. Thus a collection of heterogeneous documents in different physical presentations and formats is transformed to a homogenous XML collection sharing the same logical structure. Our contribution is based on learning approach where each logical element is described by its physical characteristics. Therefore, our proposal supports whole document transformation workflow from document s original format to being classified. In our system SVM has been used as classification algorithm.
Mot(s) clés libre(s) : Informatique, Document structuré, Document XML, Classification supervisée, Structure logique, Reconstruction structure, Computer science, Structured document, XML document, Supervised classification, Logical structure, Restructuring
 |  Notice

Chagheri Samaneh. An XML document representation method based on structure and content : application in technical document classification. 2012 / Thèses / accès numérique réservé
Résumé
Résumé
L'amélioration rapide du nombre de documents stockés électroniquement représente un défi pour la classification automatique de documents. Les systèmes de classification traditionnels traitent les documents en tant que texte plat, mais les documents sont de plus en plus structurés. Par exemple, XML est la norme plus connue et plus utilisée pour la représentation de documents structurés. Ce type des documents comprend des informations complémentaires sur l'organisation du contenu représentées par différents éléments comme les titres, les sections, les légendes etc. Pour tenir compte des informations stockées dans la structure logique, nous proposons une approche de représentation des documents structurés basée à la fois sur la structure logique du document et son contenu textuel. Notre approche étend le modèle traditionnel de représentation du document appelé modèle vectoriel. Nous avons essayé d'utiliser d'information structurelle dans toutes les phases de la représentation du document: -procédure d'extraction de caractéristiques, -La sélection des caractéristiques, -Pondération des caractéristiques. Notre deuxième contribution concerne d'appliquer notre approche générique à un domaine réel : classification des documents techniques. Nous désirons mettre en œuvre notre proposition sur une collection de documents techniques sauvegardés électroniquement dans la société CONTINEW spécialisée dans l'audit de documents techniques. Ces documents sont en format représentations où la structure logique est non accessible. Nous proposons une solution d'interprétation de documents pour détecter la structure logique des documents à partir de leur présentation physique. Ainsi une collection hétérogène en différents formats de stockage est transformée en une collection homogène de documents XML contenant le même schéma logique. Cette contribution est basée sur un apprentissage supervisé. En conclusion, notre proposition prend en charge l'ensemble de flux de traitements des documents partant du format original jusqu'à la détermination de la ses classe Dans notre système l'algorithme de classification utilisé est SVM.
Rapid improvement in the number of documents stored electronically presents a challenge for automatic classification of documents. Traditional classification systems consider documents as a plain text; however documents are becoming more and more structured. For example, XML is the most known and used standard for structured document representation. These documents include supplementary information on content organization represented by different elements such as title, section, caption etc. We propose an approach on structured document classification based on both document logical structure and its content in order to take into account the information present in logical structure. Our approach extends the traditional document representation model called Vector Space Model (VSM). We have tried to integrate structural information in all phases of document representation construction: -Feature extraction procedure, -Feature selection, -Feature weighting. Our second contribution concerns to apply our generic approach to a real domain of technical documentation. We desire to use our proposition for classifying technical documents electronically saved in CONTINEW; society specialized in technical document audit. These documents are in legacy format in which logical structure is inaccessible. Then we propose an approach for document understanding in order to extract documents logical structure from their presentation layout. Thus a collection of heterogeneous documents in different physical presentations and formats is transformed to a homogenous XML collection sharing the same logical structure. Our contribution is based on learning approach where each logical element is described by its physical characteristics. Therefore, our proposal supports whole document transformation workflow from document s original format to being classified. In our system SVM has been used as classification algorithm.
Mot(s) clés libre(s) : Informatique, Document structuré, Document XML, Classification supervisée, Structure logique, Reconstruction structure, Computer science, Structured document, XML document, Supervised classification, Logical structure, Restructuring
 |  Notice  |  Texte intégral  |  Droits d'utilisation