Accueil bibliothèque de L'INSA Lyon

  • 150 ressources ont été trouvées. Voici les résultats 1 à 10
Tri :   Titre Auteur
Salomé Murielle. Acquisition et quantification d'images du réseau trabéculaire osseux en microtomographie tridimensionnelle utilisant le rayonnement synchrotron. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'architecture de l'os trabéculaire, qui conditionne avec la densité osseuse ses propriétés mécaniques, est constituée de travées d'une épaisseur moyenne de 100 microns arrangées de façon anisotrope en trois dimensions. L'étude de cette structure demande donc idéalement une modalité d'imagerie haute résolution et tridimensionnelle (30). La tomographie X, qui permet de reconstruire de façon non destructive une image 3D d'un échantillon à partir de projections sous différents angles de vue, est une technique adaptée. Ces travaux de thèse portent sur la mise au point d'un système d'acquisition micro-tomographique utilisant le rayonnement synchrotron, spécialement dédié à l'imagerie de la structure osseuse. Grâce aux propriétés du rayonnement synchrotron, le système que nous avons développé à l'ESRF, Grenoble, fournit des images 3D d'échantillons osseux in vitro avec une résolution spatiale de l'ordre de 10 microns. Afin de mesurer sur ces images des paramètres morphologiques et topologiques représentatifs de l'architecture osseuse, nous avons développé des outils de quantification 2D et 30. Les paramètres mesurés ont été comparés à des mesures histomorphométriques conventionnelles. Nous avons également étudié l'influence de la résolution spatiale des images sur la quantification de l'architecture trabéculaire, en simulation et dans un cas réel par des mesures croisées entre notre système et un scanner micro-tomographique de plus basse résolution spatiale. Les outils d'imagerie et de quantification développés ont enfin été utilisés dans le cadre d'une étude portant sur l'évolution de l'architecture osseuse avec le vieillissement. Nous avons également abordé d'autres applications comme le suivi de l'effet structural de médicaments contre l'ostéoporose ou l'étude de l'organisation de l'os trabéculaire fœtal.
Trabecular bone architecture which determines bone density and its mechanical properties is highly anisotropic and made of trabeculae with an average thickness of 100 microns. As a consequence, the study of this structure ideally requires a high resolution three-dimensional (3D) imaging tool. X-ray tomography which allows reconstructing non-destructively a 3D image of a sample from projections taken at different .viewing angles is well ml1ted. This work deals with the development of a microtomographic imaging system using synchrotron radiation and dedicated to bone structure studies. Thanks to the properties of synchrotron radiation, the system which we have developed at ESRF, Grenoble, provides 3D images of bone samples in vitro with a spatial resolution around 10 microns. In order to measure morphometric and topological parameters representative of bone structure from these images, we have developed 2D and 3D quantification tools. These parameters have been compared to conventional histomorphometric measurements. The influence of spatial résolution on the evaluation of bone architecture has also been studied, both in simulation and in a real case by comparing measurements performed with our system and with a lower spatial resolution nùcrotomographic scanner. These imaging and quantification tools have been used in a study dealing with the evolution of the structure of trabecular bone with aging. We have also investigated other applications like the study of the structural effects of drugs against osteoporosis and the study of fetal trabecular bone
Mot(s) clés libre(s) : IMAGERIE MEDICALE, TROMOGRAPHIE TRIDIMENSIONNELLE, HAUTE RESOLUTION, RAYONNEMENT SYNCHROTRON, IMAGE TRIDIMENSIONNELLE, OS SPONGIEUX, ARCHITECTURE, VIEILLISSEMENT
 |  Notice

Meziane Souad. Analyse et conversion de documents : du pixel au langage HTML. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Mon travail de thèse s'inscrit dans la thématique de recherche "Analyse des Documents" du Laboratoire Reconnaissance de Formes et Vision. Pour réaliser un système capable d'analyser des documents et d'en restituer la structure, les méthodologies s'appuient sur plusieurs approches et particulièrement sur l'approche syntaxique et structurelle de la Reconnaissance de Formes. Le but recherché dans ce travail est d'arriver à convertir des documents papier vers des documents électroniques tels que les documents HTML car ce sont les documents les plus utilisés sur 1 'Internet. Le domaine d'application d'un tel système peut être général, cependant, nous nous concentrons en premier sur un type particulier de documents à typographie riche : les sommaires. Dans ce contexte, nous avons mis en œuvre un système s'appuyant d'une part sur les structures physique et logique du document et d'autre part sur l'inférence de Grammaire à Deux Niveaux.. Elle est composée de deux grammaires : une méta-grammaire et une hyper-grammaire. Dans notre système, le rôle de la méta-grammaire est de décrire les structures physique et logique du document. L'hyper-grammaire décrit les traitements à effectuer pour convertir le document en html. L'analyse d'un sommaire s'effectue en deux étapes. Lors de la première étape, le système construit une base d'apprentissage en utilisant l'inférence grammaticale. Cette base contient plusieurs modèles de sommaires à identifier. Un document inconnu, soumis au système est identifié par appariement avec les modèles de la base, en utilisant toutes les informations issues de l'étape d'analyse. La mise en page du document dans le format HTML est basée sur l'analyse grammaticale de l'hyper-grammaire. Cette dernière est obtenue par traduction des étiquettes logiques et des paramètres typographiques en commandes HTML. Le résultat de l'analyse de l'hyper-grammaire produit le document HTML équivalent au document étudié. Il est visualisé par un logiciel de navigation
This work is part of the thematic "Document Analysis" in the Laboratory Reconnaissance de Forme et Vision(RFV). To achieve an analysis system ables to, interpret documents and to restore its structure, the Methodologies we have chosen lean on several approaches and particularly on the syntactic and structural approach of the Pattern Recognition. The aim in this work is to convert some paper documents into HTML documents because these documents are more used on the Internet. The application domain of such systems could be general; however, we concentrate us on a particular type of documents with a rich typography: the summaries. In this context, we have realized a system that exploits on one hand the information about content of the document such as its physical and logical structures, and on the other hand on two level grammars. It is composed with two grammars: a meta-grammar and a hyper-grammar. In our system, the role of the meta-grammar is to describe the physical and logical structures of the document. The hyper-grammar is constituted with a set of calculus rules and describes the treatments to do in order to convert the document in HTML. The summary analysis is done in two steps: analysis and identification of the document, and then translation into HTML. During of the first step, the system constructs a learning base by using the grammatical inference. This base contains several patterns of synopses to identify. An unknown document, submitted to the system is identified by matching with the patterns of the base by using all the attributes obtained in the analysis step. The layout of HTML document construction is based on the grammatical analysis of the hyper-grammar. The last is obtained by translation of the logical labels and some typographic parameters into HTML commands. The result of the grammatical analysis of the hyper-grammar produces the structured HTML document corresponding to the studied document. This last will be visualized by software of navigation.
Mot(s) clés libre(s) : INFORMATIQUE, LANGAGE BALISE, HTML, SGML, GESTION DOCUMENT
 |  Notice

Waltz Patrice. Analyse et modélisation de la tenue à l'électromigration des interconnexions en régime dynamique. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
De plus en plus étroites, les interconnexions des circuits intégrés, sont soumises à des densités de courant de plus en plus importantes. Leur fiabilité est alors considérablement limitée par les phénomènes d électro migration, transport de matière induit par le passage d'un courant électrique. Actuellement des règles de .dessin, établies à partir d'essais en régime continu, sont beaucoup trop sévères et !mutent la réduction des dimensions. Pour pallier à cette difficulté, les concepteurs sont demandeurs de règles de dessin déduites de tests d’électro migration en régimes pulsés, plus proches des conditions réelles de fonctionnement. L'étude de la dégradation des lignes en régime dynamique a été réalisée à l'aide de deux bancs de mesure utilisant la méthode ~u test de durée de, vie. Ces bancs permettent d'appliquer des signaux carres unidirectionnels jusqu’à 1 MHz pour l'un et bidirectionnels jusqu'à 10 MHz pour l'autre. Un modèle thermique basé sur un système à une constante de temps permet de décrire l'évolution de la température de la ligne au cours du test. Il permet d'extraire, en fonction de la fréquence et du rapport cyclique, l'amplitude du cyclage thermique et des températures d'analyse propres au régime dynamique. B Les résultats expérimentaux obtenus sur des structures NIST de largeurs 3 ou 4f1m valident Je modèle du courant moyen pour des fréquences supérieures à 100Hz et le « On-Time Mode!» pour la fréquence de 1Hz. Ils mettent en évidence la même cinétique de défaillance en régime dynamique et en régime continu avec une importante proportion de défaillances dues aux gradients thermiques. Les phénomènes de déplétion et d'accumulation de matière sont plus prononcés en régime pulsé unidirectionnel qu'en régime continu en raison des durées de vie plus longues. De plus, les défaillances sont différentes pour des motifs avec amenées de courant par vias en tungstène et son localisées essentiellement à l'aplomb des vias en entre d'électrons. En régime bidirectionnel avec des courants positif et négatif de même amplitude, les durées de vie sont considérablement prolongées. Même si les défaillances sont de même type qu'en régimes continu et unidirectionnel, elles n'apparaissent plus au niveau des vias en tungstène, situant une forte divergence du flux de matière, mais dans la ligne de test. Le comportement des structures soumises à des sigaux fortement asymétriques se rapproche de celui obtenu en régime unidirectionnel en raison de 1; forte amplitude du cyclage thermique entre les alternances positives et négatives.
As the dimensions of VLSI integrated circuits devices are scaled down, the current densities carried through the interconnection lines increases. Their reliability is then hugely limited by a current induced matter transport phenomenon called electro migration. Today, the design rules used established with DC currents, are to severe and prevent a further down scaling of the circuit, dimensions. The designers need guidelines obtained from pulsed electro migration tests which are closer to the real circuit operating conditions. The study has been achieved using two test benches based on a classical lifetime test method. With this equipment, it is possible to apply unidirectional current stresses up to 1 MHz for the first bench, and bidirectional stresses up to l0 MHz for the second one. An analytical thermal model based on a one thermal time constant system is used to describe the evolution of the line temperature versus time during a pulsed electro migration test. It allows to extract the amplitude of the temperature cycling and the temperatures to use for analysis of the test results, as functions of frequency and duty cycle. The experimental results obtained with 3 or 4f,lm wide NIST structures validate the average current model for frequencies above 100Hz and the on time model for 1Hz. They emphasize the same degradation mechanisms in the pulsed current case than in the DC current case, with a great number of failures due to thermal gradients. The longer lifetimes under pulsed stress conditions lead to more pronounced depletion and accumulation effects due to the diffusion mechanisms. Moreover, the failures are different for structures with current access through tungsten vias and are located above the vias on the cathode side. Bidirectional stresses with the same current peak values in the positive and negative half cycles lead to much longer lifetimes and to an improved electro migration reliability. The failures are the same than in DC and unidirectional cases, but appear in the line and not in the via contact region where the flux divergence is maximum. The behavior of structures submitted to strongly asymmetric signals tends towards a unidirectional behavior because of an important thermal cycling between the positive and negative half cycles.
Mot(s) clés libre(s) : CIRCUIT INTEGRE, INTERCONNEXION, FIABILITE, ELECTROMIGRATION, ALUMINIUM, SIMULATION, EFFET THERMIQUE, REGIME DYNAMIQUE
 |  Notice

Kahouadji Amira. Analyse et modélisation du retrait des bétons de sable fluides. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Le travail présenté dans ce mémoire a consisté à comparer le comportement d'un béton de sable fluide à celui d'un béton ordinaire de même classe de résistance, au niveau des déformations de retrait libre l'étude bibliographique présentée dans la première partie a permis de recenser et d'analyser les trois principaux modèles habituellement utilisés pour décrire le retrait. Des essais de conductimétrie, de calorimétrie, le suivi de la cinétique de séchage des matériaux, des observations au microscope électronique à balayage et l'analyse porosimétrique au mercure, ont été choisis pour caractériser la microstructure. L'étude expérimentale a concerné le retrait plastique, le retrait endogène, le retrait de dessiccation et les résistances respectives des deux bétons. Ont été suivies parallèlement, les déformations des bétons de sable pour différentes conditions de température (T = 20°C et 30°C) et d'hygrométrie (HR =50, 60, 70 et. 90%) et leur perte de masse au cours du temps. Une approche de la modélisation du retrait est également proposée. La possibilité d'évaluer le retrait endogène en fonction des résistances et le retrait de dessiccation en fonction des compositions et des dosages, permet de réduire de manière conséquente le nombre d'essais préliminaires.
The work presented in this thesis, compares the behavior of the fluid concrete to the ordinary one with the exactly the same strength of the free strain of concrete.The bibliographical study, presented in this work, had permitted to analyze the tree principal models used to describe the shrinkage The monitoring of the drying process of microscope and the analysis of their porometry, of the mono modal type, were thus shown. The drying shrinkage of sand concrete has a kinetic which does not greatly differ from of ordinary concrete, however the sand concrete amplitude is almost twice that ordinary concrete. The autogenously shrinkage of the two concrete are almost identical. We have study simu1tanemet the shrinkage at different conditions (T= 2 0° and 30°C) and humidity (HR=50, 60, 70, 9(0 %) and their lost of height. Another important result found is that the desiccation of the sand concrete occurs without major cracking. This is explaining by the velocity and essentially by the uniformity.
Mot(s) clés libre(s) : MATERIAU, MATERIAU CONSTRUCTION, BETON, BETON FLUIDE, RETRAIT, BETON SABLE, FLUIDE, BETON AUTONIVELANT, RETRAIT ENDOGENE, RETRAIT HYGROMETRIQUE, RETRAIT THERMIQUE, RETRAIT PLASTIQUE, MODELE CEB, MODELE ACI, MODELE BPEL, MODELISATION DEFORMATION, MICROSTRUCTURE, CURE THERMIQUE, CURE HYGROMETRIQUE
 |  Notice

Burlat Matthieu. Analyse mécanique et tribologique de l'emboutissage : application aux outils fabriqués par combinaison de différents matériaux. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'objectif est de trouver des solutions à la fabrication d'outils d'emboutissage afin de réduire leur coût. Ces solutions passent par l'élimination de l'usinage des matériaux métalliques mais, étant donné les contraintes liées à l'emboutissage, il est indispensable de conserver un matériau métallique au niveau de la surface des outils. Nous montrons qu'il est possible de fabriquer des outils par combinaison de différents matériaux. Une méthode est proposée qui consiste à fabriquer par électroformage une peau métallique de surface puis à couler un béton hydraulique avec une résine de liaison. Cependant, l'introduction de matériaux nouveaux pour cette application implique de pouvoir exiger leurs performances. Cette étude a donc conduits à travailler conjointement sur deux aspects de la mécanique des matériaux, caractéristiques des problèmes de volume et des problèmes de surface. Des calculs par éléments finis modélisant 1' opération complète d'emboutissage sur différents cas de formage, ont permis de déterminer la répartition des contraintes dans les outils suivant leur mode de fabrication. Ces calculs ont confirmé notre choix de mode de fabrication en terme de contraintes limites. Afin de reproduire les phénomènes tribologiques apparaissant en emboutissage, nous avons défini un nouvel essai de frottement. Celui-ci a permis, à partir d'analyses sur la surface des tôles, de mettre en avant leur rôle dans l'accommodation des vitesses et donc leur rôle à sauvegarder l'état de surface de 1 'outil, dans le cas des outils avec surface travaillante métallique. En parallèle, des caractérisations de différents matériaux ont été effectuées et des outils d'emboutissage de laboratoire ont été fabriqués et testés afin de définir les matériaux et les méthodes de mises en œuvre optimales. Ceci a finalement abouti à la réalisation d'un outil dont la "' conception et la fabrication ont été validées par des essais à caractère industriel.
The object is to show that there exist alternative methods in the manufacturing of metal forming tools in order to reduce cast. These methods eliminate metallic material machining operation but, given metal forming constraints, it seems necessary to preserve a metallic material on the tools surface. Therefore, we show that it is possible to consider the manufacturing of metal forming tools by different material combinations. Thus, a method has been proposed that consists on an electroformed metallic surface skin with a connection resin interface filled with hydraulic concrete cast. However, the new materials introduced for this application had to verify their performances. Two problems were treated in parallel: those of volume stresses and of surface behavior. Therefore, a global analysis of stresses that appear in tools was undertaken, as well as a general tribology study of the metal forming process. Finite element calculations modeling the complete metal forming process of different model cases allowed to determinate the stress distribution that can appear in tools corresponding to their manufacturing process. These calculations confirmed the h ice of processes in terms of yielding stresses. So as to reproduce the tribology phenomena that appear in metal forming, new test was defined. From analyses undertaken on the surface of metal sheets this test allowed us to investigate the role of the surface's sheets in the adaptation of the r relative speed, and therefore determine its ability to preserve the state of the tool's in the case of metal forming tools with metallic surface. In parallel to these studies, characterisations of different materials and laboratory fabricated metal forming tools have been undertaken in order to define the optimum materials and implementation process. Utilizing these design advantages, we have produced a quality tool at a much lower cast that has been validated by industrial metal forming tests.
Mot(s) clés libre(s) : TRIBOLOGIE, ANALYSE MECANIQUE, USINAGE, EMBOUTISSAGE, FORMAGE, ELECTROFORMAGE, OUTIL EMBOUTISSAGE, OUTILLAGE, MATERIAU EMBOUTISSAGE, FROTTEMENT, LUBRIFIANT, TOLE ACIER
 |  Notice

Bensemra-Zegadi Nacera. Analyse spectrale locale d'images texturées par transformation en ondelettes : application à la quantification de textures osseuses. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La texture est une notion naturellement multi-échelles et qui est liée à un observateur humain. Sous sa forme classique La transformation en ondelettes (TO) fait partie des représentations mufti-échelles. Elle permet une observation hiérarchique de la texture du global vers le local, qui présente une similitude avec le système visuel humain et qui permet de caractériser les interactions spatiales intra-échelle de la texture. Nous nous intéressons aussi à une deuxième interprétation de la TO continue en tant qu'outil d'analyse espace-fréquences spatiales. Les transformations espace-fréquences spatiales permettent d'associer un spectre fréquentiel local à chaque point de l'image. Ainsi le spectrogramme, la transformation de Gabor, la transformation de Wigner-Ville et la version quadratique de la TO peuvent-ils être définis pour les images, dans une classe de représentations énergétiques. Les relations entre ces différentes transformations peuvent s'exprimer à l'aide de la transformation de Wigner-Ville qui joue un rôle théorique central. Une technique de calcul basée sur la transformation de Mellin-Fourier est proposée. La représentation spectrale de la TO ainsi obtenue est bien adaptée à l'analyse de texture. Elle permet l'extraction de nombreux paramètres fréquentiels à partir des spectres locaux. Des paramètres, caractérisant l'anisotropie et l'orientation, sont en particulier proposés et illustrés sur des textures naturelles. La TO continue, est aussi bien adaptée à l'estimation d'un paramètre inter-échelles qui est La dimension fractale. Celle-ci permet ainsi de caractériser la rugosité de la texture. L'approche texturale constitue une méthode non invasive, particulièrement intéressante pour la quantification des altérations structurales dues au vieillissement de la vertèbre. Nous avons utilisé des méthodes d'analyse locale de la texture par la TO ainsi que d'autres globales sur des d'images radiologiques de la vertèbre (obtenues par tomographie haute résolution et par historadiographie sagittale). Ces images de coupes, par leur situation particulière vis à vis de 1 'axe principal du rachis lombaire, permettent d'approcher l'information 3D contenue dans la texture osseuse.
Texture is naturally a multi-scale notion which is linked to a human observant. In its classical form, wavelet transform (WT) is a multi-scale representation. It permits a hierarchical texture observation, in a global and a local manner, similar at the human vision and which characterise spatial interactions into-scale. We focus also on a second interpretation of WT as a frequency analysis tool. Space-frequency transformations associate a local frequential spectrum to each point of the image. Thus, spectrogram, Gabor transform, Wigner-Ville transform and the quadratic form of WT can be defined for images in a class of energetic representations. Relationships between these transformations can be expressed by means of the Wigner-Ville transform, which plays a central theoretical role. A Mellin-Fourier transform based technique is proposed. The obtained spectral representation is well adapted to texture analysis. It allows extracting a large number of frequential parameters from local spectra. Moreover, parameters characterising orientation and anisotropy are proposed and illustrated with natural textures. WT is also well suited to estimate -the fractal dimension. This last parameter permits to characterise the roughness texture. The textural approach is a non invasive method which is particularly interesting to quantify structural variations due to vertebra aging. We have used local analysis methods and some global ones on radiological images of vertebra (obtained in high resolution tomography and in sagital micro-radiography), which contains different directional informations.
Mot(s) clés libre(s) : IMAGERIE MEDICALE, REPRESENTATION MULTIECHELLE, ANALYSE TEMPS FREQUENCE, ONDELETTE, FRACTAL, TRANSFORMATION MELLIN, ANALYSE TEXTURE, VERTEBRE
 |  Notice

Gorce Jean-Marie. Analyse spectrale locale par modélisation autoregressive spatialement régularisée : application aux images de radiofréquence en échocardiographie ultrasonore. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'analyse spectrale locale, ou l'analyse temps-fréquence des images de radiofréquence (RF) en échographie ultrasonore est délicate du fait de la non-stationnarité des signaux RF et de leur caractère fortement aléatoire, qui conduit à des variances d'estimation élevées pour des méthodes conventionnelles (spectrogramme). De plus, des changements brusques des caractéristiques spectrales locales apparaissent aux interfaces entre les différents tissus sondés. Dans ce contexte, nous proposons une méthode basée sur la modélisation autorégressive (AR), régularisée spatialement dans un cadre Bayésien. Le problème est exprimé en fonction des coefficients de réflexion associés aux modèles AR, permettant de ramener le problème de l'estimation spectrale, à chaque ordre, à un problème classique de restauration d'images, où les coefficients de réflexion constituent les données à restaurer. Une contrainte de régularisation spatiale (ou lissage) est introduite à partir de la modélisation des champs de Markov. Cette contrainte permet de réduire la forte variance des estimations tout en préservant une bonne résolution spatiale. En particulier, l'utilisation de fonctions de potentiel non quadratiques permet de préserver les changements brusques (ou discontinuités) des caractéristiques spectrales locales. Le comportement de certaines fonctions de potentiel est étudié et nous insistons l'influence de la convexité de ces fonctions sur les résultats. Nous mettons en œuvre un algorithme déterministe de minimisation intégrant simultanément les principes de non convexité graduelle et de minimisation semi-quadratique. La solution au sens du Maximum a Posteriori (MAP) est calculée en utilisant alternativement cet algorithme relativement aux coefficients de réflexion et aux termes de puissance. Les performances de l'approche proposée sont évaluées sur des simulations numériques, puis la méthode est appliquée à des images de radiofréquence acquises en échocardiographie ultrasonore.
Local spectral analysis or time-frequency analysis of radio-frequency (RF) images in ultrasound echography is a difficult task due to their non-stationary and stochastic nature. These characteristics yield a high variability when conventional spectral estimation methods are used. Moreover, abrupt changes in the spectral content occur at interfaces between probed tissues. In this context, we propose a method based on autoregressive (AR) models spatially regularized in a Bayesian framework. The problem is expressed with respect to the reflection coefficients associated with AR models. This allows reducing the problem formulation to a conventional image restoration task where the reflection coefficients stand for the data to be recovered. A spatial regularization constraint (or smoothness constraint) is introduced, based on the Markovian Random Field modeling. Such constraint allows reducing the high variability of the local estimates while preserving a high spatial resolution. The use of non-quadratic potential functions pro vides a way for preserving abrupt changes (or discontinuities) in the spectral content. The behavior of several potential functions is -assessed and the influence of the Jonvexity of these functions on the results is emphasized. 1 We implement a deterministic minimization algorithm integrating both the graduated non-convexity and the half quadratic minimization principles. The solution in the sense of the Maximum a Posteriori is obtained by applying the proposed algorithm applied alternately to the reflection coefficients and the power term series. The performances of this approach are evaluated on numerical simulations and the method is applied to experimental ultrasound echocardiographic RF data.
Mot(s) clés libre(s) : TRAITEMENT IMAGE, IMAGERIE MEDICALE, IMAGERIE ULTRASONORE, ECHOCARDIOGRAPHIE, ANALYSE SPECTRALE, RESTAURATION IMAGE, ANALYSE TEMPS FREQUENCE, COEFFICIENT REFLEXION, MODELE AUTOREGRESSIF, ESTIMATION BAYES
 |  Notice

Behlouli Hassan. Apprentissages auto-améliorants et modélisation de la dynamique temporelle de données évolutives par réseaux de neurones : application au diagnostic et la prédiction en électrocardiologie quantitative. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
Nous présentons dans ce mémoire diverses méthodologies visant à améliorer le SUIVI décisionnel de patients et leur validation dans le domaine de l'électrocardiologie quantitative. Dans une première partie, nous proposons une extension au classique modèle d'apprentissage avec professeur de la Reconnaissance de Formes en introduisant le concept d'apprentissage auto-améliorant basé sur l'extraction de connaissances à partir de bases de données non documentées. Ensuite nous appliquons ce concept au cas particulier de l'apprentissage supervisé par réseaux de neurones et nous proposons une méthodologie d'apprentissage auto améliorant intégrant itérativement dans l'ensemble d'apprentissage de départ des données non expertisées extraites de bases de données non validées par des experts. Cette méthode fait intervenir les concepts de combinaison de réseaux de neurones, la notion de rejet de cas ambigus et le contrôle du processus d'apprentissage par validation croisée. Appliquée au classement de pathologies cardiaques, nous montrons que, dans la plupart des cas, une amélioration des performances des classifieurs est observée. Dans une deuxième partie, nous avons mis au point une méthodologie à base de réseaux de neurones pour modéliser le comportement dynamique du cœur, en particulier pour prédire un des principaux descripteurs de la repolarisation ventriculaire, l'intervalle QT, en fonction de RR, l'inverse de la fréquence cardiaque. Une première évaluation sur des séquences l'Electrocardiogrammes 3D (ECG-3D) enregistrés en continu sur 24 heures a permis de démontrer la pertinence des modèles élaborés et d'étudier le rôle de différents paramètres (notamment l'effet mémoire et le niveau de bruit) sur la qualité de prédiction des modèles. Enfin, ce travail s'est concrétisé par une série d'outils d'analyse et de traitement génériques que nous avons intégrés dans l'environnement MATIS (MAthematical Tools Integration Software), système qui est l'un des pivots de la future station de travail du chercheur cardiologue.
We present various methodologies to improve decision making on follow-up patient data and their validation in the field of quantitative electrocardiology. First, we propose an extension to the classical Pattern Recognition supervised learning model by introducing a self-improving concept based on information min.ing from undocumented datasets. Then we apply this concept to the particular case of neural networks based supervised learning and we propose a self-improving learning methodology integrating iteratively, in the initial learning set, undocumented data that are extracted from databases not validated by experts. This method involves different concepts such as neural network combination, rejection of ambiguous cases and control of the learning process by cross-validation. Using this approach for the categorisation of cardiac diseases we could significantly improve the performance of the original classifiers. Secondly, we developed a methodology based on neural networks to model the dynamic behavior of the heart particularly for predicting one of the main descriptors of the ventricular repolarisation, i.e.: the QT interval as a function of the RR interval that represents the inverse of heart rate. An initial evaluation on a series of sequences of 30 electrocardiograms (3D ECG) continuously '1 recorded over 24 hours allowed to demonstrate the pertinence of the models and to study the ray of some parameters (e.g. memory effect and noise level) on the prediction quality of this model We conclude by presenting another outcome of our work, a series of generic analysis processing tool s that were integrated into the MATIS environment (Mathematical Tools Integration Software), which is a fundamental building black for the future workstation of the research cardiologist.
Mot(s) clés libre(s) : INFORMATIQUE MEDICALE, RECONNAISSANCE FORME, DIAGNOSTIC, RESEAU NEURONE, MODELISATION DONNEES EVOLUTIVE, SYSTEME AUTO-AMELIORANT, APPRENTISSAGE, ELECTROCARDIOLOGIE QUANTITATIVE, ANALYSE DYNAMIQUE, AIDE DECISION AUTOMATIQUE, SCIENCE COGNITIVE, APPROCHE CONNEXIONISTE, ELECTROCARDIOGRAMME, INTERPRETATION
 |  Notice

Cherkaoui Karim. Caractérisation de matériaux semi-isolants par spectroscopie de transitoire de courant photoinduit : matériaux InP dopés Fe pour la micro-optoélectronique et CdZnTe pour la détection nucléaire. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
La nécessité de disposer de matériaux semi-isolants de bonne qualité concerne des domaines d'application très variés. Par exemple, les substrats InP et Cd.ZnTe de haute résistivité sont très adaptés à la réalisation de circuits micro-optoélectroniques et de détecteurs nucléaires respectivement. Nous avons caractérisé ces deux matériaux par la spectroscopie thermique de transitoire de courant photo-induit. La première partie de cette étude a pour but d'analyser les défauts dans les substrats InP ayant subi un recuit thermique afin de comprendre le processus de compensation dans ce matériau. Nous avons détecté deux niveaux d'énergie d'activation autour de 0.2 eV et 0.4 eV induits par le traitement thermique. Nous avons remarqué l'omniprésence du Fer dans les substrats même non intentionnellement dopés. Il faut donc prendre en compte la participation du Fer pour comprendre le processus de compensation dans ces substrats InP recuits. Dans la deuxième partie, nous avons étudié le matériau CdZnTe élaboré par la technique Bridgman sous haute pression afin de souligner les défauts qui peuvent affecter les performances du détecteur. La présence de trois niveaux profonds proches du milieu de la bande interdite a une influence sur les performances des détecteurs. La qualité des cristaux s'améliore ceci se traduit par la présence d'un seul niveau profond. Ce dernier est probablement responsable du caractère semi-isolant de ces matériaux. Nous avons pu corréler les performances de détection d'une série d'échantillons avec la présence de deux pièges à électrons apparaissant à basse température.
Semi-insulating materials show an increasing interest in many application fields. For instance high resistivity InP and CdZnTe substrates are very promising for micro-optoelectronic circuits and nuclear detectors respectively. We have characterized both materials by means of Photo-Induced Current Transient Spectroscopy. The aim of the first part of this study is to analyze the defects in annealed InP substrates to understand the compensation phenomena in this material. We have detected two levels at 0.2 eV and 0.4 eV induced by the thermal treatment. We have noticed the presence of iron in all samples even in non intentionally doped ones. Therefore, one must take into account the Iron contribution to fully understand the compensation mechanism in the annealed InP substrates. In the second part, we have studied the CdZnTe material grown by the High Pressure Bridgman method to point out the defects which may affect the detector performance. Three levels detected near the midgap seem to affect the performance of the first studied detectors. We have characterized a series of detectors in which we have only detected one midgap level. We explain this by an improved material quality. This level is probably responsible of the semi-insulating character of this material. Finally, we correlate the detection performance of a series of samples with the presence of two electron traps at low temperature.
Mot(s) clés libre(s) : SPECTROMETRIE TRANSITOIRE PHOTOINDUITE, SEMIISOLANT, PHOSPHURE INDIUM, TELLURURE ZINC CADMIUM, DEFAUT PONCTUEL, CARACTERISATION DEFAUT, DETECTION RX, DETECTION RAYONNEMENT GAMMA
 |  Notice

Calderon Najera Juan de Dios. Caractérisation dynamique du système pièce-outil-machine : usinage de pièces minces. 1998 / Thèses / accès à la bibliothèque (document papier)
Résumé
Résumé
L'usinage des pièces flexibles, les usinages durs et les usinages à grande vitesse, nécessitent des études du comportement dynamique du processus. Il faut traiter, en particulier, les vibrations liées au phénomène de coupe. Il s'agit d'abord de caractériser et de formaliser les phénomènes mécaniques élémentaires, puis de considérer l'ensemble des éléments qui participent au processus. Lors d'une opération d'usinage, les vibrations sont contrôlées à priori, par un grand nombre de variables telles que les paramètres de coupe, la flexibilité de la pièce et celle de l'outil. Les modèles de comportement à intégrer dans les logiciels de Conception et Fabrication Assistée par Ordinateur (CFAO) pour prévoir le compôrtement dynamique sont inexistants. C'est dans ce cadre général que s'inscrit l'objet de ce travail de recherche. Il s'intéresse à la caractérisation du comportement dynamique des pièces et d'outils flexibles lors d'une opération de tournage. La recherche d'un modèle permettant de prévoir la réponse dynamique est complexe à cause du nombre des éléments concernés (pièce, outil, coupe, machine-outil,...) et des phénomènes de coupe à modéliser. Des calculs par la Méthode des Eléments Finis (MEF) donnent la réponse de la pièce à usiner. Les flexibilités de l'outil et de son support sont aussi considérées pour construire un modèle dynamique global. Les phénomènes de coupe sont formalisés à partir de résultats expérimentaux (COM). Des critères de stabilité sont ainsi déduits. Des opérations successives de tournage extérieur de tube à paroi interne mince, d'alésage de tube à paroi épaisse et à paroi mince sont considérées pour conforter la modélisation.
Machining of flexible pieces, hard machining and high-speed machining put in evidence the need to study the dynamic behavior of the process. In particular, it is necessary to treat the Vibrations associated to the cutting phenomenon. To do this, the elementary mechanical phenomena are first characterized and formulized, and then all of the elements participating in the process are considered as a whole. During a machining operation, vibrations are controlled a priori by a large number of variables such as the cutting parameters and the flexibility of the piece as well as that of the wool Behavior models to be introduced into CAO/CAM programs in order to predict this dynamic behavior are nonexistent. This is the general framework of the present research work. Its objective is to characterize the dynamic behavior of flexible pieces and tools during a turning operation. The search of a model allowing to predict the dynamic response is very complex due to the number of elements involved (piece, tool, cutting, machine-tool.. .) and the cutting phenomena to be modeled. The response of the piece to be machined is given by calculation based on the Finite Element Method. The flexibility of the tool and of its support are also considered in order to built a global dynamic model Cutting phenomena are formalized from experimental results (COM). Stability criteria are thus deduced. Successive operations of turning at a thin-wall tube, boring of a thick-wall tube and boring of a thin-wall tube are considered in order to strengthen the model.
Mot(s) clés libre(s) : MECANIQUE INDUSTRIELLE, USINAGE, VIBRATION, ALESAGE, TOURNAGE, USINIBALITE, USURE, REGIME DYNAMIQUE
 |  Notice