- Bibliography
- Subscribe
- News
-
Referencing guides Blog Automated transliteration Relevant bibliographies by topics
Log in
Українська Français Italiano Español Polski Português Deutsch
We are proudly a Ukrainian website. Our country was attacked by Russian Armed Forces on Feb. 24, 2022.
You can support the Ukrainian Army by following the link: https://u24.gov.ua/. Even the smallest donation is hugely appreciated!
Relevant bibliographies by topics / Modèle de boîte noire / Dissertations / Theses
To see the other types of publications on this topic, follow the link: Modèle de boîte noire.
Author: Grafiati
Published: 22 June 2024
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Modèle de boîte noire.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
1
Akerma, Mahdjouba. "Impact énergétique de l’effacement dans un entrepôt frigorifique : analyse des approches systémiques : boîte noire / boîte blanche." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS187.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les entrepôts frigorifiques et chambres froides forment, de par l'inertie thermique de la masse des produits, une source importante de stockage thermique rapidement accessible et fortement attractive pour répondre aux besoins d’effacement électrique. Cependant, le risque pour le produit lors des fluctuations de température liées aux périodes d’effacement et la crainte d’une surconsommation énergétique, limitent le recours aux effacements par les industriels et acteurs du froid alimentaire. Cette thèse vise à caractériser l’effacement électrique des entrepôts en apportant un éclairage sur le comportement thermique d’un système, en termes de fluctuation de température et de consommation électrique. Une étude expérimentale a été mise en œuvre afin d’étudier plusieurs scénarios d’effacement (durée, fréquence et conditions opératoires) et de développer de nouveaux indicateurs pour caractériser l’impact de l’effacement sur le comportement thermique et énergétique des systèmes frigorifiques. Cette étude a mis en avant, l’importance de l’état de chargement pour limiter la remontée de température de l’air, et réduire l’impact de l’effacement sur les produits entreposés. Par ailleurs, le potentiel d’application de l’effacement dans le cas d’un entrepôt frigorifique ou d’une chambre froide a été évalué, en s’appuyant sur le développement des deux approches de modélisation « boîte noire » (apprentissage automatique par des réseaux de neurones artificiels de type Deep Learning) et « boîte blanche » (physique). Une possibilité d’interaction entre ces deux approches a été proposée. Elle est fondée sur l’utilisation des modèles boîte noire pour la prédiction et l’emploi du modèle boîte blanche pour générer les données d’entrée et de sortie
Refrigerated warehouses and cold rooms, mainly used for food conservation, constitute available storage cells; they can be considered as a network of "thermal batteries" ready to be used and one of the best existing solutions to store and delay electricity consumption. However, the risk related to temperature fluctuations of products due to periods of demand response - DR* and the risk of energy overconsumption limit the use of this strategy by industrials in food refrigeration. The present PhD thesis aims to characterize the electrical DR of warehouses and cold rooms by examining the thermal behavior of those systems, in terms of temperature fluctuation and electrical consumption. An experimental set-up was developed to study several DR scenarios (duration, frequency and operating conditions) and to propose new indicators to characterize the impact of DR periods on the thermal and energy behavior of refrigeration systems. This study has highlighted the importance of the presence of load to limit the temperature rise and thus to reduce the impact on stored products. The potential for DR application in the case of a cold store and a cold room was assessed, based on the development of two modeling approaches: “black box” (Machine Learning by artificial neural networks using Deep Learning models) and “white box” (physics). A possibility of interaction between these two approaches has been proposed, based on the use of black box models for prediction and the use of the white box model to generate input and output data
2
Muzammil, Shahbaz Muhammad. "Rétro-conception de modèles d'automates étendus de composant logiciels boîte-noire pour le test d'intégration." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0166.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème principal auquel on est confronté dans l'utilisation d'outils automatiques de validation (test ou vérification) est l'absence de spécification des composants également connus comme boîtes-noires. Même lorsqu'une spécification a été disponible à un stade antérieur, elle est souvent incomplète. C'est pourquoi une bonne part de la validation consiste à émettre et valider des hypothèses sur les composants assemblés. Nous proposons une solution pour l'intégration de composants boîtes-noires par une approche d'apprentissage. Cette approche apprend le modèle du composant sous la forme d’une machine d'état finis entrées/sorties (avec des paramètres). Ensuite, nous proposons un framework de test pour les systèmes intégrés basé sur les modèles appris. Nous avons validé notre approche sur plusieurs études de cas fournies par France Telecom R&D et présentons leurs résultats
A challenging issue in component based software engineering is to deliver quality of service. When components come from third-party sources (aka black boxes), the specifications are often absent/insufficient for their formal analysis. The thesis addresses the problem of uncovering the behaviors of black box software components to support testing and analysis of the integrated system that is composed of such components. We propose to learn finite state machine models (where transitions are labelled with parameterized inputs/outputs) and provide a framework for testing and analyzing the integrated system using the inferred models. The approach has been validated on various case studies provides by France Telecom that has produced encouraging results
3
Benni, Benjamin. "Un modèle de raisonnement pour les opérateurs de composition logicielle décrits en boite noire." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4096.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité des systèmes informatiques a rendu nécessaire leur découpage avant de les recomposer. Cette séparation est un défi connu et les développeurs découpent déjà les tâches au préalable. Néanmoins, séparer sans considérer la recomposition finale entraine des réunifications hâtives et chronophages. Cette composition doit mener au bon et meilleur système avec le minimum d'effort humain. Les opérateurs de composition sont souvent ad-hoc et développés par des non-spécialistes. Ils ne respectent pas de formalismes de haut-niveau et deviennent trop complexes ou informels pour pouvoir raisonner. Nous les appelons des "boites-noires": les techniques nécessitant d'en connaitre l'intérieur ne peuvent être appliquées. Or, ces boites noires doivent garantir des propriétés : d'aucun doit vérifier son idempotence pour l'utiliser dans un contexte distribué ; connaitre son temps d'exécution pour des systèmes réactifs ; vérifier des conflits pour le confronter à des règles d'entreprise. Aucun de ces besoins n'est spécifique à un domaine applicatif. Dans cette thèse, nous présentons une approche indépendante du domaine qui permet, sur des opérateurs existants, (i) de raisonner sur des équations de composition pour (ii) les composer en sécurité, en (iii) proposant une vérification de propriétés similaires à celles de l’état de l’art. Nous avons validé cette approche sur des domaines différents : 19 versions du noyau Linux avec 54 règles de réécriture, réparé 13 « antipatrons » dans 22 applications Android et validé son efficacité sur la composition de 20k images Docker
The complexity of software systems made it necessary to split them up and reunite them afterward. Separating concerns is a well-studied challenge and teams separate the work to be done beforehand. Still, separating without considering the recomposition leads to rushed, unsafe, and time-consuming recomposition. The composition should create the right and best system with minimal human effort. Composition operators are often ad-hoc solutions developed by non-specialist development teams. They are not developed using high-level formalism and end up being too complicated or too poorly formalized to support proper reasonings. We call them "black-boxes" as existing techniques requiring knowledge of its internals cannot be applied or reused. However, black-box operators, like others, must ensure guarantees: one must assess their idempotency to use them in a distributed context; provide an average execution time to assess usage in a reactive system; check conflicts to validate that the composed artifact conforms to business properties. Despite the black-box aspect, none of these properties are domain-specific. In this thesis, we present a domain-independent approach that enables (i) reasonings on composition equation, (ii) to compose them safely, (iii) by assessing properties similar to the ones from the state-of-the-art. We validated the approach in heterogeneous application domains: 19 versions of Linux kernel with 54 rewriting rules, fixing 13 antipatterns in 22 Android apps, and validating the efficiency of the approach on the composition of 20k Docker images
4
Irfan, Muhammad Naeem. "Analyse et optimisation d'algorithmes pour l'inférence de modèles de composants logiciels." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767894.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Components-Off-The-Shelf (COTS) sont utilisés pour le développement rapide et efficace de logiciels tout en limitant le coût. Il est important de tester le fonctionnement des composants dans le nouvel environnement. Pour les logiciels tiers,le code source des composants, les spécifications et les modèles complets ne sont pas disponibles. Dans la littérature de tels systèmes sont appelés composants "boîte noire". Nous pouvons vérifier leur fonctionnement avec des tests en boîte noire tels que le test de non-régression, le test aléatoire ou le test à partir de modèles. Pour ce dernier, un modèle qui représente le comportement attendu du système sous test(SUT) est nécessaire. Ce modèle contient un ensemble d'entrées, le comportement du SUT après stimulation par ces entrées et l'état dans lequel le système se trouve.Pour les systèmes en boîte noire, les modèles peuvent être extraits à partir des traces d'exécutions, des caractéristiques disponibles ou encore des connaissances des experts. Ces modèles permettent ensuite d'orienter le test de ces systèmes.Les techniques d'inférence de modèles permettent d'extraire une information structurelle et comportementale d'une application et de la présenter sous forme d'un modèle formel. Le modèle abstrait appris est donc cohérent avec le comportement du logiciel. Cependant, les modèles appris sont rarement complets et il est difficile de calculer le nombre de tests nécessaires pour apprendre de façon complète et précise un modèle.Cette thèse propose une analyse et des améliorations de la version Mealy de l'algorithme d'inférence L* [Angluin 87]. Elle vise à réduire le nombre de tests nécessaires pour apprendre des modèles. La version Mealy de L* nécessite d'utiliser deux types de test. Le premier type consiste à construire les modèles à partir des sorties du système, tandis que le second est utilisé pour tester l'exactitude des modèles obtenus. L'algorithme utilise ce que l'on appelle une table d'observation pour enregistrer les réponses du système.Le traitement d'un contre-exemple peut exiger d'envoyer un nombre conséquent de requêtes au système. Cette thèse aborde ce problème et propose une technique qui traite les contre-exemples de façon efficace. Nous observons aussi que l'apprentissage d'un modèle ne nécessite pas de devoir remplir complètement ces tables. Nous proposons donc un algorithme d'apprentissage qui évite de demander ces requêtes superflues.Dans certains cas, pour apprendre un modèle, la recherche de contre-exemples peut coûter cher. Nous proposons une méthode qui apprend des modèles sans demander et traiter des contre-exemples. Cela peut ajouter de nombreuses colonnes à la table d'observation mais au final, nous n'avons pas besoin d'envoyer toutes les requêtes. Cette technique ne demande que les requêtes nécessaires.Ces contributions réduisent le nombre de tests nécessaires pour apprendre des modèles de logiciels, améliorant ainsi la complexité dans le pire cas. Nous présentons les extensions que nous avons apportées à l'outil RALT pour mettre en oeuvre ces algorithmes. Elles sont ensuite validées avec des exemples tels que les tampons, les distributeurs automatiques, les protocoles d'exclusion mutuelle et les planificateurs.
5
Romero, Ugalde Héctor Manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0001/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail
This report concerns the research topic of black box nonlinear system identification. In effect, among all the various and numerous techniques developed in this field of research these last decades, it seems still interesting to investigate the neural network approach in complex system model estimation. Even if accurate models have been derived, the main drawbacks of these techniques remain the large number of parameters required and, as a consequence, the important computational cost necessary to obtain the convenient level of the model accuracy desired. Hence, motivated to address these drawbacks, we achieved a complete and efficient system identification methodology providing balanced accuracy, complexity and cost models by proposing, firstly, new neural network structures particularly adapted to a very wide use in practical nonlinear system modeling, secondly, a simple and efficient model reduction technique, and, thirdly, a computational cost reduction procedure. It is important to notice that these last two reduction techniques can be applied to a very large range of neural network architectures under two simple specific assumptions which are not at all restricting. Finally, the last important contribution of this work is to have shown that this estimation phase can be achieved in a robust framework if the quality of identification data compels it. In order to validate the proposed system identification procedure, application examples driven in simulation and on a real process, satisfactorily validated all the contributions of this thesis, confirming all the interest of this work
6
Romero, ugalde Héctor manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00869428.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail.
7
Ouenzar, Mohammed. "Validation de spécifications de systèmes d'information avec Alloy." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6594.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent mémoire propose une investigation approfondie de l’analyseur Alloy afin de juger son adaptabilité en tant que vérificateur de modèles. Dans un premier temps, l’étude dresse un tableau comparatif de six vérificateurs de modèles, incluant Alloy, afin de déterminer lequel d’entre eux est le plus apte à résoudre les problématiques de sécurité fonctionnelle posées par les systèmes d’information. En conclusion de cette première phase, Alloy émerge comme l’un des analyseurs les plus performants pour vérifier les modèles sur lesquels se fondent les systèmes d’information. Dans un second temps, et sur la base des problématiques rencontrées au cours de cette première phase, l’étude rapporte une série d’idiomes pour, d’une part, présenter une manière optimisée de spécifier des traces et, d’autre part, trouver des recours afin de contourner les limitations imposées par Alloy. À ces fins, le mémoire propose deux nouveaux cas d’espèce, ceux d’une cuisinière intelligente et d’une boîte noire, afin de déterminer si oui ou non l’analyseur est capable de gérer les systèmes dynamiques possédant de nombreuses entités avec autant d’efficacité que les systèmes qui en possèdent moins. En conclusion, le mémoire rapporte que Alloy est un bon outil pour vérifier des systèmes dynamiques mais que sa version récente, DynAlloy, peut être encore mieux adapté pour le faire puisque précisément conçu pour faire face aux spécificités de ce type de système. Le mémoire s’achève sur une présentation sommaire de ce dernier outil.
8
Dominique, Cyril. "Modélisation dynamique des modules actifs à balayage électronique par séries de Volterra et intégration de ces modèles pour une simulation de type système." Paris 6, 2002. http://www.theses.fr/2002PA066106.
APA, Harvard, Vancouver, ISO, and other styles
9
Ros, Raymond. "Optimisation Continue Boîte Noire : Comparaison et Conception d'Algorithmes." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00595922.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En optimisation continue, un problème donné consiste à trouver l'optimum d'une fonction objectif f définie dans R^n à valeur dans R. Dans ce contexte, le scénario boîte noire fait l'hypothèse que seule l'évaluation de f nous fournit de l'information. Dans une première partie, nous étudions l'algorithme CMA-ES, stratégie d'évolution avec adaptation de la matrice de covariance ; une approche reconnue pour résoudre les problèmes d'optimisation boîte noire. Nous démontrons les limites de cet algorithme en terme de complexités spatiale et temporelle pour faire face à des problèmes à grande dimensionalité. Pour dépasser ces limites, nous proposons des variantes de CMA-ES qui ne mettent à jour que les éléments diagonaux par bloc de la matrice de covariance, qui exploitent donc la séparabilité. Nous montrons que ces variantes peuvent avoir de meilleures performances que CMA-ES sur des fonctions non-séparables à condition que le problème considéré ait une dimension assez grande. Dans une seconde partie, nous définissons et exploitons un cadre expérimental pour la comparaison systématique de résultats en optimisation boîte noire, où les pratiquants du domaine peuvent ainsi tester et comparer des algorithmes sur des fonctions artificielles. Nos résultats montrent la dépendance des performances des algorithmes en fonction du budget alloué à l'optimisation. Des méthodes classiques telles que NEWUOA ou BFGS sont ainsi appropriées à des petits budgets. L'approche CMA-ES avec redémarrage et contrôle de la taille de population obtient de bons résultats pour des budgets plus larges. Le logiciel COCO pour COmparing Continuous Optimisers, utilisé pour faire ces comparaisons systématiques est décrit techniquement dans une troisième partie. COCO sert d'implémentation de notre cadre expérimental et permet en plus de fournir des résultats tels que ceux que nous exploitons dans ce document.
10
Longuet, Delphine. "Test à partir de spécifications axiomatiques." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00258792.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le test est l'une des méthodes les plus utilisées pour la validation du logiciel. L'activité de test consiste à exécuter le logiciel sur un sous-ensemble de ses entrées possibles de manière à déceler d'éventuelles erreurs. La présence d'erreurs est établie par confrontation du comportement du logiciel avec un objet de référence. Le processus de test est généralement décomposé en trois phases : la sélection du sous-ensemble des entrées sur lequel le logiciel sera exécuté, la soumission de ces entrées au logiciel en collectant les sorties (les réponses du logiciel) et la décision de l'adéquation de ces sorties avec les sorties attendues.
La sélection des données à soumettre au logiciel peut être effectuée selon différentes approches. Lorsque la phase de sélection d'un jeu de tests est opérée à partir d'un objet de référence décrivant plus ou moins formellement le comportement du logiciel, sans connaissance de l'implantation elle-même, on parle de test « boîte noire ». Une des approches de test boîte noire pour laquelle un cadre formel a été proposé est celle qui utilise comme objet de référence une spécification logique du système sous test.
Le cadre général de test à partir de spécifications logiques (ou axiomatiques) pose les conditions et les hypothèses sous lesquelles il est possible de tester un système. La première hypothèse consiste à considérer le système sous test comme un modèle formel implantant les opérations dont le comportement est décrit par la spécification. La seconde hypothèse a trait à l'observabilité du système sous test. Il faut fixer la forme des formules qui peuvent être interprétées par le système, c'est-à-dire qui peuvent être des tests. On se restreint généralement au moins aux formules qui ne contiennent pas de variables. Une fois ces hypothèses de test posées, on dispose d'un jeu de tests initial, celui de toutes les formules observables qui sont des conséquences logiques de la spécification.
Le premier résultat à établir est l'exhaustivité de cet ensemble, c'est-à-dire sa capacité à prouver la correction du système s'il pouvait être soumis dans son intégralité. Le jeu de tests exhaustif étant le plus souvent infini, une phase de sélection intervient afin de choisir un jeu de tests de taille finie et raisonnable à soumettre au système. Plusieurs approches sont possibles. L'approche suivie dans ma thèse, dite par partition, consiste a diviser le jeu de tests exhaustif initial en sous-jeux de tests, selon un certain critère de sélection relatif à une fonctionnalité ou à une caractéristique du système que l'on veut tester. Une fois cette partition suffisamment fine, il suffit de choisir un cas de test dans chaque sous-jeu de test obtenu en appliquant l'hypothèse d'uniformité (tous les cas de test d'un jeu de test sont équivalents pour faire échouer le système). Le deuxième résultat à établir est que la division du jeu de tests initial n'ajoute pas (correction de la procédure) et ne fait pas perdre (complétude) de cas de test.
Dans le cadre des spécifications algébriques, une des méthodes de partition du jeu de tests exhaustif qui a été très étudiée, appelée dépliage des axiomes, consiste à procéder à une analyse par cas de la spécification. Jusqu'à présent, cette méthode s'appuyait sur des spécifications équationnelles dont les axiomes avaient la caractéristique d'être conditionnels positifs (une conjonction d'équations implique une équation).
Le travail de ma thèse a eu pour but d'étendre et d'adapter ce cadre de sélection de tests à des systèmes dynamiques spécifiés dans un formalisme axiomatique, la logique modale du premier ordre. La première étape a consisté à généraliser la méthode de sélection définie pour des spécifications équationnelles conditionnelles positives aux spécifications du premier ordre. Ce cadre de test a ensuite été d'adapté à des spécifications modales du premier ordre. Le premier formalisme de spécification considéré est une extension modale de la logique conditionnelle positive pour laquelle le cadre de test a été initialement défini. Une fois le cadre de test adapté aux spécifications modales conditionnelles positives, la généralisation aux spécifications modales du premier ordre a pu être effectuée.
Dans chacun de ces formalismes nous avons effectué deux tâches. Nous avons d'une part étudié les conditions nécessaires à imposer à la spécification et au système sous test pour obtenir l'exhaustivité du jeu de tests initial. Nous avons d'autre part adapté et étendu la procédure de sélection par dépliage des axiomes à ces formalismes et montré sa correction et sa complétude. Dans les deux cadres généraux des spécifications du premier ordre et des spécifications modales du premier ordre, nous avons montré que les conditions nécessaires à l'exhausitivité du jeu de test visé étaient mineures car faciles à assurer dans la pratique, ce qui assure une généralisation satisfaisante de la sélection dans ce cadre.
11
Loshchilov, Ilya. "Surrogate-Assisted Evolutionary Algorithms." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00823882.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Algorithmes Évolutionnaires (AEs) ont été très étudiés en raison de leur capacité à résoudre des problèmes d'optimisation complexes en utilisant des opérateurs de variation adaptés à des problèmes spécifiques. Une recherche dirigée par une population de solutions offre une bonne robustesse par rapport à un bruit modéré et la multi-modalité de la fonction optimisée, contrairement à d'autres méthodes d'optimisation classiques telles que les méthodes de quasi-Newton. La principale limitation de AEs, le grand nombre d'évaluations de la fonction objectif, pénalise toutefois l'usage des AEs pour l'optimisation de fonctions chères en temps calcul. La présente thèse se concentre sur un algorithme évolutionnaire, Covariance Matrix Adaptation Evolution Strategy (CMA-ES), connu comme un algorithme puissant pour l'optimisation continue boîte noire. Nous présentons l'état de l'art des algorithmes, dérivés de CMA-ES, pour résoudre les problèmes d'optimisation mono- et multi-objectifs dans le scénario boîte noire. Une première contribution, visant l'optimisation de fonctions coûteuses, concerne l'approximation scalaire de la fonction objectif. Le meta-modèle appris respecte l'ordre des solutions (induit par la valeur de la fonction objectif pour ces solutions) ; il est ainsi invariant par transformation monotone de la fonction objectif. L'algorithme ainsi défini, saACM-ES, intègre étroitement l'optimisation réalisée par CMA-ES et l'apprentissage statistique de meta-modèles adaptatifs ; en particulier les meta-modèles reposent sur la matrice de covariance adaptée par CMA-ES. saACM-ES préserve ainsi les deux propriété clé d'invariance de CMA-ES~: invariance i) par rapport aux transformations monotones de la fonction objectif; et ii) par rapport aux transformations orthogonales de l'espace de recherche. L'approche est étendue au cadre de l'optimisation multi-objectifs, en proposant deux types de meta-modèles (scalaires). La première repose sur la caractérisation du front de Pareto courant (utilisant une variante mixte de One Class Support Vector Machone (SVM) pour les points dominés et de Regression SVM pour les points non-dominés). La seconde repose sur l'apprentissage d'ordre des solutions (rang de Pareto) des solutions. Ces deux approches sont intégrées à CMA-ES pour l'optimisation multi-objectif (MO-CMA-ES) et nous discutons quelques aspects de l'exploitation de meta-modèles dans le contexte de l'optimisation multi-objectif. Une seconde contribution concerne la conception d'algorithmes nouveaux pour l'optimi\-sation mono-objectif, multi-objectifs et multi-modale, développés pour comprendre, explorer et élargir les frontières du domaine des algorithmes évolutionnaires et CMA-ES en particulier. Spécifiquement, l'adaptation du système de coordonnées proposée par CMA-ES est couplée à une méthode adaptative de descente coordonnée par coordonnée. Une stratégie adaptative de redémarrage de CMA-ES est proposée pour l'optimisation multi-modale. Enfin, des stratégies de sélection adaptées aux cas de l'optimisation multi-objectifs et remédiant aux difficultés rencontrées par MO-CMA-ES sont proposées.
12
Bout, Erwan David Mickaël. "Poïétique et procédure : pour une esthétique de la boîte noire." Paris 1, 2009. http://www.theses.fr/2009PA010631.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'articule autour d'une pratique revendiquant la procédure en tant que forme artistique, c'est a dire un ensemble d'actions prévues dans leur succession et destiné à être appliqué par les spectateurs. Elle met en place des notions: l' esthétique de la boîte noire, aménagement conscient de conditions de création intégrant un abandon partiel de l'auteur permettant l'initialisation d'un système auto nome ; l' échelle d'appréhension, extension de l' échelle traditionnelle ad' autres dimensions; l' intergradation, transposition conceptuelle et interconceptuelle des représentations par changement d'échelle d'appréhension. Elle définit également des outils permettant de caractériser les procédures: finalité, application et destination.
13
Barbillon, Pierre. "Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00559502.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
14
Saives, Jérémie. "Identification Comportementale "Boîte-noire" des Systèmes à Evénements Discrets par Réseaux de Petri Interprétés." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN018/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse contribue à l’identification de modèles compacts et expressifs de Systèmes à Evénements Discrets (SED) réactifs, à des fins de rétro-conception ou de certification. L’identification est passive, et boîte-noire, la connaissance se limitant aux signaux d’entrées/sorties du système. Les Réseaux de Petri Interprétés (RdPI) permettent de modéliser à la fois le comportement observable (causalités entrées/sorties observées directement), et le comportement non observable du système (évolutions de variables internes). Cette thèse vise à identifier des modèles RdPI à partir d’une séquence observée de vecteurs entrées/sorties. Notamment, l’enjeu étant de traiter des systèmes concurrents de taille réaliste, l’approche développée permet le passage à l’échelle de résultats précédents.La construction de la partie observable est d’abord améliorée par l’ajout d’un filtre. Celui-ci détecte et supprime les synchronisations parasites causées par le contrôleur en présence de systèmes concurrents. Une nouvelle approche est ensuite proposée pour découvrir la partie non observable, basée sur l’utilisation de projections, et garantissant la reproductibilité du comportement observé malgré la concurrence. Une heuristique permet de construire un modèle satisfaisant pour la rétro-ingénierie, à coût de calcul limité. Enfin, une approche distribuée est proposée pour réduire davantage le coût de calcul, en partitionnant automatiquement le système en sous-systèmes. L’effet cumulatif de ces contributions est illustré par l’identification de RdPI sur un système de taille raisonnable, validant leur efficacité
This thesis proposes a method to identify compact and expressive models of closed-loop reactive Discrete Event Systems (DES), for reverse-engineering or certification. The identification is passive, and blackbox, accessible knowledge being limited to input/output signals. Interpreted Petri Nets (IPN) represent both the observable behaviour (direct input/output causalities) and the unobservable behaviour (internal state evolutions) of the system. This thesis aims at identifying IPN models from an observed sequence of I/O vectors. The proposed contributions extend previous results towards scalability, to deal with realistic systems who exhibit concurrency.Firstly, the construction of the observable part of the IPN is improved by the addition of a filter limiting the effect of concurrency. It detects and removes spurious synchronizations caused by the controller. Then, a new approach is proposed to improve the discovery of the unobservable part. It is based on the use of projections and guarantees the reproduction of the observed behaviour, despite concurrency. An efficient heuristic is proposed to compute a model adapted to reverse-engineering, limiting the computational cost. Finally, a distributed approach is proposed to further reduce the computational cost, by automatically partitioning the system into subsystems. The efficiency of the cumulative effect of these contributions is validated on a system of realistic size
15
Pamart, Pierre-Yves. "Contrôle des décollements en boucle fermée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00659979.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La politique européenne recommande aux industriels de l'aéronautique de concevoir des aéronefs capables de proposer une réduction de 50% du bruit perçu, de 50% de la consommation et de 80% des émissions de gaz NOx d'ici 2020. Les ingénieurs sont donc amenés à envisager des solutions innovantes basées sur le contrôle des écoulements, en particulier celui des décollements puisqu'ils ont généralement des effets délétères sur les performances aérodynamiques. Les travaux présentés dans ce mémoire sont dédiés au contrôle en boucle fermée du décollement d'une rampe arrondie par un jet synthétique réglable en fréquence et en amplitude. Le mémoire s'articule autour de deux axes principaux. Le premier axe a permis d'étudier la réponse du décollement à une perturbation périodique par simulations numériques de type LES afin de poursuivre la compréhension de la phy- sique impliquée dans le contrôle et de définir des objectifs de contrôle. Les fréquences et amplitudes optimales au regard de différents critères ont ainsi été identifiées et analysées. Le second axe a été consacré au contrôle en boucle fermée de la réponse quasi-statique du système par l'application de stratégies de régulations PID, extremums-seekings optimisés et logique floue. Leur conception a nécessité l'identification d'un modèle boîte-noire non-linéaire NARX. Les algorithmes non-linéaires, en particulier celui par logique floue, se sont montrés particulièrement performants. La démarche a été validée grâce à une application en temps réel d'une régulation extremum-seeking sur simulation RANS instationnaire.
16
Yakhou, Karim. "Validation expérimentale d'un modèle dynamique global de boîte de vitesses automobile." Lyon, INSA, 1999. http://theses.insa-lyon.fr/publication/1999ISAL0092/these.pdf.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des modèles globaux permettant de simuler le comportement dynamique des boîtes de vitesses automobiles ont été développés. Ils sont basés sur la Méthode des Eléments Finis et ont pour principale originalité d'intégrer l'ensemble des couplages entre les différents composants technologiques (arbres de boîte, engrenages, paliersn carters). Avant d'être exploités en bureau d'étude, ces modèles numériques doivent être validés expérimentalement. C'est l'objet de cette thèse. La complexité du système rend difficile la mise en oeuvre d'une campagne de recalage "classique" faisant appel aux procédures mathématiques décrites dans la bibliographie. En effet, la boîte de vitesses ne peut pas être "isolée" du reste de la chaîne de transmission de puissance et les essais doivent être réalisés sur un mécanisme sous charge et éventuellement en fonctionnement. Une campagne d'essais articulés en deux grandes étapes a donc été mise en place. La première est consacrée à l'étude du système en charge, à l'arrêt, et s'organise selon une démarche "pas à pas" : partant des arbres isolés, les autres éléments de la boîte ont été progressivement intégrés au système étudié, d'abord les paliers à roulement, puis les engrenages et enfin les carters. La modélisation de ces différents éléments a ainsi été validée et l'existence de couplages importants confirmée. Dans un second temps, la boîte de vitesses est étudiée en fonctionnement. Un certain nombre de paramètres d'observation privilégiés ont été choisis : erreur de transmission, efforts transmis par les roulements. Un capteur de force original directement intégré à l'un des roulements de la boîte de manière à préserver au mieux l'architecture et les conditions de fonctionnement du mécanisme a donc été conçu en utilisant la technologie des films piézo-électriques. Un bon accord expérience / simulation numérique a été observé (notamment en terme d'amplitudes), ce qui a permis de valider les principales hypothèses de modélisation (linéarisation du comportement dynamique autour d'un point de fonctionnement statique, utilisation de l'erreur de transmission quasi-statique sous charge pour modéliser l'excitation générée par les engrenages
Global numerical models making it possible to simulate the dynamic behavior of automobile gearboxes have been developed. They are based on the Finite Element Method and their principal originality is to integrate the whole of the couplings between the various technological components (shafts, gears, bearings, casings). Before being exploited in engineering and design departments, these numerical models must be validated with experiments. It is the purpose of this thesis. The complexity of such mechanical structures makes difficult the implementation of "traditional" updating procedures calling upon the mathematical methods described in the bibliography. Indeed, the gearbox cannot be "isolated" from the rest of the power transmission chain and the tests must be carried out on a mechanism under load and possibly under operating conditions. A trial run articulated in two great stages was thus implemented. The first one is devoted to the study of the system under load but non-rotating, and is organized according to a "step by step" procedure : starting with the shafts, the other components are gradually integrated into the studied system, first the bearings, then the gears and finally the casings. Thus, the modeling of these various parts has been validated and the existence of significant couplings has been confirmed. In the second stage, the gearbox is studied in operating conditions. Some privileged observing parameters have been selected (transmission error, bearing loads). Therefore, an original load sensor directly integrated into a ball bearing in order to preserve the architecture and the operating conditions of the gearbox has been manufactured using the technology of piezoelectric films. A good agreement between experiments and computations have been established (especially from vibrations amplitude point of view), ensuring the validity of the main modeling assumptions (linearization of the dynamic behavior around a static working point, use of the quasi-static transmission error under load to model the excitation generated by the gears)
17
Lavalle, Julien. "Modèle effectif de matière noire fermionique - Recherche de matière noire supersymétrique avec le télescope gamma CELESTE." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2004. http://tel.archives-ouvertes.fr/tel-00142472.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire aborde la problématique de la matière noire, sous des angles à la fois phénoménologiques et expérimentaux. Dans le MSSM, la matière noire froide et non-baryonique, mise en évidence aux différentes échelles de l'univers par ses effets gravitationnels, trouve une origine sous la forme de fermions de Majorana : les neutralinos. Ces particules peuvent en principe s'annihiler dans zones où elles sont naturellement concentrées, comme le coeur des halos de galaxies, et être à l'origine de rayonnement gamma. Or, les flux prédits pour ces modèles sont génériquement faibles au regard des sensibilités expérimentales. Après avoir établi des prédictions de flux de photons gamma pour les galaxies M31 et Draco dans le cadre du MSSM, nous généralisons les couplages du MSSM au moyen d'un lagrangien effectif. Nous montrons que la seule contrainte d'une densité fossile d'intérêt cosmologique suffit évidemment à réduire considérablement les flux de photons, indépendamment de la nature quantique de la matière noire (fermions de Dirac/Majorana), mais que des couplages effectifs permettent d'atteindre des prédictions plus optimistes. Enfin, nous présentons la recherche de signature de matière noire supersymétrique opérée avec le télescope à effet Tcherenkov CELESTE, reposant sur l'observation de la galaxie M31. Nous développons une méthode de reconstruction spectrale, préalable à la recherche d'un signal exotique. L'analyse des données collectées sur M31 permet d'obtenir la première limite expérimentale sur une galaxie dans l'intervalle 50-500 GeV, et fournit une information astrophysique dépassant la seule problématique de la matière noire.
18
Graux, François. "Méthodologie de modélisation boîte noire de circuits hyperfréquences non linéaires par réseaux de neurones : applications au radar." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-47.pdf.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail consiste à mettre au point une méthodologie de modélisation boîte noire non linéaire pour circuits hyperfréquences. Cette méthodologie est générique et peut s'appliquer à plusieurs fonctions radar. Pour cela nous avons d'abord étudié les différents modes d'analyses non linéaires d'un logiciel du commerce : MDS de Hewlett Packard. Aussi nous avons décrit les impératifs de notre modèle pour son utilisation optimal. Ensuite nous avons développé un logiciel de modélisation par l'intermédiaire d'un réseau de neurones nous permettant de gérer un grand nombre de variables. Enfin, une modélisation commencant d'abord par une bonne caractérisation, nous avons développé un banc de caractérisation load pull / source pull passif non linéaire associé à une acquisition temporelle. L'ensemble de la procédure nous a permis de mettre au point une méthode viable, encourageante pour de nouvelles possibilités de modélisations non linéaires
19
Cassabois, Guillaume. "Origines et limites du modèle de l'atome artificiel pour une boîte quantique de semiconducteurs." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00011932.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le modèle de l'atome artificiel est l'image physique intuitive qui découle de la discrétisation du spectre énergétique des électrons, qui sont confinés dans les trois directions de l'espace dans une boîte quantique de semiconducteurs. Cette analogie avec les systèmes atomiques s'est révélée commode et fructueuse
pour étudier les propriétés électroniques et optiques des boîtes quantiques de semiconducteurs. Elle a conduit à des expériences élégantes qui utilisent les concepts de base de la physique quantique de systèmes élémentaires et qui montrent l'intérêt des boîtes quantiques pour l'information quantique.
Ces expériences ont cependant toutes en commun d'utiliser des boîtes quantiques à basse température et les mesures de spectroscopie optique sont faites sur l'état excitonique fondamental de la boîte quantique. Cette constatation lève d'emblée le problème des limites de validité du modèle de l'atome artificiel dont l'utilisation, certes fertile, semble pourtant se resteindre à des conditions expérimentales très précises.
Dans ce document, nous allons aborder plus généralement l'étude des propriétés électroniques et optiques de boîtes quantiques dans le système modèle de nanostructures auto-organisées InAs/GaAs afin de cerner les limites de validité du modèle de l'atome artificiel.
20
Cheaito, Hassan. "Modélisation CEM des équipements aéronautiques : aide à la qualification de l’essai BCI." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC039/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intégration de l’électronique dans des environnements sévères d’un point de vue électromagnétique a entraîné en contrepartie l’apparition de problèmes de compatibilité électromagnétique (CEM) entre les différents systèmes. Afin d’atteindre un niveau de performance satisfaisant, des tests de sécurité et de certification sont nécessaires. Ces travaux de thèse, réalisés dans le cadre du projet SIMUCEDO (SIMUlation CEM basée sur la norme DO-160), contribuent à la modélisation du test de qualification "Bulk Current Injection" (BCI). Ce test, abordé dans la section 20 dans la norme DO-160 dédiée à l’aéronautique, est désormais obligatoire pour une très grande gamme d’équipements aéronautiques. Parmi les essais de qualification, le test BCI est l’un des plus contraignants et consommateurs du temps. Sa modélisation assure un gain de temps, et une meilleure maîtrise des paramètres qui influencent le passage des tests CEM. La modélisation du test a été décomposée en deux parties : l’équipement sous test (EST) d’une part, et la pince d’injection avec les câbles d’autre part. Dans cette thèse, seul l’EST est pris en compte. Une modélisation "boîte grise" a été proposée en associant un modèle "boîte noire" avec un modèle "extensif". Le modèle boîte noire s’appuie sur la mesure des impédances standards. Son identification se fait avec un modèle en pi. Le modèle extensif permet d’étudier plusieurs configurations de l’EST en ajustant les paramètres physiques. L’assemblage des deux modèles en un modèle boîte grise a été validé sur un convertisseur analogique-numérique (CAN). Une autre approche dénommée approche modale en fonction du mode commun (MC) et du mode différentiel (MD) a été proposée. Elle se base sur les impédances modales du système sous test. Des PCB spécifiques ont été conçus pour valider les équations développées. Une investigation est menée pour définir rigoureusement les impédances modales. Nous avons démontré qu’il y a une divergence entre deux définitions de l’impédance de MC dans la littérature. Ainsi, la conversion de mode (ou rapport Longitudinal Conversion Loss : LCL) a été quantifiée grâce à ces équations. Pour finir, le modèle a été étendu à N-entrées pour représenter un EST de complexité industrielle. Le modèle de l’EST est ensuite associé avec celui de la pince et des câbles travaux réalisés au G2ELAB. Des mesures expérimentales ont été faites pour valider le modèle complet. D’après ces mesures, le courant de MC est impacté par la mise en œuvre des câbles ainsi que celle de l’EST. Il a été montré que la connexion du blindage au plan de masse est le paramètre le plus impactant sur la distribution du courant de MC
Electronic equipments intended to be integrated in aircrafts are subjected to normative requirements. EMC (Electromagnetic Compatibility) qualification tests became one of the mandatory requirements. This PhD thesis, carried out within the framework of the SIMUCEDO project (SIMulation CEM based on the DO-160 standard), contributes to the modeling of the Bulk Current Injection (BCI) qualification test. Concept, detailed in section 20 in the DO-160 standard, is to generate a noise current via cables using probe injection, then monitor EUT satisfactorily during test. Among the qualification tests, the BCI test is one of the most constraining and time consuming. Thus, its modeling ensures a saving of time, and a better control of the parameters which influence the success of the equipment under test. The modeling of the test was split in two parts : the equipment under test (EUT) on one hand, and the injection probe with the cables on the other hand. This thesis focuses on the EUT modeling. A "gray box" modeling was proposed by associating the "black box" model with the "extensive" model. The gray box is based on the measurement of standard impedances. Its identification is done with a "pi" model. The model, having the advantage of taking into account several configurations of the EUT, has been validated on an analog to digital converter (ADC). Another approach called modal, in function of common mode and differential mode, has been proposed. It takes into account the mode conversion when the EUT is asymmetrical. Specific PCBs were designed to validate the developed equations. An investigation was carried out to rigorously define the modal impedances, in particular the common mode (CM) impedance. We have shown that there is a discrepancy between two definitions of CM impedance in the literature. Furthermore, the mode conversion ratio (or the Longitudinal Conversion Loss : LCL) was quantified using analytical equations based on the modal approach. An N-input model has been extended to include industrial complexity. The EUT model is combined with the clamp and the cables model (made by the G2ELAB laboratory). Experimental measurements have been made to validate the combined model. According to these measurements, the CM current is influenced by the setup of the cables as well as the EUT. It has been shown that the connection of the shield to the ground plane is the most influent parameter on the CM current distribution
21
Dubois, Amaury. "Optimisation et apprentissage de modèles biologiques : application à lirrigation [sic l'irrigation] de pomme de terre." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0560.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de la thèse porte sur une des thématiques du LISIC : la modélisation et la simulation de systèmes complexes, ainsi que sur l'optimisation et l'apprentissage automatique pour l'agronomie. Les objectifs de la thèse sont de répondre aux questions de pilotage de l'irrigation de la culture de pomme de terre par le développement d'outils d'aide à la décision à destination des exploitants agricoles. Le choix de cette culture est motivé par sa part importante dans la région des Hauts-de-France. Le manuscrit s'articule en 3 parties. La première partie traite de l'optimisation continue mutlimodale dans un contexte de boîte noire. Il en suit une présentation d'une méthodologie d'étalonnage automatique de paramètres de modèle biologique grâce à une reformulation en un problème d'optimisation continue mono-objectif multimodale de type boîte noire. La pertinence de l'utilisation de l'analyse inverse comme méthodologie de paramétrage automatique de modèles de grandes dimensions est ensuite démontrée. La deuxième partie présente 2 nouveaux algorithmes UCB Random with Decreasing Step-size et UCT Random with Decreasing Step-size. Ce sont des algorithmes d'optimisation continue multimodale boîte noire dont le choix de la position initiale des individus est assisté par un algorithmes d'apprentissage par renforcement. Les résultats montrent que ces algorithmes possèdent de meilleures performances que les algorithmes état de l'art Quasi Random with Decreasing Step-size. Enfin, la dernière partie est focalisée sur les principes et les méthodes d'apprentissage automatique (machine learning). Une reformulation du problème de la prédiction à une semaine de la teneur en eau dans le sol en un problème d'apprentissage supervisé a permis le développement d'un nouvel outil d'aide à la décision pour répondre à la problématique du pilotage des cultures
The subject of this PhD concerns one of the LISIC themes : modelling and simulation of complex systems, as well as optimization and automatic learning for agronomy. The objectives of the thesis are to answer the questions of irrigation management of the potato crop and the development of decision support tools for farmers. The choice of this crop is motivated by its important share in the Haut-de-France region. The manuscript is divided into 3 parts. The first part deals with continuous multimodal optimization in a black box context. This is followed by a presentation of a methodology for the automatic calibration of biological model parameters through reformulation into a black box multimodal optimization problem. The relevance of the use of inverse analysis as a methodology for automatic parameterisation of large models in then demonstrated. The second part presents 2 new algorithms, UCB Random with Decreasing Step-size and UCT Random with Decreasing Step-size. Thes algorithms are designed for continuous multimodal black-box optimization whose choice of the position of the initial local search is assisted by a reinforcement learning algorithms. The results show that these algorithms have better performance than (Quasi) Random with Decreasing Step-size algorithms. Finally, the last part focuses on machine learning principles and methods. A reformulation of the problem of predicting soil water content at one-week intervals into a supervised learning problem has enabled the development of a new decision support tool to respond to the problem of crop management
22
Gherson, David. "Gravitino dans l'Univers primordial : un modèle d'extra-dimension et de matière noire." Phd thesis, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00283293.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le contexte de ce travail peut être rattaché à la M-théorie d'Horava-Witten dans laquelle l'Univers a pu connaître une étape à 5 dimensions mais aussi aux théories de Baryogénèse via Leptogénèse qui impliquent de hautes températures de réchauffage après l'Inflation. Le modèle cosmologique étudié se situe dans le contexte d'une supergravité à 5 dimensions avec l'extra-dimension compacte de type $S1/Z_2$, où les champs de matière et de jauge vivent sur une des deux membranes localisées aux point fixes de l'orbifold et où les champs de supergravité se propagent dans l'ensemble des dimensions spatiales. En faisant l'hypothèse que la matière noire est composée de Neutralino, qui est dans notre modèle la particule supersymétrique la plus légère, nous avons montré qu'il existe des courbes de contraintes entre la taille de l'extra-dimension et la température de réchauffage de l'Univers après l'Inflation. Les contraintes proviennent, d'une part, des mesures de la quantité de Matière Noire dans l'Univers, et d'autre part, du modèle de la Nucléosynthèse Primordiale des éléments légers
23
Gherson, David. "Gravitino dans l’Univers primordial : un modèle d’extra-dimension et de matière noire." Lyon 1, 2007. http://tel.archives-ouvertes.fr/docs/00/28/32/93/PDF/thesegherson.pdf.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le contexte de ce travail peut être rattaché à la M-théorie d'Horava-Witten dans laquelle l'Univers a pu connaître une étape à 5 dimensions mais aussi aux théories de Baryogénèse via Leptogénèse qui impliquent de hautes températures de réchauffage après l'Inflation. Le modèle cosmologique étudié se situe dans le contexte d'une supergravité à 5 dimensions avec l'extra-dimension compacte de type [dollar]S 1/Z_2[dollar], où les champs de matière et de jauge vivent sur une des deux membranes localisées aux point fixes de l'orbifold et où les champs de supergravité se propagent dans l'ensemble des dimensions spatiales. En faisant l'hypothèse que la matière noire est composée de Neutralino, qui est dans notre modèle la particule supersymétrique la plus légère, nous avons montré qu'il existe des courbes de contraintes entre la taille de l'extra-dimension et la température de réchauffage de l'Univers après l'Inflation. Les contraintes proviennent, d'une part, des mesures de la quantité de Matière Noire dans l'Univers, et d'autre part, du modèle de la Nucléosynthèse Primordiale des éléments légers
This work can be related to the Horava-Witten M-theory in which the Universe could appear 5 dimensional at a stage of its evolution but also to theories of Baryogenesis through Leptogenesis which imply high reheating temperatures after Inflation. The studied cosmological model is within the framework of a 5 dimensional supergravity with the extra -dimension compactified on an orbifolded circle, where the matter and gauge field are located on one of the two branes localised at the orbifold fixed points and where the supergravity fields can propagate in the whole spatial dimensions. In the model, the Dark matter is made of neutralino which is supposed to be the lightest supersymmetric particle. We have shown that there are curves of constraints between the size of the extra-dimension and the reheating temperature of the Universe after Inflation. The constraints come from the measurements of the amount of Dark matter in the Universe and from the model of the Big Bang Nucleosynthesis of light elements
24
Lasluisa, Daniel. "Contributions to optimization in energy : from bilevel optimization to optimal design of renewable energy plant." Electronic Thesis or Diss., Perpignan, 2024. http://www.theses.fr/2024PERP0009.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail de thèse, nous développons et appliquons des techniques d'optimisation dans la conception et la gestion de l'énergie. Tout d'abord, nous nous concentrons sur l'optimisation bi-niveaux et développons une nouvelle analyse théorique pour les jeux à un seul meneur et plusieurs suiveurs avec des contraintes de cardinalité. Cette analyse est ensuite appliquée à la localisation optimale des stations de recharge pour véhicules électriques. La deuxième partie est consacrée à l'optimisation économique, à long terme et à court terme, des centrales solaires à concentration. Une approche innovante d'optimisation globale combinant la conception optimale du stockage et l'exploitation optimale dans un contexte de marché est développée. Ensuite, dans un perspective à court terme, le contrôle optimal de la production d'énergie d'une centrale solaire est analysé
In this thesis work, we develop and apply optimization techniques in energy design and management. First we focus on bilevel optimization and developed new theoretical analysis for single-leader-multi-follower games with cardinality constraints. It is then applied to optimal location of charging stations for electric vehicles. The second part is dedicated to economic optimization of solar power plants from a long term as well as from a short term perspective. Innovating global optimization approach mixing optimal design of storage and optimal operation in a market context is developed. Then at a short term scale, the optimal control of energy production of a solar power plant is analysed
En este trabajo de tesis, desarrollamos y aplicamos técnicas de optimización en el dise˜no y gestión de energía. En primer lugar, nos enfocamos en la optimización binivel y desarrollamos nuevo análisis teórico para single-leader-multi-follower games con restricciones de cardinalidad. Luego, se aplica a la localización óptima de estaciones de carga por vehículos eléctricos. La segunda parte está dedicada a la optimización económica de plantas solares desde una perspectiva a largo plazo, así como desde una perspectiva a corto plazo. Se desarrolla un enfoque innovador de optimización global que combina el dise˜no óptimo de almacenamiento y la operación óptima en un contexto de mercado. Luego, a escala a corto plazo, se analiza el control óptimo de la producción de energía de una planta solar
25
Peirani, Sébastien. "Aspects dynamiques et physiques de la matière noire." Nice, 2005. http://www.theses.fr/2005NICE4101.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail consiste à étudier la dynamique des halos de matière noire ainsi que la possibilité de détecter les rayons-gamma qui proviennent de l'annihilation des neutralinos, supposés être les constituants de la matière noire (DM). Dans un premier temps, des simulations numériques ont été réalisées dans le cadre du modèle Lambda-CDM. Nous avons en particulier étudié les effets de l'accrétion et de la fusion sur l'évolution du moment cinétique des halos et leur relaxation dynamique. Nos résultats indiquent que les halos acquièrent du moment cinétique principalement par transfert de moment cinétique orbital durant des phases d'accrétion/fusion plutôt que par les effets de marée. Dans un deuxième temps, nous avons étudié les effets de l'inclusion du terme de la constante cosmologique dans le modèle d'effondrement sphérique de Tolman-Lemaître et déduit les masses pour des groupes de galaxies proches, notamment le Groupe Local et l'amas de Virgo. Notre procédure a mené à une nouvelle évaluation de la constante de Hubble en bon accord avec les récentes déterminations par d'autres méthodes. Finalement, nous avons prédit le flux des rayons-gamma à partir de différentes sources telles que M31, M81, la galaxie du Dragon et la galaxie du Sagittaire et leur détectabilité par le futur satellite GLAST. L'analyse de la détection ou non à différents seuils d'énergie nous a permis d'imposer des contraintes sur la masse du neutralino ainsi que sur la distribution spatiale de la DM dans ces objets
This work aims to study the dynamics of dark matter halos as well as the possibility of detection of gamma-rays resulting from the annihilation of neutralinos, supposed to be the constituent of dark matter (DM). In a first step, numerical simulations have been performed in the context of the Lambda-CDM cosmology and we have studied the effects of merger/accretion on the angular momentum evolution of halos and their dynamical relaxation. Our results indicate that halos acquire angular momentum essentially by the transfer of orbital angular momentum to spin during merger/accretion events rather than by tital torques. In a second step, we have studied the effects of the inclusion of a cosmological constant term in the spherical Tolman-Lemaître collapse model and re-derived masses for some nearby groups of galaxies, in particular the Local Group and Virgo. Our procedure yields a new evaluation of the Hubble constant in quite agreement with recent determination by other methods. Finally, we have predicted gamma-rays fluxes from different sources as M31, M87, Draco and Sagittarius and their detectability by the forthcoming GLAST satellite. The analysis of detection or not at different energy thresholds allows to constraint the neutralino mass and the spatial distribution of DM in those objects
26
Laugel, Thibault. "Interprétabilité locale post-hoc des modèles de classification "boites noires"." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS215.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le domaine du XAI (explicabilité de l'IA), et plus particulièrement sur le paradigme de l'interprétabilité locale post-hoc, c'est-à-dire la génération d'explications pour une prédiction unique d'un classificateur entraîné. En particulier, nous étudions un contexte totalement agnostique, c'est-à-dire que l'explication est générée sans utiliser aucune connaissance sur le modèle de classification (traité comme une boîte noire) ni les données utilisées pour l'entraîner. Dans cette thèse, nous identifions plusieurs problèmes qui peuvent survenir dans ce contexte et qui peuvent être préjudiciables à l'interprétabilité. Nous nous proposons d'étudier chacune de ces questions et proposons des critères et des approches nouvelles pour les détecter et les caractériser. Les trois questions sur lesquelles nous nous concentrons sont : le risque de générer des explications qui sont hors distribution ; le risque de générer des explications qui ne peuvent être associées à aucune instance d'entraînement ; et le risque de générer des explications qui ne sont pas assez locales. Ces risques sont étudiés à travers deux catégories spécifiques d'approches de l'interprétabilité : les explications contrefactuelles et les modèles de substitution locaux
This thesis focuses on the field of XAI (eXplainable AI), and more particularly local post-hoc interpretability paradigm, that is to say the generation of explanations for a single prediction of a trained classifier. In particular, we study a fully agnostic context, meaning that the explanation is generated without using any knowledge about the classifier (treated as a black-box) nor the data used to train it. In this thesis, we identify several issues that can arise in this context and that may be harmful for interpretability. We propose to study each of these issues and propose novel criteria and approaches to detect and characterize them. The three issues we focus on are: the risk of generating explanations that are out of distribution; the risk of generating explanations that cannot be associated to any ground-truth instance; and the risk of generating explanations that are not local enough. These risks are studied through two specific categories of interpretability approaches: counterfactual explanations, and local surrogate models
27
Berthou, Thomas. "Développement de modèles de bâtiment pour la prévision de charge de climatisation et l'élaboration de stratégies d'optimisation énergétique et d'effacement." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00935434.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d'optimisation énergétique et d'effacement. Cette thèse compare plusieurs architectures de modèles inverses (" boite noire ", " boite grise "). Un modèle semi-physique d'ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d'interpréter des situations inédites (effacement), absentes de la phase d'apprentissage. Trois stratégies d'optimisation énergétique et d'effacement adaptées aux contraintes d'exploitation sont étudiées. La première permet d'optimiser la relance en chauffage afin de réduire la consommation et d'atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l'énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s'effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L'étude montre qu'il est possible de prévoir la puissance électrique et la température moyenne d'un bâtiment complexe avec un modèle mono-zone ; elle permet d'évaluer les stratégies développées et d'identifier les limites du modèle.
28
Lefort, Romain. "Contribution des technologies CPL et sans fil à la supervision des réseaux de distribution d'électricité." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2253/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le déploiement d'une infrastructure de supervision permet une gestion plus intelligente des réseaux de distribution d'électricité comparé à un renforcement traditionnel pour répondre aux nouveaux enjeux de la maitrise de l'énergie (Consommations, EnR, VE, ...). Pour acheminer les données, les Courants Porteurs en Ligne (CPL) possèdent un atout majeur. En effet, cette technologie permet de superposer un signal de plus haute fréquence au signal électrique 50/60 Hz. Toutefois, le support de transmission est difficile et non maîtrisable. Ces travaux de recherche ont pour objectif d'apporter une contribution à cette problématique par l'élaboration d'une plateforme de simulation des réseaux pour des fréquences allant jusqu'à 1 MHz dans un but de transmission de données. Des éléments clés des réseaux sont traités de façon séparés puis assemblés pour estimer les performances des CPL « Outdoor » actuels. La variation du comportement des réseaux en fonction du temps et de la fréquence, en particulier des perturbations en tête d'installation clients sur 24h est étudiée. Les transformateurs entre les réseaux HTA et BT sont modélisés sous la forme d'un « modèle à constantes localisées » et d'un « modèle boite noire ». Les deux modèles sont appliqués sur un transformateur H61 100 kVA. Par la suite, une modélisation des câbles de distribution est proposée sous forme d'un « modèle cascadé ». Celle-ci est appliquée sur un câble souterrain BT. Chaque modèle est obtenu à l'aide de mesures d'impédances, et validé par des mesures de transmissions. Pour compléter, une étude préliminaire sur les communications radio mobile est réalisée pour la supervision des réseaux de distribution
Establishing a supervisory infrastructure allows a better smart management than an expensive strengthening of distribution network to respond to new constraints at the energies control (Consumption, REN, EV ...). To transmit data, Power Line Communication (PLC) technologies present an advantage in this context. In fact, it enables a superposition of High Frequency (HF) signals on electrical signal 50/60 Hz. However, electric networks have not been developed to this application because of difficult propagation conditions. This research work makes a contribution to develop a simulation platform in objective to transmit data to 1 MHz. In first time, each network element is studied singly and in second time, together, to estimate "Outdoor PLC" transmission performance. The first element studied is the networks variation in function of frequency and time. Several 24h disturbance measurements on LV customers are presented. The second element is the transformers which established connection between Medium Voltage (MV) and Low Voltage (LV). The proposed modeling method is based on a "lumped model" and a "black box model". These models are applied to a 100 kVA H61 transformer most commonly used by French distribution system operator in rural and suburban networks. The third element is the power line used in MV and LV networks. The proposed modeling method is based on a "cascaded model" from the theory of transmission line. This model is applied to one power line used in LV underground network. Each model is obtained from various impedance measurements. To complete, an introductory study on mobile radio communication is performed to remote network distribution
29
Benchekroun, Fouad. "Etude des inclusions fluides et modèle de dépôt de l'or dans le gisement de Salsigne (Montagne Noire)." Toulouse 3, 1995. http://www.theses.fr/1995TOU30120.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la mine de salsigne, deux stades majeurs de formation des minerais ont ete identifies (lescuyer et al. , 1993): (1) stade fe-as-s (cu) de haute temperature correspondant essentiellement au depot d'arsenopyrite et de pyrrhotite (environ 430c) puis d'arsenopyrite et de pyrite (environ 380c). (2) stade polymetallique a bi-cu-au-pb-zn-sb-ag, de basse temperature (280 a 200c). Cette paragenese aurifere se depose specifiquement dans la microfissuration affectant les corps quartzeux et les sulfures precoces. Deux grandes familles successives de fluides ont ete reconnues. I) des fluides aquo-carboniques precoces du systeme h#2o-co#2-nacl (ch#4) sont d'origine probablement metamorphique. Le fluide considere comme initial est riche en h#2o (xh#2o entre 0. 6 et 0. 9) et relativement dense (d entre 0. 8 et 1. 0 g/cm#3). Il est en relation avec les sulfures du premier stade. Pour une temperature moyenne de depot de 450c, les isochores indiquent des pressions de 3 a 6 kbar. Ii) des fluides aqueux tardifs du systeme h#2o-nacl, peu sales (5 pour cent equivalent nacl) qui sont relies a la paragenese a bi-au. Les caracteres de ces fluides aqueux confirment la temperature de depot de l'or autour de 250c, et indiquent des pressions de piegeage de quelques dizaines a quelques centaines de bars. La modelisation numerique de l'interaction fluide-mineraux montre que des quantites significatives d'or (44 micro-grammes par kg de solution), transportees comme complexes bisulfures, peuvent etre deposees en reponse a l'abaissement de l'activite de h#2s et de la fugacite d'oxygene du aux transformations de pyrrhotite en pyrite et du bismuth en bismuthinite
30
Perrault-Hébert, Maude. "Modélisation de la régénération de l’épinette noire suite au passage d’un feu en forêt boréale fermée." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9460.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
31
Buzzi, Adeline. "Nouveaux tests du modèle cosmologique : élaboration et applications." Aix-Marseille 1, 2010. http://www.theses.fr/2010AIX11057.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous disposons aujourd'hui d'un modèle décrivant l'évolution de l'univers sur les grandes échelles, le Modèle Cosmologique. Au cours de cette thèse, nous avons conçu puis appliqué sur les données les plus récentes plusieurs tests originaux de ce modèle. Nous proposons tout d'abord un critère observationnel visant a rejeter un scenario non métrique de l'accélération cosmique. Puis nous proposons une méthode dont le but est de vérifier observationnellement la cohérence de l'un des piliers du Modèle Cosmologique : le Principe Copernicien. Nous estimons quantitativement l'échelle de l'isotropie d'une distribution de galaxies autour de plusieurs observateurs (et obtenons pour cette échelle 150Mpc/h), puis validons ce résultat par le biais d'une comparaison avec le résultat obtenu avec des simulations à N corps. Enfin, nous proposons et appliquons pour la première fois un test géométrique basé sur le principe d'Alcock-Paczynski. Nous analysons les propriétés de symétrie de systèmes binaires de galaxies lointaines, en apportant les corrections nécessaires des vitesses propres de ces dernières. Nous déterminons ainsi les valeurs des paramètres du modèle, et confirmons de façon indépendante le paradigme cosmologique actuel. L'ensemble des tests que nous proposons peuvent être menés sur les données déjà disponibles, et pourront être menés de façon optimale sur les futurs relevés, SNeIa lointaines et grands sondages spectraux de galaxies (EUCLID, BigBOSS)
The Cosmological Model describes today the evolution of the universe on large scales. During this thesis, we developed and applied to state-of-art data new cosmological tests. We first propose an observational criterion to reject a non-metric scenario of cosmic acceleration. Then we propose a strategy that aims to validate using galaxy distribution the consistency of one of the pilars of the Cosmological Model : the Copernican Principle. We estimate quantitatively the scale of isotropy of this distribution around different distant observers (and find for this scale 150Mpc/h), and then compare with results obtained using N-body simulations. Finally, we elaborate and then apply for the first time a geometrical test based on the Alcock-Paczynski effect. We analyze the symmetry properties of binary systems of galaxies, and computed the necessary corrections of their proper velocities. We obtain values for the parameters of the model, and confirm independantly the current cosmological paradigm. All the tests we propose can be implemented using available data, and will be optimally implemented using future surveys (SNeIa, redshift surveys of galaxies, such as EUCLID or BigBOSS)
32
Chbib, Dyaa. "Détermination des paramètres cosmologiques dans le cadre du modèle de Friedmann-Lemaîtres." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0294/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un siècle après le modèle d'univers de Friedmann-Lemaître, les observations le confortent avec une constante cosmologique $\Lambda$ et une composante de matière sombre (noire) sans pression (poussière) et froide dominant celle baryonique, que l'on désigne par modèle $\Lambda$CDM. L'accélération de l'expansion de l'Univers confirmée par le diagramme de Hubble des supernovae en 1998 impose une valeur strictement positive à la constante cosmologique. Mes travaux de thèse se focalisent sur l'estimation des valeurs de paramètres cosmologiques du modèle standard en utilisant la technique de corrélation nulle. Cette approche présente l'avantage d'être plus robuste que les techniques usuelles. Ce travail a consisté aussi à modéliser des échantillons de l'événement quasar ainsi que l'événement supernova, une extrapolation adaptée du premier. Ce qui a permis de générer des échantillons conformes aux hypothèses des modèles, afin de valider les approches statistiques. Nous avons exploité les données du Sloan Digital Sky Survey (SDSS) pour les quasars, et celles du SuperNova Legacy Survey (SNLS) et du SDSS-II pour les supernovae. Les inférences statistiques ont conduit à un univers spatialement fermé et une présence de matière noire plus faible. Dans le cadre d'une prochaine application de cette technique, elle sera utilisée pour contraindre les modèles d'énergie noire. De même, l'utilisation des amas de galaxies observées grâce à l'effet de Sunyaev Zel'dovich, servira d'échantillon cosmologique. Une telle étude pourra contribuer à apporter un élément de réponse à la validité du rôle supposé des neutrinos massifs dans la formation des amas dans l'ère primordiale de l'Univers
A century after the Universe model of Friedmann-Lemaître, the observations comfort it with a cosmological constant $\Lambda$ and a dark matter component without pressure (dust) and cold dominating the baryonic one, which is denoted by $\Lambda$CDM model. The acceleration of the expansion of the Universe confirmed by the Hubble diagram of the supernovae in 1998 imposes a strictly positive value on the cosmological constant. My thesis work focuses on the estimation of the cosmological parameters values of the standard model using the null correlation technique. This approach has the advantage of being more robust than the usual techniques. This work deals with modelling samples of the quasar event and the supernova event, which enables us to generate samples in order to validate the statistical approaches. We used data from the Sloan Digital Sky Survey (SDSS) for quasars, and the SuperNova Legacy Survey (SNLS) and SDSS-II for supernovae. The Statistical inferences suggest a Universe spatially Closed and a weaker presence of dark matter than that in the Standard model. Such a statistical analysis can be used to constrain dark energy models. Application of this technique might be useful for analyzing of clusters of galaxies observed through the effect of Sunyaev Zel'dovich, in view of deriving the cosmological model and provide an answer to the question of the contribution of massive neutrinos in the formation of clusters in the primordial era of the Universe
33
Sanou, Loé. "Définition et réalisation d'une boîte à outils générique dédiée à la Programmation sur Exemple." Phd thesis, Université de Poitiers, 2008. http://tel.archives-ouvertes.fr/tel-00369484.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'implémentation d'un système intégrant la Programmation sur Exemple (PsE) demande au développeur de mettre à disposition de l'utilisateur final des outils d'assistance lors de la réalisation des tâches. Pour le développeur, cela passe par la mise à disposition des différents services à partir de l'interface utilisateur de l'application. Le système doit donc fournir des interfaces particulières, car non seulement l'objectif fonctionnel de l'application ne doit pas changer, mais surtout parce que les techniques de la PsE doivent être naturellement intégrées. Un système de PsE est difficile à implanter, et pourtant, la plupart possèdent des éléments en commun parmi lesquels on trouve une représentation des actions utilisateur, un historique des actions, et parfois un algorithme d'apprentissage symbolique opérant sur l'historique. Nous favorisons la création d'un tel système en fournissant les outils nécessaires sous forme d'une boîte à outils par extension de Swing. Les développeurs peuvent bâtir, avec un minimum d'effort, des applications mettant en ?uvre les techniques de la PsE. Les principaux services de base ont été identifiés et définis : enregistrement des actions utilisateur, rejeu des actions et des techniques utilisables pour la mise en ?uvre d'applications types. Ils ont été prototypés à travers l'outil PbDToolkit, ouvrant la voie vers la simplification de la mise en ?uvre des applications de PsE. En utilisant PbDToolkit, il n'est pas nécessaire d'implémenter les fonctionnalités de base car toutes les opérations y sont déjà implémentées avec la liberté d'usage et d'exploitation offerte aux développeurs. PbDToolkit est instrumenté pour permettre de vérifier la conformité d'une IHM à son modèle de tâches. Le concept établit un lien entre les tâches élémentaires du modèle de tâches et les actions de l'IHM. Ainsi, à l'exécution, un scénario est généré suivant le format de scénario de l'environnement K-MADe, outil de modélisation utilisé.
34
Berthou, Thomas. "Développement de modèles de bâtiment pour la prévision de charge de climatisation et l’élaboration de stratégies d’optimisation énergétique et d’effacement." Thesis, Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0030/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d’optimisation énergétique et d’effacement. Cette thèse compare plusieurs architectures de modèles inverses (« boite noire », « boite grise »). Un modèle semi-physique d’ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d’interpréter des situations inédites (effacement), absentes de la phase d’apprentissage. Trois stratégies d’optimisation énergétique et d’effacement adaptées aux contraintes d’exploitation sont étudiées. La première permet d’optimiser la relance en chauffage afin de réduire la consommation et d’atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l’énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s’effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L’étude montre qu’il est possible de prévoir la puissance électrique et la température moyenne d’un bâtiment complexe avec un modèle mono-zone ; elle permet d’évaluer les stratégies développées et d’identifier les limites du modèle
To reach the objectives of reducing the energy consumption and increasing the flexibility of buildings energy demand, it is necessary to have load forecast models easy to adapt on site and efficient for the implementation of energy optimization and load shedding strategies. This thesis compares several inverse model architectures ("black box", "grey box"). A 2nd order semi-physical model (R6C2) has been selected to forecast load curves and the average indoor temperature for heating and cooling. It is also able to simulate unknown situations (load shedding), absent from the learning phase. Three energy optimization and load shedding strategies adapted to operational constraints are studied. The first one optimizes the night set-back to reduce consumption and to reach the comfort temperature in the morning. The second strategy optimizes the set-point temperatures during a day in the context of variable energy prices, thus reducing the energy bill. The third strategy allows load curtailment in buildings by limiting load while meeting specified comfort criteria. The R6C2 model and strategies have been faced with a real building (elementary school). The study shows that it is possible to forecast the electrical power and the average temperature of a complex building with a single-zone model; the developed strategies are assessed and the limitations of the model are identified
35
Begin, Thomas. "Modélisation et calibrage automatiques de systèmes." Paris 6, 2008. http://www.theses.fr/2008PA066540.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse au calibrage et à la génération automatiques de modèles. Une nouvelle méthode de modélisation, nommée HLM ("High Level Modeling") est proposée afin de permettre la modélisation rapide et automatique de systèmes opérationnels de type "boîte noire" pour lesquels on dispose uniquement de mesures. Son principe consiste à rechercher parmi un ensemble présupposé de modèles génériques si, une fois correctement calibré, l'un d’eux permet de reproduire le comportement d'entrée/sortie du système tel qu'il est décrit par les mesures. La méthode HLM comprend la description (1) de modèles classiques de type file d’attente ainsi que des modèles plus originaux et (2) d'une méthode de calibrage automatique permettant de déterminer les paramètres d'un modèle de type file d'attente à partir de mesures. La recherche du calibrage est formulée comme un problème d'optimisation numérique pour lequel un algorithme de recherche efficace de type "Derivative Free Optimization" est proposé. Des exemples d'applications de la méthode HLM sur des systèmes réels et variés sont présentés. Enfin, une partie de cette thèse concerne l'influence que peuvent avoir les propriétés distributionnelles d'ordre supérieur sur les performances de files classiques de la théorie des files d'attente.
36
Batina, Jean de Dieu. "Une nouvelle approche du développement économique des pays d'Afrique noire au regard du modèle des pays du sud-est asiatique." Paris 2, 2006. http://www.theses.fr/2006PA020035.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les pays à revenu intermédiaire (PRI) d'Afrique Noire ont à ce jour échoué dans leur politique de développement malgré leurs importantes ressources naturelles, principalement à cause de l'instabilité politique et sociale et de modèles économiques reposant essentiellement sur la commercialisation des produits primaires (faible valeur ajoutée, faibles avantages comparatifs). Les nouveaux pays industrialisés (NPI) d'Asie du Sud-Est faiblement dotés en ressources naturelles ont réussi leur décollage économique grâce à une certaine stabilité politique et à un modèle extraverti d'exportations de produits manufacturés et de remontée de filière basé sur l'exploitation des avantages comparatifs. L'objet de cette thèse, à travers une première partie consacrée aux bases du développement (stabilité politique, formation, infrastructures. . . ), une deuxième partie aux moteurs de la croissance (épargne/investissement, exportations. . . ) et une troisième partie au financement et aux stratégies de développement, est de démontrer qu'un modèle de développement inspiré de l'exemple asiatique mais adapté aux propres spécificités des PRI d'Afrique Noire peut permettre à ces pays de se développer. La stratégie industrielle des créneaux porteurs que nous préconisons dans cette thèse, vise à faire des PRI d'Afrique Noire, des leaders industriels sur deux ou trois niches de produits ou services à valeur ajoutée sur les marchés sous-régionaux, puis mondiaux sur lesquels ils disposent d'avantages comparatifs en termes de position géostratégique et de ressources naturelles.
37
Assous, Maxime. "Modèle progressif de la maladie de parkinson après dysfonctionnement aigu des transporteurs du glutamate dans la substance noire chez le rat." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4034/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La caractéristique neuropathologique majeure de la maladie de Parkinson (MP) est la perte progressive des neurones dopaminergiques (DA) de la substance noire (SN). Nous avons examiné si un dysfonctionnement aigu des EAATs pourrait contribuer au cercle vicieux entretenant la progression des pertes DA. Les effets du PDC, un inhibiteur substrat des EAATs, ont été analysés chez le rat. L'analyse cinétique (4-120 jours) des effets d'une seule injection intranigrale de PDC montre une perte progressive spécifique des neurones DA, avec une évolution unilatérale vers bilatérale et caudo-rostrale. Le processus dégénératif associe déplétion en glutathion et augmentation de l'activité de la γ-glutamyltranspeptidase, stress oxydatif, processus excitotoxiques, autophagie et réactivités gliales. L'antioxydant N-acétylcystéine et les antagonistes des récepteurs NMDA ifenprodil et mémantine exercent un effet neuroprotecteur. Des effets compensatoires transitoires au niveau de marqueurs de la fonction DA dans la SN et le striatum accompagnent la perte cellulaire et des dystrophies axonales. Des troubles moteurs apparaissent de façon tardive lorsque la perte neuronale ipsilatérale avoisine les 50%. Ces résultats montrent un lien fonctionnel entre dysfonctionnement des EAATs et plusieurs mécanismes pathogéniques ainsi que des caractéristiques neuropathologiques majeures de la MP, et fournissent le premier modèle progressif de la maladie induit de façon aiguë
Parkinson's disease (PD) is characterized by the progressive degeneration of substantia nigra (SN) dopaminergic neurons. Central players in PD pathogenesis, including mitochondrial dysfunction and oxidative stress, might affect the function of excitatory amino acid transporters (EAATs). Here, we investigated whether acute EAATs dysfunction might in turn contribute to the vicious cycles sustaining the progression of dopamine neuron degeneration. PDC application on nigral slices triggered sustained glutamate-mediated excitation selectively in dopamine neurons. In vivo time-course study (4-120 days) revealed that a single intranigral PDC injection triggers progressive degeneration of exclusively dopamine neurons with unilateral to bilateral and caudorostral evolution. This degenerative process associates GSH depletion and specific increase in γ-glutamyltranspeptidase activity, oxidative stress, excitotoxicity, autophagy and glial reaction. The anti-oxidant N-acetylcysteine and the NMDA receptor antagonists ifenprodil and memantine provided significant neuroprotection Transient compensatory changes in dopamine function markers in SN and striatum accompanied cell loss and axonal dystrophy. Motor abnormalities (hypolocomotion and forelimb akinesia) showed late onset, when ipsilateral neuronal loss exceeded 50%. These findings outline a functional link between EAATs dysfunction and several PD pathogenic mechanisms and pathological hallmarks, and provide the first acutely-triggered rodent model of progressive parkinsonism
38
Cabana, Antoine. "Contribution à l'évaluation opérationnelle des systèmes biométriques multimodaux." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC249/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement et la multiplication de dispositifs connectés, en particulier avec les \textit{smartphones}, nécessitent la mise en place de moyens d'authentification. Dans un soucis d'ergonomie, les industriels intègrent massivement des systèmes biométrique afin de garantir l'identité du porteur, et ce afin d'autoriser l'accès à certaines applications et fonctionnalités sensibles (paiements, e-banking, accès à des données personnelles : correspondance électronique..). Dans un soucis de garantir, une adéquation entre ces systèmes d'authentification et leur usages, la mise en œuvre d'un processus d'évaluation est nécessaire.L'amélioration des performances biométriques est un enjeux important afin de permettre l'intégration de telles solutions d'authentification dans certains environnement ayant d'importantes exigences sur les performances, particulièrement sécuritaires. Afin d'améliorer les performances et la fiabilité des authentifications, différentes sources biométriques sont susceptibles d'être utilisées dans un processus de fusion. La biométrie multimodale réalise, en particulier, la fusion des informations extraites de différentes modalités biométriques
Development and spread of connected devices, in particular smartphones, requires the implementation of authentication methods. In an ergonomic concern, manufacturers integrates biometric systems in order to deal with logical control access issues. These biometric systems grant access to critical data and application (payment, e-banking, privcy concerns : emails...). Thus, evaluation processes allows to estimate the systems' suitabilty with these uses. In order to improve recognition performances, manufacturer are susceptible to perform multimodal fusion.In this thesis, the evaluation of operationnal biometric systems has been studied, and an implementation is presented. A second contribution studies the quality estimation of speech samples, in order to predict recognition performances
39
Varelas, Konstantinos. "Randomized Derivative Free Optimization via CMA-ES and Sparse Techniques : Applications to Radars." Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAX012.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions des aspects des méthodes aléatoires adaptatives pour l’optimisation continue sans gradients. Les algorithmes que nous étudions sont basés sur l’algorithme Covariance Matrix Adaptation Evolution Strategy (CMA-ES) et se concentrent sur des problèmes d’optimisation en grande dimension.Nous commençons par une description de CMA-ES et sa relation avec le cadre de Information Geometric Optimization (IGO), suivie d’une étude comparative de variantes de CMA-ES à grande échelle. Nous proposons en outre de nouvelles méthodes qui intègrent des outils d’estimation en grande dimension au sein de CMA-ES, afin d’obtenir des algorithmes plus efficaces pour des problèmes partiellement séparables.De plus, nous décrivons la méthodologie pour l’évaluation de la performance des algorithmes adopté par la plateforme Comparing Continuous Optimizers (COCO), et finalisons la suite de tests bbob-largescale, une nouvelle suite d’analyse comparative avec des problèmes de grandes dimensions et avec un faible coût de calcul.Enfin, nous présentons la formulation, la méthodologie et les résultats obtenus pour deux applications liées aux problèmes de Radar, le problème d’optimisation du code de phase et le problème de synthèse des faisceaux
In this thesis, we investigate aspects of adaptive randomized methods for black-box continuous optimization. The algorithms that we study are based on the Covariance Matrix Adaptation Evolution Strategy (CMA-ES) algorithm and focus on large scale optimization problems.We start with a description of CMA-ES and its relation to the Information Geometric Optimization (IGO) framework, succeeded by a comparative study of large scale variants of CMA-ES. We furthermore propose novel methods which integrate tools of high dimensional analysis within CMA-ES, to obtain more efficient algorithms for large scale partially separable problems.Additionally, we describe the methodology for algorithm performance evaluation adopted by the Comparing Continuous Optimizers (COCO) platform, and finalize the bbob-largescale test suite, a novel benchmarking suite with problems of increased dimensions and with a low computational cost.Finally, we present the formulation, methodology and obtained results for two applications related to Radar problems, the Phase Code optimization problem and the Phased-Array Pattern design problem
40
Pouchot-Lermans, Catherine. "Un modèle de chorée de Huntington : étude électrophysiologique de la Pars reticulata de la substance noire et du noyau entopédonculaire chez le rat." Bordeaux 2, 1986. http://www.theses.fr/1986BOR22031.
APA, Harvard, Vancouver, ISO, and other styles
41
Espel, Diane. "Développement d'une boîte à outils pour comprendre et prédire la dynamique spatiale et temporelle des macrophytes submergés : application aux écosystèmes fluviaux." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0083.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De par leurs rôles écologiques multiples, les macrophytes sont une composante importante des hydrosystèmes, qu’il est essentiel de conserver. Toutefois, durant la saison estivale, des densités importantes des espèces submergées entraînent des problèmes récurrents dans certains cours d’eau, notamment en milieu urbain pour les usagers et les gestionnaires, et peuvent avoir des conséquences négatives pour la santé des écosystèmes. Dans un contexte de changements globaux, les enjeux liés à la prolifération des macrophytes submergés incitent à proposer des outils permettant de mieux comprendre la dynamique des herbiers et de prédire leur évolution selon différents scénarios environnementaux. Dans cette optique, la présente thèse a pour objectif le développement d’une boîte à outils accompagnant un modèle mécaniste multispécifique de production des végétaux aquatiques submergés, le modèle DEMETHER. Ce modèle permet de simuler la dynamique spatiale et temporelle de la biomasse de deux espèces communes de la Garonne moyenne (Myriophyllum spicatum et Ranunculus fluitans), sur des tronçons d’environ un kilomètre, et tient compte de la variabilité des conditions hydromorphologiques et météorologiques locales. Pour ce faire, il nécessite de connaître certains paramètres écophysiologiques et de disposer de données spatialisées de biomasse pour sa calibration, ainsi que de données bathymétriques et de substrat. La première phase de ce travail a alors consisté à réaliser des relevés sur le terrain pour caractériser le site d’étude et à développer des outils numériques ou expérimentaux pour l’acquisition de ces données. Le premier outil développé a pour objet le suivi des macrophytes submergés par télédétection. La méthode explorée a confirmé le potentiel de l’imagerie multispectrale à haute résolution spatiale (50 cm) des satellites Pléiades, traitée par des algorithmes d’apprentissage automatique, pour cartographier la distribution des herbiers et quantifier leur biomasse in situ. Cette approche nous a par ailleurs conduits à proposer une stratégie d’échantillonnage optimisée des macrophytes en grand cours d’eau pour de futures investigations. Ce travail ouvre des perspectives intéressantes pour appliquer la méthode à de l’imagerie drone, et poursuivre son développement pour un suivi mensuel automatisé. En parallèle, un outil de mesure de paramètres écophysiologiques par oxymétrie a été développé et appliqué aux deux espèces d’intérêt. Les données obtenues renseignent en particulier sur les capacités photosynthétique et respiratoire de chaque espèce en réponse à des facteurs limitants (lumière, température). La seconde phase de ce travail a consisté en l’application du modèle DEMETHER pour l’exploration de différents scénarios d’évolution climatique. Des simulations de la dynamique des herbiers en termes de biomasse ont été réalisées pour les conditions thermiques actuelles et pour une hausse des températures prévisible à l’horizon 2041-2070. Les résultats ont montré l’importance de la sensibilité de certains processus physiologiques à la température pour expliquer les patrons de distribution des deux espèces étudiées, soulignant l’intérêt de la modélisation mécaniste pour comprendre la structuration des communautés de macrophytes. Les premiers résultats obtenus avec cette boîte à outils ont confirmé sa fonctionnalité. Toutefois, en vue d’étendre son champ d’application, chacun des outils développés durant la thèse devra encore être amélioré, notamment pour affiner la calibration du modèle DEMETHER. Des propositions précises ont été formulées dans ce sens
Because of their multiple ecological roles, macrophytes are an important component of hydrosystems, and are thus essential to conserve. However, during the summer season, high densities of submerged species cause recurrent problems in certain rivers, especially in urban areas for users and managers, and can have negative consequences for ecosystem health. In a context of global change, the overgrowth of submerged macrophytes calls for new tools to better understand the dynamics of macrophytes meadows and to predict their dynamics according to different environmental scenarios. In this context, this thesis aims to develop a toolbox accompanying a multispecific mechanistic model for the production of submerged aquatic plants, the DEMETHER model. This model simulates the spatial and temporal biomass dynamics for two common species of the mid-part of the Garonne (Myriophyllum spicatum and Ranunculus fluitans) over river section of about one kilometer. It takes into account the variability of local hydromorphological and meteorological conditions. To do this, the model requires determining certain ecophysiological parameters and having spatialized biomass data for its calibration, as well as bathymetric and substrate data. The first phase of this work then consisted in field surveys to characterize the study site and in developing numerical or experimental tools for the acquisition of these data. The first tool developed aims to monitor submerged macrophytes by remote sensing. The method explored here confirmed the potential of high spatial resolution (50 cm) multispectral imagery of Pléiades satellites, processed by machine learning algorithms, to map the distribution of macrophyte beds and quantify their biomass in situ. This approach has also led us to propose an optimized sampling strategy for macrophytes in large rivers for future investigations. This work opens up interesting perspectives for applying the method to drone imagery, and continuing its development for automated monthly monitoring. In parallel, a tool was developed for measuring physiological parameters via oximetry and applied to the two species of interest. The data obtained provide information in particular on the photosynthetic and respiratory capacities of each species in response to limiting factors (light, temperature). The second phase of this work consisted in applying the DEMETHER model to explore different climate change scenarios. Simulations of the macrophyte dynamics in terms of biomass were carried out for current thermal conditions and for a foreseeable rise in temperatures by 2041-2070. The results showed the importance of the temperature sensitivity of certain physiological processes to explain the distribution patterns of the two species studied, highlighting the interest of mechanistic modelling to understand the structuring of macrophyte communities. The first results obtained with this toolbox confirmed its functionality. However, in order to extend its application range, each of the tools developed during the thesis will need to be further improved, in particular to refine the calibration of the DEMETHER model. Specific suggestions have been made to this aim
42
Virgone-Carlotta, Angélique. "Intéractions microglie/neurones dans un modèle murin de neurodégénérescence induite par la 6-OHDA." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10308.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur l'étude de la réaction microgliale et des interactions microglie/neurones dans un modèle murin de neurodégénérescence dopaminergique induit par l'injection de 6‐hydroxydopamine (6‐ OHDA). Dans ce modèle, nous décrivons tout d'abord les cinétiques d'activation microgliale, de perte neuronale et d'altérations comportementales en relation avec le déficit dopaminergique. Dans la substance noire lésée ont été observées une perte progressive des neurones dopaminergiques TH+ (Tyrosine Hydroxylase) ainsi qu'une activation microgliale précoce mais transitoire. Le rôle délétère de cette activation microgliale est fortement suggéré par la mise en évidence d'une protection partielle contre la toxicité induite par la 6‐OHDA dans des souris génétiquement modifiées DAP12 Knock‐In, dont la densité microgliale est constitutivement diminuée. Par ailleurs, nous avons identifié différents types de contacts intercellulaires entre les neurones et la microglie de la substance noire lésée. Ces interactions physiques sont matérialisées entre autres sous la forme de contacts intimes entre le corps cellulaire des cellules microgliales et le soma des neurones dopaminergiques. De façon intéressante, ce type d'interaction se met en place quelques jours avant le pic de mort neuronale et dans la grande majorité des cas, concerne des neurones présentant des signes morphologiques d'apoptose. Finalement, nous avons également identifié un nouveau type d'interaction physique entre neurones et microglie sous la forme de ramifications microgliales pénétrant le soma des neurones. Ces interactions s'apparentent aux "tunelling nanotubes" décrits dans la littérature et représentent un type particulier de ramifications microgliales perforantes que nous avons nommées "tunelling ramifications". La présence de vacuoles TH+ dans le cytoplasme de nombreuses cellules microgliales suggère que les ramifications microgliales pénétrantes sont le support d'un processus de microphagocytose ciblant le cytoplasme des neurones dopaminergiques. La fonction précise de ces interactions et les mécanismes moléculaires qui les suscitent restent à définir. Toutefois, ce travail de thèse apporte un ensemble de données originales sur le dialogue microglie/neurones dans un modèle murin de la maladie de Parkinson
This thesis work is aimed to study microglial reaction and microglia/neuron interactions in a murine model of dopaminergic neurodegeneration induced by the injection of 6‐hydroxydopamine (6‐OHDA). In this model, we first describe the kinetics of microglial activation, neuronal cell loss and behavioral alterations in relation with the dopaminergic defect. In the injured substantia nigra, we observed a progressive loss of TH+ (Tyrosine Hydroxylase ‐positive) dopaminergic neurons and an early but transient microglial activation. The deleterious role of microglial activation is strongly suggested by the observation of a partial neuroprotection against 6‐OHDA‐induced toxicity in genetically DAP12 Knock‐In mice, in which microglial cells are defective in regard to their number and function. In addition, we identified various types of cell‐tocell contacts between neurons and microglia in the injured substantia nigra. Such physical interactions were established between microglia and neuronal cell bodies several days before the peak of neuronal death and in the majority of cases in neurons showing morphological signs of apoptosis. Finally, we also identified a new type of physical interactions consisting in microglial ramifications penetrating the soma of TH+ neurons. These interactions present similarities with the so‐called « tunelling nanotubes » previously described in the literature and represent a particular type of penetrating microglial ramifications the we named "tunelling ramifications.". Interestingly, in the injured substantia nigra, the presence of TH+ vacuoles in the cytoplasm of numerous microglial cells strongly suggests that microglial ramifications support microphagocytosis targeted toward the cytoplasm of dopaminergic neurons. The precise function and molecular mechanisms of such unique interactions need to be further assessed. However, our work provides a set of original data that deepens our knowledge on the dialogue between microglia and neurons in a mouse model of Parkinson's disease
43
Chanraud-Carraze, Véronique. "Effet de l'inactivation du noyau sous-thalamique sur l'activité des neurones de la pars reticulata de la substance noire : un modèle d'hémiballisme chez le rat." Bordeaux 2, 1994. http://www.theses.fr/1994BOR2M106.
APA, Harvard, Vancouver, ISO, and other styles
44
Cendrès-Bozzi, Christophe. "Troubles du cycle veille/sommeil liés à la maladie de Parkinson : modèle animal, mécanismes et approches thérapeutiques." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10081.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les troubles du sommeil, tels que la somnolence diurne excessive et les attaques narcoleptiques, sont fréquemment observés chez les patients Parkinsoniens. Malgré de nombreux efforts cliniques à l’échelle mondiale, il reste à déterminer si ces troubles sont causés par les lésions neuronales dopaminergiques (DAergiques) ou non DAergiques, par les troubles moteurs ou par les effets délétères des médicaments anti-parkinsoniens. Par une approche pluridisciplinaire (analyse EEG; mesure de l’activité locomotrice; tests pharmacologiques; immunohistochimie) chez le félin traité au MPTP, nous avons étudié la corrélation possible entre perte DAergique et troubles du cycle veille-sommeil (V/S). Le MPTP (5mg/kg/jour x5, i.p.) induit en période aiguë, une hypersomnie en sommeil lent (SL), une suppression du sommeil paradoxal (SP), ainsi qu’une diminution de la locomotion et une difficulté à l’initiation des mouvements. Les agonistes DAergiques (L-dopa; ropinirole) empêchent l’hypersomnie en SL de façon transitoire. Durant la période chronique, les taux d’éveil et de SL reviennent à la normale. Le SP augmente transitoirement et s’associe à des épisodes narcoleptiques. Les analyses ex-vivo révèlent une diminution du marquage TH (corps cellulaire de la substance noire ; fibres du striatum). Le marquage des neurones cholinergiques (cerveau antérieur basal et tegmentum mésopontique) semblent inchangée. Nos résultats montrent donc que le MPTP induit chez le félin des symptômes moteurs et des troubles du sommeil proches de ceux observés chez les patients parkinsoniens. Cette étude suggère également une corrélation possible entre les troubles du cycle V/S et la perte des cellules DAergiques
Motors disorders are not the only symptoms of Parkinson disease (PD), and sleep disorders such as somnolence and narcolepsy are frequently reported in PD patients. Despite much investigation worldwide, it remains unknown whether these disorders are caused by dopaminergic (DArgic), non-DArgic neural lesions, nocturnal motor disability or deleterious effect of anti-PD drugs. Using multiple experimental approaches (EEG and sleep-wake recordings/pharmacological dosing / immunohistochemistry) in cats treated with MPTP, which causes DArgic neuronal loss, we have studied the possible correlation between the induced effects on the sleep-wake (S/W) cycle and those on DArgic neurons. MPTP (5mg/kg/day x 5, i.p.) caused, during the acute period, a slow wave sleep hypersomnia (SWS, up to 80% of recorded time) and a suppression of paradoxical sleep (PS), accompanied with pronounced behavioural somnolence, marked decrease in locomotion and difficulty to initiate movements. DArgic agonists L-dopa and ropinirole transiently prevented hypersomnia in SWS. During the chronic period, whereas the amount of W and SWS returned to control, PS transiently increased, associated with narcolepsy-like episodes. Ex-vivo analyses revealed marked decrease in TH labelling (cell bodies in the substantia nigra and terminal-like dots in the striatum) whereas cholinergic neurons in the basal forebrain and mesopontine-tegmentum seemed unchanged. Thus, MPTP treated cats showed major signs of motor and S/W disorders similar to those seen in PD patients and so could serve as useful animal model. Our results also suggest a possible correlation/causality between the MPTP-induced S/W disorders and DArgic cell loss
45
Coupon, Jean. "Galaxies à grand décalage spectral : mesures et contraintes cosmologiques." Paris 6, 2009. http://www.theses.fr/2009PA066581.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thse se concentre sur la mesure des décalages spectraux de galaxies (redshifts) et leurs applications à la cosmologie. Cette étude se place dans le contexte du modèle standard cosmologique dont nous décrivons le fonctionnement et les limites. En particulier nous rappelons que le contenu en matière noire et en énergie sombre constitue la source principale d'investigation des grands relevés cosmologiques présents et futurs. Partant du principe que les redshifts photométriques, seuls capables d'être mesurés pour des millions d'objects, sont indispensables à la cosmologie observationnelle moderne, nous montrons comment il est possible d'obtenir une précision de 1--3\% sur leur mesure. Nous avons appliqué cette méthode sur les données du Canada-France-Hawaii Legacy Survey (CFHTLS) et porté une attention particulière aux erreurs statistiques et systématiques. Nous avons utilisé les catalogues de redshifts photométriques pour mesurer l'agrégation des galaxies dans le CFHTLS wide. Le grand nombre d'objets nous a permis de construire des échantillons limités en volumes pour lesquels nous avons trouvé une forte disparité entre types de galaxies séparés en couleur. Les galaxies rouges sont plus lumineuses et plus agrégées que les galaxies bleues. Nous avons ajusté le modèle de distribution d'occupation des halos (HOD) sur ces échantillons et trouvé un très bon accord avec les données. Nous avons observé que les halos qui abritaient les galaxies rouges étaient plus massifs que pour les bleues et que leur masse augmentait avec la luminosité des galaxies.
46
Tarhini, Ahmad. "Nouvelle physique, Matière noire et cosmologie à l'aurore du Large Hadron Collider." Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-00847781.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la premi ère partie de cette th èse, je pr ésenterai le 5D MSSM qui est un mod èle supersym étrique avec une dimension suppl émentaire. (Five Dimensional Minimal Supersymmetric Standard Model). Apr ès compactication sur l'orbifold S1=Z2, le calcul des equations du groupe de renormalisation (RGE) a une boucle montre un changement dans l' évolution des param ètres ph énom énologiques. D es que l' énergie E = 1=R est atteinte, les états de Kaluza-Klein interviennent et donnent des contributions importantes. Plusieurs possibilit és pour les champs de mati ère sont discut és : ils peuvent se propager dans le "bulk" ou ils sont localis és sur la "brane". Je pr ésenterai d'une part l' évolution des équations de Yukawa dans le secteur des quarks ainsi que les param ètres de la matrice CKM, d'autre part, les e ffets de ce mod èle sur le secteur des neutrinos notamment les masses, les angles de m élange, les phases de Majorana et de Dirac. Dans la deuxi ème partie, je parlerai du mod èle AMSB et ses extensions (MM-AMSB et HC-AMSB). Ces mod èles sont des sc enarios de brisure assez bien motiv es en supersym étrie. En calculant des observables issues de la physique des particules puis en imposant des contraintes de cosmologie standard et alternative sur ces sc enarios, j'ai d étermin e les r égions qui respectent les contraintes de la mati ère noire et les limites de la physique des saveurs. Je reprendrai ensuite l'analyse de ces mod èles en utilisant de nouvelles limites pour les observables. La nouvelle analyse est faite en ajoutant les mesures r écentes sur la masse du Higgs et les rapports de branchement pour plusieurs canaux de d ésint égrations.
47
Nganga, Massengo Arnaud. "Les revendications afro-antillaises à la télévision publique française (1998-2008) : des contentieux postcoloniaux à la re-légitimation d’un modèle d’intégration." Thesis, Bordeaux 3, 2013. http://www.theses.fr/2013BOR30060.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A partir d’un corpus télévisé issu des chaînes publiques hertziennes, cette recherche analyse les modalités discursives de traitement télévisuel des contentieux postcoloniaux,- au cœur des mobilisations afro-antillaises articulées autour de trois pôles de luttes (visibilité, discriminations et reconnaissance mémorielle),- réapparus sous la forme d’une nouvelle «Question noire» française durant les années 2000. Il est question plus précisément d’identifier les régimes de monstration de ces mobilisations dont la mise en débat public révèle leur problématisation éristique, à travers un mode d’accès essentiellement polémique à l’agenda médiatique. Ce mode d’admission télévisuel a pour effet l’exhumation en permanence d’un clivage ethno-racial dans les discours publics et médiatiques. En outre, la monstration se déploie à travers le registre d’une mise en scène symbolique de l’opposition entre deux types de figures médiatiques : d’un côté, les Ultra-républicains, dans le rôle des défenseurs autoproclamés de la république et de l’autre, les figures minoritaires engagées dans les actions de contestation de leur statut en son sein. Enfin, cette étude met au jour le déploiement, d’un côté, des procédures discursives de disqualification du minoritaire et de l’autre, celles liées à la re-légitimation du modèle républicain d’intégration dans le processus de prise en charge publique des contentieux postcoloniaux. Cette thèse est structurée autour de deux parties. La première partie s’ouvre sur l’histoire de la présence afro-antillaise en France. Elle met en exergue, dans un premier chapitre, les fondements historiques de la présence noire hexagonale. La deuxième partie concerne notre enquête sur la monstration des revendications afro-antillaises. Charpentée autour de cinq chapitres, cette partie est consacrée à l’analyse des 38 émissions de notre corpus reparties sur une période de dix ans entre 1998 et 2008
From a French public channels corpus, this study aims to analize Tv representions of postcolonial contentious issues, in the heart of French Blacks mobilisations which are structured around three mean claims (visibility, discriminations and memory recognition). Describing the will of French Blacks to exist on public sphere, these claims make the historic debate of the “Question noire” reappeared from the 2000s. The research, which intends to question the way in which Afro carribean mobilisations were told and represented on French public television, identifies following major trends. Fisrtly, the television debates analysis underlines an “eristic problematisation” of “Question noire” related issues with essentially polemical media coverage. The result of this type of access to the media agenda is a constant exhumation of an ethnoracial split in media and public discourses. Secondly, Tv coverage analysis reveals a symbolic production of an opposition between two dominant media figures. In one side, the “Ultra-républicains” playing the rôle of self-proclaimed defenders of French republic, and, on the other side, a coalition of minoriy claims defenders. The study, at last, reveals both discourses of disqualification of the minorities, and, discourses of re-legitimation of the French model of integration. This thesis consists of two parts. The first one deals with French Black history. It presents historic reasons of their presence from slavery up to decolonization. The second part explores the representation of postcolonial contentious issues in French public televisions. Structured on five chapters, it proposes a content analysis of our corpus based on 38 broadcasts between 1998 and 2008
48
Uhlrich, Josselin. "Contrôle de l'activation microgliale par les lymphocytes T dans un modèle murin de neurodégénérescence induite par la 6-OHDA." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10139/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse décrit et analyse la réaction neuro-inflammatoire accompagnant la mort cellulaire neuronale dans un modèle murin de la maladie de Parkinson. Dans ce modèle, induit par l’injection intrastriatale d'un analogue toxique de la dopamine, la 6-hydroxydopamine (6-OHDA), nous décrivons les caractéristiques et la cinétique de l’activation microgliale, de l'infiltration lymphocytaire T, de la perte de neurones dopaminergiques TH+ (Tyrosine Hydroxylase) et des altérations du comportement moteur. Nos observations sont complétées par une étude neuropathologique de la substance noire chez des patients atteints de maladie de Parkinson. Les résultats montrent que, chez l'homme comme chez la souris, la mort de neurones dopaminergiques induit une infiltration T de faible intensité, limitée à la substance noire et s'accompagnant d'une activation microgliale. Dans un deuxième temps, nous analysons l'impact d'une déficience lymphocytaire T génétiquement déterminée sur les paramètres histologiques et fonctionnels caractérisant le modèle 6-OHDA. Nos résultats montrent que, comparées à des souris contrôles immunocompétentes, les souris immunodéficientes de souche Foxn1 KO, CD3 KO, NOD SCID ou RAG1 KO présentent toutes, à des degrés divers, une susceptibilité significativement accrue aux effets neurotoxiques de la 6-OHDA. L'aggravation observée de la perte neuronale s'accompagne d'une accentuation majeure des troubles du comportement moteur et de l'activation microgliale. Ce travail démontre l'importance de la neuro-inflammation et de l'immunité adaptative dans la physiopathologie du modèle 6-OHDA. Il suggère également que les LyT infiltrant la substance noire des patients atteints de maladie de Parkinson exercent un rôle inhibiteur sur l'activation microgliale et pourraient par ce mécanisme ralentir l'évolution de la perte neuronale dopaminergique. En résumé, ce travail de thèse apporte un ensemble de données originales sur les interactions entre LyT, microglie et neurones dopaminergiques dans le contexte de la maladie de Parkinson et du modèle murin 6-OHDA
This thesis work describes and analyzes the neuroinflammatory reaction that accompanies neuronal cell death in a murine model of Parkinson's disease. In this model, induced by the intrastriatal injection of 6-hydroxydopamine (6-OHDA), a toxic dopamine analog, we report on the main features and kinetics of microglial activation, T-cell infiltration, loss of TH+ (Tyrosine Hydroxylase) dopaminergic neurons and motor behavior alterations. We also assessed the presence of T-cells in the susbstantia nigra of Parkinson's disease patients and found that, as observed in the 6-OHDA murine model, the neuronal cell death of dopaminergic neurons triggers a low-grade T-cell infiltration that accompanies microglial activation. We then studied the impact of genetically-determined T-cell immunodeficiency on histological and functional outcomes in the 6-OHDA model. Our results show that, as compared to immunocompetent control mice, immunodeficient strains consisting in Foxn1 KO, CD3 KO, NOD SCID or RAG KO mice consistently presented, at varied levels, a highest susceptibility to 6-OHDA induced dopaminergic neurodegeneration. The observed accentuation of neuronal cell loss was accompanied by a marked increase of microglial activation and motor behavior alterations. Our work demonstrates the pathophysiological role of neuroinflammation and adaptative immunity in the 6-OHDA model. It also suggests that T-cells infiltrating the substantia nigra of Parkinson's disease patients dampen microglial activation and could, via this inhibitory effect, slow the progression of dopaminergic cell loss. Overall this thesis work provides original data on the interactions between T-cells, microglia and dopaminergic neurons in the context of Parkinson's disease and the murine 6-OHDA model
49
Dahito, Marie-Ange. "Constrained mixed-variable blackbox optimization with applications in the automotive industry." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS017.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bon nombre de problèmes d'optimisation rencontrés dans l'industrie font appel à des systèmes complexes et n'ont pas de formulation analytique explicite : ce sont des problèmes d'optimisation de type boîte noire (ou blackbox en anglais). Ils peuvent être dits “mixtes”, auquel cas ils impliquent des variables de différentes natures (continues et discrètes), et avoir de nombreuses contraintes à satisfaire. De plus, les évaluations de l'objectif et des contraintes peuvent être numériquement coûteuses.Dans cette thèse, nous étudions des méthodes de résolution de tels problèmes complexes, à savoir des problèmes d'optimisation boîte noire avec contraintes et variables mixtes, pour lesquels les évaluations des fonctions sont très coûteuses en temps de calcul.Puisque l'utilisation de dérivées n'est pas envisageable, ce type de problèmes est généralement abordé par des approches sans dérivées comme les algorithmes évolutionnaires, les méthodes de recherche directe et les approches basées sur des métamodèles.Nous étudions les performances de telles méthodes déterministes et stochastiques dans le cadre de l'optimisation boîte noire, y compris sur un cas test en éléments finis que nous avons conçu. En particulier, nous évaluons les performances de la variante ORTHOMADS de l'algorithme de recherche directe MADS sur des problèmes d'optimisation continus et à variables mixtes issus de la littérature.Nous proposons également une nouvelle méthode d'optimisation boîte noire, nommée BOA, basée sur des approximations par métamodèles. Elle comporte deux phases dont la première vise à trouver un point réalisable tandis que la seconde améliore itérativement la valeur de l'objectif de la meilleure solution réalisable trouvée. Nous décrivons des expériences utilisant des instances de la littérature et des applications de l'industrie automobile. Elles incluent des tests de notre algorithme avec différents types de métamodèles, ainsi que des comparaisons avec ORTHOMADS
Numerous industrial optimization problems are concerned with complex systems and have no explicit analytical formulation, that is they are blackbox optimization problems. They may be mixed, namely involve different types of variables (continuous and discrete), and comprise many constraints that must be satisfied. In addition, the objective and constraint blackbox functions may be computationally expensive to evaluate.In this thesis, we investigate solution methods for such challenging problems, i.e constrained mixed-variable blackbox optimization problems involving computationally expensive functions.As the use of derivatives is impractical, problems of this form are commonly tackled using derivative-free approaches such as evolutionary algorithms, direct search and surrogate-based methods.We investigate the performance of such deterministic and stochastic methods in the context of blackbox optimization, including a finite element test case designed for our research purposes. In particular, the performance of the ORTHOMADS instantiation of the direct search MADS algorithm is analyzed on continuous and mixed-integer optimization problems from the literature.We also propose a new blackbox optimization algorithm, called BOA, based on surrogate approximations. It proceeds in two phases, the first of which focuses on finding a feasible solution, while the second one iteratively improves the objective value of the best feasible solution found. Experiments on instances stemming from the literature and applications from the automotive industry are reported. They namely include results of our algorithm considering different types of surrogates and comparisons with ORTHOMADS
50
Attoue, Nivine. "Use of Smart Technology for heating energy optimization in buildings : experimental and numerical developments for indoor temperature forecasting." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I021/document.
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’inquiétude croissante concernant le futur des ressources énergétique a fait de l’optimisation énergétique une priorité dans tous les secteurs. De nombreux sujets de recherche se sont focalisés sur celui du bâtiment étant le principal consommateur d’énergie, en particulier à cause de ses besoins en chauffage. L’application des stratégies de contrôle et de gestion innovantes peuvent contribuer à des économies d'énergie. L'objectif de cette thèse est d'introduire le concept intelligent dans les bâtiments pour réduire la consommation d'énergie. L'étude vise à développer un modèle permettant de prédire le comportement thermique des bâtiments. La thèse propose une méthodologie basée sur la sélection des paramètres d'entrée pertinents, après une analyse de pertinence, pour développer un modèle simplifié de réseau de neurones artificiel, utilisé pour la prévision de température intérieure. Le domaine intelligent nécessite un processus automatisé pour comprendre la dynamique des bâtiments et décrire ses caractéristiques. L’utilisation des modèles thermiques réduits convient pour de telles stratégies. Ainsi, la thèse présente une étude préliminaire pour la génération d'un processus automatisé pour déterminer la prévision de température intérieure à court terme et les caractéristiques des bâtiments basées sur la modélisation en boîte grise. Cette étude est basée sur une méthodologie capable de trouver l'ensemble de données le plus fiable qui décrit le mieux la dynamique du bâtiment. L'étude montre que l'ordre le plus performant pour les modèles réduits est régi par la dynamique des données collectées utilisées
With the highly developing concerns about the future of energy resources, the optimization of energy consumption becomes a must in all sectors. A lot of research was dedicated to buildings regarding that they constitute the highest energy consuming sector mainly because of their heating needs. Technologies have been improved and several methods are proposed for energy consumption optimization. Energy saving procedures can be applied through innovative control and management strategies. The objective of this thesis is to introduce the smart concept in the building system to reduce the energy consumption, as well as to improve comfort conditions and users’ satisfaction. The study aims to develop a model that makes it possible to predict thermal behavior of buildings. The thesis proposes a methodology based on the selection of pertinent input parameters, after a relevance analysis of a large set of input parameters, for the development of a simplified artificial neural network (ANN) model, used for indoor temperature forecasting. This model can be easily used in the optimal regulation of buildings’ energy devices. The smart domain needs an automated process to understand the buildings’ dynamics and to describe its characteristics. Such strategies are well described using reduced thermal models. Thus, the thesis presents a preliminary study for the generation of an automated process to determine short term indoor temperature prediction and buildings characteristics based on grey-box modeling. This study is based on a methodology capable of finding the most reliable set of data that describes the best the building’s dynamics. The study shows that the most performant order for reduced-models is governed by the dynamics of the collected data used
You might also be interested in the bibliographies on the topic 'Modèle de boîte noire' for other source types:
Journal articles