Paméla Dugues, Emuri Abe, Isabelle Etting et al.
Hasil untuk "cs.ET"
Menampilkan 20 dari ~2513744 hasil · dari Semantic Scholar, CrossRef
Islam Amine Larabi, Emuri Abe, Isabelle Etting et al.
M. Frank
There is one, and only one way, consistent with fundamental physics, that the efficiency of general digital computation can continue increasing indefinitely, and that is to apply the principles of reversible computing. We need to begin intensive development work on this technology soon if we want to maintain advances in computing and the attendant economic growth NOTE: This paper is an extended author’s preprint of the feature article titled “Throwing Computing Into Reverse” (print) or “The Future of Computing Depends on Making it Reversible” (online), published by IEEE Spectrum in Aug.-Sep. 2017. This preprint is based on the original draft manuscript that the author submitted to Spectrum, prior to IEEE edits and feedback from external readers. Since the dawn of the transistor, technologists, and the world at large, have grown accustomed to a steady trend of exponentially-improving performance for information technologies at any given cost level. This performance growth has been enabled by the underlying trend, described by Moore’s Law, of the exponentially-increasing number of electronic devices (such as transistors) that can be fabricated on an integrated circuit. According to the classic rules of semiconductor scaling, as transistors were made smaller, they became simultaneously cheaper, faster, and more energy-efficient, a massive win-win-win scenario, which resulted in concordantly massive investments in the ongoing push to advance semiconductor fabrication technology to ever-smaller length scales. Unfortunately, there is today a growing consensus within industry, academia, and government labs that semiconductor scaling has not very much life left; maybe 10 years or so, at best. Multiple issues that come into play as we dive deeper into the nanoscale mean that the classic scaling trends are losing steam. Already, the decreasing logic voltages required due to various short-channel effects resulted in the plateauing of clock speeds more than a decade ago, driving the shift towards today’s multi-core architectures. But now, even multi-core architectures face the looming threat of increasing amounts of “dark silicon,” as heat dissipation constraints prevent us from being able to cram any more operations per second into each unit of chip area, due to the energy that is converted to heat in each operation. Fundamentally, achieving higher performance within a system of any given size, cost, and power budget requires that individual * This work was supported by the Laboratory Directed Research and Development program at Sandia National Laboratories and by the Advanced Simulation and Computing program under the U.S. Department of Energy’s National Nuclear Security Administration (NNSA). Sandia National Laboratories is a multimission laboratory managed and operated by National Technology and Engineering Solutions of Sandia, LLC., a wholly owned subsidiary of Honeywell International, Inc., for NNSA under contract DE-NA0003525. Approved for public release SAND2017-9424 O. M.P. Frank Back to the Future: Extended preprint Sandia National Labs The Case for Reversible Computing for IEEE Spectrum Version 5.7 arXiv:1803.02789 [cs.ET] Page 2 of 19 3/7/2018 7:48 PM operations have to become more energy-efficient, and the energy efficiency of conventional digital semiconductor technology is beginning to plateau for a variety of reasons, all of which can ultimately be traced back to fundamental physical issues. Looking forward, as transistors become smaller, their per-area leakage current and standby power increases; meanwhile, as signal energies are decreased, thermal fluctuations become more significant, eventually preventing any further progress within the traditional computing paradigm. Heroic efforts are being made within the semiconductor industry to try to allay and forestall these problems, but the solutions are becoming ever more expensive to deploy, with new leading-edge chip fabrication plants (“fabs”) now costing on the order of $10 billion each. But, it’s worth pointing out that no level of spending can ever defeat the laws of physics. Beyond some point that is, now, not very far away, a new conventionally-designed computer that simply has smaller transistors would no longer be any cheaper, faster, or more energy-efficient than its predecessors, and at that point, the progress of conventional semiconductor technology will stop, being no longer economically justifiable. The writing is on the wall. Obviously, however, we would prefer if the progress in the cost-efficiency of information technology were not to stop, since a large portion of our potential future economic progress would be empowered by the continuing advancement of this technology. So then the question arises, can we perhaps keep progress in computing going by transitioning over to some new technology base that is not “conventional semiconductor technology?” Unfortunately, some of the most crucial fundamental physical barriers that will prevent conventional complementary metal-oxide-semiconductor (CMOS) technology from advancing very much further will also still apply, in a more or less comparable way, to any alternative technology as well, as long as we insist on maintaining the present-day computing paradigm, namely irreversible computing. No other irreversible “beyond CMOS” technology can ever be very much better than end-of-the-line CMOS—at most, it will be better only by some relatively modest, limited factor. However, for several decades now, we have known that there exists a theoretically possible alternative computing paradigm, called reversible computing. Developing reversible computing (and then continuing to improve it) is in fact the only possible way, within the laws of physics, that we might be able to keep computer energy-efficiency and cost-efficiency for general applications increasing indefinitely, far into the future. So far, the concept of reversible computing has not received very much attention, which has perhaps made sense up until now, since it is indeed highly challenging to implement effectively, and the alternative of advancing conventional technology was much easier. Nevertheless, significant conceptual progress on reversible computing has been made over the decades by the small number of researchers pursuing it. Still, many difficult problems remain to be solved, and it is going to require a much larger effort, looking forwards, to address them. But, this effort will be highly worthwhile, because the potential upside that reversible computing offers is many orders of magnitude of information technology efficiency improvements, with associated economic advancements, compared to all possible irreversible computing technologies. With the end of conventional technology now in sight, it’s now time that the world’s best physics and engineering minds turn committed attention towards reversible computing, and begin an all-out effort to tackle its remaining engineering challenges, so as to bring this idea to practical fruition. The first person to describe the energy-efficiency implications of the conventional irreversible computing paradigm was Rolf Landauer of IBM, who wrote a paper in 1961 called “Irreversibility and Heat Generation in the Computing Process.” This paper has generated controversy in some circles, but Landauer’s key insight in this paper really does just follow directly as an immediate logical consequence of our most thorough, battle-tested understanding of fundamental physics. All of our most fundamental laws of low-level physical dynamics are reversible, meaning that if you were to have complete knowledge of the state of any given closed system at some time, and of the values of all of the relevant physical constants, M.P. Frank Back to the Future: Extended preprint Sandia National Labs The Case for Reversible Computing for IEEE Spectrum Version 5.7 arXiv:1803.02789 [cs.ET] Page 3 of 19 3/7/2018 7:48 PM you could always, conceptually, run the laws of physics backwards, and determine the system’s past state at any previous time exactly. (This is even true in quantum mechanics, if you knew the exact quantum state of the system.) As a consequence, it is impossible to have a situation wherein two different possible detailed states at some earlier time, could both evolve to become the exact same detailed state as each other at some later time, since this would mean that the earlier state couldn’t be uniquely determined from the later one. In other words, at the lowest level in physics, information cannot be destroyed. It’s important to realize how absolutely essential to our most basic understanding of physics this principle is. If it wasn’t true, then the Second Law of Thermodynamics (which says that entropy cannot decrease) could not be true, since entropy is just unknown information. If physics was not reversible, then entropy could simply vanish, and the Second Law would not hold. How does the indestructibility of information relate to the energy efficiency of irreversible computing? The point is that, since physics is reversible, whenever we think that we are destroying some information in a computer, we actually are not. Putatively “irreversible” operations (such as erasing a bit of information, or destructively overwriting it with a newly-computed value) are, in some sense, really just a convenient fiction. What’s actually happening, at the most fundamental level, is that the physical information that is embodied within the systems whose state we think we are “erasing” or “overwriting” (e.g., a circuit node charged to a particular voltage) is simply getting pushed out into the machine’s thermal environment, where it effectively becomes entropy (in essence, randomized information), and is manifested as heat. To increase the entropy of a thermal environment at temperature T by an increment ∆S requires adding an increment of heat ∆Q = T∆S to that environment; that is simply the thermodynamic definition of temper
Lidia Miladi
Complement and infinitive clause structures in Polish and FrenchThe comparative analysis of complement clauses and infinitive clauses in Polish and French throws light on the sequence to, że(by) P / ce que P introducing complement clauses in the two languages. The comparison demonstrates that in the face of «ce» that is deleted or grammaticalised in French complement clauses, we have an attested introductor to1 in Polish which changes its own nature when it is accented. To1 becomes the demonstrative pronoun to2 (this), which can cause a dislocation of the sequence to, że(by) P . The comparison shows also that these structures are affected by deletions which are different according to the language (particularly the infinitive structures).Structures des complétives et des infinitives du polonais et du françaisLa comparaison des structures complétives et infinitives du polonais et du français apporte un certain éclairage sur la nature du corrélat introduisant les complétives dans les deux langues (to, że(by) P / ce que P). Elle montre notamment que face à «ce» du français effacé (dans les constructions complétives sujets et compléments non-prépositionnels du verbe) ou grammaticalisé (dans les constructions complétives prépositionnelles), nous avons l’introducteur to1 du polonais (attesté) qui change de statut lorsqu’il est accentué. Il devient alors le pronom démonstratif to2 (=cela), ce qui entraîne la dislocation du corrélat. L’examen des structures suscitées révèle aussi qu’elles sont affectées par des effacements différents selon la langue (en particulier les structures infinitives).
Dorota Sikora
Aspectual complements and verbs expressing ways of movement in French: between boundary marking and telicityConsidered synonymous by some, carefully distinguished by others, the notions of telicity and boundary marking are of crucial importance for studies on aspect. This article offers a reflection on the relation between aspectual properties and certain complement verbs. Through a detailed analysis of the verb syntagmas formed by courir and nager (courir cent mètres, nager le deux-cents-mètres), it is demonstrated that despite the apparent formal similarity, complements like cent mètres and le deux-cents-mètres perform different functions in relation to the predicate: in the first case, they mark boundaries, while in the second they are markers of a property [+ telicity]. A study of a particular problem thus allow for taking part in a more general discussion, providing arguments in favour of distinguishing between telicity and boundary marking. Compléments aspectuels et verbes de manière de déplacement en français: entre bornage et télicitéConsidérées comme équivalentes par certains, soigneusement distinguées par d’autres, les notions de télicité et de bornage ont une importance cruciale pour les études consacrées à l’aspect. Cet article propose une réflexion sur le rapport entre ces propriétés aspectuelles et certains compléments verbaux. À travers des analyses détaillées des syntagmes verbaux que forment courir et nager (courir cent mètres, nager le deux-cents-mètres), il est montré que malgré une similarité formelle apparente, les compléments tels que cent mètres et le deux-cents-mètres assument des fonctions différentes auprès du prédicat : dans le premier cas, ils opèrent un bornage, alors que dans le seconds, ils sont porteurs du trait [+ télicité]. L’étude d’un problème spécifique permet ainsi de prendre part dans une discussion plus générale, en dégageant des arguments en faveur de la distinction entre télicité et bornage. Dopełnienia aspektowe a czasowniki wyrażające sposób przemieszczania w języku francuskim: między określaniem granic a telicznościąPrzez jednych uważane za równoznaczne, przez innych wyraźnie odróżniane, pojęcia teliczności i określania granic mają zasadnicze znaczenie dla studiów dotyczących aspektu. Niniejszy artykuł proponuje refleksję nad stosunkiem pomiędzy owymi właściwościami określającymi aspekt a niektórymi dopełnieniami [czasownikowymi]. Poprzez szczegółową analizę syntagm czasownikowych tworzonych przez courir i nager (courir cent mètres, nager le deux-cents-mètres), wykazano, że pomimo pozornego podobieństwa formalnego, dopełnienia takie jak cent mètres i le deux-cents-mètres pełnią różne funkcje wobec orzeczenia: w pierwszym przypadku dokonują określenia granic, podczas gdy w drugim nadają pewną właściwość [+teliczność]. W ten sposób studia nad specyficznym problemem pozwalają zabrać głos w ogólniejszej dyskusji, przedstawiając nam argumenty przemawiające za rozróżnieniem pomiędzy telicznością a określaniem granic.
Zahra Derakhshandeh, R. Gmyr, A. Richa et al.
AbstractThe term programmable matter refers to matter which has the ability to change its physical properties (shape,density, moduli, conductivity, optical properties, etc.) in a programmable fashion, based upon user input orautonomous sensing. This has many applications like smart materials, autonomous monitoring and repair, andminimal invasive surgery. While programmable matter might have been considered pure science fiction more thantwo decades ago, in recent years a large amount of research has been conducted in this field. Often programmablematter is envisioned as a very large number of small locally interacting computational particles. We propose theAmoebot model, a new model which builds upon this vision of programmable matter. Inspired by the behaviorof amoeba, the Amoebot model offers a versatile framework to model self-organizing particles and facilitatesrigorous algorithmic research in the area of programmable matter. We present an algorithm for the problem of arXiv:1411.2356v1 [cs.ET] 10 Nov 2014 coating an infinite object under this model, and prove the correctness of the algorithm and that it is work-optimal.
Christophe Verdeil
La technique Storing Matter a pour objectif d’améliorer la sensibilité et la quantification des analyses par SIMS. Elle consiste à découpler la phase de pulvérisation de l’échantillon de la phase d’analyse. Pour cela, la matière pulvérisée par bombardement ionique est déposée en sous-monocouche sur un collecteur optimisé. Le dépôt est ensuite analysé par SIMS. La probabilité d’ionisation de la matière ne dépend plus de son environnement initial (“effet de matrice”), mais de la surface du collecteur. Le choix du collecteur permet un gain de sensibilité et la quantification des concentrations de l’échantillon initial. L’efficacité de la technique dépend du choix du collecteur et d’un facteur de collection ? caractérisant la phase de pulvérisation-dépôt. Dans ce travail, nous avons étudié la pulvérisation et l’émission de la matière sous bombardement ionique pour optimiser ce facteur ?. Nous avons mis au point un dispositif expérimental ainsi qu’un protocole d’analyse par SIMS qui nous a permis d’étudier la distribution angulaire sous un bombardement d’ions Cs+ avec une incidence oblique pour différents paramètres d’impact. L’étude menée sur quatre cibles (Si, Ge, InP et GaAs) a montré que la distribution angulaire est de forme cosn (?-?Max) pour une énergie et un angle d’impact de respectivement 2 à 10 keV et 30° à 60°. L’exposant n est ~2 tandis que la direction d’émission préférentielle ?Max varie de la normale à la surface (0°) jusqu’à un angle d’émission de 35° dans la direction spéculaire au faisceau en fonction de l’énergie d’impact et de l’angle d’incidence. Ces résultats appliqués à Storing Matter ont permis de déterminer la configuration optimum pour une collection maîtrisée en fonction du bombardement
Caroline Michel
Suite à la catastrophe nucléaire de Fukushima Dai-Ichi, des milliers de tonnes d’eau douce et d’eau de mer ont été utilisées pour le refroidissement des réacteurs ou contaminées du fait des infiltrations souterraines. La décontamination de ces eaux est rendue difficile par la présence d’autres cations (Na+, K+, Ca2+, Mg2+) présents naturellement dans ces eaux. Un procédé de décontamination en colonne garnie de deux types adsorbants minéraux, le TERMOXID 35 et le SORBMATECH® 202, a été étudié dans ce contexte. Le premier est un adsorbant commercial constitué du ferrocyanure mixte K/Ni imprégnés sur une matrice solide Zr(OH)4. Le second, synthétisé au CEA, est composé de ferrocyanure K/Cu imprégnés sur une matrice solide SiO2. Ces deux matériaux se sont révélés extrêmement efficaces pour décontaminer le Cs dans l’eau de mer avec des Kd,Cs de l’ordre de 105 mL/g.Les études menées en batch dans différentes solutions (eau pure, eau douce et eau de mer) ont permis de mettre en évidence les cinétiques de sorption ainsi que les mécanismes d’échange d’ions responsables de la sorption du Cs+ en tenant compte des effets compétitifs des cations des eaux naturelles. La modélisation des batchs a été menée avec le code géochimique CHESS en prenant en compte ces effets compétitifs selon le formalisme de Vanselow et les coefficients de sélectivité en constituant une base de données thermodynamiques spécifique. Les performances de ces matériaux ont ensuite été testées en colonne. Les paramètres opératoires tels que la vitesse de Darcy et le ratio H/D ont été étudiés pour définir les conditions de bon fonctionnement de ce procédé. Le T35 s’est révélé être moins performant du fait notamment de la diffusion lente du Cs dans les pores de ce matériau. Le S202 s’est révélé être un bon candidat pour l’application de forts débits de traitement. Les courbes de percée ainsi obtenues dans l’eau douce ont par ailleurs fait l’objet de modélisation avec les codes de transport réactif HYTEC et OPTIPUR couplés à la base CHESS de données thermodynamiques. Cette démarche permettra de mieux dimensionner les unités de décontamination définies par l’exploitant.
Violette Hoareau
La mémoire de travail est un système cognitif essentiel à notre vie quotidienne. Elle nous permet de conserver momentanément des informations dans le but de réaliser une tâche cognitive. Une des caractéristiques principales de ce type de mémoire est d’être limitée en capacité. Les raisons de cette limitation sont largement débattues dans la littérature. Certains modèles considèrent qu'une cause principale de l'oubli en mémoire de travail est l'existence d'un déclin temporel passif de l'activation des représentations mnésiques alors que d'autres modèles supposent que les interférences entre les informations suffisent à expliquer la capacité limitée de cette mémoire. Deux modèles computationnels ont été proposés récemment (TBRS* et SOB-CS) et illustrent parfaitement ce débat. En effet, ils décrivent de manière très différente ce qui se passe au cours d’une tâche de mémoire de travail impliquant à la fois la mémorisation et le traitement d’informations. En plus de s'opposer sur les causes de l’oubli, ils proposent des processus de maintien en mémoire de travail distincts : le rafraîchissement des informations pertinentes selon TBRS* versus la suppression des informations non pertinentes selon SOB-CS. Les travaux de cette thèse se sont organisés autour de deux objectifs principaux. Premièrement, cette thèse a porté sur l’étude de ces deux modèles et leur mécanisme de maintien. Pour cela, nous avons réalisé des expériences comportementales utilisant la tâche d’empan complexe afin de tester des hypothèses précises de ces modèles. Deuxièmement, nous avons étudié, à l'aide des modèles computationnels, les causes des déficits de mémoire de travail observés chez les personnes âgées, dans le but, à long terme, de créer ou d'améliorer les outils de remédiation. Concernant le premier objectif, les différents résultats d’études ont montré une discordance entre le comportement humain et les simulations. En effet, TBRS* et SOB-CS ne permettent pas de reproduire un effet positif du nombre de distracteurs contrairement à ce qui a été observé expérimentalement. Nous proposons que cet effet positif, non prédit par les modèles, est relié à la mémorisation à long terme non prise en compte dans ces deux modèles. Concernant le deuxième objectif, les résultats comportementaux suggèrent que les personnes âgées auraient principalement des difficultés à rafraîchir les traces mnésiques et à stabiliser les informations à long terme au cours d’une tâche d’empan complexe. Dans l’ensemble, les résultats de cette thèse suggèrent d'approfondir les recherches concernant les liens entre les mécanismes de maintien en mémoire de travail et la mémorisation à long terme, par exemple en proposant un nouveau modèle computationnel permettant de rendre compte de nos résultats. Au-delà des avancées concernant la compréhension du fonctionnement de la mémoire de travail, cette thèse montre également que l’utilisation de modèles computationnels revêt un caractère particulièrement pertinent pour l'étude d'une théorie ainsi que pour la comparaison de différentes populations.
Stéphane Vibert
Élaborant une critique interne du marxisme qui le conduit à proposer une pensée de la création radicale et de l’imaginaire instituant, Castoriadis va dès les années 1960 amorcer la critique cinglante d’une mouvance intellectuelle alors en vogue, le structuralisme, considéré comme une exemplification « panlogique » du déterminisme scientiste qu’il honnit. La critique castoriadienne du structuralisme conjoindra dès lors une contestation de ses soubassements épistémologiques à une condamnation de ses implications politiques. Cette contribution se propose d’approfondir la confrontation théorique entre Castoriadis et Lévi-Strauss, l’auteur central de la méthode structuraliste, en identifiant trois lieux spécifiques aptes à mettre en lumière les désaccords ontologiques irréductibles qui semblent ressortir de leurs oeuvres respectives : tout d’abord, la nature et la finalité de l’anthropologie philosophique et sociale postulée à titre de fondement épistémologique ; ensuite, la question nodale du « sens », articulée à l’appréhension des concepts de « code » et de « signification » ; enfin, la conception du social-historique comme totalité ou comme culture qui distingue fortement les deux analyses.
Rajamanickam CS et al., Rajamanickam CS et al.,, TJPRC
Agusti CANALS
Pierre‑François Moreau
Pascal Engel
Cs. Pintér, Fischl, S. Kadlicskó et al.
Halaman 1 dari 125688