Refine
Year of publication
Document Type
- Doctoral Thesis (24)
- Book (4)
- Habilitation (1)
- Report (1)
Has Fulltext
- yes (30)
Is part of the Bibliography
- no (30)
Keywords
- Blaulichtemission (1)
- Case-based Reasoning (1)
- Case-based decision support (1)
- Complexity Metrics (1)
- Digitalisierung (1)
- Einflussgrössen (1)
- Intelligent Tutoring Systems (1)
- Invasive plant species (1)
- Kegelrobbe (1)
- Kiefergelenk (1)
Institute
- Fachbereich IV (30) (remove)
2. Low-Code-Symposium
(2022)
Zum bundesweiten Digitaltag am 24. Juni 2022 richtete das Zentrum für Digitalen Wandel in Kooperation mit dem Hi-X-DigiHub und der COMPRA GmbH zum zweiten Mal ein digitales Symposium zum Thema der Low-Code-Softwareentwicklung aus.
Mit der Low-Code-Technologie ist die Hoffnung verbunden, mehr Nicht-Informatiker_innen in die Software-Entwicklung einzubinden. Die Technologie ist für verschiedene Problemfelder von besonderer Bedeutung. Es besteht die Möglichkeit, Expert_innen aus Politik, BWL, Recht und anderen Bereichen direkt in die Software-Entwicklung einzubinden, so dass es zu weniger Reibungsverlusten bei der entwickelten Software kommt, da die Fachexpertise direkt in die Entwicklung eingebracht werden kann. Dem bestehenden Fachkräftemangel in der Softwareentwicklung kann insoweit begegnet werden, als dass die Mitwirkung von Expert_innen in der Entwick-lung dazu beitragen kann, dass Systeme entstehen können, bei denen weniger Code und damit weniger Programmier-Expertise erforderlich ist.
Insgesamt verspricht dieses Verfahren Effizienz und Innovation in der Softwareent-wicklung.
Hintergrund: Die Software-Produktlinienentwicklung ermöglicht eine kostengünstige und effiziente Entwicklung von Produktfamilien bei gesteigerter Qualität im Vergleich zur Einzelsystementwicklung. Dieses wird durch die Einführung von Variabilitätsmechanismen ermöglicht, welche eine hohe Anpassbarkeit der Produkte an verschiedene Kundenbedürfnisse ermöglichen. Allerdings erhöhen diese Variabilitätsmechanismen auch die Komplexität, da Entwickler das Zusammenwirken der Komponenten für verschiedene Produktvarianten berücksichtigen müssen. Daher wurden zur Qualitätssicherung von Software-Produktlinien neue Analysemethoden und -strategien entwickelt, darunter auch variabilitätsbasierte Code-Metriken. Ziel dieser Metriken ist es, unnötige Komplexität zu vermeiden und frühzeitig besonders fehleranfälligen Code zu identifizieren, um diesen zusätzlichen Qualitätsmaßnahmen unterziehen zu können. Unsere systematische Literaturstudie zu diesem Thema zeigt jedoch, dass der Nutzen dieser variabilitätsbasierten Code-Metriken nur in wenigen Fällen evaluiert wurde.
Ziel: Diese Arbeit untersucht inwieweit variabilitätsbasierte Code-Metriken zur Qualitätssteigerung von Software-Produktlinien genutzt werden können. Dazu wird betrachtet, ob sich mit Hilfe empirischer Untersuchungen Entwicklungsrichtlinien zur proaktiven Vermeidung von Komplexität und damit verbundenen Fehlern ableiten lassen. Der Fokus liegt auf der Analyse, ob sich die betrachteten Metriken zur Identifikation von potentiell fehleranfälligeren Code nutzen lassen. Dies umfasst sowohl die univariate Verwendung einzelner Metriken als auch den Aufbau von Vorhersagemodellen mit Verfahren des maschinellen Lernens. Dabei wird auch untersucht, ob die speziell für die Software-Produktlinienentwicklung konzipierten variabilitätsbasierten Code-Metriken einen Mehrwert gegenüber etablierten Metriken der Einzelsystementwicklung bieten.
Methodik: Es findet eine empirische Untersuchung von 692 Einzelsystem- und variabilitätsbasierte Code-Metriken auf dem Linux-Kernel statt. Dazu wird zunächst analysiert, inwieweit die Messwerte der Metriken mit Kompilierfehlern und Sicherheitslücken korreliert sind, welche von den Entwicklern übersehen wurden und so erst nach dem Commit bzw. nach dem Release entdeckt wurden. Darüber hinaus werden die Metriken bezüglich der gemessenen Eigenschaften gruppiert und mit vier Verfahren des maschinellen Lernens eine Identifikation der fehleranfälligen Codestellen erprobt, um so den Nutzen verschiedener Codeeigenschaften beurteilen zu können.
Ergebnisse und Schlussfolgerung: Auch wenn für einen Großteil der Metriken ein signifikanter Zusammenhang zwischen den Messwerten und fehleranfälligen Codestellen nachgewiesen werden kann, so zeigt sich, dass univariate Verfahren für die Praxis untauglich sind. Auf Grund der starken Klassenimbalance von nur 1,5% defekten Codefunktionen (Kompilierfehler), bzw. 0,4% Codefunktionen mit nachgewiesenen Sicherheitslücken, lassen sich bei der Verwendung einer einzelnen Metrik nur F1-Werte unterhalb von 0,073 erzielen. Mangels alternativer Implementierungen lassen sich so, entgegen den Aussagen einiger Veröffentlichungen, auch keine Entwicklungsempfehlungen ableiten. Hingegen können variabilitätsbasierte Code-Metriken, insofern sie auch die Variabilität verbundener Artefakte mit berücksichtigen, erfolgreich zur Fehlervorhersage genutzt werden.
So lässt sich beispielsweise bei Verwendung von Random Forest F1-Werte von 0,667 (Kompilierfehler), bzw. 0,711 (Sicherheitslücken), erzielen.
Stream processing is a popular paradigm to process huge amounts of unbounded data, which has gained significant attention in both academia and industry. Typical stream processing applications such as stock trading and network traffic monitoring require continuously analyzed results provided to end-users.
During processing, the characteristics of data streams such as volume or velocity can vary, e.g., peak load or bursty streams can occur at certain points.
In order to cope with such situations, it requires the analytical systems to be able to adapt the execution of stream processing as quickly as possible.
In literature, different approaches adapting data stream processing such as load-shedding and elastic parallelization do exist. However, each of them have their different shortcomings like skewed results (due to the dropped data) or strong limits on the adaptation due to the parallelization overhead. One specific challenge motivating us is to minimize the impact of runtime adaptation on the overall data processing, in particular for real-time data analytics. Moreover, while the need to create adaptive stream processing systems is well known, there is currently no systematic and broad analysis of the solution range of creating adaptation mechanisms for stream processing applications.
In this dissertation, we focus on algorithm switching as a fundamental approach to the construction of adaptive stream processing systems. Algorithm switching is a form of adaptation, where stream processing algorithms, with fundamentally similar input-/output-characteristics but different runtime tradeoffs like resource consumption or precision, are replaced to optimize the processing. As our overall goal, we present a general algorithm switching framework that models a wide range of switching solutions (called switch variants) in a systematic and reusable manner as well as characterizes the switch variants with their quality guarantees.
Concretely, we focus on developing a general model of algorithm switching to systematically capture possible variants of different switching behavior. We also present a theoretical specification to predict the timeliness-related qualities for the switch variants. Moreover, from the practical perspective, we also develop a component-based design to ease the realization effort of the algorithm switching variants. Finally, we provide a validation of the algorithm switching framework against the realized switch variants.
Der überwiegende Teil der in Deutschland erhaltenen Niedermoore weist einen veränderten Wasserhaushalt, ein mooruntypisches Arteninventar und einen stark degradierten Torfkörper auf. Revitalisierungsmaßnahmen werden umgesetzt, um den Zustand dieser überprägten Moorökosysteme zu verbessern. Allerdings existiert bisher kein Erfolgskontrollkonzept, welches gezielt für die Bewertung der Revitalisierungsmaßnahmen in stark degradierten Niedermoorökosystemen Anwendung finden kann.
Am Beispiel des stark degradierten und hydrologisch vielfältig überprägten Bergen-Weißacker Moores (Südbrandenburg) wird in einem Zeitraum von zwei Jahren eine Erfolgskontrolle umgesetzt, um eine Wiedervernässungsmaßnahme zu bewerten. Die Basis der Erfolgskontrolle bildet ein Set aus biotischen und abiotischen Parametern. Um ein grundlegendes Ökosystemverständnis aufzubauen, reicht die Parameteraufnahme über den Maßnahmenbereich hinaus. Für die Einordnung der Aufnahmeergebnisse wird eine Bewertungsbasis aufgebaut.
Die Erfolgskontrolle zeigt, dass auch nach der Wiedervernässung im Maßnahmenbereich des Bergen-Weißacker Moores keine flurnahen Wasserstände vorliegen. Basierend auf den Erkenntnissen werden Grenzen und Potenziale sowie Vorschläge zur Modifizierung des Konzeptes abgeleitet. Weiterhin werden Überlegungen zur Konzeptübertragbarkeit getroffen. Dabei wird herausgestellt, dass Grundvoraussetzungen vorliegen müssen, um das Konzept mit wenigen Adaptationen in anderen stark degradierten minerotrophen Mooren einsetzen zu können. Aus den Monitoringresultaten werden Handlungsempfehlungen abgeleitet, um prospektiv den Zustand des Bergen-Weißacker Moores zu verbessern.
Basierend auf den im Rahmen der vorliegenden Arbeit gewonnenen Erkenntnissen werden Grundsätze für Erfolgskontrollen in stark degradierten Niedermoorökosystemen formuliert. Dazu zählen beispielsweise der Einbezug moorinterner Vergleichsflächen, die Erfassung von Randeffekten und die langfristige Fortführung des Monitorings.
Die vorliegende Dissertation möchte einen intuitiven Zugang zum Verständnis der allgemeinen Relativitätstheorie bieten. Dazu wird die gekrümmte Raumzeit eines rotierenden schwarzen Loches visualisiert, deren Geometrie durch die Kerr-Metrik beschrieben wird. Die Kerr-Raumzeit stellt eine rotationssymmetrische Vakuumlösung der Einsteinschen Feldgleichungen dar. In dieser Arbeit liegt ein besonderer Fokus auf dem Innenraum des schwarzen Loches, wie er durch die maximale analytische Erweiterung der Kerr-Raumzeit beschrieben wird.
In den im Rahmen dieser Arbeit erstellten Videos wird die visuelle Wahrnehmung eines im Gravitationsfeld eines schwarzen Loches (in den meisten Fällen) frei fallenden Beobachters auf verschiedenen Bahnen um oder durch ein rotierendes schwarzes Loch wiedergegeben. Die Videos geben hierbei einen Überblick über alle möglichen Flugbahnen. Die Erstellung der Einzelbilder der Videos erfolgte mit Hilfe von Ray-Tracing. Bei diesem Verfahren werden die Bahnen der beim Beobachter eintreffenden Lichtstrahlen zurück bis zum Objekt berechnet.
Die für die Berechnung der Videos notwendigen mathematischen Konzepte der zugrundeliegenden Theorie werden im ersten Teil der Arbeit ausführlich diskutiert und erläutert. Im zweiten Teil werden die Ergebnisse der Berechnungen in Form von Bildern und Videos präsentiert und ausführlich beschrieben.
Zusammenfassung
Die vorliegende Arbeit untersucht Vorstellungen und Kompetenzen von Grund-, Haupt- und Realschul- (GHR-) Studierenden des Faches Mathematik zum geometrischen Symmetrie- und Abbildungsbegriff.
Zu Beginn der Arbeit werden zentrale Begrifflichkeiten (Professionswissen, Kompetenzbegriff, Symmetrie- und Abbildungsbegriff, Vorstellungen) geklärt und der aktuelle Forschungsstand zum Themengebiet aufgezeigt. Diese Darstellungen dienen als Grundlage, um darauf aufbauend Vorstellungen zum geometrischen Symmetriebegriff herauszuarbeiten.
Unter Vorstellungen zu einem Begriff werden in der Arbeit Deutungsmöglichkeiten verstanden. Im Gegensatz zu anderen mathematischen Bereichen, wie der Arithmetik und Analysis, finden sich in der Geometrie hierzu kaum Forschungsarbeiten. Zur Identifikation von Vorstellungen wurde ein qualitatives Vorgehen, vor allem in Form einer Literaturanalyse, gewählt. Dabei wurden folgende Vorstellungen herausgearbeitet:
* Symmetrie als Regelmäßigkeit
* Symmetrie als mathematische Bewegung
* Symmetrie als physikalische Bewegung
* Symmetrie als Zerlegung
Basierend auf den identifizierten Vorstellungen schließt sich eine quantitativ- als auch qualitativ-empirische Untersuchung an, bei der unter Verwendung eines hierfür entwickelten, theoriebasierten Fragebogens zum einen genutzte Vorstellungen beim Umgang mit geometrischen Symmetrien und zum anderen Kompetenzen bezüglich des geometrischen Symmetrie- und Abbildungsbegriffs von GHR-Studierenden Untersuchungsinteresse sind.
Die Arbeit schließt mit einer Zusammenfassung, einer Reflexion der vorgenommenen Untersuchungen und einem Ausblick mit offenen Forschungsfragen zum Themengebiet. Außerdem werden, ausgehend von den Untersuchungsergebnissen, didaktische Konsequenzen für den Mathematikunterricht sowie die universitäre Ausbildung von angehenden GHR-Lehrpersonen des Faches Mathematik aufgezeigt und diskutiert.
Case Factories: A Maintenance Cockpit for distributed structural Case-Based Reasoning Systems
(2019)
In this thesis a novel approach for maintenance of distributed structural Case-based Reasoning (CBR) systems is presented. The so-called maintenance cockpit is an agent based work-flow that considers dependencies between knowledge items such as attributes, attribute values, and cases in CBR systems. Using these dependencies, the maintenance cockpit generates a maintenance plan with the required maintenance actions. During this thesis, dependencies and maintenance actions in the context of the novel approach are introduced and defined, the concept for the agent-based workflow is described, and the roles and agents as well as the interaction and communication between them are presented. In addition to the maintenance cockpit another novel approach for knowledge acquisition from textual sources is presented. The approach was developed during the OMAHA research project. The resulting framework FEATURE-TAK (Framework for Extraction, Analysis, and Transformation of UnstructeREd Textual Aircraft Knowledge) acquires knowledge from free texts containing fault descriptions in the aviation domain. These texts are analyzed, relevant knowledge is extracted, transformed, and added to the knowledge containers of a structural CBR system. In this thesis, the basic idea and the work-flow with the individual steps of FEATURE-TAK are described and the cooperation with the maintenance cockpit is presented.
Soil organic carbon (SOC) is the largest terrestrial carbon pool, holding a manifold of atmospheric carbon. The agricultural management of soils exerts a strong influence on this pool and thereby also on carbon fluxes between biosphere and atmosphere. Historically, land-use changes have caused large CO2 emissions from soils, which significantly contributed to global warming. The latter is expected to cause strong fluxes of CO2 from soils, due to enhanced microbial activity – the climate-carbon cycle feedback loop. This cumulative habilitation thesis focuses on the two major anthropogenic impacts on soil organic carbon as the largest terrestrial carbon pool: land use and global warming due to greenhouse gas emissions. Both have been steadily increasing with the expansion of human population and activity on the planet and are thus considered specific for the ‘Anthropocene’ as a synonym for the period in world history in which human activity leaves irreversible traces. Due to the importance of SOC and its management for climate change, but also for soil fertility and ecosystem resilience, it is crucial to understand i) which management options can maintain and increase SOC, ii) what are the mechanisms leading to SOC losses and stabilization, iii) how shall global net primary production (NPP) as a resource be used in a climate-smart and sustainable way, iv) how will global warming affect SOC dynamics. Together with several methodological aspects related to measuring, calculating and modelling SOC, the research presented in this thesis focuses on those four key questions.
Böden sind die Lebensgrundlage des Menschen und anderer Organismen. Ungeachtet dessen findet weltweit eine Zerstörung dieser nicht erneuerbaren Ressource statt, wodurch der Mensch diese Lebensgrundlage immer weiter degradiert. Das Konzept der Ecosystem Services (Ökosystemleistungen) soll dazu beitragen, die weltweite Zerstörung von Ökosystemen einzudämmen, indem die Leistungen der Natur sowie deren Verlust erfasst, bewertet und damit auch für Entscheidungsträger/innen sichtbar werden. Das Umweltmedium Boden, in dem sich unterschiedliche Sphären des Ökosystems überschneiden und vielfältige Wechselwirkungen und Prozesse stattfinden, bietet essenzielle Beiträge zu vielen Ökosystemleistungen. In vielen Studien werden diese Beiträge jedoch nur unzureichend betrachtet, sodass die vielfältigen Leistungen der Böden im Verborgenen bleiben.
In der vorliegenden Arbeit wird beispielhaft für den Nationalpark Asinara (Sardinien) aufgezeigt, wie die Beiträge der Böden zu Ökosystemleistungen erfasst, bewertet und damit in ihrer Bedeutung sichtbar gemacht werden können. Hierzu wird ein übertragbares, auf feldbodenkundlichen Aufnahmen und physikochemischen Laboruntersuchungen aufbauendes Bewertungsschema für bereitstellende, regulierende und kulturelle Boden-Ökosystemleistungen entworfen. Eine Monetarisierung der Leistungen wird nicht angestrebt. Mit bodengeographischen Modellen und Methoden der digitalen Bodenkartierung wird ein Bodeninformationssystem aufgebaut, auf dessen Grundlage das Bewertungsschema für das Untersuchungsgebiet umgesetzt wird. In der faktorenbasierten Vorgehensweise wird die deutlich reliefabhängige Bodenverbreitung durch eine hochauflösende digitale Reliefanalyse abgebildet. Vegetationsökologische Ergebnisse werden einbezogen, um mit Fernerkundungsmethoden eine digitale Landbedeckungskartierung umzusetzen. Zudem wird eine Analyse der historischen Landnutzung vorgenommen, um die im Gelände erfasste anthropogene Veränderung der Böden flächenhaft abzubilden und kulturelle Boden-Ökosystemleistungen zu visualisieren. Es erfolgt eine Betrachtung der raumzeitlichen Veränderungen der Inanspruchnahme von Boden-Ökosystemleistungen auf der mediterranen Nationalparkinsel. Mit den Bodeninformationen wird ein hochauflösender Beitrag zum Management des Schutzgebietes bereitgestellt, welcher zur Planung von Management- und Renaturierungsmaßnahmen sowie zur Durchführung von Habitatanalysen herangezogen werden kann. Zur Förderung des Transfers von Boden-Ökosystemleistungen in Planungs- und Entscheidungsprozesse und zur Sicherung einer nicht-anthropozentrischen Perspektive wird ein Huckepackverfahren vorgeschlagen, in welchem eine Bodenfunktionsbewertung die Grundlage für die Ausweisung von Boden-Ökosystemleistungen bildet. Mit einem breiten interdisziplinären Ansatz dokumentiert das Fallbeispiel für die mediterrane Landschaft ausgehend von Primärdatenerhebungen erstmals den vollständigen Erarbeitungsprozess einer hochauflösenden Bewertung aller Kategorien von Boden-Ökosystemleistungen im regionalen Maßstab. Die Ergebnisse verdeutlichen das erhebliche Potenzial der digitalen Kartierungsverfahren, unterstreichen aber auch die Notwendigkeit eines Mindestmaßes an Geländeuntersuchungen, insbesondere zur Erfassung der kulturellen Leistungen von Böden.
Skulls of 1,901 harbor seals from the North Sea were systematically investigated for dental, periodontal and cranial disorders as well as pathological changes of the temporomandibular joint (TMJ). Volumetric bone mineral density (vBMD) and microarchitecture of the mandible of a subsample of these specimens were analyzed in respect to age-related changes.
Age at death of examined seals ranged from 1 week to 25 years. Most of the specimens were collected in 1988, when the population suffered from a phocine distemper virus epizootic. Therefore, it is assumed that, contrary to other museum collections, only little overrepresentation of pathological skeletal condition is present in the analyzed death sample.
Age- and sex-related differences in the frequency and severity of pathological changes were observed in the dentition and the TMJ.
Intravital tooth loss, tooth fracture and periapical lesions were recorded more frequently in male seals than in femals. Lesions consistent with temporomandibular joint osteoarthritis (TMJ-OA) also occurred more frequently in males, while lesion severity tended to be higher in female specimens. Severity of TMJ-OA lesions was positively correlated with age.
Significant age-related changes in vBMD and several microarchitectural parameters were observed between individuals of the age classes “young juveniles” (0.5–10 months),“yearlings” (12–23 months),and “adults” (12–25 years),indicating an overall increase in cortical and trabecular area, cortical thickness as well as vBMD with age.
For juvenile animals (≤ 23 months), positive correlations with age were observed for cortical area and thickness, trabecular separation, as well as vBMD. Negative correlations with age existed for trabecular number and thickness as well as for trabecular bone volume fraction (BV/TV) in the juveniles. The findings suggest a reduction in BV/TV with age,due to the bone trabeculae becoming thinner,less numerous and more widely spaced. This detailed knowledge of age-related changes in the structure and mineralization of bones is an important prerequisite for interpreting osseous changes in wild mammals caused by external factors, as such as exposure to environmental contaminants.
The examination of large skeletal collections enables the observation also of rare pathological conditions. In the present investigation a case of anodontia,diagnosed as a manifestation of hypohidrotic ectodermal dysplasia was for the first time described in the harbor seal.
In five juvenile Baltic grey seals,severe osteomyelitis of the jaws was described for the first time. The condition was attributed to disturbed dentin formation,presumably of genetic causation, in the affected individuals.
The present study highlights the fact that systematic analyses of museum collections can provide important insights into the dental and skeletal pathology of wild mammals. These data can be used for reconstructing the health situation and living condition of past animal population.