Refine
Year of publication
Document Type
- Book (220)
- Doctoral Thesis (220)
- Conference Proceeding (166)
- Article (113)
- Master's Thesis (75)
- Report (62)
- Part of a Book (53)
- Study Thesis (10)
- Lecture (9)
- Habilitation (8)
Language
- German (729)
- English (206)
- French (1)
- Multiple languages (1)
- Spanish (1)
Is part of the Bibliography
- no (938)
Keywords
- Korpus <Linguistik> (42)
- Computerunterstützte Kommunikation (37)
- Soziale Medien (33)
- Pragmatik (30)
- Barrierefreie Kommunikation (29)
- Computerlinguistik (29)
- Informationssysteme (29)
- Linguistik (29)
- Social Media (29)
- Soziale Netzwerke (17)
Institute
- Informationswissenschaft und Sprachtechnologie (118)
- Fachbereich III (70)
- Fachbereich I (69)
- Informatik (64)
- Fachbereich IV (44)
- Übersetzungswissenschaft und Fachkommunikation (36)
- Fachbereich II (21)
- Psychologie (18)
- Kulturpolitik (13)
- Sozialwissenschaften (12)
Liederheft für Kinder. Gedruckt 1945 in 8. Aufl. bei Simon and Schuster in New York City. Dieses Heft wurde in einem Kindergarten des US-amerikanischen Militärs in Deutschland nach dem Ende des Zweiten Weltkriegs genutzt.
Moderation im Rundfunk
(1996)
In dieser diskursanalytischen Arbeit werden kommunikative Strategien von Moderatoren des Privatrundfunks untersucht. Dem liegt ein umfangreiches Korpus deutscher und englischer Moderationsaufzeichnungen zugrunde. In den Analysen zeigt sich, daß die auf Werbeeinnahmen angewiesenen Privatanbieter zunehmend versuchen, den Anschein sozialer Nähe in einem Distanzmedium zu erwecken. Die hierzu eingesetzten diskursiven Strategien werden in Abhängigkeit vom Moderationstyp beschrieben. Dabei wird auch auf moderatorenabhängige Variation sowie Unterschiede im Programm eines deutschen und englischen Privatsenders eingegangen.
Herrschermedium und Freundschaftsbeweis. Der hohenzollerische Briefwechsel im 15. Jahrhundert
(2004)
Der Briefwechsel der Hohenzollern in der zweiten Hälfte des 15. Jahrhunderts ist vor allem durch die Korrespondenz des Kurfürsten Albrecht Achilles von Brandenburg der historischen Forschung bekannt. In dieser Studie werden die Funktionen des Briefschreibens im Vergleich zum Gesandtschafts- und Botenwesen des ausgehenden Mittelalters am Beispiel weiblicher und männlicher Briefschreiber aus dem Haus Hohenzollern untersucht.
Es werden die von Werner von der Schulenburg geplanten Vorbereitungen zum Fest anlässlich der Hochzeit zwischen Herzog Bogislaw X. von Pommern und der polnischen Königstochter Anna im Februar 1491 vorgestellt. Diese waren organisiert nach dem Vorbild der Hochzeit zwischen Markgraf Friedrich dem Älteren von Brandenburg-Ansbach und der polnischen Königstochter Sophie in Frankfurt an der Oder im Jahr 1479.
Historische Stoffe sind populär im 19. Jahrhundert, und so steht auch der pommersche Schriftsteller Johann Ernst Benno mit seinem 1822 erschienenen Roman "Bogislaw X. Ein historisches Gemälde" in der Nachfolge Walter Scotts. Wie in seiner Vorlage, der aus dem 16. Jahrhundert stammenden Chronik des Thomas Kantzow, schildert Benno einen vorbildhaften Helden, dem der historische Bogislaw wohl kaum genügen kann. Beide Texte haben ihre Leser gefunden, das 19. Jahrhundert ist wie das 16. Jahrhundert eine Zeit der Umbrüche, die Helden braucht, auch wenn sie erst erschrieben werden müssen. Wie viel Dichtung die Geschichte verträgt, soll ein Vergleich des Heldenmusters in der Chronik und im historischen Roman zeigen.
Der heute unbekannten Markgräfin Barbara von Brandenburg (1464–1515) widmen sich zwei historische Romane, geschrieben von der ihrerzeit efolgreichen Jugendschriftstellerin Emma Wuttke-Biller (1886) und der fränksichen Autorin Sabine Weigand (2004). Barbaras tragische Biografie wurde für beide Autorinnen zum Ausgangspunkt einer gegenläufigen Personenstruktur. Auf der einen Seite wird der Typ einer hochgebildeten und leidensfähigen Frau entworfen. Auf der anderen Seite stehen männliche Gegenspieler, im Intellekt unterlegen, gezeichnet durch moralische Verwerfungen. Während Biller noch dem historischen Vorbild folgend eine sich ihrem Leid ergebende Fürstin inszeniert, wird bei Weigand Barbara zum Prototyp einer sich emanzipierenden Frau in einer ihr feindlich gesonnenen, von Männern dominierten Welt. Sexualität und Brutalität bestimmen das Handeln der mänllichen Figuren. Der historische Zeitraum wird zugunsten von entwertenden Plagiaten und zeitlosen Charakterzügen seiner prägenden Ereignisse und Persönlichen zunehmend beraubt.
Entstanden wohl auf der Basis von Reisenotizen, verschwand der Reisebericht des Notars Martin Dalmer bereits unmittelbar nach der Rückkehr des pommerschen Herzogs Bogislaw X. aus dem Heiligen Land im Archiv. Im Gegensatz zur herzoglichen Pilgerreise wurde dieser iventarisierende Gebrauchstext lange Zeit nicht rezipiert. Eingang in die Geschichtsschreibung fand eine etwa zeitgleich entstehende und zunächst in königlichen Privilegien fixierte Darstellung eines Kampfes des Herzogs mit türkischen Seefahrern. Ungeachtet dessen, dass der Kampf mit der Niederlage der Pilger endet, wird das Bild des siegreichen Fürsten als zentrales Moment in der nachfolgenden Rezeption zur festgeschriebenen Erinnerung, der Bericht des Augenzeugen dagegen für memorative Zwecke obsolet.
In den 1470er- und 1480er-Jahren bestanden zwischen dem Kurfürstentum Brandenburg sowie den Königshäusern in Böhmen und Ungarn besonders intensive Kontakte, die nicht nur von einem häufigen Briefwechsel geprägt waren, sondern auch von einem hohen Reiseaufkommen der höfischen Gesandten. In dieser Studie werden die personalen, strukturellen und räumlichen Rahmenbedingungen dieses Gesandtschaftswesens untersucht, um die Erhebung von Informationen aus der Fremde exemplarisch darzustellen.
Genus ist eine der langwierigsten Aneigungsherausforderungen für das Deutsche im Zweitspracherwerb. Bisher wurde Genus vor allem an isolierten Äußerungsteilen analysiert. Jedoch ist Genus vor allem ein kongruenzbasiertes Mittel der Herstellung von Kohärenz und kann daher nur im diskursiven Zusammenhang verstanden werden. Aus einem 75-stündigen Korpus wurden 107 kindliche Erzählungen ausgewählt, um an ihnen zu untersuchen, wie sich mehrsprachige Kinder Determination und Genus des Deutschen aneignen. Das Korpus ist bei IDS online open access verfügbar (http://dgd.ids-mannheim.de/dgd/pragdb.dgd_extern.welcome). Die Kinder, von denen die Daten stammen, wachsen in Deutschland auf. Zu Beobachtungsbeginn besuchen sie bereits seit mindestens zwei Jahren regelmäßig eine deutschsprachige Kindertagesstätte. Es zeigt sich in der diskursiven Analyse, dass entgegen vielfältiger bisheriger Ansätze des Trainings, zunächst der Genus zugrunde liegende Kongruenzmechanismus angeeignet sein muss, um anschließend die Aneignungsaufgabe der Genuszuweisung in den Blick zu nehmen.
Wovon ich sprechen möchte, ist ein altes Tabu, nämlich die – ernsthaft gestellte, also nicht polemische – Frage, ob die Lehrer insgesamt und als Körperschaft selbstverständlich
und professionell in der Lage sind, die anvertrauten Schüler angemessen auszubilden und zu bilden. Das Tabu liegt aber eigentlich woanders bzw. es beginnt schon vorher, nämlich in der Ausbildung und Bildung der Lehrer durch die Hochschullehrer, die Fach- und Seminarleiter und nicht zuletzt die Schulaufsicht. Niemand fragt wirklich und nachhaltig nach deren Lehrer-Qualifikation, wenn sie denn erst einmal berufen sind. Damit dies kein Tabu bleibt und damit die Lehrerbildung an der Quelle nicht weiterhin
marginalisiert und fragmentiert ist, gibt es neuerdings und vielerorts Zentren für Lehrerbildung, die nicht nur administrativ, sondern konzeptionell aufgestellt werden. Auch hier wäre im infiniten Regress zu fragen: Wer gründet, wie lautet das Konzept, wie tauglich ist es, die Lehrerbildung zügig und tiefgründig zu verbessern? Was bewirken die neuen Zentren in der tatsächlichen Lehre und wer behält dies forschend im Auge? Immer stellt sich also die Frage nach den Personen, die sich im Rahmen der bildungspolitischen Umstände und doch auch relativ autonom kümmern.
Der Beitrag befasst sich mit der Frage, wie eine fallorientierte Ausbildung von Reflexionskompetenz im Lehramtsstudium mit einem systematischen Wissensaufbau gekoppelt werden kann. Als mögliches Verfahren wird der „Gang von Beispiel zu Beispiel“ (Lipps) vorgestellt und an der fachdidaktischen Wissensdimension „Auf Provokationen reagieren“ sportunterrichtsbezogen veranschaulicht. Damit wird auch verdeutlicht, dass diese beispielhermeneutische Herangehensweise in der Lage ist, Reflexions- und Handlungsorientierung im Rahmen der universitären Ausbildungsphase auf spezifische Weise zu verknüpfen.
Der Glogauer Erbfolgestreit, so benannt vom Berliner Archivar Felix Priebatsch, bezeichnet im Kern den Streit zwischen den Markgrafen von Brandenburg und Herzog Johann II. von Sagan um das Herzogtum Glogau-Crossen, der nach dem Tod Herzog Heinrichs XI. am 22. Februar 1476 ausbrach und mit dem Kamenzer Vertrag im September 1482 sein Ende fand. Überregionale Bedeutung erlangte der Erbfolgestreit durch die zeitgleichen Wirren um den böhmischen Thron, ausgetragen zwischen König Matthias von Ungarn und Vladislav II., Sohn des polnischen Königs Kasimir IV. Jagiełło. Matthias, faktisch Lehnsherr über Schlesien und damit auch über das Herzogtum Glogau-Crossen, unterstützte nicht nur Herzog Johann II. im Kampf gegen Brandenburg, sondern ihm gelang es auch, die Herzöge von Pommern auf seiner Seite in den Krieg einzubeziehen und 1479 in Olmütz (Olomouc) einen dauerhaften Frieden mit Vladislav zu schließen. Dadurch konnte die brandenburgische Markgrafenfamilie, die über Barbara, verwitwete Gemahlin Herzog Heinrichs XI. und Tochter des Kurfürsten Albrecht Achilles, Anspruch auf das Herzogtum Glogau-Crossen erhob, ihre Ziele nicht verwirklichen. Die nicht vollzogene zweite Ehe Barbaras mit König Vladislav II. scheiterte und der bedeutendere Teil des ererbten Herzogtums ging bis zu seiner Entmachtung 1488 an Johann von Sagan. Barbara beziehungsweise ihr Bruder Johann, Regent der Mark Brandenburg, erlangten das Gebiet um die Städte Crossen (Krosno Odrzańskie), Züllichau (Sulechów) und Sommerfeld (Lubsko). Beide Herrschaftsbereiche des damit dauerhaft geteilten Herzogtums blieben als böhmisches Lehen unter dem Einfluss des Matthias von Ungarn. Vladislav, obwohl er nach kanonischem Recht Gemahl der Barbara von Brandenburg war, erhob bis 1490, dem Sterbejahr des ungarischen Königs, keine Ansprüche auf dieses Herzogtum.
Diese Untersuchung soll die Annahme unterstützen, dass die Durchdringung des Themas Geld im Sinne einer Bildung für Nachhaltige Entwicklung (BNE) zur ökonomischen Grundbildung in der Primarstufe beitragen kann. Die vorliegende Arbeit untersucht die Vorstellungen von Kindern beim Umgang mit Geld und hier insbesondere mit Kredit. Dieser spielt insofern eine wesentliche Rolle, da sich in seinen Bausteinen möglicherweise ein grundlegendes Verständnis von Geld widerspiegelt. Im Rahmen des Forschungsmodells der didaktischen Rekonstruktion werden fachwissenschaftliche Konzepte strukturiert und die Schülervorstellungen mittels problemzentrierter Interviewtechnik erhoben. Die computergestützte Auswertung der Interviews erfolgt auf längs- und querschnittlicher Basis, wobei diese auch zur Darstellung eines Vorstellungsraumes führen. Auf der Ebene der didaktischen Strukturierung werden fünf Leitlinien entwickelt, die zur Vermittlung des Themas Geld in der Primarstufe beitragen können. Unter günstigen Bedingungen wird damit in der 3. und 4. Klasse im Sachunterricht der Primarstufe ein Sozialisationsprozess angestoßen, der Kinder in ihrer Partizipationsfähigkeit stärkt und sie durch ihr erworbenes Wissen handlungskompetent machen kann. Eine grundsätzliche Entscheidung kann daher lauten, das Thema Geld mit seinen Kreditbausteinen im Sachunterricht der Grundschule zu behandeln.
Bei der Bearbeitung mathematischer Problemaufgaben äußern Lernende Vermutungen und überprüfen diese. Beim Testen solcher Vermutungen können bei den Lernenden kognitiven Konflikten zwischen ihren Erwartungen und Beobachtungen entstehen, die wiederum zur Suche nach Erklärungen führen können. Der Beitrag beschäftigt sich mit der Frage, inwiefern bestimmte elementargeometrische Problemstellungen bei Lernenden Verunsicherungen und Beweisbedürfnis auszulösen in der Lage sind. Zur Beantwortung dieser Frage wurden die Videoaufzeichnungen von neun studentischen Teams bei der Arbeit an zwei Aufgaben ausgewertet. Das bei den zwei Aufgaben unterschiedliche Verhalten der Studierenden, was Anzeichen von Verunsicherungen anbelangt, wird durch verschiedene Arten von Vermutungen mit unterschiedlichen „Reichweiten“ gedeutet.
Die Workshop-Woche "Lernen, Wissen und Adaptivität 2006" (LWA 06) versteht sich als Forum, bei dem etablierte und neu auf einem Gebiet arbeitende Wissenschaftlerinnen und Wissenschaftler ihre aktuellen Arbeiten vorstellen und intensiv miteinander diskutieren können. Dies macht den besonderen Reiz dieser Veranstaltung aus, welche erstmals 1999 in Magdeburg stattfand. Der diesjährige Austragungsort war die Universität Hildesheim und wie in den Jahren zuvor wurden von verschiedenen Fachgruppen der Gesellschaft für Informatik e. V. (GI) eine Reihe interessanter Workshops organisiert. Dies waren im Einzelnen: FG-ABIS (Workshop der Fachgruppe "Adaptivität und Benutzermodellierung in interaktiven Softwaresystemen"); FG-IR (Workshop der Fachgruppe "Information Retrieval"); FG-KDML / AK-KD (Workshop der Fachgruppe "Knowledge Discovery, Data Mining und Maschinelles Lernen" sowie des Arbeitskreises "Knowledge Discovery"); FG-WM (Workshop der Fachgruppe "Wissensmanagement").
Kooperatives Lernen zeichnet sich gegenüber dem individuellen Lernen durch eine Vielzahl von Vorteilen aus. Diese äußern sich vornehmlich in einer potentiell erhöhten Lernmotivation, welche sich wiederum in einem positiveren Lernerfolg niederschlägt. Darüber hinaus bietet diese Lernform Möglichkeiten zum Erwerb von Sozialkompetenz und weiteren wichtigen Schlüsselkompetenzen wie beispielsweise Kommunikations- und Kooperationskompetenz.Die vorliegende Arbeit untersucht primär Möglichkeiten, um während der Zusammenarbeit die Ausprägungen aller Teammitglieder hinsichtlich der vorhandenen Rollen zu bestimmen, so dass die Tutorkomponente ihr Unterstützungsangebot an die Rollenzusammensetzung des jeweiligen virtuellen Teams anpassen kann. Ergänzend dazu wurde eine Studie durchgeführt, die sich mit den für diese spezielle Form der Zusammenarbeit typischen Problemen befasst. Das Ziel bestand darin, ein Konzept für eine Problemidentifikationskomponente als Teil der Tutorkomponente zu entwickeln, mit deren Hilfe Problemsituationen während der Zusammenarbeit durch den virtuellen Tutor entdeckt werden können. Die Untersuchungen und Evaluationen sowohl zur Rollen- als auch zur Problemanalyse fanden im wesentlichen auf der Grundlage von Benutzertests und Befragungen statt.
Judith Lorber veranschaulicht in einem einzigen Satz den Mechanismus der sozialen Konstruktion von Geschlecht : "The social reproduction of gender in individuals reproduces the gendered societal structures; as individuals act out gender norms and expectations in face to face interaction, they are constructing gendered systems of dominance and powerʺ. Die Folgen davon beschreiben West und Zimmermann: "Doing gender means creating differences between boys and girls, women and men; differences that are not natural, essential or biological. Once the differences have been constructed, they are used to reinforce the essentialness of gender.ʺ Bilden sagt dazu: "Doing gender bedeutet also immer doing inequality". Diese Strukturen lassen sich mit Hilfe fokussierter narrativer Interviews mit Frauen, die Führungspositionen in Verein oder Verband im Deutschen Karate Verband inne haben, nachzeichnen. Bewusste und unbewusste Geschlechterkonstruktionen und deren Auswirkungen werden in der Auswertung ausführlich beschrieben. Im Ergebnis wird deutlich: je länger Frauen im Verband insbesondere in Führungspositionen involviert sind, umso mehr haben sie sich dem männlichen Referenzsystem angeglichen. Dies erzeugt zum Teil konflikthafte Konstruktionen eigener Weiblichkeit und von Weiblichkeit generell sowie im Karate im Speziellen. Im 'doing gender' werden so tradierte Geschlechterrollenbilder perpetuiert. Eine Chance sieht die Autorin in der Ausgestaltung des Karate mehr im Sinne von Do als Lebensweg, was eine Verflüssigung der Geschlechtergrenzen und Zuschreibungen - eine Hybridisierung und somit von tradierten Bildern unabhängige Interaktionen zur Folge hätte.
Ziel der Dissertation ist es die Entstehung der Hospizbewegung vor dem Hintergrund der Veränderungen für Sterbende in westlichen Gesellschaften zu ergründen.Die Fragestellung bezieht sich einerseits auf die Veränderungen, die die Sterbenden durch die institutionelle Sterbebegleitung erfahren, andererseits auf die Belastungs- und Bewältigungspotentiale die die Arbeit in der Sterbebegleitung mit sich bringt.Hierzu werden im theoretischen Teil der Arbeit frühe Forschungen zur Sterbebegleitung aufgegriffen, die die Bedingungen des Sterbens in westlichen Gesellschaften untersuchen und zum Vergleich frühere Traditionen der abendländischen Kulturen herangezogen. Es wird deutlich dass der medizinische Fortschritt wesentlich dazu beigetragen hat, dass sich die Bedingungen sowie das Todesbild verändert haben. Die Hospizbewegung scheint vor diesem Hintergrund eine zeitgemäße neue Richtung einzuschlagen wobei sie sich in ihrer Grundorientierung auf die Wiederbelebung alter Traditionen beruft. Neben der Herausarbeitung der Veränderungen für die Sterbenden werden in der Untersuchung Belastungs- und Bewältigungspotentiale in der Pflege der palliativen Medizin evaluiert, die sich von der kurativen Herangehensweise darin unterscheidet, die Leiden nur zu lindern anstatt eine auf Heilung ausgerichtete Therapie anzuwenden. Die Untersuchung bezieht sich auf die subjektiven Sichtweisen der festangestellten und ehrenamtlichen Mitarbeiter eines Hospizes und soll eine Darstellung liefern, wie Sterbende in einem Hospiz begleitet werden, dh. welche Handlungsformen den Sterbebegleitern in ihrer Arbeit zur Verfügung stehen und welchen Belastungen sie dabei ausgesetzt sind. Zusätzlich sollen bestehende Bewältigungsmöglichkeiten benannt werden. Als Forschungsmethode wurde das offene Interview nach Witzel verwendet.
Wie werde ich Mensch? : Annäherung an Edith Steins Beitrag zu einem christlichen Existenzdenken
(2009)
Diese Studie widmet sich dem anthropologischen Denken EDITH STEINs. Der Mensch denkt in der wissenschaftlichen Anthropologie über sich selber nach. Seinem Ich kann er nicht aus dem Wege gehen. Aus diesem Grund wird in dieser Arbeit biographisches Material miteinbezogen. Denken und Leben steigern und befruchten sich bei EDITH STEIN in besonderer Weise. Dabei ist der Begriff des Werdens leitend, denn nach EDITH STEIN entfaltet sich der Mensch. Und er ist ein Jemand, der sich zu seinen Gewordenheiten noch einmal verhalten kann. Der Mensch ist nicht den Verhältnissen, in die hinein er geworfen wurde, ausgeliefert. Er ist verantwortlich für das, was aus ihm geworden, bzw. nicht geworden ist. So wird auch deutlich, dass das Individuum ineffabel ist. Diese Ineffabilität spricht für eine anthropologische Konzeption der Entfaltung. Es wird gezeigt, dass die Liebe eine hohe Bedeutung im Leben und Denken EDITH STEINs hat. Das Thema Liebe hat in der Edith-Stein-Forschung bisher keine Beachtung gefunden. Es ist die Liebe schlechthin, der sie begegnet, und dies ermöglicht ihr, ihr Leben anzunehmen, zu gestalten und letztlich hinzugeben. Wahrheit und Freiheit erhalten aufgrund ihrer Fundierung in der Liebe ihre besondere Richtung. Es kann das eigene Sein als geliebtes Sein entdeckt werden. Dies eröffnet einen Möglichkeitsraum für die Entfaltung der je eigenen Individualität. Nach der Herausarbeitung der existentiellen Ausgangsfrage EDITH STEINs werden ihre phänomenologischen, christlichen, pädagogischen und mystischen Antwortversuche nachgezeichnet. So wird deutlich, dass die Sinnsuche eine religiöse Suche ist, die nicht im Privaten bleibt, sondern immer zur Selbst- und Weltgestaltung führt. EDITH STEIN hat in ihrem anthropologischen Entwurf die biblische Rede vom Menschen als Bild Gottes in die existentielle Sicht ihrer Zeit übersetzt.
Die Arbeit beschäftigt sich mit der Genderproblematik im Kontext digitaler Medien für Bildungsprozesse. Im Zentrum steht die Frage danach, ob es technische Möglichkeiten gibt, die geschlechtliche Codierung des Verhältnisses von Mensch und Computer aufzubrechen. Darüber hinaus beschäftigt sich die Arbeit mit der Frage, inwieweit Instrumente der Gleichstellung (z.B. Gender Mainstreaming) zukünftig als beratende Ansätze in der Mediendidaktik dienen können.
Die durchgeführten histologischen Untersuchungen von Zähnen mit Schmelzhypoplasien haben gezeigt, dass es möglich ist, Aussagen über die Intensität und die Dauer von Episoden von systemischem Stress zu treffen, die Auswirkungen auf die Amelogenese hatten. Basierend auf den aktuellen Vorstellungen über den Ablauf der Amelogenese und die Zusammenhänge zwischen Morphologie und Funktion sekretorischer Ameloblasten kann, durch die Analyse von Veränderungen der normalen Schmelzstruktur, das Reaktionsmuster der sekretorischen Ameloblasten rekonstruiert werden. Die erhobenen Befunde lassen sich mit einem Schwellenwertmodell beschreiben, das drei Stufen der Einschränkung der sekretorischen Ameloblastentätigkeit umfasst.
Die vorliegende Arbeit untersucht Möglichkeiten zur Integration und Modellierung von verteilten Geschäftsprozessen unter Verwendung von Web Services. Neben den Grundlagen werden weiterführende Konzepte im Bereich Web Services und Service-oriented Architectures thematisiert, wie z.B. Sicherheitsaspekte, Transaktionen und die Orchestrierung und Choreographie von Services. Als Anwendungskontext dient die Prozessportal-Lösung der Firma abaXX Technology AG (Stuttgart), innerhalb welcher Web Services durch eine im Rahmen dieser Arbeit erstellte, prototypische Software (Web Service ImportWizard) nutzbar gemacht werden.
Nach einer Legende, die zum ersten Mal für das Jahr 1530 greifbar wird, soll sich in der Marienkirche auf dem Harlungerberg in Brandenburg an der Havel ein dreiköpfiges Bildnis des slawischen Gottes Triglav befunden haben. In diesem Beitrag werden die zeitgenössischen Hintergründe der Legende und ihr Entstehungszusammenhang dargestellt.
Recently, there has been an increased interest in the exploitation of background knowledge in the context of text mining tasks, especially text classification. At the same time, kernel-based learning algorithms like Support Vector Machines have become a dominant paradigm in the text mining community. Amongst other reasons, this is also due to their capability to achieve more accurate learning results by replacing standard linear kernel (bag-of-words) with customized kernel functions which incorporate additional apriori knowledge. In this paper we propose a new approach to the design of ‘semantic smoothing kernels’ by means of an implicit superconcept expansion using well-known measures of term similarity. The experimental evaluation on two different datasets indicates that our approach consistently improves performance in situations where (i) training data is scarce or (ii) the bag-ofwords representation is too sparse to build stable models when using the linear kernel.
Due to the inherent characteristics of data streams, appropriate mining techniques heavily rely on window-based processing and/or (approximating) data summaries. Because resources such as memory and CPU time for maintaining such summaries are usually limited, the quality of the mining results is affected in different ways. Based on Frequent Itemset Mining and an according Change Detection as selected mining techniques, we discuss in this paper extensions of stream mining algorithms allowing to determine the output quality for changes in the available resources (mainly memory space). Furthermore, we give directions how to estimate resource consumptions based on user-specified quality requirements.
Entwicklung eines dynamischen Entry Vocabulary Moduls für die Stiftung Wissenschaft und Politik
(2006)
Nicht übereinstimmendes Vokabular zwischen Anfrage und Dokumenten stellt ein Hauptproblem im Information Retrieval dar. Das Entry Vocabulary Modul hat sich in den letzten Jahren als Lösung hierfür etabliert. In diesem Beitrag wird ein dynamisches Entry Vocabulary Modul vorgestellt, das für einen Datenbestand mit mehreren inhaltsbezogenen Feldern in einem mehrstufigen Verfahren abhängig von Zwischenergebnissen die Anfrage erweitert. Das entwickelte System wurde anhand eines mehrsprachigen Datenbestands von rund 600.000 Fachtexten evaluiert und führte zu positiven Ergebnissen.
In this paper, we propose a case-based approach for characterizing and analyzing subgroup patterns: We present techniques for retrieving characteristic factors and cases, and merge these into prototypical cases for presentation to the user. In general, cases capture knowledge and concrete experiences of specific situations. By exploiting case-based knowledge for characterizing a subgroup pattern, we can provide additional information about the subgroup extension. We can then present the subgroup pattern in an alternative condensed form that characterizes the subgroup, and enables a convenient retrieval of interesting associated (meta-)information.
In this paper we present an interface for supporting a user in an interactive cross-language search process using semantic classes. In order to enable users to access multilingual information, different problems have to be solved: disambiguating and translating the query words, as well as categorizing and presenting the results appropriately. Therefore, we first give a brief introduction to word sense disambiguation, cross-language text retrieval and document categorization and finally describe recent achievements of our research towards an interactive multilingual retrieval system. We focus especially on the problem of browsing and navigation of the different word senses in one source and possibly several target languages. In the last part of the paper, we discuss the developed user interface and its functionalities in more detail.
Many ubiquitous computing applications so far fail to live up to their expectations. While working perfectly in controllable laboratory environments, they seemto be particularly prone to problems related to a discrepancy between user expectation and systems behavior when released into the wild. This kind of unwanted behavior of course prevents the vision of an emerging trend of context aware and adaptive applications inmobile and ubiquitous computing to become reality. In this paper, we present examples from our practical work and show why for ubiquitous computing unwanted behavior is not just a matter of enough requirements engineering and good or bad technical system verification. We furthermore provide a classification of the phenomenon and an analysis of the causes of its occurrence and resolvability in context aware and adaptive systems.
Der speziellen Behandlung geographischer Suchanfragen wird im Information Retrieval zunehmend mehr Beachtung geschenkt. So gibt der vorliegende Artikel einen Überblick über aktuelle Forschungsaktivitäten und zentrale Problemstellungen im Bereich des geographischen Information Retrieval, wobei speziell auf das Projekt GeoCLEF im Rahmen der crosslingualen Evaluierungsinitiative CLEF eingegangen wird. Die Informationswissenschaft der Universität Hildesheim hat in diesem Projekt sowohl organisatorische Aufgaben wahrgenommen als auch eigene Experimente durchgeführt. Dabei wurden die Aspekte der Verknüpfung von Gewichtungsansätzen mit Booleschem Retrieval sowie die Gewichtung von geographischen Eigennamen fokussiert. Anhand erster Interpretationen der Ergebnisse und Erfahrungen werden weiterer Forschungsbedarf und zukünftige, eigene Vorhaben wie die Überprüfung von Heuristiken zur Query-Expansion aufgezeigt.
The existing personalization systems typically base their services on general user models that ignore the issue of context-awareness. This position paper focuses on developing mechanisms for cross-context reasoning of the user models, which can be applied for the context-aware personalization. The reasoning augments the sparse user models by inferring the missing information from other contextual conditions. Thus, it upgrades the existing personalization systems and facilitates provision of accurate context-aware services.
Machine learning, statistics and knowledge engineering provide a broad variety of supervised learning algorithms for classification. In this paper we introduce the Automated Model Selection Framework (AMSF) which presents automatic and semi-automatic methods to select classifiers. To achieve this we split up the selection process into three distinct phases. Two of those select algorithms by static rules which are derived from a manually created knowledgebase. At this stage of AMSF the user can choose between different rankers in the third phase. Currently, we use instance based learning and a scoring scheme for ranking the classifiers. After evaluation of different rankers we will recommend the most successful to the user by default. Besides describing the architecture and design issues, we additionally point out the versatile ways AMSF is applied in a production process of the automotive industry
The exchange of personal experiences is a way of supporting decision making and interpersonal communication. In this article, we discuss how augmented personal memories could be exploited in order to support such a sharing. We start with a brief summary of a system implementing an augmented memory for a single user. Then, we exploit results from interviews to define an example scenario involving sharable memories. This scenario serves as background for a discussion of various questions related to sharing memories and potential approaches to their solution. We especially focus on the selection of relevant experiences and sharing partners, sharing methods, and the configuration of those sharing methods by means of reflection.
This paper presents results from an initial user study exploring the relationship between system effectiveness as quantified by traditional measures such as precision and recall, and users’ effectiveness and satisfaction of the results. The tasks involve finding images for recall-based tasks. It was concluded that no direct relationship between system effectiveness and users’ performance could be proven (as shown by previous research). People learn to adapt to a system regardless of its effectiveness. This study recommends that a combination of attributes (e.g. system effectiveness, user performance and satisfaction) is a more effective way to evaluate interactive retrieval systems. Results of this study also reveal that users are more concerned with accuracy than coverage of the search results.
In diesem Beitrag wird ein Ansatz vorgestellt, der basierend auf Techniken der visuellen Daten- Exploration und semantikbasierten Fusion eine Nutzung von Analysemethoden wie Data- Mining- und Visualisierungstechniken zur Wissensgenerierung in verteilten, kooperativen Umgebungen erlaubt. Unter Einsatz von Ontologien zur semantischen Beschreibung verteilter Quellen wird es ermöglicht, die Daten und Analysemethoden aus diesen Quellen zu fusionieren. Kern der Architektur ist die Gatewaykomponente, die es dem Analysten erlaubt, Daten und Analysemethoden in einer verteilten Umgebung zu nutzen. Im Rahmen eines medizinischen Anwendungsszenarios wurden die vorgestellten Komponenten evaluiert.
This paper reports on experiments that attempt to characterize the relationship between users and their knowledge of the search topic in a Question Answering (QA) system. It also investigates user search behavior with respect to the length of answers presented by a QA system. Two lengths of answers were compared; snippets (one to two sentences of text) and exact answers. A user test was conducted, 92 factoid questions were judged by 44 participants, to explore the participants’ preferences, feelings and opinions about QA system tasks. The conclusions drawn from the results were that participants preferred and obtained higher accuracy in finding answers from the snippets set. However, accuracy varied according to users’ topic familiarity; users were only substantially helped by the wider context of a snippet if they were already familiar with the topic of the question, without such familiarity, users were about as accurate at locating answers from the snippets as they were in exact set.
In this work we describe a "semantic personalization" web service for curriculum planning. Based on a semantic annotation of a set of courses, provided by the University of Hannover, reasoning about actions and change —in particular classical planning— are exploited for creating personalized curricula, i.e. for selecting and sequencing a set of courses which will allow a student to achieve her learning goal. The specific student's context is taken into account during the process: students with different initial knowledge will be suggested different solutions. The Curriculum Planning Service has been integrated as a new plug-and-play personalization service in the Personal Reader framework.
The Personal Reader Framework enables the design, realization and maintenance of personalized Web Content Reader. In this architecture personalized access to web content is realized by various Web Services - we call them Personalization Services. With our new approach of Configurable Web Services we allow users to configure these Personalization Services. Such configurations can be stored and reused at a later time. The interface between Users and Configurable Web Services is realized in a Personal Reader Agent. This Agent allows selection, configuration and calling of the Web Services and further provides personalization functionalities like reuse of stored configurations which suit the users interests.
User Centric Hierarchical Classification and Associated Evaluation Measures for Document Retrieval
(2006)
Indirekte Instruktionen im naturwissenschaftlichen Unterricht und ihre epistemologische Fundierung
(2011)
Sowohl die curriculare Aufwertung lernerseitiger Erkenntnisgewinnungsprozesse in den naturwissenschaftlichen Unterrichtsfächern als auch die konstruktivistische Perspektive auf das Lernen rücken u.a. die kognitiven Aktivitäten der Lernenden ins Zentrum didaktischen Handelns. Aus der Vorstellung des „aktiv konstruierenden Lerners“ leitet sich die Frage nach der Eignung unterschiedlicher Instruktionsformen ab. Diese werden als direkte vs. indirekte Instruktionen begrifflich abgegrenzt und bzgl. unterschiedlicher Argumentationsebenen diskutiert. Ausgehend von der hieraus abgeleiteten Berechtigung bzw. Notwendigkeit indirekter Instruktionen stellt sich im Kontext konstruktivistischer Ansätze des Lernens die Frage nach einer epistemologischen Fundierung indirekter Instruktionen. Auf der Grundlage einer Differenzierung des konstruktivistischen Paradigmas in unterschiedliche Bedeutungsebenen, erweist sich die epistemologische Dimension des Konstruktivismus, der mit dem moderaten Konstruktivismus kongruent ist, als ungeeignete Theoriefundierung indirekt instruierender Lehrkonzepte. Alternativ wird das kognitiv-wissenschaftstheoretische Konzept des Model-based View als vielversprechender Theorierahmen für indirekt instruierender Lehr-/Lernarrangements vorgestellt; dieser bietet auf der Grundlage einer korrespondenzbasierten Relation zwischen Modellvorstellungen und realen Daten ein Gültigkeitskriterium zur Beurteilung alternativer Modellvorstellungen als notwendige Voraussetzung indirekter Instruktionen. Entsprechende Schlussfolgerungen für die Entwicklung indirekt instruierender Lehr-/Lernarrangements werden vorgestellt.
Das geographische Information Retrieval (GeoIR) berücksichtigt bei Suchanfragen – insb. nach Webseiten – neben dem Inhalt von Dokumenten auch eine räumliche Komponente, um gezielt nach Seiten suchen zu können, die für eine spezifische Region bedeutsam sind. Dazu müssen GeoIR-Systeme den geographischen Kontext einer Webseite erkennen können und in der Lage sein zu entscheiden, ob eine Seite überhaupt regional-spezifisch ("lokal") ist oder einen rein informativen Charakter besitzt, der keinen geographischen Bezug besitzt. Im Folgenden werden Ansätze vorgestellt, Merkmale lokaler Seiten zu ermitteln und diese für eine Einteilung von Webseiten in globale und lokale Seiten zu verwenden. Dabei sollen insbesondere die sprachlichen und geographischen Eigenschaften deutscher Webseiten berücksichtigt werden.
An Evaluation of Text Retrieval Methods for Similarity Search of multi-dimensional NMR-Spectra
(2006)
Searching and mining nuclear magnetic resonance (NMR)-spectra of naturally occurring substances is an important task to investigate new potentially useful chemical compounds. Multidimensional NMR-spectra are relational objects like documents, but consists of continuous multi-dimensional points called peaks instead of words. We develop several mappings from continuous NMR-spectra to discrete text-like data. With the help of those mappings any text retrieval method can be applied. We evaluate the performance of two retrieval methods, namely the standard vector space model and probabilistic latent semantic indexing (PLSI). PLSI learns hidden topics in the data, which is in case of 2D-NMR data interesting in its owns rights. Additionally, we develop and evaluate a simple direct similarity function, which can detect duplicates of NMR-spectra. Our experiments show that the vector space model as well as PLSI, which are both designed for text data created by humans, can effectively handle the mapped NMRdata originating from natural products. Additionally, PLSI is able to find meaningful "topics" in the NMR-data.
In recent years there has been an increased interest in frequent pattern discovery in large databases of graph structured objects. While the frequent connected subgraph mining problem for tree datasets can be solved in incremental polynomial time, it becomes intractable for arbitrary graph databases. Existing approaches have therefore resorted to various heuristic strategies and restrictions of the search space, but have not identified a practically relevant tractable graph class beyond trees. In this paper, we define the class of so called tenuous outerplanar graphs, a strict generalization of trees, develop a frequent subgraph mining algorithm for tenuous outerplanar graphs that works in incremental polynomial time, and evaluate the algorithm empirically on the NCI molecular graph dataset.
Folgende Ausarbeitung begegnet dem Missstand, dass trotz der sich schnell entwickelnden Angebote von Suchmaschinen mit visueller Ergebnisrepräsentation noch kein Konsens gefunden wurde über eine gemeinsame Basis, auf deren Grundlage nachhaltige Evaluationen von Information Retrieval Systemen mit Visualisierungskomponente durchgeführt werden können. Diese Problematik wird anhand einer State-of-the-Art- Analyse aufgezeigt und es wird ein Lösungsvorschlag erarbeitet und exemplarisch getestet, der einen integrierten Ansatz zur Kombination geeigneter Evaluationsmethoden auf Grundlage eines morphologischen Rahmens empfiehlt.
In the context of genome research, the method of gene expression analysis has been used for several years. Related microarray experiments are conducted all over the world, and consequently, a vast amount of microarray data sets are produced. Having access to this variety of repositories, researchers would like to incorporate this data in their analyses to increase the statistical significance of their results. In this paper, we present a new two-phase clustering strategy which is based on the combination of local clustering results to obtain a global clustering. The advantage of such a technique is that each microarray data set can be normalized and clustered separately. The set of different relevant local clustering results is then used to calculate the global clustering result. Furthermore, we present an approach based on technical as well as biological quality measures to determine weighting factors for quantifying the local results proportion within the global result. The better the attested quality of the local results, the stronger their impact on the global result.
Information on the internet is a vast resource for question answering. As the amount of available information from web pages increases, novel methods for finding precise answers to user queries and questions must be found. Standard information retrieval methods are efficient, but often fail to provide a user with short, precise answers. A deep linguistic analysis of all information is time consuming, but it offers more advanced means to find answers to a user’s question. Shallow natural language processing methods seem to work well on a limited range of questions, but they are not suitable for finding answers to more complex questions. This paper describes work in progress on the question answering system IRSAW (Intelligent Information Retrieval on the Basis of a Semantically Annotated Web), a system that combines information retrieval with a deep linguistic analysis of texts to obtain answers to natural language questions. In IRSAW, different techniques for finding answers lead to different sets of answer candidates, which are then merged to produce a final answer. The system’s architecture and functionality are described before evaluation results of a first prototype are presented.
In social bookmark tools users are setting up lightweight conceptual structures called folksonomies. Currently, the information retrieval support is limited. We present a formal model and a new search algorithm for folksonomies, called FolkRank, that exploits the structure of the folksonomy. The proposed algorithm is also applied to find communities within the folksonomy and is used to structure search results. All findings are demonstrated on a large scale dataset. A long version of this paper has been published at the European Semantic Web Conference 2006.
Knowledge-intensive work plays an increasingly important role in organisations of all types. This work is characterized by a defined input and a defined output but not the way how to transform the input to an output. Within this context, the research project DYONIPOS aims at encouraging the two crucial roles in a knowledge-intensive organization - the process executer and the process engineer. Ad-hoc support will be provided for the knowledge worker by synergizing the development of context sensitive, intelligent, and agile semantic technologies with contextual retrieval. DYONIPOS provides process executers with guidance through business processes and just-in-time resource support based on the current user context, that are the focus of this paper.
Passage retrieval is an essential part of question answering systems. In this paper we use statistical language models to perform this task. Previous work has shown that language modeling techniques provide better results for both, document and passage retrieval. The motivation behind this paper is to define new smoothing methods for passage retrieval in question answering systems. The long term objective is to improve the quality of question answering systems to isolate the correct answer by choosing and evaluating the appropriate section of a document. In this work we use a three step approach. The first two steps are standard document and passage retrieval using the Lemur toolkit. As a novel contribution we propose as the third step a re-ranking using dedicated backing-off distributions. In particular backing-off from the passage-based language model to a language model trained on the document from which the passage is taken shows a significant improvement. For a TREC question answering task we can increase the mean average precision from 0.127 to 0.176.
In a Web Service-based Semantic Web long term usage of single Services will become unlikely. Therefore, user modeling on Web Service’s site might be imprecise due to a lack of a sufficient amount of user interaction. In our Personal Reader Framework, the user profile is stored centrally and can be used by different Web Services. By combining information about the user from different Web Services, the coverage and precision of such centralized user profile increases. To preserve user’s privacy, access to the user profile is restricted by policies.
German Smart Sensor Web (GSSW) is an experimental system for the German Federal Armed Forces. Its purpose is to provide a secure integration infrastructure for networked sensors. GSSW has a middleware based on ontologies and software agent technology. It uses a semantic representation of sensor data and other information in the area of intelligence, surveillance and reconnaissance (ISR) to feed “smart” symbolic AI based assistance functions. Interface agents also use the knowledge representation to personalize different aspects of the user interface. In this contribution the current state of GSSW, its software architecture and the personalization features of the user interface layer are presented.
Dieser Beitrag beschreibt Retrievalexperimente mit einem umfangreichen multilingualen Korpus im Rahmen von WebCLEF 2006 an der Universität Hildesheim. Im Vordergrund stand die Nutzung von HTML Strukturelementen, der Einsatz von Blind Relevance Feedback und die Evaluierung des sprachunabhängigen Indexierungsansatzes.
Im Patent Retrieval haben sich Rankingverfahren und Methoden wie Relevanz- Feedback noch nicht etabliert. An Ranking Systemen wird vor allem die mangelnde Transparenz für den Benutzer bemängelt. Das System PatentAide versucht, aufbauend auf einer Analyse der Rechercheprozesse im Patent Retrieval, ein Ranking-System zu implementieren. PatentAide unterstützt wichtige Techniken im Patent-Retrieval Prozess wie Term-Erweiterung, bietet ein geranktes Ergebnis und erlaubt darüber hinaus dynamisches Relevanz-Feedback.
A key argument for modeling knowledge in ontologies is the easy re-use and re-engineering of the knowledge. However, current ontology engineering tools provide only basic functionalities for analyzing ontologies. Since ontologies can be considered as graphs, graph analysis techniques are a suitable answer for this need. Graph analysis has been performed by sociologists for over 60 years, and resulted in the vivid research area of Social Network Analysis (SNA). While social network structures currently receive high attention in the Semantic Web community, there are only very few SNA applications, and virtually none for analyzing the structure of ontologies. We illustrate the benefits of applying SNA to ontologies and the Semantic Web, and discuss which research topics arise on the edge between the two areas. In particular, we discuss how different notions of centrality describe the core content and structure of an ontology. From the rather simple notion of degree centrality over betweenness centrality to the more complex eigenvector centrality, we illustrate the insights these measures provide on two ontologies, which are different in purpose, scope, and size.
Evaluation metrics for rule learning typically, in one way or another, trade off consistency and coverage. In this work, we investigate this tradeoff for three different families of rule learning heuristics, all of them featuring a parameter that implements this trade-off in different guises. These heuristics are the m-estimate, the F-measure, and the Klösgen measures. The main goals of this work are to extend our understanding of these heuristics by visualizing their behavior via isometrics in coverage space, and to determine optimal parameter settings for them. Interestingly, even though the heuristics use quite different ways for implementing this trade-off, their optimal settings realize quite similar evaluation functions. Our empirical results on a large number of datasets demonstrate that, even though we do not use any form of pruning, the quality of the rules learned with these settings outperforms standard rule learning heuristics and approaches the performance of Ripper, a state-of-the-art rule learning system that uses extensive pruning and optimization phases.
Agents in dynamic environments have to deal with complex situations including various temporal interrelations of actions and events. Discovering frequent patterns in such scenes can be useful in order to create prediction rules which can be used to predict future activities or situations. We present the algorithm MiTemP which learns frequent patterns based on a time intervalbased relational representation. Additionally the problem has also been transfered to a pure relational association rule mining task which can be handled by WARMR. The two approaches are compared in a number of experiments. The experiments show the advantage of avoiding the creation of impossible or redundant patterns with MiTemP. While less patterns have to be explored on average with MiTemP more frequent patterns are found at an earlier refinement level.
Dieses Papier gibt eine Einführung in TIRA, einer Software-Architektur für die Erstellung maßgeschneiderter Information-Retrieval-Werkzeuge. TIRA ermöglicht Anwendern, den Verarbeitungsprozess eines gewünschten IR-Werkzeugs interaktiv als Graph zu spezifizieren: die Knoten des Graphen bezeichnen so genannte "IRBasisdienste", Kanten modellieren Kontroll- und Datenflüsse. TIRA bietet die Funktionalität eines Laufzeit-Containers, um die spezifizierten Verarbeitungsprozesse in einer verteilten Umgebung auszuführen. Motivation für unsere Forschung ist u. a. die Herausforderung der Personalisierung: Es gibt eine Diskrepanz zwischen der IR-Theorie und ihren Algorithmen und der – an persönlichen Wünschen angepassten – Implementierung, Verteilung und Ausführung entsprechender Programme. Diese Kluft kann mit adäquater Softwaretechnik verkleinert werden.
In this work we propose a novel, generalized framework for feature space transformation in unsupervised knowledge discovery settings. Unsupervised feature space transformation inherently is a multi-objective optimization problem. In order to facilitate data exploration, transformations should increase the quality of the result and should still preserve as much of the original data set information as possible. We exemplify this relationship on the problem of data clustering. First, we show that existing approaches to multi-objective unsupervised feature selection do not pose the optimization problem in an appropriate way. Furthermore, using feature selection only is often not sufficient for real-world knowledge discovery tasks. We propose a new, generalized framework based on the idea of information preservation. This framework enables feature selection as well as feature construction for unsupervised learning. We compare our method against existing approaches on several real world data sets.
Current document management systems (DMS) are designed to coordinate the collaborative creation and maintenance process of documents through the provision of a centralized repository. The focus is primarily on managing documents themselves. Relations between and within documents and effects of changes are largely neglected. To avoid inefficiencies, conflicts, and delays the support of modification management is indispensable. Here I present the design of the LOCUTOR system that aims to provide management of change functionality for arbitrary XML documents ranging from informal, e.g. instruction or construction manuals, to formal documents.
In automatisierten Produktionsanlagen werden mehr und mehr Sensorsysteme eingesetzt, um die produzierte Qualität zu überwachen und auf Basis gesammelter Prozessdaten sicherzustellen. Die Heterogenität der an unterschiedlichen Stellen im Prozess integrierten Sensoren erfordert einen Ansatz zur einfachen Integration. Ziel der Integration ist die für verschiedene Rollen aufbereitete Qualitätssicht, die auch ein Feedback zur Fehlerdeduktion beinhaltet. In diesem Erfahrungsbericht wird der im Projekt BridgeIT entwickelte Ansatz zur syntaktischen und semantischen Integration von Qualitätsdaten vorgestellt. Der Ansatz ermöglicht insbesondere eine einfache Anbindung neuer Sensorsysteme.
Employing lexical-semantic knowledge in information retrieval (IR) is recognised as a promising way to go beyond bag-of-words approaches to IR. However, it has not yet become a standard component of IR systems due to many difficulties which arise when knowledge-based methods are applied in IR. In this paper, we explore the use of semantic relatedness in IR computed on the basis of GermaNet, a German wordnet [Kunze, 2004]. In particular, we present several experiments on the German IR benchmarks GIRT’2005 (training set) and GIRT’2004 (test set) aimed at investigating the potential of semantic relatedness in IR as opposed to bag-of-words models, as implemented e.g. in Lucene [Gospodnetic and Hatcher, 2005]. These experiments shed some light upon how to combine the strengths of both models in our future work. Our evaluation results show some improvement in IR performance over the bag-of-words model, i.e. a significant increase in mean average precision of about 5 percent points for the training set, but only 1 percent increase for our test set.
Recently, research projects such as PADLR and SWAP have developed tools like Edutella or Bibster, which are targeted at establishing peer-topeer knowledge management systems. In such a system, it is necessary to obtain brief semantic descriptions of peers, so that routing algorithms or matchmaking processes can make decisions about which communities peers should belong to, or to which peers a given query should be forwarded. This paper provides a graph clustering technique on knowledge bases for that purpose. Using this clustering, we can show that our strategy requires up to 58% fewer queries than the baselines to yield full recall in a bibliographic peer-to-peer scenario.
Pattern recognition of gene expression data on biochemical networks with simple wavelet transforms
(2006)
Biological networks show a rather complex, scale-free topology consisting of few highly connected (hubs) and many low connected (peripheric and concatenating) nodes. Furthermore, they contain regions of rather high connectivity, as in e.g. metabolic pathways. To analyse data for an entire network consisting of several thousands of nodes and vertices is not manageable. This inspired us to divide the network into functionally coherent sub-graphs and analysing the data that correspond to each of these sub-graphs individually. We separated the network in a two-fold way: 1. clustering approach: sub-graphs were defined by higher connected regions using a clustering procedure on the network; and 2. connected edge approach: paths of concatenated edges connecting striking combinations of the data were selected and taken as sub-graphs for further analysis. As experimental data we used gene expression data of the bacterium Escherichia coli which was exposed to two distinctive environments: oxygen rich and oxygen deprived. We mapped the data onto the corresponding biochemical network and extracted disciminating features using Haar wavelet transforms for both strategies. In comparison to standard methods, our approaches yielded a much more consistent image of the changed regulation in the cells. In general, our concept may be transferred to network analyses on any interaction data, when data for two comparable states of the associated nodes are made available.
The World Wide Web is an important medium for communication, data transaction and retrieving. Data mining is the process of extracting interesting patterns from a set of data sources. Web mining is the application of data mining techniques to extract useful patterns from web data. Web Mining can be divided into three categories, web usage mining, web content mining, and web structure mining. Web usage mining or web log mining is the extraction of interesting patterns from web log server entries. Those patterns are used to study user behavior and interests, facilitate support and services introduced to the website user, improve the structure of the website, and facilitate personalization and adaptive websites. This paper aims to explore various research issues in web usage mining and its application in the field of adaptive, and personalized websites.
This paper presents Prospector a front-end to the Google search engine which, using individual and group models of users’ interests, re-ranks search results to better suit the user’s inferred needs. The paper outlines the motivation behind the development of the system, describes its adaptive components, and discusses the lessons learned thus far, as well as the work planned for the future.
We propose the implementation of an intelligent information system on free and open source software. This system will consist of a case-based reasoning (CBR) system and several machine learning modules to maintain the knowledge base and train the CBR system thus enhancing its performance. Our knowledge base will include data on free and open source software provided by the Debian project, the FLOSSmole project, and other public free and open source software directories. We plan to enrich these data by learning additional information such as concepts and different similarities. With this knowledge base, we hope to be able to create an information system that will be capable of answering queries based on precise as well as vague criteria and give intelligent recommendations on software based on the preferences of the user.
In diesem Aufsatz soll die geplante Implementierung von Suchmaschinentechnologien im Fachportal Pädagogik zum Anlass genommen werden, um sich mit den damit verbundenen neuen Anforderungen an ein Qualitätsmanagement auseinanderzusetzen. Im Zentrum stehen die Fragen, welche Zusammenhänge die Recherche- Situationen formen und welche Schlussfolgerungen sich daraus für ein Evaluationsdesign ergeben. Als analytisches Instrumentarium soll dabei eine soziotechnische Sichtweise auf das Information- Retrieval-System (IR) dienen.
This paper presents work in progress on an adaptive workflow management tool for digital design projects. The chip design follows standardized default processes which are adapted during an ongoing project by changing requirements from both design and application uncertainties. Our approach focuses on flexible monitoring and case-based authoring support of adaptive workflows in order to support the knowledge management in a real-world application.
The usage of Wikis for the purpose of knowledge management within a business company is only of value if the stored information can be found easily. The fundamental characteristic of a Wiki, its easy and informal usage, results in large amounts of steadily changing, unstructured documents. The widely used full-text search often provides search results of insufficient accuracy. In this paper, we will present an approach likely to improve search quality, through the use of Semantic Web, Text Mining, and Case Based Reasoning (CBR) technologies. Search results are more precise and complete because, in contrast to full-text search, the proposed knowledge-based search operates on the semantic layer.
We preset a network model for context-based retrieval allowing for integrating domain knowledge into document retrieval. Based on the premise that the results provided by a network model employing spreading activation are equivalent to the results of a vector space model, we create a network representation of a document collection for retrieval. We extended this well explored approach by blending it with techniques from knowledge representation. This leaves us with a network model for finding similarities in a document collection by content-based as well as knowledge-based similarities.
Die systematische und historische Untersuchung der Imagekonstruktion von Prinzessin Diana in drei Publikumszeitschriften erfolgt unter dem Ziel, die journalistischen Berichte, in denen die Medienfigur den Rezipienten vermittelt wird als Schnittstellen kultureller Bedeutungsproduktion zu erfassen und die Analysen in literarische, dramatische, historische und soziale Kontexte einzubetten. Die Arbeit zeigt, wie die von den Medien vermittelte Figur sowohl in das Image der Zeitschriften als auch in den Alltag des Publikums eingebunden wird. Die Dissertation geht kommunikationswissenschaftlich neue Wege, als sie auf Rezipientenseite ästhetische Erfahrung und auf Seiten des Medientextes dessen Einbettung in historisch-publizistische Traditionen berücksichtigt. Die Basis der Promotion bildet die Auseinandersetzung mit Theorien kultur- und kommunikationswissenschaftlicher Medienforschung.
Analysen physischer Belastungsmuster an archäologischen Skeleten dienen der Rekonstruktion von Lebensstilen vergangener Populationen. Die mechanische Beanspruchung wirkt direkt auf die Form- und Strukturentwicklung der Knochen. Anhand dieser Merkmale sind im Umkehrschluss Aussagen über die physische Belastung eines Individuums auch lange nach dessen Tod möglich. Ziel dieser Arbeit war eine vergleichende Betrachtung sowie eine humanökologische Interpretation des physischen Belastungsmusters zweier Stichproben der klassischen Maya von Xcambo (Yukatan, Mexiko, 350-700 n.Chr.) und der frühmittelalterlichen Population von Barbing-Kreuzhof (Bayern, 400-500 n. Chr.). An Humeri und Femora ausgewählter Individuen wurden histologische, biomechanische und makromorphologische Merkmale der funktionellen Anpassung untersucht. Die signifikanten Unterschiede in den Belastungsmustern der beiden Populationen können auf Unterschiede in der Wirtschaftsweise, der Kultur, der Geographie des Siedlungsgebiets als auch technologische Errungenschaften zurückgeführt werden. Bei den Maya von Xcambo lassen sich zudem klare Differenzen im physischen Belastungsmuster zwischen der Stichprobe des frühen und des späten Klassikums nachweisen, welche die Annahme eines sozioökonomischen Wandels in Richtung einer administrativeren Funktion der Siedlung untermauern. Neben der bioarchäologischen Interpretation wurden methodische Aspekte sowie die Vergleichbarkeit und Verlässlichkeit unterschiedlicher Methoden zur Rekonstruktion von physischen Belastungsmustern angesprochen und diskutiert. Diskrepanzen, welche zwischen der Evaluation unterschiedlicher Belastungsmerkmale auftraten, legen die Wichtigkeit paralleler Anwendungen unterschiedlicher Methoden dar, und können in zukünftigen Studien möglicherweise einer Methodenoptimierung dienen.
Gegenstand der vorliegenden Magisterarbeit ist die Entwicklung eines Lernmoduls zur Vermittlung von Grundlagen multimedialer Systeme, wobei der im Zusammenhang mit multimedialem Lernen wichtige Aspekt der Interaktivität bei der Konzeption besondere Beachtung findet. Dazu werden die grundlegenden Aspekte multimedialen Lernen betrachtet, wobei eine ausführlichere Charakterisierung des Merkmal Interaktivität inklusive verschiedene Abstufungsmodelle erfolgt. Nach einer Analyse des Nutzungskontexts und der inhaltlichen Konzipierung werden zwei prototypische Varianten des Lernmoduls erstellt, die sich im Grad ihrer Interaktivität unterscheiden. Eine vergleichende Evaluation liefert die Entscheidungsgrundlage für eine der beiden Varianten, die durch ein abschließendes Re-Design zum finalen Lernmodul optimiert und somit für den Einsatz in einer Einführungsveranstaltung der Universität Hildesheim vorbereitet wird.
Hashing-basierte Indizierung ist eine mächtige Technologie für die Ähnlichkeitssuche in großen Dokumentkollektionen [Stein 2005]. Sie basiert auf der Idee, Hashkollisionen als Ähnlichkeitsindikator aufzufassen – vorausgesetzt, dass eine entsprechend konstruierte Hashfunktion vorliegt. In diesem Papier wird erörtert, unter welchen Voraussetzungen grundlegende Retrieval- Aufgaben von dieser neuen Technologie profitieren können. Weiterhin werden zwei aktuelle, hashing-basierte Indizierungsansätze präsentiert und die mit ihnen erzielbaren Verbesserungen bei der Lösung realer Retrieval-Aufgaben verglichen. Eine Analyse dieser Art ist neu; sie zeigt das enorme Potenzial maßgeschneiderter hashing-basierter Indizierungsmethoden wie zum Beispiel dem Fuzzy- Fingerprinting.
Authors of menu optimization methods often use navigation time prediction models without validating whether the model is adequate for the site and its users. We review the assumptions underlying navigation time prediction models and present a method to validate these assumptions offline. Experiments on four web sites show how accurate the various model features describe the behavior of the users. These results can be used to select the best model for a new optimization task. In addition, we find that the existing optimization methods all use suboptimal models. This indicates that our results can significantly contribute to more effective menu optimization.
Class binarizations are effective methods that break multi-class problem down into several 2-class or binary problems to improve weak learners. This paper analyzes which effects these methods have if we choose a Naive Bayes learner for the base classifier. We consider the known unordered and pairwise class binarizations and propose an alternative approach for a pairwise calculation of a modified Naive Bayes classifier.
The learners’ motivation has an impact on the quality of learning, especially in e-Learning environments. Most of these environments store data about the learner’s actions in log files. Logging the users’ interactions in educational systems gives the possibility to track their actions at a refined level of detail. Data mining and machine learning techniques can “give meaning” to these data and provide valuable information for learning improvement. An area where improvement is absolutely necessary and of great importance is motivation, known to be an essential factor for preventing attrition in e-Learning. In this paper we investigate if the log files data analysis can be used to estimate the motivational level of the learner. A decision tree is build from a limited number of log files from a web-based learning environment. The results suggest that time spent reading is an important factor for predicting motivation; also, performance in tests was found to be a relevant indicator of the motivational level.
Cross Language Information Retrieval (CLIR) enables people to search information written in different languages from their query languages. Information can be retrieved either from a single cross lingual collection or from a variety of distributed cross lingual sources. This paper presents initial results exploring the effectiveness of distributed CLIR using query-based sampling techniques, which to the best of our knowledge has not been investigated before. In distributed retrieval with multiple databases, query-based sampling provides a simple and effective way for acquiring accurate resource descriptions which helps to select which databases to search. Observations from our initial experiments show that the negative impact of query-based sampling on cross language search may not be as great as it is on monolingual retrieval.
Can crimes be modeled as data mining problems? We will try to answer this question in this paper. Crimes are a social nuisance and cost our society dearly in several ways. Any research that can help in solving crimes faster will pay for itself. Here we look at use of clustering algorithm for a data mining approach to help detect the crimes patterns and speed up the process of solving crime. We will look at k-means clustering with some enhancements to aid in the process of identification of crime patterns. We will apply these techniques to real crime data from a sheriff’s office and validate our results. We also use semi-supervised learning technique here for knowledge discovery from the crime records and to help increase the predictive accuracy. We also developed a weighting scheme for attributes here to deal with limitations of various out of the box clustering tools and techniques. This easy to implement machine learning framework works with the geo-spatial plot of crime and helps to improve the productivity of the detectives and other law enforcement officers. It can also be applied for counter terrorism for homeland security.
Personalization involves the process of gathering user-specific information during interaction with the user, which is then used to deliver appropriate results to the user’s needs. This paper presents a statistical method that learns the user interests by collecting evidence from his search history. The method focuses on the use of both user relevance point of view on familiar words in order to infer and express his interests and the use of a correlation metric measure in order to update them.
This paper presents a search system for information on scientists which was implemented prototypically for the area of information science, employing Web Content Mining techniques. The sources that are used in the implemented approach are online publication services and personal homepages of scientists. The system contains wrappers for querying the publication services and information extraction from their result pages, as well as methods for information extraction from homepages, which are based on heuristics concerning structure and composition of the pages. Moreover a specialised search technique for searching for personal homepages of information scientists was developed.
Das Thema ,Kompositionspädagogik' wird in der vorliegenden Arbeit auf folgende Weise behandelt: Im theoretischen Teil werden empirische Befunde zur kompositorischen Entwicklung im Kindes- und Jugendalter referiert und in den Kontext kompositionspädagogischer Konzepte gestellt. Zwischen diesen beiden Kapiteln beleuchtet ein Exkurs das Phänomen ,musikalische Kreativität'. Daraufhin widmet sich der empirische Teil der Unterrichtsrealität an deutschen Musikschulen, indem die dem Unterricht zugrunde liegenden kompositionspädagogischen Konzepte hinsichtlich ihrer didaktischen und methodischen Ausrichtung analysiert werden. Ziel der Arbeit ist es, insbesondere auf der Basis entwicklungspsychologischer Kriterien eine Bewertung der kompositionspädagogischen Konzepte vorzunehmen und Empfehlungen für die Förderung musikalischer Produktivität an Musikschulen zu geben.
Die vorliegende Magisterarbeit befasst sich mit der Evaluation des multimedialen Lernsystems SELiM, das am Institut für Angewandte Sprachwissenschaft der Universität Hildesheim entwickelt wurde und einen Bestandteil seiner informationswissenschaftlichen Lehre darstellt. Der Schwerpunkt der Evaluation liegt auf der Benutzbarkeit des Systems. Diese kann nur bestimmt werden, wenn sie auf die Zielgruppe, deren Arbeit mit SELiM und die Nutzungsumstände bezogen wird. Deshalb erfolgt vor der Evaluation eine umfassende Analyse dieser Aspekte. Anhand der gewonnenen Erkenntnisse wird die Evaluation geplant und durchgeführt. Aus ihren Ergebnissen werden Maßnahmen für eine umfassende Optimierung SELiMs hergeleitet. Schließlich werden erste von ihnen umgesetzt. Zur Bildung der theoretischen Grundlagen werden im Vorfeld die Arbeitsfelder E-Learning, Softwareergonomie und Usability-Testing untersucht und es wird ein Qualitätsbegriff definiert. Bei der Entwicklung SELiMs wird iterativ nach dem Prinzip des Rapid Prototypings vorgegangen. Diese Arbeit gliedert sich in diesen Prozess ein.
Die vorliegende Arbeit behandelt die Adaption einer grafischen Benutzungsschnittstelle des Einbaukonfigurationssystems (EIKON) für drei Benutzergruppen der Blaupunkt GmbH. Es wird beschrieben, wie im Rahmen des Usability Engineering die Nutzeranforderungen erhoben und analysiert wurden und durch benutzerzentriertes Design ein Interfaceprototyp entworfen, realisiert und in einem Usability Test evaluiert wurde. Der Entwicklungsprozess wird dabei am Beispiel eines Call Centers, der technischen Hotline des Kundendienstes, dargestellt.
Das vorliegende Buch ist eine Arbeit der Studenten der Pädagogischen Psychologie des vierten Semesters der Universität Hildesheim, Jahrgang 2004. Das Thema der Arbeit Umgang mit bedrohlichen selbstbezogenen Informationen im Jugendalter und die konkreten Fragestellungen (s.u.) wurden gemeinsam im Seminar beschlossen. Anschließend wurde arbeitsteilig vorgegangen und Arbeitsteams mit konkreten Aufgaben und Zielen gebildet. Aufarbeitung der Literatur: Drei Teams haben die Literatur zum Forschungsthema aufbereitet und dem Plenum präsentiert. So wurde gewährleistet, dass unter allen Beteiligten der gleiche Wissensstand herrscht, was sich für das weitere Vorgehen als überaus wichtig herausgestellt hat. Entwicklung des Fragebogens: Die beiden Teams, deren Aufgabe es war den Fragebogen zu entwickeln, begannen fast zeitgleich mit der Arbeit und stellten ihre Zwischenergebnisse immer wieder zur Diskussion ins Seminar. Außerdem fand ein reger Austausch mit den Mitgliedern der Gruppe Auswertung statt, um zu gewährleisten, dass die erfassten Daten auch mit Hilfe von statistischen Verfahren auswertbar sein würden. Bald wurden Pretests durchgeführt und nach fünf Wochen ging es daran, ca. 250 junge Menschen zwischen 12 und 22 Jahren zu gewinnen, die bereit waren den 17-seitigen Fragebogen zu beantworten.
In this paper, the idea of ubiquitous information retrieval is presented in a storytelling manner. Starting from a rough review of information retrieval system usage, some empirical hints on IR in everyday life are given. Ch. 4 explores the heterogeneity of interaction with IRS for one day in the life of a (common search engine) user. In ch. 5 summarizes these observations and suggests research approaches for modelling information retrieval as an essential component of interaction in the information society.
Im vorliegenden Beitrag werden benutzerpartizipative Verfahren im Rahmen des Datenbankentwurfs für ein Informationssystem vorgestellt. Dabei wird aufgezeigt, wie Extreme Programming als zentraler Ansatz der agilen Software Entwicklung die synergetische Verflechtung des traditionell technologiebetriebenen Software Engineering (SE) mit benutzerzentrierten Verfahren des User-Centered Design (UCD) ermöglichen kann und welche Mehrwerte sich daraus ergeben. Da insbesondere die Kommunikation zwischen Systementwicklern und Experten im vorgestellten Projekt einen hohen Stellenwert einnahm, werden entsprechende Vorgehensweisen, aufgetretene Probleme sowie Lösungsansätze in der Anforderungsanalyse diskutiert. Der Einsatz von Interview- und Beobachtungstechniken wird dabei am Beispiel der Erfassung des Car Multimedia Anwendungsfeldes zum Zweck der Daten- und Systemmodellierung verdeutlicht.
In der vorliegenden Arbeit wird ein Verfahren zur Suche nach Informationen zu Wissenschaftlern prototypisch für den Bereich der Informationswissenschaft entwickelt, in welchem Ansätze des Web Content Mining eingesetzt werden. Zunächst werden Möglichkeiten und Probleme der Informationssuche im Web aufgezeigt, sowie verschiedene Verfahren des Web Content Mining beschrieben. Das entwickelte Verfahren verwendet online Publikationsdienste und persönliche Homepages der Wissenschaftler als Quellen. Zur Suche in den Publikationsdiensten und der Informationsextraktion aus ihren Ergebnisseiten werden Wrapper konstruiert. Des Weiteren werden Methoden zur Informationsextraktion aus den Homepages implementiert, die auf Heuristiken zu Struktur und Aufbau der Seiten beruhen. Für die Suche nach persönlichen Homepages von Informationswissenschaftlern wird ein spezialisiertes Suchverfahren entwickelt. Das Verfahren wird in einer Java-Applikation implementiert und anschließend evaluiert, um das Potenzial des gewählten Ansatzes zu untersuchen.
Die vorliegende Arbeit befasst sich mit Multilingualem Webre- trieval. Am Anfang werden verschiedene Retrieval Evaluation Initiativen beschrieben. Das Hauptaugenmerk liegt auf dem Cross Language Evaluation Forum (CLEF), mit dem in diesem Jahr gestarteten Web Track WebCLEF. Der Web Track WebCLEF ist in Anlehnung an die Web Tracks der TREC und NTCIR Initiativen entwickelt worden. Der entscheidene Unterschied zu diesen Tracks ist der multilinguale Ansatz, der im WebCLEF Track verfolgt wird. Allen Teilnehmern wurde eine Testkollektion bestehend aus dem EuroGOV Korpus, 547 Topics und der dazugehörigen Relevanzbewertung zur Verfügung gestellt. Neben dem Vergleich des WebCLEF Tracks zu den anderen Initiativen steht die aktive Teilnahme im Mittelpunkt dieser Arbeit. Aufgezeigt werden die Rahmenbedingungen für die Teilnahme, Eigenschaften der Testkollektion, die Vorgehensweise und Ziele des Institutes für Angewandte Sprachwissenschaften (IFAS) der Universität Hildesheim, Erfahrungen und Schwierigkeiten beim Generieren der verschiedenen Indizes, der eigentliche Retrievalprozess und die dazugehörigen Ergebnisse aller Experimente. Als Abschluss dieser Arbeit wird die Teilnahme ausgewertet, Verbesserungen zum eigentlichen Web Track und ein Ausblick für die erneute Teilnahme am WebCLEF Track 2006 dargestellt