Refine
Year of publication
Document Type
- Master's Thesis (31)
- Conference Proceeding (19)
- Doctoral Thesis (7)
- Article (1)
- Book (1)
- Habilitation (1)
Language
- German (60) (remove)
Has Fulltext
- yes (60) (remove)
Is part of the Bibliography
- no (60) (remove)
Keywords
- Informationssysteme (28)
- Information Retrieval (5)
- Evaluation (3)
- Maschinelles Lernen (3)
- CSCL (2)
- Computereinsatz in Unterricht und Ausbildung (2)
- Computerlinguistik (2)
- Computerunterstützte Kommunikation (2)
- Emotion (2)
- Gefühl (2)
Institute
- Informationswissenschaft und Sprachtechnologie (60) (remove)
Gefühle beeinflussen das menschliche Verhalten, indem sie beispielsweise zu bestimmten Handlungen motivieren, vergangene Erlebnisse bewerten und die soziale Interaktion prägen. Auch bei der Aktivität der Internetsuche spielen Gefühle als subjektive Empfindungen eine wichtige Rolle, sodass sie im Fachgebiet Information Seeking Behavior erforscht werden. Die vorliegende Arbeit ist in der Disziplin der Informationswissenschaft verortet und zielt darauf ab, das Wissen über die Gefühle der Suchenden zu erweitern und daraus konstruktive Schlussfolgerungen zu ziehen. Sie geht der Frage nach, wie die Informationssuche im Internet emotional erlebt wird und welche Bedingungen und Ursachen die Suchenden als bedeutsam für ihr emotionales Erleben bei der Onlinesuche betrachten. Um dies zu erforschen, wird ein methodologischer Rahmen verwendet, der sich diesem Thema auf ganz andere Art annähert, als bisherige Forschungsarbeiten auf diesem Gebiet: Die Grounded Theory-Methodologie. Durch deren Prinzipien des Fragenstellens und Vergleichens entsteht eine Theorie, die gleichzeitig interpretierend als auch empirisch fundiert ist. Als Datengrundlage dieser Theorie dienen Leitfadeninterviews, in denen junge Erwachsene aus den USA und Deutschland ihre Eindrücke und Empfindungen bei der Internetsuche schildern. Die Teilnehmenden beziehen sich dabei auf eine unmittelbar vor dem Interview durchgeführte Internetsuche, in der sie durch ein eigenes Informationsbedürfnis angeleitet wurden. Als Ergebnis der Studie zeigt sich zum einen, wie stark die individuellen Suchthemen die Gefühle der Suchenden beeinflussen. Zum anderen ergibt die Untersuchung, dass diejenigen Gefühle, die sich auf die Ausführung der Suche beziehen, erstaunlich gering ausgeprägt sind, denn die Internetsuche wird als normale Routinehandlung empfunden. Aufgrund dieser Erkenntnisse zur Individualität und Alltäglichkeit der Sucherfahrung formuliert die vorliegende Arbeit Vorschläge für eine bessere Unterstützung der Suchenden und für die zukünftige Erforschung der affektiven Ebene bei der Onlinesuche.
This software demonstration paper presents a project on the interactive visualization of social media data. The data presentation fuses German Twitter data and a social relation network extracted from German online news. Such fusion allows for comparative analysis of the two types of media. Our system will additionally enable users to explore relationships between named entities, and to investigate events as they develop over time. Cooperative tagging of relationships is enabled through the active involvement of users. The system is available online for a broad user audience.
For a fistful of blogs: Discovery and comparative benchmarking of republishable German content
(2014)
We introduce two corpora gathered on the web and related to computer-mediated communication: blog posts and blog comments. In order to build such corpora, we addressed following issues: website discovery and crawling, content extraction constraints, and text quality assessment. The blogs were manually classified as to their license and content type. Our results show that it is possible to find blogs in German under Creative Commons license, and that it is possible to perform text extraction and linguistic annotation efficiently enough to allow for a comparison with more traditional text types such as newspaper corpora and subtitles. The comparison gives insights on distributional properties of the processed web texts on token and type level. For example, quantitative analysis reveals that blog posts are close to written language, while comments are slightly closer to spoken language.
Der Wikipedia-Artikel „Deutschland“ ist trotz 11.882 Bearbeitungen kein als exzellent oder lesenswert ausgezeichneter Artikel. Man kann dementsprechend davon ausgehen, dass er im Sinne der Wikipedia-Qualitätskriterien nicht besonders hochwertig ist. Dieses Beispiel dient als Aufhänger für die Frage, ob und inwiefern Zusammenhänge zwischen der Anzahl und Art von Bearbeitungen und der Qualität von Beiträgen existieren. Was bedeutet eine Bearbeitung eines Wikipedia-Artikels hinsichtlich der Qualität des Beitrags und welche Aspekte sind bei der Untersuchung dieses Zusammenhangs wichtig? Um diese Frage zu adressieren, wurde eine explorative Studie in Form einer qualitativen Inhaltsanalyse von sechs Wikipedia-Artikeln durchgeführt. Der Artikel stellt den methodischen Ansatz dieser Studie sowie deren Ergebnisse dar.
Der Vortrag „Erfolgsfaktoren mobiler Anwendungen für klein- und mittelständische Unternehmen“ befasst sich mit der quantitativen Untersuchung von Erfolgsfaktoren für die Entwicklung von Apps oder mobiler Websites. In zuvor durchgeführten Experteninterviews wurden 45 Erfolgsfaktoren analysiert. Diese wurden unter Zuhilfenahme einer Online-Umfrage von Experten bewertet. Mit den Ergebnissen konnten nach Relevanz sortierte Rangfolgen der Erfolgsfaktoren erstellt werden.
Wie nutzen Vereine der 1. Fußball-Bundesliga das Potential von Twitter für die Marken- und Fan-Kommunikation? Während der Fußballsaison 2011/12 wurden für die Untersuchung einerseits Follower-Zahlen erhoben und andererseits Tweets von Bundesligaclubs gesammelt. Das so entstandene Tweet-Korpus ermöglicht bereits mit der Hilfe von Standard-Metriken einen Überblick über die Nutzungsstrategien. Einzelne Vereine werden als Fallstudien detaillierter betrachtet.
In diesem Beitrag wird mit der Verwendung von Spielmechaniken im universitären Kontext (game-based Learning) ein innovatives Lehr-Lernprojekt vorgestellt, in welchem einer neuen Generation von Lernenden, den Digital Natives, Informationskompetenz als eine der Schlüsselqualifikationen des 21. Jahrhunderts vermittelt werden kann. Der kompetente Umgang mit der Ressource Wissen ist in der heutigen als Wissensgesellschaft bezeichneten Gesellschaftsform unabdingbar. Es liegt nahe, dieser neuen Generation von Lernenden mit einer innovativen Lehrmethode und den vorhandenen technologischen Möglichkeiten und Ressourcen entgegenzukommen, um das notwendige Wissen zu vermitteln. Einhergehend mit dem Projekt wurde eine umfassende Evaluation konzipiert, die die esonderheiten des Konzepts ausführlich berücksichtigt.
Was sind die gestalterischen Herausforderungen, um den Nutzer optimal bei der Suche auf mobilen Webseiten im Smartphonebereich zu unterstützen? Dieser Beitrag liefert einen Überblick der wesentlichen Usability-Probleme in diesem Kontext, welche durch Usability-Tests mit der Restrospective-Thinking-Aloud-Methode analysiert und verifiziert wurden. Als Ergebnis werden die wichtigsten Erkenntnisse aus den empirischen Erhebungen erläutert und partiell mit bestehenden Konventionen des stationären Desktopbe- reichs kontrastiert.
Opinion holder extraction is one of the most important tasks in sentiment analysis. We will briefly outline the importance of predicates for this task and categorize them according to part of speech and according to which semantic role they select for the opinion holder. For many languages there do not exist semantic resources from which such predicates can be easily extracted. Therefore, we present alternative corpus-based methods to gain such predicates automatically, including the usage of prototypical opinion holders, i.e. common nouns, denoting for example experts or analysts, which describe particular groups of people whose profession or occupation is to form and express opinions towards specific items.
In this paper, we report on an effort to develop a gold standard for the intensity ordering of subjective adjectives. Rather than pursue a complete order as produced by paying attention to the mean scores of human ratings only, we take into account to what extent assessors consistently rate pairs of adjectives relative to each other. We show that different available automatic methods for producing polar intensity scores produce results that correlate well with our gold standard, and discuss some conceptual questions surrounding the notion of polar intensity.
Dargestellt wird die Konzeption eines Portals für musikethnologische Recherche in Kooperation mit dem Center for World Music der Universität Hildesheim. Auf Basis eines vorangegangenen universitären Projekts, in dem ein analytischer Vergleich (Benchmark) bestehender Online-Kataloge durchgeführt und aus dessen Ergebnissen ein erster prototypischer Entwurf entwickelt wurde, knüpft die Arbeit (Bittner 2012) mit einer detaillierten Beschreibung des prototypischen Entwicklungsprozesses an. Darüber hinaus wird im Hinblick auf die durchgeführte Evaluierung das methodische Vorgehen beschrieben. Basierend auf der gewählten Erhebungsmethode des Experteninterviews stellt dieser Beitrag einen theoretischen Neuentwurf vor, in den die analytischen Ergebnisse einfließen.
Der Lemmatizer wmtrans der Canoo Engineering AG (Canoo 2012) und der Porter-Stemmer (Porter 1997) werden hier verglichen. Ziel ist es, jeweils den Einfluss auf die Information Retrieval-Qualität zu analysieren. Basierend auf den Testdaten der CLEF Studie von 2002 wird der Schwerpunkt auf die Analyse einzelner Informationsbedürfnisse gelegt.
Die stark anwachsende Menge von Wissen, welche weltweit zur Verfügung steht, erfordert eine teilweise Übertragung der Qualitätsbewertung auf Maschinen. Zugleich erlaubt die weltweite Vernetzung die Analyse, den Vergleich und die Verknüpfung sehr vieler Wissensangebote. Die Automatisierung von Qualitätsbewertung ist teilweise bereits Realität und erfordert eine stärkere wissenschaftliche Fundierung. Derzeit eingesetzte Systeme basieren auf der Linkanalyse und nutzen somit nur eine sehr eingeschränkte Wissensquelle. Aktuelle Forschungstendenzen aus unterschiedlichen Fachrichtungen verweisen auf komplexere Systeme zur automatischen Qualitätsbewertung. Im Rahmen des Projekts AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) wurde ein innovatives System zur Qualitätsbewertung entwickelt. Das Projekt behandelt die Grundlagen, die Entwicklung des Systems und dessen Evaluierung. Aus den Ergebnissen werden Konsequenzen für die Methodik der Evaluierung im Information Retrieval abgeleitet. Eine wichtige Anwendung liegt in Suchmaschinen der nächsten Generation.
Das Wissen in der freien Enzyklopädie Wikipedia wird von der Community zusammengetragen, wodurch in vielen kleinen Bearbeitungsschritten auch komplexe Themen kollaborativ erschlossen werden können. Dabei sind Prozesse des kollaborativen Schreibens und der kollaborativen Wissenskonstruktion von zentraler Bedeutung. Um die Evolution von Wissen in der Wikipedia nachvollziehen zu können, werden die verschiedenen inhaltlichen und nicht-inhaltlichen Bearbeitungsschritte anhand der Versionshistorie exemplarisch ausgewählter Artikel einer qualitativen Inhaltsanalyse unterzogen. Die daraus entwickelte Typisierung von Bearbeitungen erlaubt es, insbesondere vor dem Hintergrund der von der Community entwickelten Qualitätskriterien, quantitative Aussagen zu den untersuchten Artikeln und ihrer Qualität zu machen.
Forschungen zeigen, dass Analysen des Suchverhaltens verwendet werden können, um bei der Internetsuche auftretende Probleme zu identifizieren. Sind Benutzer frustriert, schlägt sich das in den Log-Daten, die ihre Aktionen dokumentieren, nieder. Je passgenauer derartige Frustration festgestellt werden kann, desto wirksamere Interventionen könnten dem Nutzer in solchen Fällen angeboten werden. Diese explorative Studie widmet sich negativen Gefühlen bei der Internetsuche und deren Ursachen. In Leitfadeninterviews mit 14 jungen Erwachsenen wurde deren Wahrnehmung von Schwierigkeiten im Information Seeking im Allgemeinen sowie im Bezug auf konkrete Erlebnisse thematisiert. Die Analyse ergibt wichtige Hinweise für die methodische Gestaltung von zukünftigen Benutzerstudien zur automatischen Erkennung von Frustration. Außerdem wird eine Unterscheidung der Ursachen von negativen Gefühlen getroffen, die als Grundlage für fallspezifische Interventionen dienen kann. Während Lernprozesse keine Rolle als Frustrationsquelle zu spielen scheinen, könnte vor allem mangelnde Datenqualität in Zukunft in Log-Daten erkannt und entsprechend optimiert werden. Des Weiteren wird ein kritischer Blick auf die Förderung von Suchkompetenzen geworfen.
Im Rahmen der vorliegenden Magisterarbeit wurde ein virtuelles Bibliotheksregal für die Informationswissenschaft entwickelt. Es ermöglicht den BenutzerInnen den Browsing-Zugang zum informationswissenschaftlichen Literaturbestand der Universitätsbibliothek Hildesheim über drei verschiedene hierarchische Ordnungssystematiken. Die BenutzerInnen können eine Systematik auswählen, nach der sich der Bestand entsprechend anordnet. Die vorliegende Arbeit beschreibt die einzelnen Schritte der Realisierung des virtuellen Bibliotheksregals sowie seine anschließende Evaluierung durch einen Benutzertest, der mit Studierenden der Universität Hildesheim durchgeführt wurde.
Diese Magisterarbeit befasst sich mit Marken, die ausschließlich im Internet auftreten (E-Brands) sowie der Markenführung im Internet (E-Branding). Innerhalb dieses Rahmens wird eine Online-Befragung der wichtigsten Internet-Marken in Deutschland sowie eine Datenerhebung unter Internet-Nutzern durchgeführt, mit dem Ziel, einen Überblick über den aktuellen Entwicklungsstand von E-Branding zu geben sowie die Frage zu klären, ob und inwiefern Internet-Marken emotionalisieren.
Der Beitrag geht von der Idee aus, dass Unterschiedlichkeit von Menschen für die Gemeinschaft nicht nur Probleme schafft, sondern ein positives Potential in sich trägt. Dies entspricht der Grundannahme eines Management-Ansatzes, der in den letzten Jahren in der nordamerikanischen Wirtschaft zur Personalführung unter dem Schlagwort "Managing Diversity" entwickelt wurde. In dem Beitrag wird diese grundlegende Idee auf die Zusammenarbeit in interkulturellen virtuellen Teams angewandt. Dabei wird auf Erfahrungen zurückgegriffen, die in standortübergreifenden Lehrveranstaltungen für Studierende unterschiedlicher Fachkulturen und z.T. auch unterschiedlicher Muttersprachen gesammelt wurden. Es werden erste Hypothesen zu didaktischen Strategien der Unterstützung eines wertschätzenden Umgangs mit kultureller Vielfalt in studentischen virtuellen Teams präsentiert. (Der Artikel erscheint vorraussichtlich im Februar 2005 in: Beneke, Jürgen; Jarman, Francis: Interkulturalität in Wissenschaft und Praxis. Schriftenreihe der Universitätsbibliothek Hildesheim)
Gegenstand der vorliegenden Magisterarbeit ist der Knowledge Engineering Prozess bei der Entwicklung eines Wissensbasierten Systems. Es werden dazu zunächst grundlegende Begriffe definiert und Ablaufmodelle vorgestellt. Einen Schwerpunkt der Arbeit bildet die Wissensakquisition als Hauptteil des Knowledge Engineering. Der konkrete Ablauf des Prozesses wird am Beispiel der Entwicklung eines Konfigurationssystems für die Blaupunkt GmbH dargestellt. Eingesetzte Methoden zur Wissenserhebung, Wissensanalyse-Ergebnisse sowie Formalismen zur Wissensrepräsentation im Konfigurationssystem werden detailliert am Projekt aufgezeigt. Besonders wird dabei auf Schwierigkeiten im Umgang mit Wissensquellen, den hohen Stellenwert der Wissensanalyse sowie Einsatzmöglichkeiten von deklarativen und prozeduralen Repräsentationsmethoden eingegangen.
Durch das Internet ist es möglich, Daten und Wissen über große Distanzen zu tauschen. Seit mehreren Jahren existieren Datenbanken und Diskussionsforen für den Wissenstausch. Ein neuer Ansatz sind Wissensmarktplätze, auf denen Wissen über das Internet gehandelt wird. In dieser Magisterarbeit werden eine Definition und die Besonderheiten von Wissen als Handelsgut erarbeitet und die wichtigsten Faktoren eines Internetmarktplatzes dargestellt. Anhand dieser theoretischen Vorüberlegungen, werden Erfolgsfaktoren für einen Wissensmarktplatz erstellt. In einem Benchmark werden sieben bestehende Wissensmarktplätze auf die Implementierung dieser Erfolgsfaktoren hin untersucht. Im Rahmen des Benchmark werden die Stärken und Schwächen der Marktplätze aufgezeigt und Rückschlüsse auf die zukünftige Entwicklung von Wissensmarktplätzen gezogen.
Modularisierung des Retrievalprozesses zur funktionellen Integration heterogener IR-Komponenten
(2002)
Thema der vorliegenden Magisterarbeit sind Grundlagen, Methoden und Konzepte der Visualisierung gebrauchstauglicher Benutzeroberflächen, dargestellt am Beispiel eines Konfigurationssystems für die Blaupunkt GmbH. Dazu werden die relevanten Grundlagen der Visualisierung, der Kognitionswissenschaft und der Gestaltung erarbeitet. Weiterhin werden Richtlinien, Normen und Styleguides aus dem Webdesign und der Software-Ergonomie vorgestellt. Die in diesen Richtlinien und Styleguides enthaltenen Empfehlungen für Visualisierungsmethoden und –konzepte grafischer Benutzeroberflächen werden in Beziehung zu den erarbeiteten Grundlagen gesetzt. Aus den gewonnenen Erkenntnissen werden im Hinblick auf die grafische Benutzeroberfläche des Konfigurationssystems Visualisierungstechniken und –methoden extrahiert und deren Einsatz im Projekt erläutert.
Um dem stetigen Zuwachs der elektronisch in Datenbanken abgespeicherten Informationen wirkungsvoll zu begegnen, werden neue Werkzeuge gesucht, die den Nutzer bei Datenbankrecherchen unterstützen. In dieser Arbeit, die im Anwendungsbereich der Patentrecherche und Patentinformation angesiedelt ist, soll das automatische Gruppieren von Patentdokumenten - das so genannte Clustering - als ein Werkzeug zur Aufbereitung der Ergebnismenge einer Datenbankanfrage untersucht werden. Es werden zum einen Grundlagen der Cluster-Analyse, wie z.B. Attributtypen und Ähnlichkeits- bzw. Distanzmaße, zum anderen verschiedene Clustering- Verfahren sowie deren Vor- und Nachteile zum Clustern von Dokumenten beschrieben. Weiterhin werden Besonderheiten des Anwendungsbereichs aufgezeigt und bereits bestehende Einsatzmöglichkeiten von Clustering-Verfahren dargestellt. Im praktischen Teil dieser Arbeit werden im Anwendungsbereich Patentrecherche drei Clustering-Verfahren mittels Nutzerbewertungen miteinander verglichen, um tendenzielle Aussagen über die Eignung eines bestimmten Verfahrens abzuleiten.
Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien, wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst entstehen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert die vorliegende Magisterarbeit technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Weg des wissenschaftlichen Publikationswesens betätigen. Ausführlich werden Problembereiche des aktuellen Publikationsprozesses von Magisterarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. auf Grundlage der Zustandsanalyse sowie der vorangegangenen Ausführungen wird anschließend der Publikationsprozess modelliert.
Information Retrieval befasst sich mit vagen Anfragen und der vagen Modellierung von Benutzerverhalten. Neuronale Netze sind eine Methode zur vagen Informationsverarbeitung und zur Implementierung kognitiver Fähigkeiten. Diese Arbeit gibt einen umfassenden Überblick über den state-of-the-art zu neuronalen Netzen im Information Retrieval und analysiert, gruppiert und bewertet zahlreiche Systeme. Als Konsequenz von Schwächen bestehender Modelle wird das COSIMIRModell entwickelt, das auf dem neuronalen Backpropagation-Algorithmus aufbaut. Es erlernt den im Information Retrieval zentralen Vergleich zwischen Dokument und Anfrage anhand von Beispielen. Die kognitive Modellierung ersetzt so ein formales Modell und führt zu höherer Adaptivität und damit zu verbesserter Toleranz gegenüber Benutzereigenschaften. Das Transformations- Netzwerk ist ein weiteres System, das auf dem Backpropagation- Algorithmus basiert und Retrieval bei heterogenen Daten ermöglicht. In mehreren Experimenten werden das COSIMIR-Modell und das Transformations- Netzwerk mit realen Daten getestet. Das COSIMIR-Modell hat sich dabei für Fakten-Retrieval bewährt. Die Experimente mit dem Transformations-Netzwerk und alternativen Verfahren ergaben je nach Datengrundlage unterschiedliche Ergebnisse. Das optimale Verfahren hängt also vom Anwendungsfall ab. Bei gleicher Qualität ist die Überschneidung der Ergebnisse verschiedener Verfahren relativ gering, so dass Fusionsverfahren erprobt werden sollten.
Die vorliegende Arbeit befasst sich mit Multilingualem Webre- trieval. Am Anfang werden verschiedene Retrieval Evaluation Initiativen beschrieben. Das Hauptaugenmerk liegt auf dem Cross Language Evaluation Forum (CLEF), mit dem in diesem Jahr gestarteten Web Track WebCLEF. Der Web Track WebCLEF ist in Anlehnung an die Web Tracks der TREC und NTCIR Initiativen entwickelt worden. Der entscheidene Unterschied zu diesen Tracks ist der multilinguale Ansatz, der im WebCLEF Track verfolgt wird. Allen Teilnehmern wurde eine Testkollektion bestehend aus dem EuroGOV Korpus, 547 Topics und der dazugehörigen Relevanzbewertung zur Verfügung gestellt. Neben dem Vergleich des WebCLEF Tracks zu den anderen Initiativen steht die aktive Teilnahme im Mittelpunkt dieser Arbeit. Aufgezeigt werden die Rahmenbedingungen für die Teilnahme, Eigenschaften der Testkollektion, die Vorgehensweise und Ziele des Institutes für Angewandte Sprachwissenschaften (IFAS) der Universität Hildesheim, Erfahrungen und Schwierigkeiten beim Generieren der verschiedenen Indizes, der eigentliche Retrievalprozess und die dazugehörigen Ergebnisse aller Experimente. Als Abschluss dieser Arbeit wird die Teilnahme ausgewertet, Verbesserungen zum eigentlichen Web Track und ein Ausblick für die erneute Teilnahme am WebCLEF Track 2006 dargestellt
Durch die Globalisierung und den wachsenden Gebrauch von netzwerkbasierten Systemen hat sich die Situation für die Informationssuche geändert. Die englische Sprache verliert in diesem Kontext an Gewicht, sodass andere Sprachen in den Vordergrund rücken. In dieser Arbeit werden für die tschechische Sprache mächtige informationslinguistische Ressourcen bestimmt, analysiert und erstellt. Die Ergebnisse dieser Arbeit stellen eine allgemeine tschechische Stoppwortliste und einen intellektuell erstellten Text-Katalog für die tschechische Toplevel-Domain von WebCLEF dar. Weiterhin umfasst diese Arbeit die Evaluierung des polnischen Stemmers STEMPEL. Seine Anwendung für tschechische Texte wird kritisch betrachtet.
Die vorliegende Arbeit befasst sich mit maschinellem Lernen von Ontologien. Es werden verschiedene Ansätze zum Ontology Learning vorgestellt und diskutiert. Der Fokus liegt auf dem Einsatz maschineller Lernalgorithmen zum automatischen Erwerb von Ontologien für das virtuelle Bibliotheksregal MyShelf. Dieses bietet Benutzern bei der Recherche durch Ontology Switching einen flexibleren Zugang zu Informationsbeständen. Da Ontologien einen Grundbaustein des Semantic Web darstellen, bietet maschinelles Lernen die Möglichkeit, Verfahren zur automatischen Generierung und Verarbeitung von Ontologien zu etablieren. Basierend auf Textkorpora werden Lerntechniken angewandt, um deren Potential für die Erstellung von Ontologien zu überprüfen.
Die vorliegende Arbeit beschäftigt sich mit der Erfassung und Klassifizierung informationswissenschaftlicher Titel in der Universitätsbibliothek Hildesheim. Da für diese Bücher bisher keine eigene Klassifikation existierte und sie unter vielen unterschiedlichen Systemstellen abgelegt sind, soll den Studierenden durch ein "virtuelles Bibliotheksregal" ein leichterer Zugriff auf Bücher aus der Informationswissenschaft ermöglicht werden.
Fusion und Relevance Feedback sind IR-Strategien zur Verbesserung der Effektivität. Diese Strategien wurden bei der Teilnahme am "multilingual–4"-Task von CLEF 2003 erprobt. Die Ergebnisse sind zufrieden stellend, auch wenn auf Seiten der benutzten Software MySQL deutlich weniger performant war als Lucene.
Durch Assoziativmatrizen gebildete Assoziativspeicher können als künstliche neuronale Netze aufgefasst werden, die sich zur fehlerrobusten Datenspeicherung, Mustererkennung, Musterergänzung und für zahlreiche daraus abgeleitete Aufgaben einsetzen lassen. Die vorliegende Arbeit weitet den Einsatzbereich von Assoziativmatrizen auf das störunanfällige Speichern und Abarbeiten von Programmen aus, indem mehrere Assoziativmatrizen zweier Typen zu einer frei programmierbaren Maschine zusammengesetzt werden. In der Programmierung dieser Maschine werden keine Zahlen oder Zähler eingesetzt, sondern Assoziationsketten benutzt. Das Anwendungsprogramm und seine Daten befinden sich gemeinsam im fehlertoleranten Assoziativspeicher, was verglichen mit anderen fehlertoleranten Systemen prinzipielle oder Geschwindigkeitsvorteile zeitigt. Der Konstruktionsplan dieser Maschine (Vidas-Maschine) wurde mit Hilfe eines Digitalsimulators detailliert erarbeitet. In der Maschine arbeiten sechs Assoziativmatrizen für verschiedene Aufgabenbereiche zusammen. Eine der Matrizen assoziiert eine Programmzeile mit der nächsten, eine weitere Matrix liefert die zu den Programmzeilen gehörenden Befehle und zwei weitere Matrizen übernehmen die Parameterversorgung. Variablen werden über eine besondere Assoziativmatrix mit schnellen Hebb-Synapsen verwaltet, damit Variablen ihre alten Werte "vergessen" können. Daten werden hingegen in einer gewöhnlichen Assoziativmatrix abgelegt, um dem Anwendungsprogramm in der bewährten, fehlertoleranten Weise zur Verfügung zu stehen. In der Programmierung der Vidas-Maschine greift man bei der Konstruktion von Schleifen auf Assoziationsketten zu, da die Maschine kein Rechenwerk besitzt. Die Assoziative Programmierung erlaubt dennoch, der Maschine das Rechnen beizubringen. Als Anwendungsfelder dieser neuen Technik werden solche vorgestellt, in denen Störungen oder Ungenauigkeiten herkömmliche Technik zu Fehlverhalten oder Ausfällen führen. Zum Test der Störunanfälligkeit wurde die Vidas-Maschine in der Simulation mit vier Arten von Zerstörungen überprüft. Sie zeigte dabei ihre Störfestigkeit in der für den Einsatz von Assoziationmatrizen typischen Weise. Die Stärken der Maschine liegen zudem in der Fähigkeit des schnellen Lernens und Abfragens von Mustern, womit sie als Grundbaustein für den Aufbau von Systemen zur Mustererkennung dienen kann
Die vorliegende Arbeit stellt die Problematik dar, die nicht immer vertrauenswürdigen Informationen aus dem Internet anhand von Bewertungskriterien zu beurteilen. Insbesondere werden hier die kulturellen Unterschiede, die sich bei der Bewertung von Internetangeboten ergeben, mit Hilfe der Kulturdimensionen von Hofstede untersucht. Um diese kulturellen Unterschiede zu ermitteln, wurde eine empirische Untersuchung an einem lateinamerikanischen Land (Peru, stellvertretend für Lateinamerika) im Vergleich zu einem europäischen Land (Deutschland, stellvertretend für Europa), durchgeführt.
Identifikation der Sprache bzw. Sprachen elektronischer Textdokumente ist einer der wichtigsten Schritte in vielen Prozessen maschineller Textverarbeitung. Die vorliegende Arbeit stellt LangIdent, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten vor. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
Dieser Band fasst die Vorträge des Fünften Hildesheimer Evaluierungs- und Retrieval- Workshops (HIER) zusammen, der am 11. Oktober 2006 an der Universität Hildesheim stattfand. Die HIER Workshop-Reihe begann im Jahr 2001 mit dem Ziel, die Forschungsergebnisse der Hildesheimer Informationswissenschaft zu präsentieren und zu diskutieren. Mittlerweile nehmen immer wieder Kooperationspartner von anderen Institutionen teil, was wir sehr begrüssen. Alle Beiträge stehen dieses Jahr in enger Beziehung zu den Kernthemen Information Retrieval und Evaluierung. Traditionell bietet der HIER auch ein Forum für Systemvorstellungen und praxisorientierte Beiträge.
Im Rahmen des vorligenden Artikels wird ein Bewertungsbogen zur Ermittlung der Handlungskompetenz von Piloten in Zusammenarbeit mit Flugtrainingsexperten der Deutschen Lufthansa AG entwickelt. Die Bewertungen erfolgen in Simulatortests, die vom Luftfahrtbundesamt vorgeschrieben sind und dem Erhalt der Flugzeugmusterberechtigung der Piloten dienen. Zunächst erfolgt die Analyse von Konstrukten und Methoden, die als Kriterien einer Messung zugänglich gemacht werden sollen. Das Ziel der Studie ist es, anhand dieser Konstrukte und Methoden in einer statistischen Analyse der erhobenen Daten Aussagen über das Ausmaß Konstruktvalidität des entwickelten Bewertungsbogens zu formulieren. In diesem Zusammenhang ist zu prüfen, ob die Bewertungen der Fähigkeiten in den klassifizierten Situationen im Flugsimulator generalisierbar sind, oder, ob diese von der spezifischen Situation abhängen.
Im Rahmen der vorliegenden Magisterarbeit wird ein Bewertungsbogen zur Ermittlung der Handlungskompetenz von Piloten in Zusammenarbeit mit Flugtrainingsexperten der Deutschen Lufthansa AG entwickelt. Die Bewertungen erfolgen in Simulatortests, die vom Luftfahrtbundesamt vorgeschrieben sind und dem Erhalt der Flugzeugmusterberechtigung der Piloten dienen. Zunächst erfolgt die Analyse von Konstrukten und Methoden, die als Kriterien einer Messung zugänglich gemacht werden sollen. Das Ziel der Studie ist es, anhand dieser Konstrukte und Methoden in einer statistischen Analyse der erhobenen Daten Aussagen über das Ausmaß Konstruktvalidität des entwickelten Bewertungsbogens zu formulieren. In diesem Zusammenhang ist zu prüfen, ob die Bewertungen der Fähigkeiten in den klassifizierten Situationen im Flugsimulator generalisierbar sind, oder, ob diese von der spezifischen Situation abhängen.
Die Arbeit stellt eine Studie mit ägyptischen und deutschen Interviewpartnern vor, deren Durchführung auf der Annahme basiert, dass Klischees und Vorurteile zwischen den beiden Kulturen den interkulturellen Dialog gefährden. Die Darstellung der klischeebehafteten kulturellen Aspekte soll das Verständnis für den jeweils anderen Kulturkreis erleichtern.
Die vorliegende Magisterarbeit behandelt den Einfluss der Kultur der Internetnutzer bei der Benutzung und Bewertung von Websites. Insbesondere werden Unterschiede zwischen deutschen und taiwanesischen Nutzern untersucht. Auf Basis der relevanten Grundlagen zur interkulturellen Wirkung von Informationssystemen wurde ein Benutzertest entwickelt. Die Ergebnisse der Tests in Deutschland und Taiwan werden ausführlich vorgestellt und diskutiert.
In dieser Arbeit geht es um Mustererkennung für "standardisierte" Schriftbilder. Sie baut auf früheren Untersuchungen der Projektgruppe "Neuronale Netze - SpaCAM" an der Universität Hildesheim auf, wobei es damals um die Wiedererkennung handgeschriebener Unterschriften auf Überweisungsvordrucken ging, also um ein Erkennungsproblem, bei der es in den Daten typischerweise kein Standard- Referenzmuster gibt. Da kein Mensch (physikalisch) identische Unterschriften produzieren kann, muss die Referenz(menge) aus einer Sammlung gegebener Samples "willkürlich" festgesetzt werden. Grundlage für jene Problembehandlung war die Verwendung von "Spärlich Codierten Assoziativmatrizen SpaCAM", die man als eine spezielle Variante der künstlichen neuronalen Netze auffassen kann. Die SpaCAM-Technik hat sich dabei - wie auch schon beim Einsatz in anderen Problembereichen - als besonders vorteilhaft in Bezug auf Fehlertoleranz, Robustheit und Geschwindigkeit erwiesen. Das Ziel der vorliegenden Arbeit ist es zu untersuchen, ob sich diese Technik auch zum Erkennen von Bildmustern eignet, bei denen die Referenzmuster bereits (extern) vorgegeben sind. Als Anwendungsfall wurden "Autokennzeichen" gewählt, auch weil es hierfür eine konkrete Problemstellung aus der Praxis gab, mit Zusatzparametern, die den Komplexitätsgrad des Erkennungsprozesses bereicherten. In Bezug auf die SpaCAM-Technologie soll geprüft werden, welche Merkmale bzw. Merkmalsgruppen für die Codierung von Zeichen besonders gut geeignet sind, insb. beim Lernen aus Schriftarten, um die Erkennung praktikabel zu machen. Für die Analyse und Diskussion der Phänomene wird eine Arbeitsumgebung entwickelt, die auf die sich ergebenden unterschiedlichen Teilaufgaben ausgerichtet ist, also Probleme der Vorverarbeitung (u.a. Grauwerte, Monochrome, Segmentierung), der Speicherprozesse (u.a. Merkmalscodierung, Referenzmengen) aber auch der Nachbestimmung (z.B. durch fehlertoleranten Datenbankabgleich) behandelt und zudem einen Spielraum für weitere Anpassungen bietet. Zur Verifizierung der Tauglichkeit des Ansatzes und zur Überprüfung der Prototyp-Implementation werden alle Teilmodule auf das konkrete Problem der Kfz-Kennzeichen-Erkennung angewandt. Die Software ist in Pascal ("Delphi 5 Professional") geschrieben und enthält neben den eigentlichen Mustererkennungs- auch umfangreiche Analyse- und Visualisierungsfunktionen. Daher eignet sie sich auch für Schulungszwecke und Präsentationen. Im konkret zugrunde liegenden Anwendungsfall entstammt die Menge der relevanten Kennzeichen einer Datenbasis, die neben dem authentischen Kennzeichen auch Sekundärinformationen (Fahrzeugdaten, Halter etc) enthält, welche für nachfolgende Entscheidungsprozesse von Bedeutung sind. Hier wurde im Hinblick auf den Einsatz in der Praxis zusätzlich eine ebenfalls auf der SpaCAMTechnik basierende Schnittstelle zwecks fehlertoleranter Suche nach Sekundärinformationen in der "gewöhnlichen" Datenbank implementiert. Insofern könnten die im Nachgang ermittelten Informationen unter Umständen beim vorherigen Erkennungsprozess mithelfen, Fehler oder Unentscheidbarkeiten zu verringern. Für die Technologie bedeutet das, dass in den separaten Phasen unterschiedliche Merkmalsmengen und Codevektoren gefunden werden müssen, deren Zusammenspiel aber eine Verbesserung der Endergebnisse bewirken kann. Auch diese Komposition soll beispielhaft dargestellt werden. Mit der Fragestellung der vorliegenden Arbeit befindet man sich nicht weit entfernt von aktuell diskutierten Sicherheits- oder Automatisierungsvorhaben. Man denke zum Beispiel an die Verwendung biometrischer Merkmale (Fingerabdrücke, Iris im Auge, Gesichtsform usw.) als Zugangskontrolle an Flughäfen, Schließfächern, Laboratorien usw. oder an die automatische Mauterhebung von Fahrzeugen u.v.m. Insofern besteht nicht nur ein akademisches Interesse an den Einsatzmöglichkeiten neuer Technologien, sondern auch ein organisatorisches bzw. gesellschaftliches, welches als Herausforderung an die Wissenschaftler empfunden werden kann.
In der vorliegenden Arbeit wird ein Verfahren zur Suche nach Informationen zu Wissenschaftlern prototypisch für den Bereich der Informationswissenschaft entwickelt, in welchem Ansätze des Web Content Mining eingesetzt werden. Zunächst werden Möglichkeiten und Probleme der Informationssuche im Web aufgezeigt, sowie verschiedene Verfahren des Web Content Mining beschrieben. Das entwickelte Verfahren verwendet online Publikationsdienste und persönliche Homepages der Wissenschaftler als Quellen. Zur Suche in den Publikationsdiensten und der Informationsextraktion aus ihren Ergebnisseiten werden Wrapper konstruiert. Des Weiteren werden Methoden zur Informationsextraktion aus den Homepages implementiert, die auf Heuristiken zu Struktur und Aufbau der Seiten beruhen. Für die Suche nach persönlichen Homepages von Informationswissenschaftlern wird ein spezialisiertes Suchverfahren entwickelt. Das Verfahren wird in einer Java-Applikation implementiert und anschließend evaluiert, um das Potenzial des gewählten Ansatzes zu untersuchen.
Der Beitrag beschreibt die Entwicklung eines Chatbots für die Universitätsbibliothek Hildesheim. Das System antwortet auf Anfragen in getippter natürlicher Sprache. Die Konzeption sowie die Realisierung mit der Artifical Intelligence Markup Language werden besprochen. Eine Evaluierung weist auf eine grundsätzliche Akzeptanz eines derartigen Systems hin.
Diese Arbeit behandelt die Weiterentwicklung eines multimodalen Dialogsystems für die Navigationszieleingabe in einem Kraftfahrzeug. Sowohl die graphische Oberfläche als auch die Sprachbedienung wurden - insbesondere im Hinblick auf eine effektive und effiziente Listenauswahl - verbessert und im Anschluss daran in einem umfassenden Benutzertest evaluiert
Ein Hindernis bei der Suche nach benötigter Information speziell bei einer krosslingualen Suche ist eine ungünstig formulierte Anfrage. Die Wörtervielfalt, aus denen eine Anfrage zusammengesetzt werden kann, verursacht oft eine ungenügende Übereinstimmung mit den Formulierungen im gesuchten Dokument und schmälert die Leistungsfähigkeit der Suche. Wenn man die "Bedeutung" einer Wortsammlung an die Engine übergeben könnte – anstelle isoliert verarbeiteter Worte, dann könnte eine Wirkung der Suchanfragen erzielt werden, die als gleichmäßiger empfunden würde. Dieser Gedanke wurde bei der Entwicklung einer neuartigen Retrievaltechnologie verfolgt und führte zur sogenannten "Essence Extractor Engine", kurz SENTRAX [SENT04]. Der dahinter liegende Index entsteht aus der Verarbeitung von in den Dokumenten nahe zusammenstehenden, bedeutungstragenden Begriffen (Kookkurrenzen) und erlaubt eine Definition und Übertragung von "Konzepten", die zwar durch Worte ausgedrückt oder beschrieben werden, aber eine gewisse Unabhängigkeit von der spezifischen Wortwahl haben. Diese Technologie stand für die vorliegende Arbeit zur Verfügung und wurde für die Problemstellung des Themas ausgenutzt. Bei der bilingualen Suche kann nämlich die Übertragung eines Konzeptes; statt der wortweisen Übersetzung der Anfrage; die Mehrdeutigkeiten entscheidend vermindern, da das Konzept den assoziierten Zusammenhang mit den übersetzten Begriffe bewahrt und die Verbindung zu den Umgebungen in den Texten herstellt. Diese Wirkung und Auswirkung wird untersucht und dargestellt. Weitere Funktionen der SENTRAX-Engine (z.B. Stringtoleranz von Eingabeworten und Ähnlichkeitsvergleich von Trefferdokumenten) sowie eine grafische Mensch-Maschine-Schnittstelle erweisen sich als günstig für das Vorhaben. Die nötigen Vorverarbeitungsmethoden werden entworfen, da zwei Indexe für die bilinguale Suche zusammenwirken. Drei wichtige Teile lassen sich nennen: erstens die Vorarbeit, wo die Erstellung des jeweiligen Konzepts geschieht, zweitens die Brücke, die das Suchkonzept der Ausgangsprache zur Zielsprache überträgt, und schließlich ein Konzeptsvergleichmaß, womit das Gleichgewicht des Konzeptes nach der Übertragung kontrolliert wird. Gegenwärtig laufen diese drei Stufen noch nicht vollautomatisch in der SENTRAX ab, sondern erlauben manuelle Eingriffe. Ungeachtet dieser technischen Unvollständigkeit des Systems lassen sich aber alle Hypothesen nachprüfen. Die Ergebnisse zeigen, dass die bilinguale Suche mittels Konzeptnetzen sehr leistungsfähig ist. Die Mehrdeutigkeit einer Übersetzung kann durch Betrachtung der Zusammenhänge und der Assoziationen vermindert werden. Es gibt auch einen Lernprozess beim Suchenden und hilft dem Nutzer bei der Entscheidung, ob eine Fortsetzung der begonnenen Suchrichtung Sinn macht oder diese abgebrochen werden muss, weil die benötigte Information vielleicht nicht in der Datenbasis steckt. Durch die grafische Darstellung werden die mit den Suchwörtern assoziierten Begriffe zur Auswahl angeboten und sind in beiden Sprachen (teilweise) vergleichbar. Dadurch kann man sicherstellen, dass die dahinter liegenden Dokumente von den gleichen bzw. ähnlichen Themen handeln.
Bei der krosslingualen Suche vermindert eine ungenügende Übereinstimmung mit den Formulierungen im gesuchten Dokument oft die Leistungsfähigkeit der Suche. Hinter der SENTRAX (Essence Extractor Engine) liegen zwei Container (indexierte Dokumente), die für die bilinguale Suche zusammenwirken. Sie entstehen aus der Verarbeitung von nahe zusammenstehenden, bedeutungstragenden Begriffen (Kookkurrenzen) in den zu durchsuchenden Dokumenten und erlauben eine Definition sowie Übertragung von "Konzepten", die zwar durch Worte ausgedrückt oder beschrieben werden, aber eine gewisse Unabhängigkeit von der spezifischen Wortwahl haben. Hierbei kann die Übertragung eines Konzeptes ? statt der wortweisen Übersetzung der Anfrage ? die Mehrdeutigkeiten entscheidend vermindern, da das Konzept den assoziierten Zusammenhang mit den übersetzten Begriffe bewahrt und die Verbindung zu den Umgebungen in den Texten herstellt. Somit kann sichergestellt werden, dass die dahinter liegenden Dokumente von den gleichen bzw. ähnlichen Themen handeln. Durch grafische Darstellung sind die mit den Suchwörtern assoziierten Begriffe in Ausgangs- und Zielsprache vergleichbar.
Die Qualität von Antworten im Information Retrieval schwankt zwischen einzelnen Anfragen sehr stark. Die Evaluierung im Information Retrieval zielt in der Regel auf eine Optimierung der durschnittlichen Retrieval-Qualität über mehrere Testanfragen (Topics). Sehr schlecht beantwortete Anfragen wirken sich besonders negativ auf die Zufriedenheit des Benutzers aus. Neue Ansätze zur Evaluierung der Robustheit von Systemen werten daher die schwierigen Anfragen stärker. Im Rahmen des Cross Language Evaluation Forum (CLEF) wurde 2006 ein Robust Task durchgeführt. Der Artikel zeigt die Gründe für Entwicklung dieser Aufgabenstellung nach, referiert die Ergebnisse und verweist auf zukünftige Planungen.
Im Rahmen der vorliegenden Magisterarbeit wurde auf Basis der Magisterarbeit von Ioana Brandes der von ihr entwickelte virtuelle Semesterapparat weiterentwickelt. Einen besonderen Mehrwert der Weiterentwicklung stellt die in das Online Formular integrierte OPAC-Suche dar, sowie die Realisierung zusätzlicher Formularseiten für die Semesterapparate verwaltende Person durch eine Änderung des Workflows und die Hinzufügung zusätzlicher Bearbeitungsfunktionen. Die weiterentwickelte Version ermöglicht es den DozentInnen der Universität Hildesheim, und besonders der Semesterapparate verwaltenden Person der Universitätsbibliothek Hildesheim, die Semesterapparate mit wenig Arbeitsaufwand und auf einfache und komfortable Weise zu erstellen.
Im Mittelpunkt dieser Arbeit steht ein Benutzermodellierungsansatz, der kulturbedingte Benutzerei-genschaften als einen determinierenden Faktor bei der Entwicklung von adaptiven hypermedialen Lernanwendungen betrachtet. Besondere Berücksichtigung finden dabei mehrere der von Kulturan-thropologen definierten Kulturdimensionen, die kulturspezifischen Merkmale verschiedener wissen-schaftlicher Stile und Diskursstrukturen sowie die Einflüsse kultureller Werte auf Konventionen des Designs von grafischen Benutzerschnittstellen. Ausgehend von der Annahme, dass das jeweilige kul-turspezifische Bildungssystem zur Herausbildung des Lernstils eines Einzelnen beiträgt und sich somit auch auf die Akzeptanz und Effektivität der genutzten Software auswirkt, wird diese Analyse auf den Bereich der Didaktik ausgeweitet. Diese kulturorientierte Adaptationsstrategie sieht zunächst den Einsatz von zwei Erhebungsmethoden vor. Das Ziel der Evaluation von Lernprogrammen aus verschiedenen Kulturen in den Bereichen Lay-out und multimediale Gestaltung, Interaktion und Navigation, Inhaltspräsentation und Didaktik besteht in der Ermittlung von kulturbedingten Designmerkmalen. In der hier betrachteten Fallstudie erfolgt ein Vergleich von britischen und deutschen Lernprogrammen. Die Durchführung einer kulturvergleichen-den Lernstilanalyse im Rahmen einer Befragung von potentiellen Benutzern aus den gewählten Kultu-ren dient der Vertiefung der Evaluationsergebnisse. Die Integration eines Lernstiltests in das adaptive System bietet an dieser Stelle eine noch genauere Möglichkeit der individuellen Erfassung des Benut-zerlernstils. Auf Basis der Ergebnisse dieser Vorstudie werden kultur- und lernstilspezifische Lernpro-gramm-Profile konstruiert. Das Vorgehensmodell sieht die Festlegung unterschiedlicher Grade der Wiederverwendbarkeit von Elementen eines Ausgangslernprogramms vor. Neben dem reinen Aus-tausch von bestehenden Programmteilen erfolgt die Konzeption kulturspezifischer Varianten, ggf. auch die Entwicklung neuer Elemente. Die Lernprogramm-Profile dienen wiederum als Vorlage für den Aufbau von Stereotypen, deren Zuordnung zu einem Benutzer den Ausgangspunkt des Adaptati-onsprozesses bildet. Auf der Grundlage des kontinuierlichen Monitoring des Navigationspfades sowie der systemseitigen Befragung des Benutzers nach dessen Zustimmung zu einer Anpassungsmaßnahme wird der Adaptationsprozess fortgeführt und das Benutzermodell laufend aktualisiert. Zusätzlich zu der Definition von Lernprogramm-Profilen ist zuvor die kulturorientierte Zusammenstellung von Methoden und Techniken der adaptiven Inhaltspräsentation und Navigationsunterstützung erforderlich. Der Benutzermodellierungsansatz wird im Rahmen von Usability-Tests unter Beteiligung von Benut-zern aus Großbritannien und Irland überprüft. Die Zufriedenheit der Probanden mit dem getesteten Lernsystem wird zunächst als eine Bestätigung für das dem Designkonzept zugrunde liegende Vorge-hensmodell betrachtet. Die Testergebnisse zeigen die bei der Lernprogrammevaluation bereits ermit-telte Dominanz der englischen Diskursregeln über Werte, die durch Kulturdimensionen erfasst werden. Darüber hinaus kann festgestellt werden, dass sich der Einfluss der Diskursnormen sowohl auf die Inhaltspräsentation als auch auf die Bereiche Navigation und Didaktik erstreckt. Dies verdeutlicht die Notwendigkeit einer Adaptationsstrategie, die über traditionelle Lokalisierungsansätze hinausgeht.
Im Rahmen von WebCLEF 2006 wurde an der Universität Hildesheim mit dem sehr umfangreichen, multilingualen EuroGOV-Korpus experimentiert. Im Vordergrund stand die feldspezifische Indexierung anhand von HTML Strukturelementen. Zusätzlich wurde der Einsatz von Blind Relevance Feedback evaluiert. Wie 2005 wurde ein sprachunabhängiger Indexierungsansatz verwendet. Experimentiert wurde mit dem HTML-Title Element, dem H1 Element und anderen Auszeichnungen, die Text hervorheben. Blind Relevance Feedback wurde für alle Felder außer für das Volltextfeld ?content? implementiert. Die besten Resultate wurden mit einer starken Gewichtung der HTML-Title und H1 Elemente erreicht und stellten eine geringfügige Verbesserung gegenüber den Ergebnissen aus den letztjährigen Postexperimenten dar. Der Einsatz von Blind Relevance Feedback führte nicht zu Verbesserungen. Für WebCLEF 2006 wurden verbesserte Ergebnisse mit den manuell erstellten Anfragen erreicht, während von den Veranstaltern automatisch erstellte Anfragen zu Ergebnissen führten, die wesentlich unter denen der manuell erstellten lagen. Dies war bei allen teilnehmenden Gruppen der Fall.
K3 ist ein Forschungsprojekt, welches das Ziel verfolgt die distributiven und kommunikativen Mehrwertpotenziale asynchroner Medien Gewinn bringend für die universitäre Ausbildung zu nutzen. Hierzu werden aufsetzend auf dem von Kuhlen vorgeschlagenen Paradigma des netzwerkbasierten Wissensmanagements konzeptionelle didaktische Ansätze erprobt und eine kollaborative Wissensmanagementsoftware entwickelt. Dieser Artikel beschreibt zunächst den grundlegenden Ansatz und wichtige Gestaltungsfaktoren des netzwerkbasierten Wissensmanagements. Darauf aufbauend werden methodische Aspekte der Evaluation solcher kooperativer Lernszenarien dargestellt, Untersuchungsinstrumente angeführt und die Reichweite und Grenzen der Evaluierbarkeit derartiger Lernszenarien diskutiert.
Die vorliegende Magisterarbeit untersucht den Mehrwert von anthropomorphen Interface-Agenten als Benutzerschnittstelle im Sprachdialog von Fahrerinformationssystemen. Vor diesem Hintergrund werden ein von der Blaupunkt GmbH erstellter Prototyp eines Sprachdialogsystems und ein um einen virtuellen Charakter der Charamel GmbH erweitertes System miteinander vergleichend evaluiert. Die dazu durchgeführte Experten-Evaluation und anschließende Benutzerstudie stellen in den Vordergrund der Untersuchung, inwiefern eine anthropomorphe Oberfläche die Akzeptanz der Anwender und die Usability des Sprachdialogs erhöht. Die Erkenntnisse dieser Untersuchung münden in eine Bewertung bezüglich des Mehrwerts virtueller Charaktere im gegebenen Anwendungskontext und in Richtlinien für die Gestaltung eines anthropomorphen Fahrerinformationssystems.