Refine
Year of publication
- 2006 (80) (remove)
Document Type
- Conference Proceeding (66)
- Master's Thesis (6)
- Doctoral Thesis (5)
- Book (2)
- Habilitation (1)
Keywords
- Informationssysteme (11)
- Information Retrieval (3)
- clustering (3)
- data mining (3)
- k-means (3)
- law-enforcement (3)
- semi-supervised learning (3)
- Evaluation (2)
- Methoden und Techniken der Psychologie (2)
- <DDR> Germany (1)
Die stark anwachsende Menge von Wissen, welche weltweit zur Verfügung steht, erfordert eine teilweise Übertragung der Qualitätsbewertung auf Maschinen. Zugleich erlaubt die weltweite Vernetzung die Analyse, den Vergleich und die Verknüpfung sehr vieler Wissensangebote. Die Automatisierung von Qualitätsbewertung ist teilweise bereits Realität und erfordert eine stärkere wissenschaftliche Fundierung. Derzeit eingesetzte Systeme basieren auf der Linkanalyse und nutzen somit nur eine sehr eingeschränkte Wissensquelle. Aktuelle Forschungstendenzen aus unterschiedlichen Fachrichtungen verweisen auf komplexere Systeme zur automatischen Qualitätsbewertung. Im Rahmen des Projekts AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) wurde ein innovatives System zur Qualitätsbewertung entwickelt. Das Projekt behandelt die Grundlagen, die Entwicklung des Systems und dessen Evaluierung. Aus den Ergebnissen werden Konsequenzen für die Methodik der Evaluierung im Information Retrieval abgeleitet. Eine wichtige Anwendung liegt in Suchmaschinen der nächsten Generation.
Die Straße Unter den Linden gehört zu den bedeutendsten Prachtstraßen Europas. Im 2. Weltkrieg wurde sie fast völlig zerstört. Der Wiederaufbau der Straße unterlag dem Spannungsfeld zwischen einerseits staatlichem Repräsentationsbedürfnis der DDR und andererseits den wechselnden ideologischen und politischen Rahmenbedingungen.
Dieser Band fasst die Vorträge des Fünften Hildesheimer Evaluierungs- und Retrieval- Workshops (HIER) zusammen, der am 11. Oktober 2006 an der Universität Hildesheim stattfand. Die HIER Workshop-Reihe begann im Jahr 2001 mit dem Ziel, die Forschungsergebnisse der Hildesheimer Informationswissenschaft zu präsentieren und zu diskutieren. Mittlerweile nehmen immer wieder Kooperationspartner von anderen Institutionen teil, was wir sehr begrüssen. Alle Beiträge stehen dieses Jahr in enger Beziehung zu den Kernthemen Information Retrieval und Evaluierung. Traditionell bietet der HIER auch ein Forum für Systemvorstellungen und praxisorientierte Beiträge.
Im Rahmen des vorligenden Artikels wird ein Bewertungsbogen zur Ermittlung der Handlungskompetenz von Piloten in Zusammenarbeit mit Flugtrainingsexperten der Deutschen Lufthansa AG entwickelt. Die Bewertungen erfolgen in Simulatortests, die vom Luftfahrtbundesamt vorgeschrieben sind und dem Erhalt der Flugzeugmusterberechtigung der Piloten dienen. Zunächst erfolgt die Analyse von Konstrukten und Methoden, die als Kriterien einer Messung zugänglich gemacht werden sollen. Das Ziel der Studie ist es, anhand dieser Konstrukte und Methoden in einer statistischen Analyse der erhobenen Daten Aussagen über das Ausmaß Konstruktvalidität des entwickelten Bewertungsbogens zu formulieren. In diesem Zusammenhang ist zu prüfen, ob die Bewertungen der Fähigkeiten in den klassifizierten Situationen im Flugsimulator generalisierbar sind, oder, ob diese von der spezifischen Situation abhängen.
Im Rahmen der vorliegenden Magisterarbeit wird ein Bewertungsbogen zur Ermittlung der Handlungskompetenz von Piloten in Zusammenarbeit mit Flugtrainingsexperten der Deutschen Lufthansa AG entwickelt. Die Bewertungen erfolgen in Simulatortests, die vom Luftfahrtbundesamt vorgeschrieben sind und dem Erhalt der Flugzeugmusterberechtigung der Piloten dienen. Zunächst erfolgt die Analyse von Konstrukten und Methoden, die als Kriterien einer Messung zugänglich gemacht werden sollen. Das Ziel der Studie ist es, anhand dieser Konstrukte und Methoden in einer statistischen Analyse der erhobenen Daten Aussagen über das Ausmaß Konstruktvalidität des entwickelten Bewertungsbogens zu formulieren. In diesem Zusammenhang ist zu prüfen, ob die Bewertungen der Fähigkeiten in den klassifizierten Situationen im Flugsimulator generalisierbar sind, oder, ob diese von der spezifischen Situation abhängen.
The objective of this M.A. thesis is the development and evaluation of a system that enables the effective and efficient access to relevant knowledge objects and provides process transparency. In the beginning, fundamental terms and concepts of knowledge management and usability are introduced briefly. This theoretical foundation serves as the basis for the prototyping-oriented development of the tool. Finally, the tool is evaluated by users. Based on these insights, recommendations are made to further enhance the usability and thus the value of the system. As a result, a hypertext-based knowledge map is developed which takes its users directly to process-specific information and facilitates the understanding of complex processes.
In der vorliegenden Arbeit wird ein Verfahren zur Suche nach Informationen zu Wissenschaftlern prototypisch für den Bereich der Informationswissenschaft entwickelt, in welchem Ansätze des Web Content Mining eingesetzt werden. Zunächst werden Möglichkeiten und Probleme der Informationssuche im Web aufgezeigt, sowie verschiedene Verfahren des Web Content Mining beschrieben. Das entwickelte Verfahren verwendet online Publikationsdienste und persönliche Homepages der Wissenschaftler als Quellen. Zur Suche in den Publikationsdiensten und der Informationsextraktion aus ihren Ergebnisseiten werden Wrapper konstruiert. Des Weiteren werden Methoden zur Informationsextraktion aus den Homepages implementiert, die auf Heuristiken zu Struktur und Aufbau der Seiten beruhen. Für die Suche nach persönlichen Homepages von Informationswissenschaftlern wird ein spezialisiertes Suchverfahren entwickelt. Das Verfahren wird in einer Java-Applikation implementiert und anschließend evaluiert, um das Potenzial des gewählten Ansatzes zu untersuchen.
Der Beitrag beschreibt die Entwicklung eines Chatbots für die Universitätsbibliothek Hildesheim. Das System antwortet auf Anfragen in getippter natürlicher Sprache. Die Konzeption sowie die Realisierung mit der Artifical Intelligence Markup Language werden besprochen. Eine Evaluierung weist auf eine grundsätzliche Akzeptanz eines derartigen Systems hin.
Ein Hindernis bei der Suche nach benötigter Information speziell bei einer krosslingualen Suche ist eine ungünstig formulierte Anfrage. Die Wörtervielfalt, aus denen eine Anfrage zusammengesetzt werden kann, verursacht oft eine ungenügende Übereinstimmung mit den Formulierungen im gesuchten Dokument und schmälert die Leistungsfähigkeit der Suche. Wenn man die "Bedeutung" einer Wortsammlung an die Engine übergeben könnte – anstelle isoliert verarbeiteter Worte, dann könnte eine Wirkung der Suchanfragen erzielt werden, die als gleichmäßiger empfunden würde. Dieser Gedanke wurde bei der Entwicklung einer neuartigen Retrievaltechnologie verfolgt und führte zur sogenannten "Essence Extractor Engine", kurz SENTRAX [SENT04]. Der dahinter liegende Index entsteht aus der Verarbeitung von in den Dokumenten nahe zusammenstehenden, bedeutungstragenden Begriffen (Kookkurrenzen) und erlaubt eine Definition und Übertragung von "Konzepten", die zwar durch Worte ausgedrückt oder beschrieben werden, aber eine gewisse Unabhängigkeit von der spezifischen Wortwahl haben. Diese Technologie stand für die vorliegende Arbeit zur Verfügung und wurde für die Problemstellung des Themas ausgenutzt. Bei der bilingualen Suche kann nämlich die Übertragung eines Konzeptes; statt der wortweisen Übersetzung der Anfrage; die Mehrdeutigkeiten entscheidend vermindern, da das Konzept den assoziierten Zusammenhang mit den übersetzten Begriffe bewahrt und die Verbindung zu den Umgebungen in den Texten herstellt. Diese Wirkung und Auswirkung wird untersucht und dargestellt. Weitere Funktionen der SENTRAX-Engine (z.B. Stringtoleranz von Eingabeworten und Ähnlichkeitsvergleich von Trefferdokumenten) sowie eine grafische Mensch-Maschine-Schnittstelle erweisen sich als günstig für das Vorhaben. Die nötigen Vorverarbeitungsmethoden werden entworfen, da zwei Indexe für die bilinguale Suche zusammenwirken. Drei wichtige Teile lassen sich nennen: erstens die Vorarbeit, wo die Erstellung des jeweiligen Konzepts geschieht, zweitens die Brücke, die das Suchkonzept der Ausgangsprache zur Zielsprache überträgt, und schließlich ein Konzeptsvergleichmaß, womit das Gleichgewicht des Konzeptes nach der Übertragung kontrolliert wird. Gegenwärtig laufen diese drei Stufen noch nicht vollautomatisch in der SENTRAX ab, sondern erlauben manuelle Eingriffe. Ungeachtet dieser technischen Unvollständigkeit des Systems lassen sich aber alle Hypothesen nachprüfen. Die Ergebnisse zeigen, dass die bilinguale Suche mittels Konzeptnetzen sehr leistungsfähig ist. Die Mehrdeutigkeit einer Übersetzung kann durch Betrachtung der Zusammenhänge und der Assoziationen vermindert werden. Es gibt auch einen Lernprozess beim Suchenden und hilft dem Nutzer bei der Entscheidung, ob eine Fortsetzung der begonnenen Suchrichtung Sinn macht oder diese abgebrochen werden muss, weil die benötigte Information vielleicht nicht in der Datenbasis steckt. Durch die grafische Darstellung werden die mit den Suchwörtern assoziierten Begriffe zur Auswahl angeboten und sind in beiden Sprachen (teilweise) vergleichbar. Dadurch kann man sicherstellen, dass die dahinter liegenden Dokumente von den gleichen bzw. ähnlichen Themen handeln.
Bei der krosslingualen Suche vermindert eine ungenügende Übereinstimmung mit den Formulierungen im gesuchten Dokument oft die Leistungsfähigkeit der Suche. Hinter der SENTRAX (Essence Extractor Engine) liegen zwei Container (indexierte Dokumente), die für die bilinguale Suche zusammenwirken. Sie entstehen aus der Verarbeitung von nahe zusammenstehenden, bedeutungstragenden Begriffen (Kookkurrenzen) in den zu durchsuchenden Dokumenten und erlauben eine Definition sowie Übertragung von "Konzepten", die zwar durch Worte ausgedrückt oder beschrieben werden, aber eine gewisse Unabhängigkeit von der spezifischen Wortwahl haben. Hierbei kann die Übertragung eines Konzeptes ? statt der wortweisen Übersetzung der Anfrage ? die Mehrdeutigkeiten entscheidend vermindern, da das Konzept den assoziierten Zusammenhang mit den übersetzten Begriffe bewahrt und die Verbindung zu den Umgebungen in den Texten herstellt. Somit kann sichergestellt werden, dass die dahinter liegenden Dokumente von den gleichen bzw. ähnlichen Themen handeln. Durch grafische Darstellung sind die mit den Suchwörtern assoziierten Begriffe in Ausgangs- und Zielsprache vergleichbar.
Die Qualität von Antworten im Information Retrieval schwankt zwischen einzelnen Anfragen sehr stark. Die Evaluierung im Information Retrieval zielt in der Regel auf eine Optimierung der durschnittlichen Retrieval-Qualität über mehrere Testanfragen (Topics). Sehr schlecht beantwortete Anfragen wirken sich besonders negativ auf die Zufriedenheit des Benutzers aus. Neue Ansätze zur Evaluierung der Robustheit von Systemen werten daher die schwierigen Anfragen stärker. Im Rahmen des Cross Language Evaluation Forum (CLEF) wurde 2006 ein Robust Task durchgeführt. Der Artikel zeigt die Gründe für Entwicklung dieser Aufgabenstellung nach, referiert die Ergebnisse und verweist auf zukünftige Planungen.
Im Mittelpunkt dieser Arbeit steht ein Benutzermodellierungsansatz, der kulturbedingte Benutzerei-genschaften als einen determinierenden Faktor bei der Entwicklung von adaptiven hypermedialen Lernanwendungen betrachtet. Besondere Berücksichtigung finden dabei mehrere der von Kulturan-thropologen definierten Kulturdimensionen, die kulturspezifischen Merkmale verschiedener wissen-schaftlicher Stile und Diskursstrukturen sowie die Einflüsse kultureller Werte auf Konventionen des Designs von grafischen Benutzerschnittstellen. Ausgehend von der Annahme, dass das jeweilige kul-turspezifische Bildungssystem zur Herausbildung des Lernstils eines Einzelnen beiträgt und sich somit auch auf die Akzeptanz und Effektivität der genutzten Software auswirkt, wird diese Analyse auf den Bereich der Didaktik ausgeweitet. Diese kulturorientierte Adaptationsstrategie sieht zunächst den Einsatz von zwei Erhebungsmethoden vor. Das Ziel der Evaluation von Lernprogrammen aus verschiedenen Kulturen in den Bereichen Lay-out und multimediale Gestaltung, Interaktion und Navigation, Inhaltspräsentation und Didaktik besteht in der Ermittlung von kulturbedingten Designmerkmalen. In der hier betrachteten Fallstudie erfolgt ein Vergleich von britischen und deutschen Lernprogrammen. Die Durchführung einer kulturvergleichen-den Lernstilanalyse im Rahmen einer Befragung von potentiellen Benutzern aus den gewählten Kultu-ren dient der Vertiefung der Evaluationsergebnisse. Die Integration eines Lernstiltests in das adaptive System bietet an dieser Stelle eine noch genauere Möglichkeit der individuellen Erfassung des Benut-zerlernstils. Auf Basis der Ergebnisse dieser Vorstudie werden kultur- und lernstilspezifische Lernpro-gramm-Profile konstruiert. Das Vorgehensmodell sieht die Festlegung unterschiedlicher Grade der Wiederverwendbarkeit von Elementen eines Ausgangslernprogramms vor. Neben dem reinen Aus-tausch von bestehenden Programmteilen erfolgt die Konzeption kulturspezifischer Varianten, ggf. auch die Entwicklung neuer Elemente. Die Lernprogramm-Profile dienen wiederum als Vorlage für den Aufbau von Stereotypen, deren Zuordnung zu einem Benutzer den Ausgangspunkt des Adaptati-onsprozesses bildet. Auf der Grundlage des kontinuierlichen Monitoring des Navigationspfades sowie der systemseitigen Befragung des Benutzers nach dessen Zustimmung zu einer Anpassungsmaßnahme wird der Adaptationsprozess fortgeführt und das Benutzermodell laufend aktualisiert. Zusätzlich zu der Definition von Lernprogramm-Profilen ist zuvor die kulturorientierte Zusammenstellung von Methoden und Techniken der adaptiven Inhaltspräsentation und Navigationsunterstützung erforderlich. Der Benutzermodellierungsansatz wird im Rahmen von Usability-Tests unter Beteiligung von Benut-zern aus Großbritannien und Irland überprüft. Die Zufriedenheit der Probanden mit dem getesteten Lernsystem wird zunächst als eine Bestätigung für das dem Designkonzept zugrunde liegende Vorge-hensmodell betrachtet. Die Testergebnisse zeigen die bei der Lernprogrammevaluation bereits ermit-telte Dominanz der englischen Diskursregeln über Werte, die durch Kulturdimensionen erfasst werden. Darüber hinaus kann festgestellt werden, dass sich der Einfluss der Diskursnormen sowohl auf die Inhaltspräsentation als auch auf die Bereiche Navigation und Didaktik erstreckt. Dies verdeutlicht die Notwendigkeit einer Adaptationsstrategie, die über traditionelle Lokalisierungsansätze hinausgeht.
In der Arbeit "Gegen eine ganze Zeit. Hans Graf von Veltheim (1818-1854): Leben, Literatur, Kunst" geht es um die Biographie eines vergessenen Künstlers aus der Zeit des Vormärz und der Mitte des 19. Jahrhunderts. Hervorgetreten ist er als Autor von vier historischen Dramen (1846 und 1850 erschienen), bislang unveröffentlichten Aphorismen und radierten Karikaturen. Die Dissertation enthält ein Werkregister und veröffentlicht erstmals den bislang unbekannten politisch-historisch brisanten Handzeichnungsbestand. Besonders herausragend sind die Karikaturen zur Revolution von 1848 aus altständischer Perspektive. Eingehend geschildert wird der Bildungsgang am Braunschweiger Collegium Carolinum, an der Berliner Friedrich-Wilhelms-Universität und der Georgia Augusta in Göttingen. Eine umfangreiche Bibliographie und ein Editionsanhang runden die ausgesprochen interdisziplinär angelegte Studie ab.
Im Rahmen von WebCLEF 2006 wurde an der Universität Hildesheim mit dem sehr umfangreichen, multilingualen EuroGOV-Korpus experimentiert. Im Vordergrund stand die feldspezifische Indexierung anhand von HTML Strukturelementen. Zusätzlich wurde der Einsatz von Blind Relevance Feedback evaluiert. Wie 2005 wurde ein sprachunabhängiger Indexierungsansatz verwendet. Experimentiert wurde mit dem HTML-Title Element, dem H1 Element und anderen Auszeichnungen, die Text hervorheben. Blind Relevance Feedback wurde für alle Felder außer für das Volltextfeld ?content? implementiert. Die besten Resultate wurden mit einer starken Gewichtung der HTML-Title und H1 Elemente erreicht und stellten eine geringfügige Verbesserung gegenüber den Ergebnissen aus den letztjährigen Postexperimenten dar. Der Einsatz von Blind Relevance Feedback führte nicht zu Verbesserungen. Für WebCLEF 2006 wurden verbesserte Ergebnisse mit den manuell erstellten Anfragen erreicht, während von den Veranstaltern automatisch erstellte Anfragen zu Ergebnissen führten, die wesentlich unter denen der manuell erstellten lagen. Dies war bei allen teilnehmenden Gruppen der Fall.
K3 ist ein Forschungsprojekt, welches das Ziel verfolgt die distributiven und kommunikativen Mehrwertpotenziale asynchroner Medien Gewinn bringend für die universitäre Ausbildung zu nutzen. Hierzu werden aufsetzend auf dem von Kuhlen vorgeschlagenen Paradigma des netzwerkbasierten Wissensmanagements konzeptionelle didaktische Ansätze erprobt und eine kollaborative Wissensmanagementsoftware entwickelt. Dieser Artikel beschreibt zunächst den grundlegenden Ansatz und wichtige Gestaltungsfaktoren des netzwerkbasierten Wissensmanagements. Darauf aufbauend werden methodische Aspekte der Evaluation solcher kooperativer Lernszenarien dargestellt, Untersuchungsinstrumente angeführt und die Reichweite und Grenzen der Evaluierbarkeit derartiger Lernszenarien diskutiert.
Die vorliegende Magisterarbeit untersucht den Mehrwert von anthropomorphen Interface-Agenten als Benutzerschnittstelle im Sprachdialog von Fahrerinformationssystemen. Vor diesem Hintergrund werden ein von der Blaupunkt GmbH erstellter Prototyp eines Sprachdialogsystems und ein um einen virtuellen Charakter der Charamel GmbH erweitertes System miteinander vergleichend evaluiert. Die dazu durchgeführte Experten-Evaluation und anschließende Benutzerstudie stellen in den Vordergrund der Untersuchung, inwiefern eine anthropomorphe Oberfläche die Akzeptanz der Anwender und die Usability des Sprachdialogs erhöht. Die Erkenntnisse dieser Untersuchung münden in eine Bewertung bezüglich des Mehrwerts virtueller Charaktere im gegebenen Anwendungskontext und in Richtlinien für die Gestaltung eines anthropomorphen Fahrerinformationssystems.
Diese Arbeit befasst sich mit der Entwicklung und Evaluierung eines Information Retrieval Systems. Im Vordergrund steht hierbei die Entwicklung eines dynamischen Entry Vocabulary Moduls (EVM). Im Laufe der Arbeit soll ein durch ein EVM unterstütztes Retrieval System in seiner Leistungsfähigkeit untersucht werden. Bei der Datenbasis, für die das System entwickelt und auf der es evaluiert wird, handelt es sich um den Datenbestand des Fachinformationsverbundes Internationale Beziehungen und Länderkunde, die als Auszug vom Kooperationspartner Stiftung Wissenschaft und Politik bereitgestellt wurde. Auÿerdem wurde das System auf die German Indexing and Retrieval Testdatabase (GIRT) angewendet. Diese Forschungsarbeit hat neben vielen weiteren Erkenntnissen ergeben, dass im direkten Vergleich zwischen zwei Evaluierungsläufen des Systems ohne zusätzliche Module und drei Läufen mit zusätzlichen Modulen die Retrievalleistung gesteigert werden konnte und das EVM daran maßgeblichen Anteil hatte.
Es wird eine intelligente Suchmaschine für den bequemen Zugriff auf strukturierte und unstrukturierte Informationen vorgestellt. Grundlage bilden 4 verschiedene Ähnlichkeitsmaße auf den Datensorten in der Datenbasis gemäß den jeweiligen Aufgaben: Schreibweisentolerante Suche, Kontextähnliche Suche, Zugriff auf Dokumententreffer, Doublettensuche.