Mathematik und Angewandte Informatik
Refine
Document Type
- Doctoral Thesis (4)
- Conference Proceeding (1)
Language
- German (5)
Has Fulltext
- yes (5)
Is part of the Bibliography
- no (5)
Keywords
- Arithmetik (1)
- Assoziation (1)
- Assoziativspeicher (1)
- Benutzertracking (1)
- Classification (1)
- Codierung (1)
- Graphentheorie (1)
- Image Analysis (1)
- Klassifikation (1)
- Knowledge Management (1)
Institute
Assoziativspeicher (AM) stellen eine besondere Form (künstlicher) Neuronaler Netze (KNN) mit einer Schicht dar. Sie eignen sich zur Anwendung bei Aufgaben wie Mustererkennung, -extraktion und -ergänzung, wobei Lernpaare von spärlich besetzten Binärvektoren, welche Ansammlungen von Merkmalen darstellen, verwendet werden. Die aus "Lernmatrizen" nach Steinbuch weiterentwickelten Matrizen haben nicht-lineares Verhalten ohne negative Gewichte, sind binär - und daher einfach zu konstruieren - und somit einfacher mit Texten (technisch: Zeichenfolgen) in Verbindung zu bringen. Während bekannt ist, dass die erreichbare Speichereffizienz als gut angesehen werden kann, ist dagegen die Wahrscheinlichkeit des korrekten Wiederfindens aller eingespeicherten Assoziationsmuster gering. Entsprechend wurde das Problem, beliebige Textdaten direkt in Assoziativspeichern aufzuheben, lange nicht angegangen. In der "Assoziativmaschine"[1] wurden bereits in Matrizen gespeicherte Programme, Zustandsvariablen und Weltwissen in einer Kombination solcher Speicher derart verschaltet, dass eine algorithmische Steuerung realisiert werden konnte. Eine besondere Rolle spielen hier "Sequenzen", welche als Folgen einen geordneten Zugriff auf Daten ermöglichen. Wir überprüfen jetzt unterschiedliche Ansätze und Aspekte dieser Aufgabe, Texte mit assoziativen Strukturen zu verarbeiten und zu speichern. Zur Durchführung und Veranschaulichung wurden spezielle Programme erstellt. Letztlich ergibt sich die Möglichkeit, grössere Mengen von Text vollständig assoziativ zu speichern und fehlerlos wieder auszulesen, was am Beispiel des gesamten Textes von Alice's Abenteuer Im Wunderland (160kB) demonstriert wird. Das dargestellte Verfahren funktioniert auch dann, wenn der Originaltext Wiederholungen enthält. Unter anderem lässt sich als einzige Version einer Zeichenfolge eine schnell durchsuchbare Kodierung aufbewahren. Schliesslich wird ein weiteres Verfahren gezeigt, welches lange Sequenzen in kleinen Matrizen nutzt. Hier können einfache Abfolgen in kompakter Weise abgelegt werden, zum Beispiel zur assoziativen Implementierung von Microcodeartigem Verhalten. Mögliche Anwendungen finden sich bei Betrieb und Steuerung der Assoziativmaschine. Weiterhin können Vorzüge dieser Technik - wie die Robustheit des Speichers - im Bereich der Langzeitdatenspeicherung/Archivierung genutzt werden. [1]beschrieben in [Dierks 05] aus unserer Arbeitsgruppe
Basierend auf den Arbeiten von W. SO sowie W. KLOTZ und T. SANDER setzen wir das Studium der spektralen Eigenschaften von verallgemeinerten unitären Cayley-Graphen, die ggT-Graphen oder auch ganzzahlige zirkuläre Graphen genannt werden, fort. In diesem Zusammenhang werden wir viele noch offene Fragen beantworten. Das Hauptwerkzeug für unsere Arbeit ist die Feststellung, dass die Eigenwerte eines ggT-Graphen Arithmetische Faltungen vom Narkiewicz-Typ entsprechen. Durch die Benutzung unseres Konzeptes von multiplikativen Teilermengen erhalten wir sowohl einige wichtige spektrale Eigenschaften (z.B. Extremalenergien) von ggT-Graphen als auch weitere interessante Anwendungen, wie beispielsweise Verschwindende Summen von Potenzen von primitiven Einheitswurzeln, hyperenergetische und Ramanujan-ggT-Graphen.
In der vorliegenden Arbeit wurde ein rotationsinvariantes Texturmodell für eine Unterscheidung struktureller Merkmale in Bildmustern für die überwachte Bildmustererkennung systematisch entwickelt und evaluiert. Es wurde gezeigt, dass die Komponenten: Merkmale, Merkmalsselektionsmethoden und Klassifikator eines Mustererkennungssystems so gewählt werden können, dass dies möglichst "effizient" ist, d.h. quantitative Forderungen nach Richtigklassifikationsraten mit einer möglichst geringen Anzahl an Merkmalen erfüllt werden. Zweidimensionale Ultraschallbilder bilden charakteristische Texturen aus, die von der Bildgebung selbst und dem betrachteten Gewebe abhängen. Als Textur wird die Zusammensetzung einer Region aus Texturprimitiven, sogenannten Texeln, und deren Anordnungsregeln bezeichnet. Merkmale von Texturen werden im Allgemeinen über Modelle, sogenannte Texturmodelle beschrieben. Konventionelle Texturmerkmale nach Haralick und Laws wurden den Merkmalen des entwickelten rotationsinvarianten Texturmodells in einer Untersuchung zur "Erkennung von Knochenkonturpixeln in zweidimensionalen Ultraschallbildern" gegenübergestellt. Bei dieser Untersuchung wurden Merkmale nach Haralick, Laws und des rotationsinvarianten Texturmodells abwechselnd mit einer sequenziellen und einer rangordnungsbasierten Merkmalsselektion sowie einem Bayes- und einem Support-Vector-Klassifikator kombiniert. Anhand von Bildmustern, die an einem humananatomischen Präparat aufgezeichnet und von einem Experten klassifiziert wurden, ließ sich die Effizienz der ausgewählten Komponenten überprüfen. Gefordert wurde, mindestens eine Richtigklassifikationsrate von 97% für die Muster der Klasse Gewebe (Spezifität ≥ 0,97) und von mindestens 50% für Muster der Klasse Knochen (Sensitivität > 0,50) zu erreichen. Die Ergebnisse bei der Erkennung von Knochenkonturpixeln in Ultraschallbildern haben gezeigt, dass die Klassifikation mit Merkmalen des entwickelten rotationsinvarianten Texturmodells, gegenüber den Methoden nach Haralick und Laws, insgesamt erfolgreicher ist. Die Extraktion von Merkmalen des rotationsinvarianten Texturmodells ist sogar entscheidend für die Erreichbarkeit der Forderungen. Erst durch Merkmale des entwickelten rotationsinvarianten Texturmodells werden die geforderten Klassifikationsraten erreicht (Spezifität = 0,971, Sensitivität = 0,520). Zudem wird nur eine geringe Anzahl von Merkmalen benötigt. Durch Hinzunahme weiterer Merkmale kann eine Klassifikationsrate über die Forderungen hinaus erfolgen (Spezifität = 0,971, Sensitivität = 0,633). Durch das Erfüllen der Forderungen konnte die Effektivität der Methode zur Erkennung von Knochenkonturpixeln gezeigt werden. Die geringe Anzahl an Merkmalen zeigt zudem die enorme Effizienz der vorgestellten Methode, was in der praktischen Anwendung zu einem reduzierten Rechenaufwand und somit zu einer verkürzten Rechenzeit bei der Klassifikation von Bildmustern führt.
In der heutigen Informationsgesellschaft erweist sich der effiziente Umgang mit dem Produktionsfaktor Wissen als entscheidender Wettbewerbsfaktor. Aufgrund der gerin-geren Halbwertszeit des Wissens tritt das reine Faktenlernen zunehmend in den Hinter-grund, das Lernen von Zusammenhängen gewinnt demgegenüber an Bedeutung. Diese Dissertationsschrift beschreibt einen auf der deutschen Wikipedia basierenden Prototyp, der zum einen zum automatisierten Abfragen von Zusammenhängen genutzt werden kann und zum anderen ein neuartiges didaktisches Konzept zum Lernen von Assoziationen einführt. Zur Definition von Wissensdomänen werden Algorithmen vorgestellt, die die einem Wikipedia-Artikel zugeordneten Kategorien auf vordefinierte Hauptkategorien aggre-gieren. Da Daten zu inhaltlichen Zusammenhängen zwischen verschiedenen Wikipedia-Einträgen bisher noch nicht erhoben wurden, stellt diese Arbeit solche Assoziationen anhand der semantischen Ähnlichkeit her, die durch zwei Programme namens Findlink und SENTRAX berechnet wird. Die so generierte Liste ähnlicher Artikel formt ein spe-zielles Netz, in dem die Knoten einzelne Wikipedia-Artikel darstellen und die Kanten inhaltliche Zusammenhänge abbilden. Die Assoziationen werden anschließend in die Oberfläche des Prototyps integriert und um Mechanismen zum Tracken der Benutzerin-teraktion erweitert. Ein Kernproblem des Versuchsaufbaus stellt der Korpusumfang dar. Einerseits führt die enorme Artikelanzahl bei der Ähnlichkeitsberechnung durch Findlink zu Perfor-manceproblemen, andererseits zeigen sich aufgrund der Vielzahl der Einträge Anoma-lien in der Netzstruktur der ähnlichen Artikel in Form vieler untereinander kaum ver-bundener Teilnetze. Als Problemlösungen werden mehrere Filterkriterien definiert und deren Auswirkungen auf den Korpusumfang skizziert. Zusätzlich wird ein eigenes Gütemaß eingeführt, das sich als hilfreich bei der Beurteilung der Relevanz eines Arti-kels erweist. Die im entwickelten Prototyp implementierten Konzepte ermöglichen das spielerische Lernen von Zusammenhängen durch die Bearbeitung zufälliger oder vordefinierter Navigationsaufgaben. Darüber hinaus kann der erstellte Prototyp als Ausgangspunkt für weitere Forschungen zum Lernen von Zusammenhängen dienen. Das implementierte Tracking der Benutzerinteraktion legt die Basis für spätere Auswertungsalgorithmen.