Refine
Year of publication
Document Type
- Doctoral Thesis (12)
- Part of a Book (9)
- Master's Thesis (8)
- Article (7)
- Book (6)
- Report (4)
- Study Thesis (3)
- Conference Proceeding (1)
Language
- German (50) (remove)
Has Fulltext
- yes (50)
Is part of the Bibliography
- no (50)
Keywords
- Leichte Sprache (8)
- Barrierefreie Kommunikation (3)
- Accessibility (2)
- Barrierefreiheit (2)
- Easy Language (2)
- intralingual (2)
- Adaption von Literatur (1)
- Adressatenprofil (1)
- Audiovisuelle Übersetzung (1)
- Auffindbarkeit (1)
Institute
- Fachbereich III (50) (remove)
Semantic Web-Technologien und -Anwendungen erfahren gegenwärtig eine hohe Aufmerksamkeit im Forschungsfeld der Wissensrepräsentation. Daten über Personen bilden oft zentrale Knotenpunkte einer Wissensbasis, um verteilte Informationen miteinander zu verknüpfen und zu kontextualisieren. Mit der Fachontologie „LexDo“ wird im Umfeld der europäischen Forschungsinfrastruktur ELEXIS eine neue Linked Open Data-Ressource für die Disziplin der Lexikographie und Wörterbuchforschung entwickelt, die das Wissen der Domäne bündeln und vernetzen soll. Die Integration kuratierter Personendaten in die Fachontologie dient zunächst der Erschließung fachspezifischer Publikationen im Suchportal „ElexiFinder“. Die vorliegende Arbeit zeigt, wie ein solches Personenregister aus den Metadaten einer bestehenden Fachbibliographie mit semi-automatischen Methoden aufgebaut, bereinigt und als Linked Open Data aufbereitet werden kann. Vor diesem Hintergrund wird ein modularer Workflow zur Transformation von Namensliteralen in Entitäten des Semantic Web konzipiert, der Skalierbarkeit und eine hohe Datenqualität gleichermaßen berücksichtigt. Basierend auf Überlegungen zur RDF-Modellierung in LexDo für ein semantisch konsistentes Linking mit Referenzdatensets werden Algorithmen und Funktionen zur Datenbereinigung und zum Interlinking im Open-Source-Tool „OpenRefine“ anhand eines Testauszugs der Fachbibliographie umfassend evaluiert. Die Ergebnisse der Evaluierung münden in praxisorientierte Empfehlungen für den weiteren Ausbau und den Routinebetrieb der Fachontologie.
Die Arbeit geht anhand theoretischer Grundlagen sowie einer Korpusanalyse der Frage nach, welche Faktoren das Auffinden und die Auffindbarkeit von Nachrichten in Leichter Sprache im Internet beeinflussen können. Dazu wird zunächst die Bedeutung von Nachrichten auf öffentlich-rechtlichen Sendern beleuchtet und ihre Aufgabe für eine demokratiefähige und gleichberechtigte Gesellschaft aufgezeigt. Weiterhin wird die Mediennutzung von Adressat*innen von Texten in Leichter Sprache dargestellt. Dabei wird insbesondere auf Menschen mit Lernschwierigkeiten eingegangen. Im Anschluss werden sowohl textseitige als auch adressat*innenseitige Kategorien der Auffindbarkeit bzw. des Auffindens beleuchtet. Die Korpusanalyse untersucht, inwiefern das Nachrichtenangebot in Leichter Sprache auf den Webseiten des NDR und des MDR für die Zielgruppe „Menschen mit Lernschwierigkeiten“ auffindbar präsentiert wird.
Bilinguale Unterrichtskonzepte, die auf europäischer Ebene auch unter dem Sammelbegriff CLIL (Content and Language Integrated Learning) zusammengefasst werden, haben in den vergangenen Jahren in den internationalen Bildungssystemen an Popularität gewonnen. Obwohl sich auch in Deutschland ein stetiger Zuwachs bilingualer Unterrichtsangebote verzeichnen lässt, weist CLIL insbesondere auf Grundschulebene mit knapp 2 % eine eher geringe Implementationsrate auf (FMKS 2014).
Die vorliegende Arbeit untersucht mögliche Faktoren, welche die Implementation von CLIL im Primarbereich beeinflussen (können). Leitende Fragen sind unter anderem: Welche Einflussfaktoren fördern bzw. hemmen die CLIL-Implementation an Grundschulen? Was sind mögliche Gelingensbedingungen bzw. Hindernisse? Unter welchen Bedingungen entscheiden sich Lehrkräfte für bzw. gegen eine Implementation von CLIL?
Gerahmt durch ein methodenintegrierendes Forschungsdesign (Mixed Methods), finden sich in der Forschungsarbeit sowohl qualitative als auch quantitative Studien zur umfassenden Analyse förderlicher und hinderlicher Einflussfaktoren bei der Implementation von CLIL. Die qualitativen Vorstudien (Beobachtungen an Schulen, Lehrerinterviews, Telefonbefragungen mit Schulleitungen) dienten anfangs der Generierung potenzieller Einflussgrößen und Hypothesen. Die identifizierten Einflussfaktoren wurden im Anschluss in einem umfassenden Kategoriensystem zusammengefasst, um daraus ein quantitatives Messinstrument zu erstellen. Dieses wurde dann im Rahmen der quantitativen Hauptstudie (Online-Befragung) mit 307 Grundschullehrkräften eingesetzt.
Die Ergebnisse der Untersuchungen deuten darauf hin, dass die Implementation von CLIL mit zahlreichen Faktoren auf unterschiedlichen Ebenen (bildungspolitisch, organisational, personell) zusammenhängt. Zudem zeigte sich, dass zu unterschiedlichen Implementationszeitpunkten (beginnende bzw. bereits bestehende CLIL-Umsetzung) unterschiedliche Faktoren relevant bzw. einflussreich werden können. Des Weiteren deuten die Ergebnisse darauf hin, dass Lehrkräfte, die sich für eine Implementation von CLIL entscheiden, andere persönliche (individuelle) sowie kontextuelle (schulische) Voraussetzungen bzw. Bedingungen aufweisen als Lehrkräfte, die sich gegen eine Implementation entscheiden.
Kategoriensysteme sind zentrale Bestandteile der qualitativen Forschung wie der Grounded Theory und Qualitativen Inhaltsanalyse. Deshalb sind Kategoriensysteme ein wichtiger Schlüssel, um die Forschung mit diesen Methoden im Sinne von Open Science transparenter zu machen. Diese Dissertation stellt die Ontologie QualiCO, eine formale Beschreibung von Kategoriensystemen, vor. Im Rahmen der Entwicklung wurde zuerst eine Anforderungsanalyse mit einer Stakeholder*innenanalyse Teilnehmenden Beobachtung, Expert*inneninterviews (n=10) und der Analyse von bereits publizierten Kategoriensystemen und Lehrbüchern der Grounded Theory und der Qualitativen Inhaltsanalyse durchgeführt. Darauf aufbauend folgte eine Entwicklungsphase im Sinne eines partizipativen Designs mit Qualitativen Feedbackinterviews mit Papierprototypen (n=5), einer beispielhaft implementierten Version der Ontologie (n=4) und der Vorstellung der Ontologie auf verschiedenen Workshops.
Am Ende der Forschungsarbeit stand die Evaluation der Ontologie mithilfe eines qualitativen Usability-Tests (n=20) sowie einer metrikorientierten qualitativen Evaluation (n=10). Als Interviewpartner*innen wurden Forscher*innen aus der deutschsprachigen qualitativen Bildungsforschung, die bereits Erfahrung mit den genannten Methoden vorweisen konnten, rekrutiert. Für die Usability-Tests wurden Forscher*innen aus dem Human-Centered-Design an der University of Washington in Seattle ausgewählt. Zwar wurde QualiCO auf die deutschsprachigen Bildungsforscher*innen hin zugeschnitten entwickelt, sie konnte jedoch auch die Anforderungen der Evaluation mit den Forscher*innen aus dem Human-Centered-Design erfüllen. Sie kann wahrscheinlich auch von weiteren Forschungsgemeinschaften, die mit der Grounded Theory oder der Qualitativen Inhaltsanalyse arbeiten, genutzt werden.
Die Arbeit beschreibt außerdem die Arbeitsweisen von Forscher*innen auf dem Gebiet der Grounded Theory und der Qualitativen Inhaltsanalyse und zeigt folgende Potentiale für die Ontologie auf: Publikation von Kategoriensystemen, Validierung von Kategoriensystemen, Ermitteln von Inspiration für die Forscher*innen, Sichtbarmachung der Beziehungen zwischen Kodes, Nutzen der Ontologie in der Teamarbeit, Beschreibung der Kategoriensysteme mithilfe des Kodierparadigmas der Grounded Theory und Einsatz der Ontologie in der Methodenausbildung. Es gibt jedoch auch Barrieren, welche die Forscher*innen davon abhalten könnten, Kategoriensysteme auszutauschen: der Aufwand bei der Erstellung, ein erhöhter Aufwand bei der Digitalisierung, Probleme bei der Nachnutzung und die Angst vor einem Streamlining der Forschung und einer Überwachung der Forscher*innen. Die Arbeit wirbt darum, den Austausch von Kategoriensystemen bereits frühzeitig im Forschungsprozess mit zu bedenken, um das Kategoriensystem so zu erstellen, dass es anderen Forscher*innen am Ende der Forschungsarbeit bereitgestellt werden kann.
Die Pronomenauflösung stellt eine zentrale Aufgabe beim Lesen auf Textebene dar (Bredel u.a. 2011). Die Übereinstimmung von Substantiv und Pronomen im Genus hilft dabei, den passenden Referenten zu finden, z. B. Das Glas fiel in die Schüssel. Es/Sie zerbrach. Nur durch die Genusmarkierung am Pronomen wird deutlich, was zerbrochen ist. Für das Leseverstehen bedeutet dies, dass Schwierigkeiten mit dem Genus dazu führen können, dass die Pronomenauflösung nicht gelingt. Folglich kann der kurze Text nicht verstanden werden.
Da das Genus in Deutsch als Zweitsprache einen Problembereich darstellt (Grell 2003, Rothweiler 2007), wurde in der vorliegenden Studie untersucht, inwiefern Kinder mit Deutsch als Zweitsprache das Genus bei der Auflösung von Pronomen nutzen können und ob und inwiefern sie sich von Kindern mit Deutsch als Erstsprache unterscheiden.
Die fiktionalen Sprachen sind ein wenig erforschter Teil der Sprachwissenschaft. In dieser Arbeit werden Peter Jacksons Adaptionen von J.R.R. Tolkiens Der Herr der Ringe und Der Hobbit bezüglich ihres Gebrauchs fiktionaler Sprachen, mithilfe der Fragen: Wer wann mit wem warum welche fiktionale Sprache spricht, ob diese untertitelt wird oder nicht und warum, untersucht. Die fiktionalen Sprachen dienen hier, wie in der Literatur auch, der Schaffung glaubhafter fiktionaler Welten und Figuren, die durch die Sprachen charakterisiert werden. Die mehrsprachigen Figuren benutzen fiktionale Sprachen vor allem für normale Unterhaltungen, Zauber, Befehle und zur Geheimhaltung. Die Sprachen werden dabei besonders mit Magie und übernatürlichen Kräften in Verbindung gebracht. Der Gebrauch fiktionaler Sprache ist bei allen Sprechern fehlerfrei und Code-Switching wird immer wieder angewendet. Dennoch bleibt der Großteil des Filmdialogs in den Sprachen Englisch bzw. Deutsch, um das Verständnis beim Publikum zu sichern.
Sammlungen von Textdaten können oft als semi-strukturierte Daten beschrieben werden, die sich in strukturelle Einheiten segmentieren lassen, in denen Elemente eines impliziten Schemas erkannt und in ein strukturiertes Format überführt werden können. Für diese Erschließung wird eine Software vorgestellt, die Funktionen für indikatorbasierte Regeln sowie zur Konsistenzprüfung und Bereinigung (z. B. von Textdubletten) der entstehenden Korpusdaten anbietet. Die Ergebnisse können in acht Formate exportiert werden, womit die Software als Bindeglied zwischen verfügbaren Textdaten und dem Einsatz aktueller Verfahren der Digital Humanities fungiert.
Für die Erschließung schwächer strukturierter Daten, die über keine eindeutigen und einheitlichen Indikatoren für die Felder des impliziten Schemas verfügen, wird eine Methode auf Grundlage von Conditional Random Fields (CRF) in Verbindung mit einem Active Learning-Ansatz vorgeschlagen. Die Elemente der verarbeiteten Daten werden anhand der vom CRF erkannten Wahrscheinlichkeiten für die zugeordneten Bezeichner in acht Cluster eingeteilt, woraus den Anwendern Instanzen für eine iterative Erweiterung der Trainingsdaten dargeboten werden. Gleichzeitig können Elemente, deren Bezeichner mit einer hohen Wahrscheinlichkeit vergeben werden, als "richtig" markiert werden, womit sie in den darauffolgenden Iterationen übersprungen werden. Eine Fallstudie zeigt, dass sich die Ergebnisse mit den ersten Iterationen verbessern, während sich die Werte der als »richtig« markierten Elemente nach einigen Iterationen verschlechtern, woraus sich Empfehlungen für die Anwendung von CRFs mit wenigen Trainingsdaten ergeben.
Die Arbeit beschreibt und definiert in einem ersten Schritt barrierefreies Content-Marketing. Anschließend wird dargelegt, wie und inwieweit multimodale Content-Marketing-Kommunikate, vornehmlich DIY-Videos, barrierefrei aufbereitet werden können, welche Möglichkeiten und Instrumente dafür vorliegen und welche Probleme und Grenzen dabei auftreten können. Dies wird anhand der Analyse eines DIY-Videos, welches im Rahmen der Content-Marketing-Strategie von toom Baumarkt produziert und auf der Plattform YouTube veröffentlicht wurde, veranschaulicht. Es wird gezeigt, wie das Video für eine mögliche Zielgruppe (Gehörlose) mittels einer audiovisuellen Übersetzung, Untertitelung für Hörgeschädigte sowie einer Übersetzung in Leichte Sprache aufbereitet werden kann und welche Herausforderungen dabei emergieren können.
Die wissenschaftliche Arbeit thematisiert die Sprachbarriere Deutsch im Kontext aktueller Zuwanderungsprozesse in Deutschland und untersucht die zentrale These, ob Leichte Sprache unterstützen kann, jene Barrieren für Sprachlernende zu beseitigen. Dabei wird Aufschluss über etablierte bildungspolitische Integrationsmaßnahmen in Deutschland gegeben und insbesondere der Kurstyp ‚Orientierungskurs' fokussiert, welcher politische, historische sowie gesellschaftliche Themen vermittelt und aufgrund seiner fachspezifischen Komplexität erhöhte sprachliche Hindernisse für NichtmuttersprachlerInnen hervorruft, wodurch das Verstehen und Behalten dieser Inhalte erschwert wird.
Im Rahmen der Empirie wurden ausgewählten Kursteilnehmenden die Unterrichtsinhalte in Form von intralingualen Übersetzungen in Leichter Sprache dargeboten und anschließend das Verstehen und Behalten dieser Inhalte anhand von Fragebögen überprüft. Die Ergebnisse sollen darlegen, ob der Einsatz von Leichter Sprache die Inhalte in Orientierungskursen für die deklarierte Zielgruppe zugänglicher macht und sie somit befähigt, besser am Diskurs innerhalb des Unterrichtskontexts zu partizipieren.