Author: | Marcel Minke | ISBN: | 9783656360452 |
Publisher: | GRIN Verlag | Publication: | January 25, 2013 |
Imprint: | GRIN Verlag | Language: | German |
Author: | Marcel Minke |
ISBN: | 9783656360452 |
Publisher: | GRIN Verlag |
Publication: | January 25, 2013 |
Imprint: | GRIN Verlag |
Language: | German |
Doktorarbeit / Dissertation aus dem Jahr 2012 im Fachbereich Informatik - Angewandte Informatik, Note: 1,0, Universität Hildesheim (Stiftung) (Mathematik, Naturwissenschaften, Wirtschaft und Informatik), Sprache: Deutsch, Abstract: In der heutigen Informationsgesellschaft erweist sich der effiziente Umgang mit dem Produktionsfaktor Wissen als entscheidender Wettbewerbsfaktor. Aufgrund der geringeren Halbwertszeit des Wissens tritt das reine Faktenlernen zunehmend in den Hintergrund, das Lernen von Zusammenhängen gewinnt demgegenüber an Bedeutung. Diese Dissertationsschrift beschreibt einen auf der deutschen Wikipedia basierenden Prototyp, der zum einen zum automatisierten Abfragen von Zusammenhängen genutzt werden kann und zum anderen ein neuartiges didaktisches Konzept zum Lernen von Assoziationen einführt. Zur Definition von Wissensdomänen werden Algorithmen vorgestellt, die die einem Wikipedia-Artikel zugeordneten Kategorien auf vordefinierte Hauptkategorien aggregieren. Da Daten zu inhaltlichen Zusammenhängen zwischen verschiedenen Wikipedia-Einträgen bisher noch nicht erhoben wurden, stellt diese Arbeit solche Assoziationen anhand der semantischen Ähnlichkeit her, die durch zwei Programme namens Findlink und SENTRAX berechnet wird. Die so generierte Liste ähnlicher Artikel formt ein spezielles Netz, in dem die Knoten einzelne Wikipedia-Artikel darstellen und die Kanten inhaltliche Zusammenhänge abbilden. Die Assoziationen werden anschließend in die Oberfläche des Prototyps integriert und um Mechanismen zum Tracken der Benutzerinteraktion erweitert. Ein Kernproblem des Versuchsaufbaus stellt der Korpusumfang dar. Einerseits führt die enorme Artikelanzahl bei der Ähnlichkeitsberechnung durch Findlink zu Performanceproblemen, andererseits zeigen sich aufgrund der Vielzahl der Einträge Anomalien in der Netzstruktur der ähnlichen Artikel in Form vieler untereinander kaum verbundener Teilnetze. Als Problemlösungen werden mehrere Filterkriterien definiert und deren Auswirkungen auf den Korpusumfang skizziert. Zusätzlich wird ein eigenes Gütemaß eingeführt, das sich als hilfreich bei der Beurteilung der Relevanz eines Artikels erweist. Die im entwickelten Prototyp implementierten Konzepte ermöglichen das spielerische Lernen von Zusammenhängen durch die Bearbeitung zufälliger oder vordefinierter Navigationsaufgaben. Darüber hinaus kann der erstellte Prototyp als Ausgangspunkt für weitere Forschungen zum Lernen von Zusammenhängen dienen. Das implementierte Tracking der Benutzerinteraktion legt die Basis für spätere Auswertungsalgorithmen.
Doktorarbeit / Dissertation aus dem Jahr 2012 im Fachbereich Informatik - Angewandte Informatik, Note: 1,0, Universität Hildesheim (Stiftung) (Mathematik, Naturwissenschaften, Wirtschaft und Informatik), Sprache: Deutsch, Abstract: In der heutigen Informationsgesellschaft erweist sich der effiziente Umgang mit dem Produktionsfaktor Wissen als entscheidender Wettbewerbsfaktor. Aufgrund der geringeren Halbwertszeit des Wissens tritt das reine Faktenlernen zunehmend in den Hintergrund, das Lernen von Zusammenhängen gewinnt demgegenüber an Bedeutung. Diese Dissertationsschrift beschreibt einen auf der deutschen Wikipedia basierenden Prototyp, der zum einen zum automatisierten Abfragen von Zusammenhängen genutzt werden kann und zum anderen ein neuartiges didaktisches Konzept zum Lernen von Assoziationen einführt. Zur Definition von Wissensdomänen werden Algorithmen vorgestellt, die die einem Wikipedia-Artikel zugeordneten Kategorien auf vordefinierte Hauptkategorien aggregieren. Da Daten zu inhaltlichen Zusammenhängen zwischen verschiedenen Wikipedia-Einträgen bisher noch nicht erhoben wurden, stellt diese Arbeit solche Assoziationen anhand der semantischen Ähnlichkeit her, die durch zwei Programme namens Findlink und SENTRAX berechnet wird. Die so generierte Liste ähnlicher Artikel formt ein spezielles Netz, in dem die Knoten einzelne Wikipedia-Artikel darstellen und die Kanten inhaltliche Zusammenhänge abbilden. Die Assoziationen werden anschließend in die Oberfläche des Prototyps integriert und um Mechanismen zum Tracken der Benutzerinteraktion erweitert. Ein Kernproblem des Versuchsaufbaus stellt der Korpusumfang dar. Einerseits führt die enorme Artikelanzahl bei der Ähnlichkeitsberechnung durch Findlink zu Performanceproblemen, andererseits zeigen sich aufgrund der Vielzahl der Einträge Anomalien in der Netzstruktur der ähnlichen Artikel in Form vieler untereinander kaum verbundener Teilnetze. Als Problemlösungen werden mehrere Filterkriterien definiert und deren Auswirkungen auf den Korpusumfang skizziert. Zusätzlich wird ein eigenes Gütemaß eingeführt, das sich als hilfreich bei der Beurteilung der Relevanz eines Artikels erweist. Die im entwickelten Prototyp implementierten Konzepte ermöglichen das spielerische Lernen von Zusammenhängen durch die Bearbeitung zufälliger oder vordefinierter Navigationsaufgaben. Darüber hinaus kann der erstellte Prototyp als Ausgangspunkt für weitere Forschungen zum Lernen von Zusammenhängen dienen. Das implementierte Tracking der Benutzerinteraktion legt die Basis für spätere Auswertungsalgorithmen.