Adresse und Kontakt

AG Netzbasierte Informationssysteme
FU Berlin
Königin-Luise-Straße 24-26
14195 Berlin

Tel.: +49-30-838-75221
Fax: +49-30-838-75220

This site is no longer maintained. You see a static copy as of April 1 2016.

Kurs Complex Network Analysis mit R

2-stündig, ECTS: 2

Dozenten:Claudia Müller-Birn
Sprache:Deutsch/englische Folien
Mailingliste:
Zeitraum:21.02.2011 bis 25.02.2011, Takustraße 9, SR 005
Haupttermine:Blockkurs: Vormittags Vorlesung 9:00-12:00 Uhr, Nachmittags Besprechung/Diskussion der Ergebnisse von 16:00 – 17:30 Uhr
maximale
Teilnehmerzahl
20
Inhalt:Die Veranstaltung gibt eine Einführung in R, eine Programmiersprache und Softwareumgebung für statistisches Rechnen und Grafiken. Wir werden uns in diesem Kurs insbesondere mit igraph, einer Bibliothek zur Analyse komplexer Netzwerke, auseinandersetzen. 

Unter Nutzung von Datensätzen, wie beispielsweise von Twitter, Enron E-Mail Kommunikation, Web Graph oder GNOME, werden wir neben den theoretischen Grundlagen zur Analyse von Netzwerken auch die dafür notwendigen Funktionen kennenlernen. Ein theoretischer Schwerpunkt wird auf dem Bereich Community Detection liegen.

Teilnehmer des Kurses werden Erlerntes selbstständig an einem speziellen Datensatz anwenden und schrittweise bestehende Eigenschaften aufdecken. Am Ende der Veranstaltung werden die gesammelten Erkenntnisse im Rahmen einer Präsentation vorgestellt und diskutiert.

Voraussetzungen:Basic knowledge of network analysis and GNU R are preferable but not required.
Literatur:Crawley, Michael J.: The R book. Wiley, 2007.
Spector, Phil: Data Manipulation with R. Springer, 2008.
Newman, Mark: Networks: An Introduction. Oxford University Press, 2010.
Dorogovtsev, Sergey: Lectures on Complex Networks, Oxford University Press, 2010.
Leistungs-
nachweise
Attending the morning and afternoon class
(only
[...Weiterlesen/more...]

Normennetzwerke: Werkzeug zur Generischen Analyse von Standards

Normen und Standards sind Voraussetzung für erfolgreiche vernetzte Systeme aller Art. Dies reicht von naheliegenden offenen Systemen wie dem Web bis zu Alltäglichkeiten wie einer europaweit einheitlichen Stromsteckdosenform. Die Standards und Normen selber sind zumeist sehr strukturierte Dokumente, da oft über ihre Form eine Norm oder ein Standard existiert.

Elektronische Dokumentensammlungen wie die W3C Standards, die Standards der ECMA oder die wenigen frei zugänglichen ISO Standards stellen Normen und Standards kostenlos bereit. Interessant ist jeweils die Analyse der Verweisstruktur beispielsweise auf den Ebenen der Referenzierung oder der Erweiterung oder Neuformulierung von Standards und Normen. Die Bachelorarbeit Normennetzwerke: RFCs
an der FU Berlin hat dies exemplarisch für die RFC-Standards gezeigt.

In der ausgeschriebenen Arbeit soll dieser Vorgehensweise verallgemeinert und ein Analysewerkzeug für Normennetzwerke erstellt werden. Algorithmen und Werkzeuge sollen konfigurierbar sein in Bezug auf:

  • Startpunkt der Analyse im Web und deren Struktur zum Auffinden einzelner Standards
  • Dokumentenstruktur und Extraktionskonfiguration
  • Charakteristische Referenzierungsweise anderer Normen
  • Charakteristische  Markierung von Überarbeitungen
  • Ermittlung von Netzwerkmetriken

Art der Arbeit: Diplom- oder Masterarbeit

Voraussetzungen: Kenntnisse in Textextraktion,  Crawling, Netzwerkanalyse, Statistik

Betreuer: Prof. Robert Tolksdorf

Weitere Informationen: Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Firmennetzwerke: Startups und Finanzierungen

Websites wie deutsche-startups.de oder gruenderszene.de listen regelmäßige Neuigkeiten zu Finanzierungen, Beteiligungen, Übernahmen und auch Insolvenzen zu deutschen Startups. Weiterhin sind Verzeichnisse von Startups und Investoren vorhanden. Unternehmen und Investoren bilden durch die Verbindung über Investments in einem Netzwerk. Im Rahmen dieser Arbeit soll dieses Netzwerk ermittelt und analysiert werden.

Dazu müssen die verteilt vorliegenden Online-Informationen geeignet analysiert werden. In der Arbeit sind die Informationen von den genannten Sites zu extrahieren (z.B. durch einen Crawler, einen Screen Scraper wie scrapy oder geeignete eigene Scripte). Nach der Extraktion des genannten Netzwerks mit mehreren Kanten- und Knotentypen ist eine Analyse der sich ergebenden Netzwerkstruktur und dessen temporale Entwicklung mit Hilfe eines geeigneten Werkzeugs durchzuführen. Insgesamt sollen Aussagen über die Struktur des deutschen Beteiligungsmarktes für IT-Startups gemacht werden.

Art der Arbeit: Studien- oder Bachelorarbeit

Voraussetzungen: Kenntnisse in einfacher Textextraktion, Netzwerken, Statistik

Betreuer: Prof. Robert Tolksdorf

Weitere Informationen: Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Kunstnetzwerke: Künstler und öffentliche Nennungen

Im Kunstmarkt existiert eine fachspezifische Öffentlichkeit die einerseits inhaltliche Diskussionen führt, andererseits auch den Marktwert von Kunst durch die Häufigkeit und Qualität der Nennung von Künstlern beeinflusst. Zum Portfolio eines Künstlers gehört zunehmend auch eine Sammlung öffentlicher Nennungen, das Archiv des Fotographiekünstlers Michael Najjar ist ein Beispiel für die Vielfalt solcher Nennungen.

In der Arbeit soll ein System erstellt werden, das regelmäßig Medien die sich mit Kunst beschäftigen (Zeitschriften, Web-Sites – Liste1 oder Liste2 aber auch Kunstsendungen im TV) durchsucht und Nennungen ermittelt. Dazu ist jeweils eine Art Inhaltsverzeichnis zu klassifizieren und darin Namen zu ermitteln. Diese Namen sollen dann als Netzwerk in Verbindung mit dem sie nennenden Medium gesetzt werden. Auf diesem Netzwerk ist eine Analyse über übliche Netzwerkmetriken durchzuführen die auch temporale Aspekte berücksichtigt („Künstler X wird in letzter Zeit auffällig häufig genannt“). Sämtliche Software ist unter die BSD oder Apache Lizenz zu stellen.

Art der Arbeit: Diplom- oder Masterarbeit

Voraussetzungen: Kenntnisse in grundlegenden Web-Technologien und Netzwerken

Betreuer: Prof. Robert Tolksdorf

Weitere Informationen: Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Seminar Netzwerke

2-stündig, ECTS: 4

Dozenten:Robert Tolksdorf
Sprache:Deutsch
Mailingliste:Bitte bei https://lists.spline.inf.fu-berlin.de/mailman/listinfo/nbi_s_netzwerke anmelden! Alle Teilnehmer müssen sich in diese Mailingliste eintragen.
Zeitraum:20.10.2010 bis 16.02.2011
Haupttermine:Mittwoch 14 – 16 Uhr – Königin-Luise-Str. 24-26 SR 017
maximale
Teilnehmerzahl
30 (An-/Abmelden)
Inhalt:Was haben Gnutella, Epidemiewellen, soziale Beziehungsmuster und die Linkstruktur des WWW gemeinsam? Jedem dieser Phänomene liegt eine Form der Vernetzung zugrunde. Die Analyse dieser unterschiedlichen Formen der Vernetzung zeigt, dass ihnen durchaus gewisse Gesetzmäßigkeiten gemeinsam sind (z.B. Power Laws, Small-World-Phänomen). Ergebnisse einer solchen Analyse helfen dabei z.B. die Performanz von Peer-to-Peer-Systemen zu steigern und Epidemien einzudämmen.In dem Seminar werden wir uns mit Grundlagen und Anwendungen der Netzwerkanalyse beschäftigen. Ungefähr die Hälfte des Semesters findet ein Programm Seminarreferaten zu ausgewählten Themen statt. In der zweiten Hälfte werden wir ein kleines Software-Projekt durchführen bei dem ein  konkreter Datensatz eines Netzwerkes analysiert und ausgewertet wird.
Voraussetzungen:Voraussetzungen: Grundkenntnisse in Graphentheorie, passive Englischkenntnisse
Literatur:[New04] M. E. J. Newman. The Structure and Function of Complex Networks. SIAM REVIEW, Vol. 45,No . 2,pp . 167–256 (http://www-personal.umich.edu/~mejn/courses/2004/cscs535/review.pdf

[Cal07] Guido Caldarelli. Scale-Free Networks: Complex Webs in Nature and Technology. 2007. Oxford University Press. (http://www.scale-freenetworks.com/)

[HMM00] Ivan Herman, Guy MelancËon, and

[...Weiterlesen/more...]

Visualisierung von Ontologienutzungsdaten in SONIVIS

Die Analyse der Nutzung von Webseiten stellt schon heute eine wichtige Grundlage für bedarfsorientierte Angebote im Web dar. Kommen die Technologien des Semantic Web zur Anwendung, wird diese Analyse ungleich schwieriger, weil reine HTTP-Antworten des Servers zum Beispiel keine Aussage darüber zulassen, ob und welche Daten durch eine SPARQL-Anfrage an einem Endpoint gefunden wurden. Für die Betreiber von semantischen Datenrepositories verbergen sich aber hinter ebendiesen Infomrationen interessante Rückschlüsse auf die Qualität der Daten im Bezug zu den Anforderungen der Nutzer bzw. der Anwendungen, die diese Daten nutzen. Im Rahmen eines Promotionsvorhabens wurde eine Methode zur Sammlung solcher Nutzungsinformationen entworfen und implementiert und es liegen erste Beispieldaten über die Nutzung des DBpedia 3.3 Datensets vor.

Im Rahmen dieser Arbeit sollen nun die Beispieldaten und die ihnen zugrunde liegenden Ontologien durch eine Erweiterung der quelloffenen Software SONIVIS als Netzwerk visualisiert werden. Darüberhinaus sollen, ebenfalls für das SONIVIS Tool, Metriken entworfen und implementiert werden, die unterschiedliche Sichten auf diese Netzwerke ermöglichen. Ein Beispiel hierfür wären sogenannte Heat Maps, d.h. eine Visualisierung, die anhand der Anfragehäufigkeit Konzepte der Ontologie größer oder kleiner darstellt.

Art
Bachelor- oder Studienarbeit

Voraussetzungen
Kenntnisse in Programmierung mit Java und dem Umgang mit Eclipse. Kenntnisse in RCP Entwicklung von [...Weiterlesen/more...]

Normennetzwerke: RFCs

Die Requests for Comments, RFCs definieren die Standards des Internet. Der Korpus dieser Dokumente liegt in verarbeitbarer und weit regulierter Form vor.Dokumente sind in verschiedene Kategorien eingeordnet.

Aufgabe dieser Arbeit ist die Erfassung und Analyse des kompletten RFC Korpus als Netzwerk. Beziehungen darin umfassen die definierten und in Metadaten erfassten „Obsoletes xxx“, „Obsoleted by xxx“, „Updates xxx“, „Updated by xxx“ aber auch das durch Referenzen sich ergebende Zitationsnetzwerk zu weitern RFCs einerseits und zu externen Quellen andererseits.

In der Arbeit soll eine Erfassung der vorliegenden RFC Dokumente erfolgen, eine Extraktion der Beziehungen zu anderen Dokumenten und Standards sowie eine Analyse der sich ergebenden Netzwerkstruktur mit Hilfe eines Werkzeugs wie SONIVIS erfolgen.

Die Arbeit wurde von Maciej Wienszczak bearbeitet und liegt als PDF vor: „Analyse des Normennetzwerks der Internet Requests for Comments„.… [...Weiterlesen/more...]

Kunstnetzwerke: Werke, Künstler und Auktionen

Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken und Auktionshäuser, die Werke von Künstlern auf dem sog. 2. Markt an Museen und Sammler versteigern. Kunstauktionen werden mittlerweile von umfangreichen Online-Katalogen begleitet, die Gebotsabgabe über das Internet ist möglich und auch Ergebnislisten werden online bereitgestellt. Aufgrund der individuellen Insellösungen von Auktionshäusern ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstauktionsmarkts zu bilden. Kommerzielle Dienste wie artprice.com oder artfacts.net sind vergleichsweise hochpreisig.

In dieser Arbeit sollen Informationen über in Auktionen gehandelte Werke und deren Künstler ermittelt und mit Hilfe einer Netzwerkanalyse Strukturen des 2. Markts identifiziert werden. Verzeichnisse von Auktionshäusern wie von kunstmarkt.com erfassen relevante Sites und liefern Ausgangspunkte für einen Crawler, der beispielsweise auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist. Aus Online-Katalogen sollen angebotene Künstler und Werke extrahiert werden und geeignet ein Netzwerk erstellt werden. Mit dem Tool SONIVIS sollen dann Analysen zu Netzwerkeigenschaften durchgeführt werden und deren Ergebnisse sowie das Werke-Künstler-Auktionshaus-Netzwerk online dargestellt werden. Sämtliche Software ist unter die BSD oder Apache Lizenz zu stellen.

Art der Arbeit: Diplom- oder Masterarbeit

Voraussetzungen: Kenntnisse in grundlegenden … [...Weiterlesen/more...]

Kunstnetzwerke: Künstler und Galerien

Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken, Galerien die die Werke von Künstlern auf dem sog. 1. Markt vermarkten sowie Museen und private Sammler die Werke ankaufen sowie weiter Intermediäre die Öffentlichkeit herstellen. Künstler, Galerien und Museen haben in den letzten Jahre erkannt, dass ihre Online-Repräsentanzen notwendig für das Funktionieren des Kunstmarkts sind. Aufgrund der sehr losen Organisation ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstmarkts zu bilden.

In dieser Arbeit sollen mit Hilfe einer Netzwerkanalyse solche Strukturen identifiziert werden. Als Künstler sollen dabei jene gelten die von deutschen oder deutschsprachigen Galerien vertreten werden. Dazu müssen die verteilt vorliegenden Online-Informationen geeignet analysiert werden. In der Arbeit ist dies durch einen Crawler zu automatisieren, der auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist.

Galerieverzeichnisse wie bei artfacts oder beim Bundesverband Deutscher Galerien und Editionen e.V. müssen geeignet analysiert werden um Listen mit Netzadressen von Galerien zu ermitteln. Auf den Galerie-Sites muss dann durch eine Heuristik die Liste der von der Galerie vertretenen Künstler ermittelt werden. Aus diesen Informationen – eventuell angereichert um Metainformationen wie Stilrichtung … [...Weiterlesen/more...]

Webrings

Webrings sind eine sehr alte Struktur im Web mit der thematisch ähnliche Sites über ein externes Navigationselement verknüpft werden sollen. In der Arbeit soll statistisch geprüft werden ob dies erreicht wird.

Ausgehend vom Verzeichnis von Webrings bei www.webring.com soll zunächst die Strukturen von Webrings (Größe und Konnektivität) analysiert werden. Weiterhin sollen jeweils miteinander verbundene Site auf Ähnlichkeit überprüft werden (Indexierung z.B. mit Lucene und Berechnung des Dokumentenabstands) sowie die Auswirkung auf die Popularität der verbundenen Sites anhand ihres Pageranks (statischer Vergleich des Pageranks innerhalb des Webrings mit dem vondurch google als ähnlich identifizierten Sites ausserhalb des Webrings) analysiert werden.

Art der Arbeit

Studien- oder Bachelorarbeit

Voraussetzungen

Kenntnisse in Web Technologien, Information Retrieval, Netzwerke

Betreuer

Prof. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

AG Netzbasierte Informationssysteme, http://www.ag-nbi.de
Königin-Luise-Straße 24-26, 14195 Berlin, Tel.: +49-30-838-75221, Fax: +49-30-838-75220