Ring­vor­le­sung

Som­mer­se­mes­ter 2011: Ver­teil­te Sys­te­me - So­zi­a­le Net­ze

In der Informatik stellt der ?bergang vom Client/Server-Prinzip zu verteilten und Peer-to-Peer-basierten Architekturen einen Paradigmenwechsel dar, der neue Anforderungen an Entwickler stellt. In verteilten Systemen wirkt eine Vielzahl von Einzelrechnern zusammen und es ergeben sich Wechselwirkungen zeitgleich ablaufender, unabh?ngiger Prozesse. Dabei bilden sich in gro?en Datenmengen und deren Verarbeitung Muster und Strukturen heraus, die nicht auf intentionale Strategien verantwortlich handelnder Subjekte zurückzuführen sind. Die Netzwerkforschung in den Sozialwissenschaften untersucht, wie in den Relationen von Individuen soziale Strukturen entstehen und sich stabilisieren. Auch hier greift man auf mathematische Modelle zurück, um lokale Prozesse in ihrem Zusammenwirken zu fassen; dabei werden m?gliche Verbindungen operationalisierbar gemacht, ohne vorab festzulegen, welche Art von Beziehungen in diesen Verbindungen realisiert wird. An die Netzwerkforschung knüpfen sich vielf?ltige Hoffnungen, bottom-up-Prozesse zu beschreiben und zu steuern. Zwischen Rechnernetzen und sozialen Netzen bestehen also vielf?ltige Verbindungen, Wechselwirkungen, ?berschneidungen und Analogien. Beide Ph?nomene zeichnen sich dadurch aus, dass es keine zentrale Instanz gibt. Die Verbindungen zwischen den einzelnen Elementen sind variabel. Innerhalb dieser 'Infrastruktur' k?nnen unterschiedliche Formen von Kooperation oder 'Verkehr' entstehen. Struktur l?sst sich als innere Ordnung fassen, die sich im Verkehr ausformt und eine gewisse zeitliche Stabilit?t gewinnt.

Raum: E5.333

Zeit immer: 18.15h

Plakat (PDF) | Flyer (PDF)

______

 

Dienstag 19.4. |

Felix Stalder (Zürich)
Verteilen und Zentralisieren. Soziale und Technische Dynamiken in Netzen



Es ist unbestreitbar, dass es einen Zusammenhang zwischen technischer und sozialer Entwicklung gibt. Aber welchen? Die Frage stellt sich mit besonderer Dringlichkeit bei den neuen sozialen Medien (Facebook, Twitter, Piratebay, Wikileaks) in Bezug auf ihre zentralisierenden, beziehungsweise de-zentralisierenden Effekte. Anstatt zu versuchen, diese Frage generell zu beantworten und damit in wohl bekannte Muster der Euphorie oder Depression zu verfallen, soll die Frage in Bezug auf verschiedene Layers, Architekturen und Anwendungsbereiche untersucht und die Gleichzeitigkeit beider Tendenzen in den Blick genommen werden.



Dienstag 17.5. |

Hannes Hartenstein (Karlsruhe)
Was wissen andere über mich? ?ber den Informationsfluss von Identit?tsinformation



Ob Integriertes Informationsmanagement oder Web 2.0, identit?tsbezogene IT-Dienste durchziehen unser Leben. Wir analysieren zun?chst Fallbeispiele aus den Bereichen der ?ffentlichen K?rperschaften, der Peer-to-Peer-Netze und der sozialen Netze in Bezug auf den Informationsfluss von Identit?tsinformation. Als zentrale Themen betrachten wir dann die Sicherstellung von Konsistenz sowie die M?glichkeit der Korrelation von Identit?tsdaten und stellen aktuelle Ans?tze zur Modellierung sowie zur Steuerung des Informationsflusses dar. Zum Abschluss gehen wir der Frage nach, inwieweit Konsistenz- bzw. Korrelations-Automatismen Dienstbetreibern und -nutzern helfen k?nnen, das Recht auf informationelle Selbstbestimmung tats?chlich umzusetzen.



Montag 30.5. | 14-20 Uhr 


Interdisziplin?rer 360直播吧 'Verteilte Systeme - Soziale Netze'



Mit: Gabriele Gramelsberger, Odej Kao, J?rg Müller-Lietzkow und Torben Weis

InformatikerInnen und KulturwissenschaftlerInnen diskutieren über verteilte, technische Systeme, soziale Netze und deren Verh?ltnis. An konkreten Beispielen stellen sie ihre Zug?nge und Ergebnisse vor. Es geht um neue Konzepte der komplexen Datenverarbeitung in der Klimaforschung (Kao) und um die Rückwirkung massiv paralleler Datenverarbeitung auf die Forschungspraxis (Gramelsberger). Untersucht wird, ob und wie der Erfolg von Online-Spielen voraussehbar ist (Müller-Lietzkow). Techniken der Selbstorganisation und Kontrolle rücken in den Fokus, wenn Online-Spiele nicht durch einen zentralen Server verwaltet werden (Weis).

 

14 Uhr Beginn des 360直播吧s

Odej Kao (Informatik, Berlin)
Stratosphere - Informationsmanagement mit Cloud Computing



Forschung, Wirtschaft und Nutzer im Web produzieren immer gr??ere Datenmengen. Diese enthalten wertvolle Informationen, welche aufgrund ihrer schieren Gr??e jedoch nicht mehr von einzelnen Rechnern verarbeitet werden k?nnen. In der DFG-Forschergruppe 'Stratosph?re'  untersuchen Forscher aus Berlin und Potsdam neue Methoden, um die Rechenkraft gro?er Computer-Cluster einfacher nutzbar machen. Die dort entwickelten Technologien zur Virtualisierung und Parallelisierung in der Cloud erm?glichen auch Anwendern, die keine eigenen Rechenzentren besitzen, kostengünstige und ressourceneffiziente komplexe Datenanalysen. Dabei stehen die Entwicklung eines Programmiermodells sowie einer massiv-parallelen, adaptiven, robusten Ausführungsumgebung und deren Anwendung in drei Szenarien (Analyse von Klimasimulationen, Datenreinigung von Linked Open Data und Analyse von gro?en Textmengen für die Lebenswissenschaften) im Vordergrund der Forschung. Die Technologien, die im Projekt entstehen, werden der Forschungsgemeinde als Open Source zur Verfügung gestellt.


Gabriele Gramelsberger (Wissenschaftsphilosophie, Berlin/K?ln)
Die Vernetzung der Klimaforschung - Grid Computing, Community-Plattformen und -Modelle



Die Meteorologie bzw. Klimaforschung ist seit jeher eine hochgradig vernetzte Wissenschaft. International koordinierte Messkampagnen werden seit den 19. Jahrhundert durchgeführt. Diese Kampagnen erzeugen mittlerweile Datenfluten im Exabyte Bereich, die zudem mit ebenso umf?nglichen Datenvolumen der Wetter- und Klimamodelle erg?nzt werden.  Daher geh?rt die Klimaforschung zu den Daten-intensivsten Wissenschaften überhaupt und die Nutzung verteilter Computerressourcen (Grid Computing, Gateways, Community Plattformen) ver?ndert seit rund einem Jahrzehnt nicht nur die Forschungsinfrastruktur, sondern das Forschen selbst. Der Beitrag wird die Auswirkungen dieser Entwicklung skizzieren und die Frage nach einem neuen Typus von Forschung aufwerfen.


16 Uhr Pause

Torben Weis (Informatik, Duisburg)
Selbst-Organisation in Peers@Play



Aktuelle Online-Spiele wie beispielsweise "World of Warcraft" basieren auf dem Client/Server Paradigma. Das bedeutet, dass der Zustand der virtuellen Welt auf einem Server vorgehalten wird, der zu jedem Zeitpunkt wei? wo sich alle Spieler befinden und was sie dort tun. Das ist eine technisch naheliegende L?sung. 360直播吧 hat aber den Nachteil, dass hohe Kosten anfallen, weil der Spieleanbieter immer genügend Serverkapazit?t vorr?tig halten muss.

Ziel des Peers@Play Projekts ist es, solche Online-Spiele ohne zentralen Server zu realisieren. Hierfür müssen sich die PCs der Spieler (die Peers) selbst organisieren, um eine konsistente virtuelle Welt zu realisieren.

Der Vortrag wird Techniken der Selbst-Organisation vorstellen, die es erlauben, den Weltzustand gleichm??ig auf alle Peers zu verteilen, so dass jeder Peer nur einen Teil der Welt verwalten muss. Da Spieler oft geneigt sind zu betrügen, besteht eine der gr??ten Herausforderungen auf diesem Gebiet darin Betrug zu verhindern oder zumindest a posteriori nachweisen zu k?nnen. Auch hierfür werden einige Techniken vorgestellt.


J?rg Müller-Lietzkow (Medienwissenschaften, Paderborn)
Do you know the next big thing – or what your neighbor is going to play? Why markets for Social Gaming are nearly unpredictable



Konnte man vor gut 12 Monaten ahnen, dass z. B. ein einzelnes Spiel innerhalb von knapp 4 Monaten über 100 Mio. Spieler findet? Hat die Forschung die M?glichkeit vorauszusehen, was in den sozialen Netzen das n?chste gro?e Spiel sein wird? Sind die bisher gemessenen Indikatoren national wie international hilfreich bei der Prognose zukünftiger Entwicklungen? Viele Fragen in diesem Feld sind nicht allein durch statistische Modelle zu kl?ren. Die klassischen Hilfsmittel der traditionellen Spieleindustrie – Marktdaten und Entwicklungen – lie?en sich anwenden, solange das Konsumentenprofil einigerma?en vorhersagbar war. 360直播吧 erkl?ren aber den Umbruch nicht, der in sozialen Netzwerken und den entsprechenden Spieleplattformen stattfindet. Einerseits gehen viele von einem Random Walk im Kontext der Hitbildung aus, andererseits - und da setzt der Vortrag an - gibt es dennoch Ansatzpunkte bestimmte Entwicklungen zumindest im Kern zu prognostizieren. Der Vortrag gliedert sich dabei in 4 Teile:
  • A (very) brief history of social gaming - Die sehr kurze Geschichte des Spielens in sozialen Netzwerken
  • Facts and figures about social gaming markets and production - Einiges zu den industriellen Grundlagen
  • There is one winner, but how many losers? - Wie stark ausdifferenziert ist der Markt?
  • An outlook based on facts as on fiction. - Ein Ausblick auf Erwartbares und nicht Erwartbares auf Basis von Fakten und Fiktion.

Kurze Pause

18.30 Uhr Abschluss-Diskussion (Moderation: Irina Kaldrack und Theo R?hle)


Dienstag 14.6. |

Elena Esposito (Modena)
Die R?tsel der web-intelligence



Smart environments, e-learning, predictive machines, intelligent devices: viele der Themen und Projekte, die in letzter Zeit diskutiert werden, weisen auf eine Ver?nderung des Konzepts der künstlichen Intelligenz hin, die jetzt auf das Netzwerk als Ganzes und nicht mehr auf ein Bewusstsein oder auf seine Surrogate zurückzuführen ist. Es handelt sich aber um eine andersartige Intelligenz, die mit Strukturen und Verfahren arbeitet, welche die Prozesse des Bewusstseins nicht reproduzieren. Die Techniken der KDD und DM beabsichtigen, aus den verfügbaren Informationen weitere Informationen zu gewinnen, die von niemandem gedacht oder kommuniziert wurden, sondern von autonomen Prozeduren des Netzwerks produziert werden, ohne jeden Hinweis auf Bedeutungen oder auf Absichten.

Wie muss sich das Konzept von Intelligenz ?ndern, um diese Art von Verfahren einzuschlie?en? Welche Folgen k?nnen daraus gezogen werden, um die Auswirkungen der Technologie auf die Gesellschaft und auf ihre Begriffe zu verstehen (vor allem diejenigen, die sich auf reflexive Beziehungen wie Zeitkategorien oder die Behandlung der Privatsph?re beziehen)?



Dienstag 28.6. | Volker Grassmuck


Paradigmenwechsel peer-to-peer


In der Informatik stellt der ?bergang vom Client/Server-Prinzip zu verteilten und Peer-to-Peer-basierten Architekturen einen Paradigmenwechsel dar, formuliert das Forschungskonzept des Graduiertenduiertenkollegs Automatismen. Darauf bildeten sich soziale Netze, in deren Datenmengen Muster erkennbar seien, die nicht auf intentionale Strategien verantwortlich handelnder Subjekte zurückzuführen sind.

Der Vortrag gibt einen ?berblick über den Peer-to-Peer-Paradigmenwechsel, behandelt P2P-Produktion und P2P-Finanzierung und fokussiert dann auf P2P-Distribution und seine empirische Erforschung. Was wissen wir über Filesharing? Ist es angemessen, massive technische, juristische, soziale Instrumente für dessen Unterdrückung einzusetzen? Wie viel von dem, was wir dabei an Mustern erkennen k?nnen, ist auf intentional handelnde Subjekte zurückzuführen und wie viel auf ungeplante Strukturbildung, also Automatismen?

Achtung: Der Vortrag von Birger P. Priddat mit dem Titel "Idealistische Finanzm?rkte: Erwartungsmeinungshandel im Netzbetrieb" muss leider ausfallen.


______

 

Graduiertenkolleg ?Automatismen. Strukturentstehung au?erhalb geplanter Prozesse in Informationstechnik, Medien und Kultur“

 

Sprecher: Hannelore Bublitz, Hartmut Winkler
Verantwortlich für die Ringvorlesung: Holger Karl, Hartmut Winkler
Konzeption: Stefan H?rmann, Irina Kaldrack, Theo R?hle, J?rn Künsem?ller