Archive for the ‘Wissenschaft’ Category

Das Internet – die Kommerzialisierung

Gebloggt am: 25.07.2016 von Corinna

Das Internet entstand im Umfeld der Wissenschaft. Ab den 1990ern konnte es auch von Laiennutzen genutzt werden. Das lag zum einen am Preisverfall der Computer-Hardware, zum anderen an der zunehmend benutzerfreundlichen Interaktionsebene zwischen Mensch und Computer. Welche Entwicklungen zum heutigen Internet geführt haben und die grundlegende Funktionsweise einiger Internetanwendungen sind im Folgenden erklärt.

Die Kommerzialisierung

Ab 1991 konnten in den USA das Netz auch kommerzielle Unternehmen nutzen. 1989 entwickelte Tim Berners-Lee am CERN im Genf, die Anwendung des World Wide Web (WWW), was auch zur Verbreitung des Internet außerhalb der akademischen Welt beitrug. Berners-Lee übertrug das Hypertextkonzept auf das Internet, um somit eine effiziente Informationsverwaltung von verfügbaren Wissen zu ermöglichen. (vgl. Braun 2010, s. 205). Dabei ermöglicht dieses Konzept statt einer einzig linearen Darstellung bei Stichwörtern direkt zur verlinkten Stelle zu springen, die den Kontext bzw. die Erklärung hierzu gibt. (vgl. Kirpal/Vogel 2006), was der ursprünglichen Anwendung (Verlinkung und Präsentation von verschiedenen Forschungsergebnissen und -materialien) hilfreich war. (vgl. Kirpal/Vogel 2006, S. 143). Daher nannte Berners-Lee diese Verknüpfungsweise auch World Wide Web. (vgl. Kirpal/Vogel 2006, S. 143).

Berners-Lee ist auch Entwickler des Hypertext Transfer Protocol (HTTP) und der Hypertext Markup Language (HTML). Das HTTP diente dazu, dass ein Computer im Internet nach bestimmten Dateien suchen konnte, die zu einem Dokument verknüpft werden sollten. (vgl. Kirpal/Vogel 2006, S. 143). Der Uniform Resource Locator (URL) war die Adresse der so erstellten Dokumente. Mittels HTML war des dem Browser möglich, die gefundenen Daten angemessen darzustellen. (vgl. Kirpal/Vogel 2006, S. 143f.)

Das WWW wurde auch durch die kostenlose Verfügbarkeit der ersten Browser ermöglicht, wie beispielsweise den Mosaic Browser der Universität Illinois, was 1994 jedoch zur Gründung der Firma Netscape führte.

Mitte der 1990er begannen immer mehr Entwickler ihre Programme und geschriebenen Lösungen nur gegen Lizenzgebühr weiterzugeben. Kirpal und Vogel führen drei Geschäftsmodelle des Internets auf: den Verkauf der Browsersoftware, der kostenpflichtige Zugang zum Internet, sowie das Internet als weiterer Absatzkanal für Produkte und Dienstleistungen (vgl. Kirpal/Vogel 2006, S. 144). Dem Kommerzialisierungsbestreben kam entgegen, dass mehr und mehr Privatpersonen Computer für den Privatgebrauch hatten und auch die Bedienung des Computers zunehmend benutzerfreundlich gestaltet wurde. (vgl. Kirpal/Vogel 2006, S. 144f.). In den 1990ern war es zunächst vor allem der gebührenpflichtige Internetzugang, der Gewinne versprach. Dabei kann sich der Internetnutzer über einen Knotenrechner des Internetproviders über ein Modem oder eine ISDN-Verbindung in das www einwählen. (vgl. Kirpal/Vogel 2006, S. 145).

Spannend ist in diesem Zusammenhang, dass die Verbreitung des Internets erst durch laienorientierte Innovationen kam, welche nicht von Forschern entwickelt wurden, sondern von ersten Nutzern bzw. Studenten der Computer Science, die die bisher sehr technikorientierte und wenig benutzerfreundliche Oberfläche umgestalteten. (vgl. Hellige 2006, S. 17). Da es die Erfinder des Internets zunächst nicht für den privaten Gebrauch entwickelt hatten, war die Nutzung des Internetnetzes so umständlich, dass es kaum jemand außerhalb der Expertenzirkel auf sich nahm. (vgl. Hellige 2006, S. 16). Erst mit der Einführung von „Graphic User Interfaces“ für Email oder Browser wurde es einfacher für den Laien den Computer zu bedienen. (vgl. Hellige 2006, S. 17).

Funktionsweise von World-Wide-Web -Anwendungen

Um eine Seite im Web aufzurufen, baut ein PC eine TCP-Verbindung mit dem Webserver auf. Der Browser auf dem Computer schickt dann eine Anfrage nach einer Webseite an den Server. Der Server liest nun entweder die angeforderte Seite oder erstellt sie dynamisch und schickt sie dann zurück an den PC. Das gleiche Prinzip wird bei E-Mails und der Internettelefonie verwendet. (vgl. Braun 2010, S. 205).

Neben dem reinen Aufrufen von Webseiten, gibt es nun auch Webservices. Dies „ist eine Softwareanwendung, die über einen Uniform Resource Identifier eindeutig identifizierbar ist und deren Schnittstelle über die Web Service Description Language beschrieben werden kann.“ (Braun 2010, S. 205). Somit  können  Softwareagenten direkt über XML-Nachrichten (eXtensible Markup Language) kommunizieren, was den automatisierten Datenaustausch erleichtert. (vgl. Braun 2010, S. 205).

Neue Ansätze in der Netzwerkverknüpfung

Statt des Client-Server-Modells nahmen in den vergangenen Jahren auch Peer-to-Peer-Netze (P2P-Netze) zu. In einem P2P-Netz sind alle beteiligten Computer gleichberechtigt, sodass jeder Computer Empfänger und Sender für Daten werden kann. Häufig werden P2P-Netze „zur Verbreitung von Suchanfragen nach Objekten verwendet.“ (Braun 2010, S. 206). Das heißt, dass beispielsweise Musikdateien häufig über solche Netzwerke ausgetauscht werden.

Sicherheit

Da das Internet nicht primär für eine kommerzielle Nutzung entwickelt wurde, wurde Sicherheit erst ein großes Thema als es für alle geöffnet wurde. (vgl. Braun 2010, S. 206).

Die Zukunft

Braun schreibt 2010, dass vor allem drahtlos kommunizierende Endsysteme wie Kleinstcomputer und Sensoren über Funk ihre Datenpakete austauschen werden. Dabei werden die Datenpakete über mehrere drahtlose Zwischen knoten transportiert. (vgl. Braun 2010, S.206f.)

Literaturverzeichnis

Braun, Torsten (2010): Geschichte und Entwicklung des Internets. In: Informatik Spektrum 33 (2), S. 201–207. DOI: 10.1007/s00287-010-0423-9 .

Hellige, Hans Dieter: Die Geschichte des Internet als LernprozessGI-Edition. stark erweiterte Neubearbietung von artec-paper 107, Nov.2003. artec – paper Nr. 138 2006. Online verfügbar unter https://www.researchgate.net/profile/Hans_Hellige/publication/37931469_Die_Geschichte_des_Internet_als_Lernprozess/links/552244d00cf2a2d9e14528b5.pdf, zuletzt geprüft am 17.03.2016.

Kirpal, Alfred; Vogel, Andreas (2006): Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web. In: N.T.M. 14 (3), S. 137–147. DOI: 10.1007/s00048-006-0239-5 .


Das Internet – Wer hat’s erfunden?

Gebloggt am: 18.07.2016 von Corinna

Es gibt Technologien, wie das Fernsehen, das Handy oder das Internet, welche man einfach nur benutzt. Aber wie funktioniert beispielsweise das Internet? Wie hat es sich entwickelt und wie wird sich das ganze vielleicht noch entwickeln?

Die Anfänge

Die Advanced Research Projects Agency  – das ARPA-Netzwerk

In den 1950ern arbeitete das amerikanische Militär bereits mit einem netzwerk zur Erfassung und Auswertung von Daten der Luftraumüberwachung, dem sogenannten SAGE-Net (Semi-Automatic -Ground Environment Network). Dieses Netzwerk verband bereits mehrere geographisch verteilte Computer, basierte jedoch im Gegensatz zum späteren Internet noch auf dem Time-Sharing-Konzept, “das es mehreren Nutzer gleichzeitig ermöglichte, auf einen Großrechner zuzugreifen und mit ihm zu arbeiten.” (Kirpal/Vogel 2006, S. 138).

1958 wird die Advanced Research Projects Agency in den USA gegründet vom Verteidigungsministerium. Ziel dieser Einrichtung war es die „angewandte Forschung im akademischen und universitären Einrichtungen besser zu koordinieren“ (Braun 2010, S.201).

Zur damaligen Zeit gab es nur einige Großrechner. Die erste Idee war es, dass mehrere Anwender gleichzeitig an einem Computer arbeiten können. Das „Time-Sharing“ (Braun 2010, S.201) bedeutet, dass „[d]ie Rechenzeit eines Computers (…) so aufgeteilt [wird], dass jeder Prozess oder jeder Benutzer den Eindruck gewinnt, dass das entsprechende Programm Fortschritte erzielt.“ (Braun 2010, S.201).

Der ARPA-Mitarbeiter Bob Taylor hatte 1966 die Idee, die geographisch verteilten Großrechner zu einem Netzwerk zu verbinden. So hätte man ohne teure Investitionen die Rechnerleistung erhöht. Dies scheiterte jedoch daran, dass die Anzahl der erforderlichen Leitung „proportional zuN2 ,mit N=Anzahl der zu verbindenden Computer.“ (Braun 2010, S.201) ist.

Um dieses Kapazitätsproblem zu lösen, schlug Wesley Clark 1967 vor, ein Netz von „Interface message Processors (IMP)“ (Braun 2010, S. 201) zu bilden. Das Gerät des IMP sollte die Kommunikation zu anderen Computern über weitere IMPs erledigen. (vgl. Braun 2010, S.201). Zu diesem Zeitpunkt wusste man jedoch noch nicht, wie diese Kommunikationstechnologie aussehen sollte. (vgl. Braun 2010, S.201). Diese Interface Message Processors entlasteten also das Endgerät, sodass sich der Endcomputer (Client) nicht auch noch um den Netzbetrieb kümmern muss. Der Client-Computer musste sozusagen nur zur Kommunikation mit einem IMP eingerichtet werden, konnte aber über den IMP mit anders programmierten Rechnern kommunizieren. (vgl. Kirpal/Vogel 2006, S. 139f.)

Zur gleichen Zeit/Ebenfalls in den 1960ern überlegte sich Paul Baran wie die Kommunikation des Militärs sichergestellt werden konnte im Falle eines atomaren Angriffs. Da die Fernmeldetechnik bis dato auf hierarchischen, zentralistischen Strukturen beruhte, bedeutete der Ausfall eines Kommunikationsknotens einen Abbruch der Nachrichtenübermittlung (vgl. Braun 2010, S.202). Daher konzipierte er ein Netz von gleichberechtigten Knoten („Maschennetz“ (Kirpal/Vogel 2006, S. 139), sodass eine Nachricht beim Ausfall eines Knotens noch weitere Möglichkeiten hatte um an den Empfängerknoten weitergeleitet zu werden. (vgl. Braun 2010). Für die Umsetzung seiner Idee kontaktierte er die amerikanische Telefonfirma AT&T, der das Konzept nicht gefiel.

Ein Grund hierfür ist, dass „Traditionelle Telefonnetze sind im Gegensatz zu Datennetzen verbindungsorientiert und streng hierarchisch aufgebaut [sind]“ (Braun 2010, S.202). Das bedeutet auch, dass bei der Datenübermittlung die Leitung komplett belegt wird für eine Verbindung. (vgl. Braun 2010, S.202) Das heißt, selbst wenn beispielsweise zwei Leute am Telefon schweigen und somit keine Daten in dem Sinn übertragen werden ist die Leitung blockiert, da sie für diese Kommunikation belegt ist. (vgl. Kirpal/Vogel 2006, S. 139). Für die Kommunikation zwischen den Computern hätte dies zwei Nachteile: Zum einen werden die vorhandenen Leitungen nicht optimal ausgenutzt, zum anderen muss eine Verbindung auf bzw. abgebaut werden, um die „nicht genutzte“ Leitung freizugeben für andere Daten, was zeitlich sehr ineffizient ist. (vgl. Braun 2010, S. 202)

Die Paketübermittlung zwischen Netzwerkknoten

Donald Davis, damals am National Physical Laboratory (NPL) tätig, entwickelte parallel zu Barans dezentralem Netz das Konzept der Paketvermittlung. Die Idee ist sämtliche Verbindungen zwischen den Netzknoten für die jeweiligen Daten aufzuteilen, sodass bei „Nichtbelegung“ einer Verbindung die Daten über diese Leitung gesendet werden können. Zudem werden die Daten in kleine „Datenpakete“ aufgeteilt, die unabhängig voneinander über das Netz zum Empfängerknoten geschickt werden, wo die einzelnen Datenpakete wieder zur ursprünglichen Nachricht zusammengesetzt werden. (vgl. Braun 2010, S. 202).

1968 initiierte Larry Roberts die Umsetzung der Ideen durch eine Verbindung von vier Universitätsgroßrechnern. Die technische Umsetzung inklusive der Softwareprogrammierung für die IMP-Struktur übernahm das Unternehmen BBN. (vgl. Braun 2010, S.202f.) Dabei mussten die Nutzer des Netzwerks jedoch ihren eigenen Rechner selbst so programmieren, dass der eigene Rechner mit dem IMP kommunizieren konnte. (vgl. Kirpal/Vogel 2006, S. 140). Die Datenübertragung erfolgte zu diesem Zeitpunkt noch über die Telefonleitungen.

Dennoch musste 1969 auch noch ein Programm bzw. Protokoll entwickelt werden, dass die Kommunikation zwischen den IMP und den Endgeräten ermöglichte. Dieses Protokoll wurde von der Entwicklergruppe um Vint Cerf als „request for comments“ (RFC) –Spezifikation benannt. (vgl. Braun 2010, S. 203.)

Zudem entwickelte diese Arbeitsgruppe verschiedene Anwendungen wie 1971 die erste E-Mail-Software sowie die Telnet-Spezifikation, die „zum entfernten Einloggen in andere Rechner“ (Braun 2010, S. 203) dient. Da zwar über dieses Telnet-Protokoll Verbindungen zu anderen Computern möglich waren, der Austausch von größeren Datenmengen jedoch nicht, wurde 1972 das File Transfer Protocol (FTP) entwickelt. (vgl. Kirpal/Vogel 2006, S.141). Ebenso musste in den 1970ern der Programmiercode angepasst werden, sodass mehr als tatsächlich mehrere IMPs miteinander kommunizieren konnten. (vgl. Hellige 2006, S. 22).

1973 wurde mit „Talk“ eine Art Präform des Chats umgesetzt. Später gab es auch Usenet News, „ein Dienst, um Nachrichten in ein Forum zu stellen und diese zu diskutieren.“ (Braun 2010, S. 203).

Die Universität Hawaii entwickelte in den 1970ern das „Aloha-Verfahren“ für lokale Funktnetze. Beim Aloha-Verfahren sendet ein Netzwerkknoten einfach ein Datenpaket und hofft, dass es beim Empfänger ankommt, was jedoch zu Kollisionen führen kann, wenn zwei oder mehr Rechner gleichzeitig senden. (vgl. Braun 2010, S. 203). Das Ethernet verbesserte dieses Verfahren, indem der Netzwerkknoten vor dem Senden des Datenpakets abhört, ob andere Knoten senden und solange die eigene Übertragung zurückstellt. (vgl. Braun 2010, S.203).

Diese Ideen ließ die Entwicklergruppe um Vint Cerf auch bei der Konzipierung des Kommunikationsprotokolls Network Control Protocol einfließen, was später das TCP (Transport Control Protocol) wurde. Dabei „regelt [das TCP] den zuverlässigen Datentransport zwischen Computern über unzuverlässige Netze.“ (Braun 2010, S.203).

Denn das Problem war, dass es zu diesem Zeitpunkt bereits mehrere unabhängige Netze gab, die man verbinden wollte. Aufgrund unterschiedlicher Standards zwischen den Netzwerken (bezüglich Datenpakten, Übertragungsgeschwindigkeit…) war es nicht möglich sie einfach auf Grundlage der ARPANET-Standards zu verbinden. Vielmehr entwickelten Vint Cerf und Rober Kahn die Idee von Gateway-Computern, die als Mittler zwischen den Netzwerken dienen sollten. Dabei sollten diese Gateway-Computer in jede Richtung als eine Art IMP arbeiten konnten und unter anderem die Größe der Datenpakete angepasst werden sollten. (vgl. Kirpal/Vogel 2006, S. 141f.).

Zunächst wurden Fehler bei der Übertragung im ARPANET durch benachbarte IMPs behoben. Im TCP wurde dies von den Endsystemen übernommen. 1977 wurde das TCP in TCP und IP (Internet Protocol) aufgeteilt. Hierbei ist das „IP (…) für das Weiterleiten von Paketen zwischen Quelle und Ziel verantwortlich. TCP sorgt für eine zuverlässige Kommunikation zwischen zwei am Internet angeschlossenen Computern.“ (Braun 2010, S. 204), da es die Daten vor dem Senden aufbereitet und etwaige Übertragungsfehler erkennt. (vgl. Kirpal/Vogel 2006, S. 142). Das IP ist für „das Routing zwischen den Netzwerkrechnern“ (Kirpal/Vogel 2006, S. 142) zuständig. 1983 löste das TCP/IP das Network Control Protocol komplett ab. Zwar gab es 1990 noch einen Versuch seitens der ISO ein vereinheitliches Protokoll zu entwerfen, letztlich setzte sich aber TCP/IP durch, da es bereits von den meisten genutzt wurde

Ab den 1980ern entstanden sowohl in den USA als auch in Europa viele solcher „Forschungsnetze“, welche die Universitäten miteinander verband und zumeist auf dem TCP/IP basierten.

Später wurden diese verschiedenen Einzelnetze zu einem großen Netz zusammengeschlossen. Zur Verbindung der Netze nutzte man Gateways (= Router), die die Rolle der IMP übernahmen. (vgl. Braun 2010, S. 204). Dabei sind mehrere solcher Einzelnetze regional häufig über ein Backbone-Netz miteinander verbunden. Solche Backbone-Netze werden meist von großen Internet Service Providern betrieben und sind untereinander wie international miteinander verbunden. (vgl. Braun 2010, S. 204).

Ab 1983 wurde im Internet das Domain Name System (DNS) eingeführt, dass der Verwaltung der Rechner- und Domänennamen diente. (vgl. Braun 2010, S. 205).

Die Vorformen des Internet waren also primär zur Vernetzung der Wissenschaftler und allenfalls noch im militärisch-staatlichen Bereich angedacht und umgesetzt. Entgegen der gezielten “Legendenbildung” einzelner Personen, die am Entstehungsprozess des Internet beteiligt waren, waren es jedoch nicht nur einzelne Genies aus den USA, die gezielt das Internet entworfen haben und zu dem gemacht haben, was es heute ist. Vielmehr waren es zu Beginn das mangelnde Geld um mehr teure Hardware zu kaufen, die das Time-Sharing-Konzept hervorbracht und später aufgrund von Effizienzüberlegungen zur Paketübermittlung von Daten führte. Zudem waren es die Ideen mehrerer Personen, welche die Internetentwicklung vorantrieben.

Literaturverzeichnis

Braun, Torsten (2010): Geschichte und Entwicklung des Internets. In: Informatik Spektrum 33 (2), S. 201–207. DOI: 10.1007/s00287-010-0423-9 .

Hellige, Hans Dieter: Die Geschichte des Internet als LernprozessGI-Edition. stark erweiterte Neubearbietung von artec-paper 107, Nov.2003. artec – paper Nr. 138 2006. Online verfügbar unter https://www.researchgate.net/profile/Hans_Hellige/publication/37931469_Die_Geschichte_des_Internet_als_Lernprozess/links/552244d00cf2a2d9e14528b5.pdf, zuletzt geprüft am 17.03.2016.

Kirpal, Alfred; Vogel, Andreas (2006): Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web. In: N.T.M. 14 (3), S. 137–147. DOI: 10.1007/s00048-006-0239-5 .


Offenheit

Gebloggt am: 29.05.2016 von Lisseuse

In der SZ steht ein Artikel zur historischen Entwicklung des Islam: “Eine Reformation im Islam ist sinnlos”. Der Artikel ist insgesamt sehr lesenswert, für alle, die sich für Ideen-Geschichte interessieren. Mir selbst ist aber vor allem folgende Aussage aufgefallen: Vor dem Kolonialismus sei es im Islam nicht nötig gewesen eine der Aufklärung vergleichbare Entwicklung zu haben. Stattdessen hätte es eine Verbindung von Religion und Philosophie gegeben, die zu toleranten, vielfältigen Gesellschaft geführt hätten. Viele unterschiedliche Strömungen hätten darin gleichzeitig Platz gehabt. 

Ich bin ja ein großer Fan davon immer neues positives von anderen dazu zu lernen. Und deshalb bin ich an diesem Artikel hängen geblieben: Manchmal habe ich nämlich den Eindruck, dass Toleranz und Akzeptanz von unterschiedlichen Ideen und Lebensentwürfen unserer westlichen Gesellschaft als selbstverständliches Element immer noch fehlt. Und nicht nur das: Unsere Gesellschaft wird immer und immer komplexer und die gewohnten Mechanismen zur Verringerung dieser Komplexität (hallo Luhmann!) scheinen mir nicht mehr zu funktionieren. Selbst wirklich intelligente Menschen scheitern in ihren Gesprächen regelmäßig daran, die Welt wenigstens ein bisschen zu erklären.

Mehr als je zuvor ist immer auch das Gegenteil wahr, kann man kaum noch etwas richtig machen. Ein paar überspitzte Beispiele: Ich kann aufhören Fleisch aus Massentierhaltung zu essen und auf Soja umsteigen, mache dann aber den Regenwald kaputt. Ich kann (fast) keine Kleidung kaufen, die nicht unter menschenunwürdigen Bedingungen hergestellt wurde. Von den Problemen, die die Herstellung Smartphones mit sich bringt, nicht erst anzufangen. Atomstrom ist doof, aber auch Windkraftanlagen sind ökologisch nicht unbedingt einwandfrei: sie sind schlecht für viele Vogelarten, bringen Fledermäuse um und bestehen aus schwer abbaubarem Sondermüll.

Kaum versucht mal also ein Problem zu lösen, steht man vor dem nächsten. Manchmal wundert es mich nicht, dass die Parteien und Gruppen, die einfache Lösungen versprechen, so viel Zulauf haben, wenn doch eigentlich alle überfordert sind.

Ich glaube, dass wir versuchen müssen mehr Offenheit in unsere Köpfe zu bringen. Angst aus Überforderung ist gefährlich – da muss man sich nur mal selbst beobachten. Und vielleicht ist es ein Weg, dass wir uns ansehen, dass Toleranz nicht gefährlich ist. Dass es möglich ist, dass verschiedene Wahrheiten gleichzeitig nebeneinander existieren können ohne dass Gesellschaften deshalb schlechter sind.

Ein weiteres gutes Beispiel dafür scheint mir übrigens der Artikel “Frauenherrschaft?” zu sein. Darin wird gezeigt, dass matriarchale Gesellschaften eben nicht Männer-unterdrückend sind, sondern einfach nur andere Organisationsstrukturen haben, als westliche Gesellschaften. Diese führen zu größerer Freiheit aller. (Ausgehend von diesem Artikel glaube ich ja, dass “Matriarchat” der falsche Begriff für solche Gesellschaften ist, weil er völlig falsche Assoziationen weckt.)


Arteducate – Hat er’s gemalt?

Gebloggt am: 17.03.2016 von Corinna

Zum Zeitvertreib bietet das Internet ein mannigfaches Angebot. Ein neues Spiel für Kunstliebhaber und Kunstinteressierte bietet Arteducate. Nach einer unkomplizierten Anmeldung (entweder als Neuregistrierung oder über Google/Twitter/Facebookaccount) kann man loslegen. Man kommt zunächst wieder auf die Startseite und muss dann oben rechts auf “Attribution” klicken.

Aus einer alphabetischen Liste Maler verschiedenster Epochen wählt man einen Künstler aus. Anschließend sieht der Spieler ein Bild und muss nur durch ein einfaches Klicken auf ein “Daumen-hoch”-Symbol bzw. “Daumen herunter”-Symbol entscheiden, ob das Bild vom ausgewählten Maler stammt oder nicht. Nach einer Reihe von bewerteten Bildern zeigt ein Prozentsatz an, wie viele Bilder man richtig zugeordnet hat. Zudem wird in einem Kreisdiagramm angezeigt, welche Bilder man richtig zugeordnet hat bzw. welche falsch.

Zum Zeitvertreib ist es gut geeignet, noch dazu hilft es der Forschung am Kunstinstitut der LMU, wie vergleichendes Sehen tatsächlich funktioniert. Da sich das Spiel erst noch in der Alpha-Phase befindet, gibt es selbstverständlich noch manches zu verbessern. So könnte man nach dem Einloggen sofort auf die Spielseite weitergeleitet werden ohne erst nach dem Feld “Attribution” suchen zu müssen. Leider werden auch nicht jeweils die Bilder mit Urhebernamen angezeigt, sondern nur die Namen der Künstler der vorher gezeigten Bilder. So lässt sich das Spiel sozusagen nur sinnvoll in eine Richtung spielen – “ich kenne diesen Künstler und kann Bilder zuordnen” und ein “ich kenne diesen Künstler noch nicht, möchte aber ihn kennenlernen über dieses Spiel” ist leider nicht möglich.

Wem dieses Spiel zu langweilig ist, dem sei nach wie vor ARTigo empfohlen, bei dem es mittlerweile auch noch mehr Varianten als in der Anfangsphase gibt.


Be inspired – Forschungsprojekte als Podcast

Gebloggt am: 19.11.2015 von Corinna

Durch Zufall bin ich auf die Seite “Stimmen der Kulturwissenschaften” von Daniel Meßner gestoßen. Selbst Forscher, möchte er mit der Seite Dissertationsprojekte der Kulturwissenschaften auch außerhalb des engen wissenschaftlichen Raum bekannt machen. Die Podcasts dauern zwischen 60 – 90 Minuten, in denen im Interview ein Doktorand sein Projekt vorstellt. Sehr praktisch ist auch die Anzeige von “Kapiteln” innerhalb des Podcasts, sodass man je nach Lust und Laune gezielt bestimmte Abschnitte hören bzw. wiederhören kann. Thematisch sind unterschiedliche Bereiche der Kulturwissenschaften abgedeckt.

Also los – lasst euch von den verschiedenen Forschungsprojekten inspirieren!


Historische Trivia

Gebloggt am: 18.05.2015 von Lisseuse

Schon 1733 berichtet Julius Bernhard von Rohr über Aufzüge! Also genauer gesagt über Fahrstühle:

[Er meine Ergänzung] berichtete des Weiteren über “einige grosse Herren”, denen Treppen zu steigen “incommode” sei. Für sie habe man “in den neueren Zeiten bequeme Sessel erfunden,” die “an einem Gewichte hängen”. Ohne auf den Stufen immer mal wieder verschnaufen zu müssen, könnten die Herren nun “aus einem Zimmer in das andere fahren”. Im Stadtschloss zu Dresden und in dem zu Altenburg seien solche Fahrstühle […] eingebaut. (Zitiert nach Heinrich Dily: Stumme Diener in Wörlitz. In: Holm/Dilly: Innenseiten des Gartenreichs. S. 160)

 

Die erste Industrieschule des Kurfürstentums Hannover war in Göttingen. In Industrieschulen lernten die Kinder

das Verarbeiten von Flachs, Wolle und Baumwolle, das Spinnen und das Weben, sowie das Stricken, Knütten [= niederdeutsch für Stricken, zumindest laut zeno.org], Netzen, Nähen, Waschen, Bügeln, Stopfen, Klöppeln und andere verarbeitenden Methoden, sowie Feld- und Gartenarbeit, Bienen- und Seidenraupenzucht; zusätzlich sollten sie zur Pünktlichkeit, zum Eifer, Fleiß, zur Ordnung und zu fehlerfreiem Arbeiten erzogen werden. (Zitiert nach Britta Schlaefke: Geschichte und Ziele des Handarbeitsunterrichts. In: “Langes Fädchen – faules Mädchen” S. 12)

Bienen- und Seidenraupenzucht – wie praktisch…

Randbemerkung für meine Twittertimeline: Schade dass Knütten kein leckeres Hefegebäck mit Apfelfüllung sind 😉


Quellenkritik

Gebloggt am: 22.04.2015 von Lisseuse

Ich arbeite ja am liebsten zu historischen Themen. Sobald ich eine historische Quelle verwende, wird ein Aspekt sehr wichtig: Die Quellenkritik. Dabei handelt es sich um den äußerst wichtigen Prozess die verwendete Quelle einzuordnen. In der Kulturanthropologie in Göttingen wurde in meinem ersten Semester als Grundlagentext zu dieser Methode der Aufsatz “Archivalische Quellen und die Möglichkeiten ihrer Auswertung” von Silke Göttsch verwendet.1 Inzwischen habe ich diesen Aufsatz bestimmt 10 Mal gelesen. Ich kehre nämlich immer und immer wieder dazu zurück, wenn ich mit einer historischen Arbeit nicht mehr so recht weiter weiß.

Damit ich beim nächsten Mal vielleicht einfach mal meine Zusammenfassung lesen kann, schreibe ich sie hier auf. Dabei existieren bestimmt schon 3 verschiedene Exzerpte des Textes in meinen Unterlagen. Aber ich lasse mal den guten alten hermeneutischen Zirkel von Gadamer ins Spiel kommen: Bei wirklich jedem Mal lesen ist etwas anderes an diesem Text wichtig für mich.

Fragen der Quellenkritik nach Karl-Sigismund Kramer

  1. “Kritik der Echtheit” = ist eine Quelle (un-)bewusst gefälscht?
  2. “Kritik des Früheren oder Späteren” = was ist die Reihenfolge des Dargestellten?
  3. “Kritik des Richtigen” = wie ist eine Quelle intentional gefärbt?

Es geht also vornehmlich um die Fragen der Entstehung und Herkunft einer Quelle. Das ist wichtig, weil Quellen, die in Archiven aufbewahrt werden, Geschehenes und Handlungen Verschriftlichen. Sie sind nur das Ergebnis von tatsächlichem Geschehen. Aus diesem Grund muss man besonders darüber nachdenken, wie der Entstehungsprozess der Quelle ist, um dann Aussagen treffen zu können, wie früheres Leben gewesen sein mag.

Für historische Texte, die keine archivalischen Quellen sind, gibt Brigitte Bönisch-Brednich im Beitrag “Reiseberichte” im selben Sammelband Hinweise:

  1. Welches Text-Genre verwendet man? Wie ist dieses historisch einzuordnen?
  2. Welche Autoren schreiben? Wie bilden sich deren Sichtweisen in den Texten ab?
  3. Welche Quellen haben diese Autoren möglicherweise verwendet?

Auch hier geht es vor allem darum sich die Bedingungen unter denen ein Text produziert wurde so bewusst wie möglich zu machen, um so der Gefahr zu entgehen Annahmen aus dem Text unbemerkt zu übernehmen und sich nicht genügend von der Quelle zu distanzieren.

  1. In: Silke Göttsch, Albrecht Lehmann (Hgg.): Methoden der Volkskunde. Positionen, Quellen, Arbeitsweisen der europäischen Ethnologie. Berlin 2007.

Auszüge aus dem “Journal des Luxus und der Moden”

Gebloggt am: 19.02.2015 von Lisseuse

Hier ein paar Fundstellen aus der Quelle für meine Masterarbeit, die ich leider nicht verwenden werde können, die aber viel zu großartig sind, um sie für mich zu behalten.

In einem Artikel über Arbeitsbeutel, die Damen in Ermangelung von Kleidertaschen mit sich führen müssen, findet sich diese Fußnote:

Glückskekse im 18. Jahrhundert (Journal des Luxus und der Moden. 13. Jg. November 1798. S. 605.)

Wer hätte gedacht, dass es Glückskekse schon in Frankreich im 18. Jahrhundert gegeben hat?

Außerdem in einem Artikel, der sich mit Lese-Moden beschäftigt und dabei mit dem Werther-Kult beginnt:

Keiner konnte sich in dieser Epoke mit einigem Anstand erschießen, oder er mußte es über dem aufgeschlagenen Werther thun; zum allerwenigsten mußte er den Tag vorher im Werther geblättert haben, wenn er nur einigermaßen, den Beyfall der Modewelt haben und mit all seinem Heldenmuth nicht unbemerkt aus der Welt schleichen wollte. (Journal des Luxus und der Moden. 7. Jg. November 1792. S. 550.)


Ein Schreibtisch für sich allein

Gebloggt am: 09.01.2015 von Lisseuse

Vielleicht ist es etwas verwegen, Virginia Woolf für eine Überschrift in meinem Blog abzuwandeln, aber im letzten halben Jahr habe ich doch gemerkt, was für mich für effektives Arbeiten am Bedeutsamsten ist. Es muss kein eigener Raum sein – andere dürfen sich gerne im gleichen Zimmer aufhalten (solange sie dort arbeiten ;)). Aber mein eigener Schreibtisch ist doch essenziell. Ein Ort, an dem ich meine Sachen haben kann, an dem sie so sind, wie ich das zum Arbeiten brauche. Im letzten halben Jahr hatte ich über mehrere Monate hinweg keinen Schreibtisch. Eine Arbeitskabine in der Bibliothek hat mir phasenweise geholfen. (Aber ständig habe ich Dinge vermisst: Frischen Tee, einen Locher, das andere Buch, jenen Ordner.) Sobald ich aber meinen Schreibtisch zurück hatte, bin ich nicht mehr in die Bibliothek gegangen, obwohl die Arbeitsatmosphäre dort eigentlich ziemlich gut war.

Allerdings ist so ein Schreibtisch nicht das einzige, das zum produktiven Arbeiten nötig ist. Es zeigt sich immer deutlicher, dass eine Perspektive, was nach der Abschlussarbeit kommt, echt hilfreich wäre. Und dann natürlich: Deadlines. Und zwar am besten nicht nur eine Deadline wann die Arbeit abgegeben sein muss. Sondern viel, viel wichtiger: Deadlines für Zwischenschritte. Erstelle eine Literaturliste, eine Gliederung, das erste Kapitel, … und zwar bis zu einem bestimmten Datum! Dummerweise müssen diese Deadlines von außen kommen oder sehr, sehr ernst sein. Besser ist aber doch eindeutig, wenn einem jemand anderes dabei hilft, etwas Struktur in das eigene Arbeiten zu bringen. Die gesetzten Fristen haben dann einfach einen anderen Stellenwert. Im Idealfall sind sie  dann zwar ernst, können aber doch einigermaßen locker gesehen werden . Nach dem Motto: Es ist besser wenn ich sie einhalte, aber wenn ich es nicht tue, reißt mir auch keiner den Kopf ab.

Da mir die Person fehlt, die mich etwas am Gängelband hält, habe ich im letzen Jahr eine Menge über meine Arbeitsweise gelernt und darüber, wie ich für mich meine Arbeitszeit strukturieren muss. Gelernt habe ich vor allem dadurch, dass das für mich arbeiten häufig genug überhaupt nicht klappt. Außer einem Ort, an dem ich arbeiten kann, brauche ich definitiv einen gut strukturierten Arbeitsplan. Das bedeutet, dass ich mich ständig hinsetzen muss und über das, was noch zu tun ist, nachdenken muss. Und zwar auf drei verschiedenen Ebenen: Was muss ich überhaupt tun? Wie verteile ich diese Arbeit am sinnvollsten über die nächsten Wochen und Monate? Was muss ich  jeden einzelnen Tag Stunde für Stunde tun, um den so erstellten Plan umzusetzen? Die echt schwierige Kunst dabei ist, meine Zeit so zu planen, dass sie knapp genug ist, dass ich tatsächlich arbeite und nicht denke, “och ja, ist ja noch Zeit. Erst mal [setzte beliebige mehr als fünf Staffeln umfassende Serie ein] gucken!” Gleichzeitig aber muss die Zeitplanung so großzügig sein, dass es kein Problem ist, wenn ich mich mal verschätzt habe, was den Arbeitsaufwand betrifft. Die Erfolgserlebnisse, wenn ich dann schneller bin als geplant, helfen übrigens auch.

Für einen solchen realistischen Zeitplan ist es enorm wichtig, über Lese- und Schreibgeschwindigkeit nachzudenken. Ich habe festgestellt, dass ich für einfachere Texte ca. 3 Minuten pro Seite brauche, für schwierigere Textes sind es 5 Minuten pro Seite. Das ist großzügig gerechnet – eigentlich lese ich schon schneller. Aber dabei sind Tagträumereien, Twitterabschweifungen und wandernde Gedanken miteingerechnet. Sie sind mit dieser Kalkulation gerade so noch möglich, können aber nicht allzu ausufernd sein, wenn ich wirklich erledigen möchte, was ich mir vorgenommen habe. Wenn es darum geht selbst Text zu produzieren, dann brauche ich ca. 1 Stunde pro Seite. Wenn ich schon Notizen sortiert in einem Textdokument habe, geht es auch schneller. Auch hier sind Denkpausen, zwischendrin fernsehen etc. schon eingerechnet. Ausgehend von dieser Selbsterkenntnis über mein Arbeitstempo wird es überhaupt erst möglich einen sinnvollen Arbeitsplan zu erstellen.

Dummerweise komme ich allein damit, dass ich weiß, wie ich arbeiten sollte, noch nicht unbedingt weiter. Das schwierigste ist sich jeden Tag hinzusetzen (wird mit etwas Routine leichter) und vor allem, nach einer gewissen Zeit des Durchhaltens immer noch weiter zu machen. Manchmal hilft es nebenher andere Projekte zu haben. Eine Rezension zu schreiben, eine fremde Arbeit korrekturlesen… Etwas, dass nice to have ist, mit einer Deadline versehen ist und etwas weniger Spass macht, als meine eigentliche Arbeit. Dann hab ich nämlich eigentlich etwas anderes zu tun und kann prokrastinieren, indem ich meine Arbeit schreibe. Wirklich gut hilft es, einen Termin zu haben, wo ich Leuten etwas über seine Arbeit erzählen muss. So ein Vortrag (selbst vor Menschen, die etwas völlig anderes machen) bringt mich wirklich vorwärts, weil ich noch einmal Struktur in das bringen muss, was ich erarbeitet habe. Weil ich mein Thema so sehr vereinfachen muss, dass es jeder verstehen kann und ich dabei gleichzeitig noch vermitteln muss, was der eigentliche Kern ist. Dazu muss ich sehr gut verstanden haben, was ich eigentlich tue. Und da ich ja auch Ergebnisse vorstellen will, komme ich richtig gut vorwärts. Das ist eine gute Gelegenheit, um Lücken in der eigenen Arbeit zu finden.

Und dann habe ich noch etwas ganz besonders wichtiges gelernt. Bisher habe ich meine Arbeiten immer so geschrieben, dass ich erst alles gelesen habe, was mir zum Thema wichtig erschien. Gleichzeitig habe ich mich mit meinen Materialien und Daten beschäftigt. Und dann noch etwas mehr gelesen. Aber erst, wenn ich damit fertig war, habe ich angefangen meine Arbeit in einem Rutsch runter- und durchzuschreiben. Für größere wissenschaftliche Arbeiten ist das nun überhaupt nicht sinnvoll. Am wichtigsten ist es rückblickend, frühzeitig anzufangen regelmäßig zu Papier zu bringen, was ich erarbeitet habe. Und zwar nicht nur in Form von Exzerpten, sondern in Form von Textblöcken für die Arbeit. Ich glaube, ideal für mich wäre, in Themenblöcken über 1-2 Wochen zu arbeiten. Ca. alle zwei Wochen würde ich zwischen einem theoretischen oder methodischen Aspekt und meiner Quelle/dem Material/der eigenen Forschung wechseln. Dabei je 3-5 Texte pro Block lesen und exzerpieren und dann sofort zusammenfassen in einen Fließtext bringen, was die für mich und meine Arbeit wichtigen Erkenntnisse sind. Bei der Arbeit mit einer historischen Quelle ist es für mich, glaube ich sinnvoll, eine Fragestellung nach der anderen in Themenblöcken abzuarbeiteten, statt mir die Quelle chronologisch, in ihrer Gesamtheit zu erschließen. Natürlich funktioniert das nur nachdem man einen prinzipiellen Überblick über die Quelle  erlangt hat.

An den so entstehenden Texten kann ich dann, wenn ich weiter fortschreite und erneut bei einem Thema angelangt bin, weiterarbeiten. Sie unter Umständen auch neu schreiben, weil sich mein Erkenntnisinteresse verändert hat. Aber, etwas das mir für meine aktuelle Arbeit etwas gefehlt hat, mit dieser Methode kann ich vielleicht etwas besser absichern, dass ich keinen der Aspekte Quelle, theoretische Fundierung und angemessene Methodik vernachlässige.


Wie Tumblr eine Serie schrieb

Gebloggt am: 13.05.2014 von Lisseuse

Ich bin Fan. Was lag also für mich näher als in der Vorlesung „Vom Märchenleser zum Serienjunkie“ eine Arbeit über Fans zu schreiben. Dort kam auch noch Sherlock ins Spiel und die Rede darauf, wie (besonders durch das Internet) Fans nicht mehr nur Medienkonsumenten, nicht mehr nur Mediennutzer sondern “Produser” werden, also in das Zwischenfeld zwischen der Nutzung von medialen Inhalten und einem eigenen Beitrag dazu eintreten. Was im Internet in den zwei Jahren zwischen der Ausstrahlung der zweiten und dritten Staffel von Sherlock passierte, fällt meiner Meinung nach genau in dieses Feld: Die Fans füllen Foren, Websiten und Blogs mit Theorien und Wissen zur Frage „Wie überlebt Sherlock“. Da sie dabei so gründlich vorgehen, dass keine Sekunde der Folge S02E03 unanalysiert bleibt, gibt es zwangsläufig eine Rückwirkung auf die folgende Episode. Die Autoren können nicht an den Theorien der Fans vorbei.
Für den theoretischen Hintergrund habe ich mich mit der Frage vom Zusammenhang von Serialität und Alltagskultur, der Rolle von Fans für solche Serien und dem Konzept von “Produsage” auseinander gesetzt.

Als Quelle für die Aktivitiäten der Fans benutzte ich vornehmlich ein Forum, in dem die Fans wiederum auf viele andere Seiten verlinken. Darüber hinaus habe ich mich natürlich in den Weiten des Internets verloren und stundenlang Video-Material zur Serie geguckt, auf das ich in meiner Analyse aber nur am Rande eingehe. Im Forum nutzen die Fans verschiedene Threads, um ihre Theorien und Fragen zur Serie zu diskutieren, miteinander zu argumentieren und versuchen auf eine Lösung zu kommen. Die Analysen von #SherlockNotDead sind vielfältig und mit unglaublichem Enthusiasmus und enormer Ausdauer verfasst.

Zum Schluss werde ich zeigen, welche Rückwirkungen die Theorien der Fans auf die erste Folge der dritten Staffel hat, von der die Fans erwartet haben, dass sie die Frage nach dem Überleben Sherlocks klärt.

Die Fanseite sherlock.broadhost ist ein gutes Beispiel um “produsage” von Fans zu beobachten. Jeder Diskussionsteilnehmer kann dort gleichberechtigt seine Ideen und Theorien vorstellen und trägt somit dazu bei dem gemeinsamen Ziel, herauszufinden wie Sherlock es schafft zu überleben, näher zu kommen. Im Prozess der Wissensproduktion evaluieren und kritisieren sich die Fans gegenseitig und verbessern so ihre Theorien, decken Fehler auf und gleichen Meinungen ab. Tendenziell ist die Diskussion dabei ohne Abschluss. Für Forschungsfragen, die zu beantworten schwierig wird, wenn sich das Feld ständig im Wandel befindet, ist aber gerade interessant, dass durch die Definitionsmacht der Serien-Produzenten dennoch eine endgültige Version existieren kann. Während in den frühen Folgen von Sherlock anderer Forschung zufolge kein „folding text“ stattfindet, wirkt sich die “produsage” der Fans nach der zweiten Staffel auf die Weitererzählung in der folgenden aus. Dies muss schon zwangsläufig der Fall sein, weil die von den Fans produzierten Ideen so vielfältig sind, dass es keine weiteren Möglichkeiten gibt, wie Sherlocks Überleben erzählt werden könnte, die noch nicht irgendwo aufgegriffen wurden. Folglich bleibt den Autoren wenig anderes übrig, als kreativ mit den schon veröffentlichten Ideen der Fans umzugehen. Dabei behandeln Stephen Moffat und Mark Gatiss die Fans allerdings manchmal etwas von oben herab, insbesondere wenn sie die Spekulationen der Fans an die unsympathisch gezeichnete Figur von Anderson binden, die innerhalb der Serie auch noch für Sherlocks Tod mitverantwortlich gemacht wird.