Schweizer Entdeckungen IV – der Symbolist Ferdinand Hodler

Gebloggt am: 11.02.2017 von Corinna

Wenn ich von Ferdinand Hodler bestimmt auch vor meiner Reise in die Schweiz schon vereinzelt Bilder gesehen habe, so hat mir doch die breitere Sammlung des Kunsthaus Zürich einen umfassenderen Blick auf sein Werk ermöglicht.

Ferdinand Hodler (1853-1918) ist ein Schweizer Künstler, dessen Stil vor allem dem Symbolismus bzw. dem Jugendstil zugeordnet wird. Von früher Kindheit an ist die Malerei für Hodler bereits ein Brotberuf, wobei er sich zunächst vor allem an den Alten Meistern orientiert. Erst ab den 1880ern löst er sich von seinen Vorbildern und beginnt mehr in seinem eigenen Stil zu malen.

Er malt unter anderem Ansichten der Bergmassive vom Genfer See aus oder stark symbolisch konstruierte Bilder, wie zum Beispiel „Der Tag“, bei dem fünf nackte Frauen vom Aufwachen bis zum Schlafen gehen die unterschiedlichen Tageszeiten symbolisieren. Ein weiteres Beispiel hierfür ist das Gemälde „Die Wahrheit“, in dessen Mitte sich eine nackte, blasse, magere Frau mit erhobenen Händen und stechendem Blick befindet. Zur Rechten und Linken wenden sich mehrere Figuren ab von ihr, mit schwarzer fetzenartiger Kleidung bedeckt. Als Betrachter wird man vor allem von dem stechenden Blick der Frauenfigur in der Mitte gebannt.

Was mich persönlich an seinen Werken fasziniert, ist der Einsatz von Farbe in seinen Landschaften und die Motivwahl. Denn seine lichten Farben, die er bei seinen Landschaften nutzt, vermitteln eine Art beruhigenden Seelenlandschaftseindruck, wenngleich sie auch reale Orte darstellen. Er arbeitet häufig mit gelb-blau-lila Kontrasten, um Lichtstimmungen darzustellen. Über Symbolismus kann man sich zwar streiten und manch einem mag die Darstellung von Themen wie „Der Tag“ zu plakativ sein. Dennoch ist bewundernswert, wie es Hodler schafft in seinem Werk dies klar umzusetzen und den Betrachter in seinen Bann zu ziehen.

Mehr von Ferdinand Hodler kann man im Kunsthaus Zürich und im Kunstmuseum Bern sehen.


Schweizer Entdeckungen III – Giacometti Werkschau

Gebloggt am: 04.02.2017 von Corinna

Ähnlich wie mit August Strindbergs malerischen Werk ging es mir mit Schweizer Alberto Giacometti (1901-1966). Aus früheren Ausstellungsbesuchen verband ich mit Alberto Giacometti vor allem lange, drahtig gebaute Skulpturen mit sehr unregelmäßiger Oberfläche. Die Werkschau „Giacometti – Material und Vision“ im Kunsthaus Zürich ließ mich jedoch auch hier ein wesentlich differenzierteres Werk kennenlernen.

Die Grundlage für die Ausstellung bildeten mehrjährige Forschungsarbeiten am Kunsthaus Zürich an 75 Originalgipsen Giacomettis. Die Ausstellung war chronologisch gestaltet, wenn auch die Art der Aufstellung der Werke viele Doppelwege beinhaltete, um dem chronologischen Aufbau zu folgen. Einstieg in die Ausstellung bildete sein Frühwerk als Jugendlicher, in den Kontext gesetzt zu Werken von seinem Vater. Zudem hätte man eine Dokumentation zum Forschungsprozess am Kunsthaus Zürich ansehen können. Leider gab es nur 4 Sitzplätze, um die ca. einstündige Dokumentation zu sehen, was eindeutig zu wenig war im Verhältnis zum Besucherinteresse.

In seinem Frühwerk übt er vor allem Köpfe zu formen und möglichst naturgetreue Porträts. Erst nachdem er in Paris mit kubistischen Plastiken in Kontakt kommt, sowie mit dem Surrealismus, ändern sich seine eigenen Werke. Er experimentiert mit sehr auf klare Formen reduzierten Figuren bzw. Skulpturen, wie man an der „Löffelfrau“ oder diesem Kopf sehen kann.

Während des Zweiten Weltkriegs wohnte er hauptsächlich in der Schweiz. Zu Beginn des Krieges begann er Miniaturskulpturen zu formen, die kaum größer als Streichholzschachteln waren, sodass er sie leicht verstecken konnte. Als er nach dem Krieg nach Paris zurückkehrt, entwickelt er erst jene ikonografischen langgestreckten Skulpturen. Dabei werden die Glieder immer langgestreckter, der ganze Korpus schmaler und die Oberfläche der Skulpturen bleibt rau und rissig. Bekannte Werke, die auch mein Bild von Giacometti geprägt haben, sind „Les Femmes de Venise“ (die Frauen von Venedig) et „L’homme qui marche“ (der Schreitende).

Für mich persönlich war vor allem seine surrealistische Phase eine Entdeckung. Mehr von Giacomettis Werk gibt es  in der Fondation Giacometti in Paris, im Kunsthaus Zürich, sowie in der Fondation Beyeler in Riehen/Basel zu sehen.


Schweizer Entdeckungen II – das malerische Werk Strindbergs

Gebloggt am: 28.01.2017 von Corinna

Dass jeder Mensch meist mehrere Talente besitzt ist allgemein bekannt und akzeptiert. Dennoch prägen Schule und Medien durch ihren Diskurs bestimmte Bilder von bekannten Persönlichkeiten. Umso spannender ist es, wenn man scheinbar „bekannte“ Persönlichkeiten neu entdecken kann.

Die leider schon beendete Ausstellung „August Strindberg. De la mer au cosmos“ (Vom Meer bis zum Kosmos) im Lausanner Museum für Schöne Künste ließ mich den schwedischen Dramatiker August Strindberg (1849-1912) neu entdecken. Aus Schulzeiten war er mir bekannt als Autor naturalistischer Dramen wie „Der Vater“ und „Fräulein Julie“. Dass er jedoch neben seinem umfangreichen Prosawerk auch als Fotograf und Maler tätig war, war mir bisher nicht bewusst.

Strindberg nimmt zunächst Kunstunterricht an der Uppsala-Universität und malt in den frühen Jahren vor allem Landschaften. In den 1880 Jahren hingegen kann er nichts mit der bildenden Kunst anfangen, da er sie selbst als überflüssigen Luxus wahrnimmt. Erst als er 1892 auf der Insel Dalarö wohnt, beginnt er wieder das Meer und die Natur zu malen. Dabei changiert der Ausdruck der Gemälde von dunklen Sturmbildern hin zu sonnigen Darstellungen ruhiger Natur. Ein wiederkehrendes Sujet dieser Zeit ist eine einzelne Blume an einem einsamen Strand. 1892 stellt er auch zum ersten Mal in Schweden aus.

Neben der Malerei experimentiert er auch mit der Fotografie. Neben Porträts, in denen er sich selbst bewusst in verschiedenen Rollen inszeniert, versucht er darüber hinaus den Himmel auf Bilder zu fixieren. Da er auch an der Astronomie interessiert war, versucht er in den 1890ern Mond und Sterne mittels einer Kamera ohne Linse zu fotografieren. Im gleichen wissenschaftlichen Interesse beschäftigt er sich ab 1907 intensiv mit der Beobachtung von Wolken und versucht eine Regelmäßigkeit in der Form der Wolken abzuleiten am selben Standort, indem er die Wolken fotografiert.

Hauptmotive seines Bildwerks sind damit vor allem das Meer und Wolken in seinen verschiedenen Formen. Teils bereits sehr abstrakt bzw. fließend dargestellt in seinen Bildern, teils neuartig katalogisiert und auf Abzüge gebannt in seinem fotografischen Werk. Für mich war es eine wunderbare Entdeckung.

Einen kleinen Eindruck zu Strindbergs Werk gewinnt man hier.


Schweizer Entdeckungen – Paul Klee und die Surrealisten

Gebloggt am: 21.01.2017 von Corinna

Reisen bildet – diesem Leitmotiv bin ich gefolgt, als ich die Ausstellung „Paul Klee und die Surrealisten“ im Berner Paul – Klee-Zentrum besucht habe, da ich bisher mit ihm wenig verbunden habe.

Paul Klee, 1879 in der Nähe von Bern geboren, gilt heute als einer der bedeutendsten Künstler des 20. Jahrhunderts. Trotz der Spuren der verschiedenen Strömungen in seinem Werk, steht er relativ solitär in seinem Schaffen und Motivwelt. Die Ausstellung „Paul Klee und die Surrealisten“ beleuchtet dabei, wie die Surrealisten sich von Klees Werk und Kunstverständnis beeinflussen ließen.

Aufbau der Ausstellung

Die Ausstellung befindet sich in einem großen Saal, welcher durch Trennwände in viele kleine Kompartiments unterteilt ist, die unterschiedlichen Motiv- bzw. Themenkomplexen gewindet sind. Schade fand ich dabei, dass es keinen eindeutigen Hinweis gab, wo die Ausstellung anfing, sodass ich letztendlich die Ausstellung von hinten nach vorne besichtigt habe.

Denn startet man sogleich rechts des Eingangs, kann man in einem kurzen Videobeitrag einen ersten Einblick in die historische Verknüpfung zwischen Paul Klees Werk und der Rezeption desselben durch die Surrealisten bekommen. Zudem finden sich entlang der Wände Statements Künstler des Surrealismus in Bezug auf Klees Werk. Da ich mich für den Audioguide entschieden hatte, konnte ich jedoch trotz ‚falscher Richtung‘ in den einzelnen abgeteilten Räumen den Bezug herstellen zwischen Klees Werken und denen der übrigen ausgestellten Künstler. Beispiele dafür sind die Welt als Traum, imaginäre Pflanzenwelten, rätselhafte Porträts und Masken oder imaginäre Architekturen.
Paul Klees Werdegang und Einfluss auf das Werk der Surrealisten

Paul Klee, der seine künstlerische Ausbildung vor allem in München erhielt, war lange Zeit vor allem der Zeichnung zugeneigt und konnte lange mit der klassischen Malerei und der Farbkomposition wenig anfangen. Dies bedauerte er auch und versuchte durch viele Studien sich dem anzunähern, bis er dann am Weimarer Bauhaus als Lehrer für den Vorkurs eine Farbtheorie entwickelte, die sich auch in seinen Werken zeigt. Dennoch bleibt die Zeichnung, auch mittels Ölpause, Hauptbestandteil seines Werkes.

In der Berner Ausstellung wird leider nicht thematisiert, dass Paul Klee schon relativ früh durch das eigenhändige Anlegen eines Werkverzeichnisses und gezielte PR sich versucht hat als weltabgewandter, vergeistigter Künstler darzustellen. Der Berner Ausstellung ist bezeichnenderweise der von ihm geprägte Satz „Diesseits bin ich gar nicht fassbar. Denn ich wohne grad so gut bei den Toten, wie bei den Ungeborenen“ vorangestellt. Es wird jedoch nirgends erwähnt, dass Paul Klee dieses Bild in der Presse bewusst versucht hat zu prägen von sich selbst. Er jedoch ein fast bürgerliches Leben führte, was kaum zu dem Stereotyp passen würde.

Nichtsdestotrotz ist diese Selbstkonzeption Klees Leitmotiv für die gesamte Ausstellung. Denn so erklärt es sich, dass er bewusst versucht hat wieder kindlich zu malen, was zu den teilweise in einer Art Wachtraum gemalten Bildern der Surrealisten passt. Auch die teilweise Auflösung jeglicher Perspektiven im Bild finden sich in bei einigen Surrealisten wieder. Insgesamt ist die hergestellte Verbindung zwischen den Surrealisten und Klees Werk gut gestaltet und ermöglich durch die thematische Anordnung auch einen neuen Blick auf die Werke von Künstlern wie Salvador Dali, Pablo Picasso, Max Ernst, Joan Miró, André Masson und René Magritte.

Die Ausstellung läuft noch bis zum 12. März 2017 im Paul-Klee-Zentrum in Bern.

Einen ersten Eindruck in die Ausstellung gibt dieses Video.


Das Internet – die Kommerzialisierung

Gebloggt am: 25.07.2016 von Corinna

Das Internet entstand im Umfeld der Wissenschaft. Ab den 1990ern konnte es auch von Laiennutzen genutzt werden. Das lag zum einen am Preisverfall der Computer-Hardware, zum anderen an der zunehmend benutzerfreundlichen Interaktionsebene zwischen Mensch und Computer. Welche Entwicklungen zum heutigen Internet geführt haben und die grundlegende Funktionsweise einiger Internetanwendungen sind im Folgenden erklärt.

Die Kommerzialisierung

Ab 1991 konnten in den USA das Netz auch kommerzielle Unternehmen nutzen. 1989 entwickelte Tim Berners-Lee am CERN im Genf, die Anwendung des World Wide Web (WWW), was auch zur Verbreitung des Internet außerhalb der akademischen Welt beitrug. Berners-Lee übertrug das Hypertextkonzept auf das Internet, um somit eine effiziente Informationsverwaltung von verfügbaren Wissen zu ermöglichen. (vgl. Braun 2010, s. 205). Dabei ermöglicht dieses Konzept statt einer einzig linearen Darstellung bei Stichwörtern direkt zur verlinkten Stelle zu springen, die den Kontext bzw. die Erklärung hierzu gibt. (vgl. Kirpal/Vogel 2006), was der ursprünglichen Anwendung (Verlinkung und Präsentation von verschiedenen Forschungsergebnissen und -materialien) hilfreich war. (vgl. Kirpal/Vogel 2006, S. 143). Daher nannte Berners-Lee diese Verknüpfungsweise auch World Wide Web. (vgl. Kirpal/Vogel 2006, S. 143).

Berners-Lee ist auch Entwickler des Hypertext Transfer Protocol (HTTP) und der Hypertext Markup Language (HTML). Das HTTP diente dazu, dass ein Computer im Internet nach bestimmten Dateien suchen konnte, die zu einem Dokument verknüpft werden sollten. (vgl. Kirpal/Vogel 2006, S. 143). Der Uniform Resource Locator (URL) war die Adresse der so erstellten Dokumente. Mittels HTML war des dem Browser möglich, die gefundenen Daten angemessen darzustellen. (vgl. Kirpal/Vogel 2006, S. 143f.)

Das WWW wurde auch durch die kostenlose Verfügbarkeit der ersten Browser ermöglicht, wie beispielsweise den Mosaic Browser der Universität Illinois, was 1994 jedoch zur Gründung der Firma Netscape führte.

Mitte der 1990er begannen immer mehr Entwickler ihre Programme und geschriebenen Lösungen nur gegen Lizenzgebühr weiterzugeben. Kirpal und Vogel führen drei Geschäftsmodelle des Internets auf: den Verkauf der Browsersoftware, der kostenpflichtige Zugang zum Internet, sowie das Internet als weiterer Absatzkanal für Produkte und Dienstleistungen (vgl. Kirpal/Vogel 2006, S. 144). Dem Kommerzialisierungsbestreben kam entgegen, dass mehr und mehr Privatpersonen Computer für den Privatgebrauch hatten und auch die Bedienung des Computers zunehmend benutzerfreundlich gestaltet wurde. (vgl. Kirpal/Vogel 2006, S. 144f.). In den 1990ern war es zunächst vor allem der gebührenpflichtige Internetzugang, der Gewinne versprach. Dabei kann sich der Internetnutzer über einen Knotenrechner des Internetproviders über ein Modem oder eine ISDN-Verbindung in das www einwählen. (vgl. Kirpal/Vogel 2006, S. 145).

Spannend ist in diesem Zusammenhang, dass die Verbreitung des Internets erst durch laienorientierte Innovationen kam, welche nicht von Forschern entwickelt wurden, sondern von ersten Nutzern bzw. Studenten der Computer Science, die die bisher sehr technikorientierte und wenig benutzerfreundliche Oberfläche umgestalteten. (vgl. Hellige 2006, S. 17). Da es die Erfinder des Internets zunächst nicht für den privaten Gebrauch entwickelt hatten, war die Nutzung des Internetnetzes so umständlich, dass es kaum jemand außerhalb der Expertenzirkel auf sich nahm. (vgl. Hellige 2006, S. 16). Erst mit der Einführung von „Graphic User Interfaces“ für Email oder Browser wurde es einfacher für den Laien den Computer zu bedienen. (vgl. Hellige 2006, S. 17).

Funktionsweise von World-Wide-Web -Anwendungen

Um eine Seite im Web aufzurufen, baut ein PC eine TCP-Verbindung mit dem Webserver auf. Der Browser auf dem Computer schickt dann eine Anfrage nach einer Webseite an den Server. Der Server liest nun entweder die angeforderte Seite oder erstellt sie dynamisch und schickt sie dann zurück an den PC. Das gleiche Prinzip wird bei E-Mails und der Internettelefonie verwendet. (vgl. Braun 2010, S. 205).

Neben dem reinen Aufrufen von Webseiten, gibt es nun auch Webservices. Dies „ist eine Softwareanwendung, die über einen Uniform Resource Identifier eindeutig identifizierbar ist und deren Schnittstelle über die Web Service Description Language beschrieben werden kann.“ (Braun 2010, S. 205). Somit  können  Softwareagenten direkt über XML-Nachrichten (eXtensible Markup Language) kommunizieren, was den automatisierten Datenaustausch erleichtert. (vgl. Braun 2010, S. 205).

Neue Ansätze in der Netzwerkverknüpfung

Statt des Client-Server-Modells nahmen in den vergangenen Jahren auch Peer-to-Peer-Netze (P2P-Netze) zu. In einem P2P-Netz sind alle beteiligten Computer gleichberechtigt, sodass jeder Computer Empfänger und Sender für Daten werden kann. Häufig werden P2P-Netze „zur Verbreitung von Suchanfragen nach Objekten verwendet.“ (Braun 2010, S. 206). Das heißt, dass beispielsweise Musikdateien häufig über solche Netzwerke ausgetauscht werden.

Sicherheit

Da das Internet nicht primär für eine kommerzielle Nutzung entwickelt wurde, wurde Sicherheit erst ein großes Thema als es für alle geöffnet wurde. (vgl. Braun 2010, S. 206).

Die Zukunft

Braun schreibt 2010, dass vor allem drahtlos kommunizierende Endsysteme wie Kleinstcomputer und Sensoren über Funk ihre Datenpakete austauschen werden. Dabei werden die Datenpakete über mehrere drahtlose Zwischen knoten transportiert. (vgl. Braun 2010, S.206f.)

Literaturverzeichnis

Braun, Torsten (2010): Geschichte und Entwicklung des Internets. In: Informatik Spektrum 33 (2), S. 201–207. DOI: 10.1007/s00287-010-0423-9 .

Hellige, Hans Dieter: Die Geschichte des Internet als LernprozessGI-Edition. stark erweiterte Neubearbietung von artec-paper 107, Nov.2003. artec – paper Nr. 138 2006. Online verfügbar unter https://www.researchgate.net/profile/Hans_Hellige/publication/37931469_Die_Geschichte_des_Internet_als_Lernprozess/links/552244d00cf2a2d9e14528b5.pdf, zuletzt geprüft am 17.03.2016.

Kirpal, Alfred; Vogel, Andreas (2006): Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web. In: N.T.M. 14 (3), S. 137–147. DOI: 10.1007/s00048-006-0239-5 .


Das Internet – Wer hat’s erfunden?

Gebloggt am: 18.07.2016 von Corinna

Es gibt Technologien, wie das Fernsehen, das Handy oder das Internet, welche man einfach nur benutzt. Aber wie funktioniert beispielsweise das Internet? Wie hat es sich entwickelt und wie wird sich das ganze vielleicht noch entwickeln?

Die Anfänge

Die Advanced Research Projects Agency  – das ARPA-Netzwerk

In den 1950ern arbeitete das amerikanische Militär bereits mit einem netzwerk zur Erfassung und Auswertung von Daten der Luftraumüberwachung, dem sogenannten SAGE-Net (Semi-Automatic -Ground Environment Network). Dieses Netzwerk verband bereits mehrere geographisch verteilte Computer, basierte jedoch im Gegensatz zum späteren Internet noch auf dem Time-Sharing-Konzept, “das es mehreren Nutzer gleichzeitig ermöglichte, auf einen Großrechner zuzugreifen und mit ihm zu arbeiten.” (Kirpal/Vogel 2006, S. 138).

1958 wird die Advanced Research Projects Agency in den USA gegründet vom Verteidigungsministerium. Ziel dieser Einrichtung war es die „angewandte Forschung im akademischen und universitären Einrichtungen besser zu koordinieren“ (Braun 2010, S.201).

Zur damaligen Zeit gab es nur einige Großrechner. Die erste Idee war es, dass mehrere Anwender gleichzeitig an einem Computer arbeiten können. Das „Time-Sharing“ (Braun 2010, S.201) bedeutet, dass „[d]ie Rechenzeit eines Computers (…) so aufgeteilt [wird], dass jeder Prozess oder jeder Benutzer den Eindruck gewinnt, dass das entsprechende Programm Fortschritte erzielt.“ (Braun 2010, S.201).

Der ARPA-Mitarbeiter Bob Taylor hatte 1966 die Idee, die geographisch verteilten Großrechner zu einem Netzwerk zu verbinden. So hätte man ohne teure Investitionen die Rechnerleistung erhöht. Dies scheiterte jedoch daran, dass die Anzahl der erforderlichen Leitung „proportional zuN2 ,mit N=Anzahl der zu verbindenden Computer.“ (Braun 2010, S.201) ist.

Um dieses Kapazitätsproblem zu lösen, schlug Wesley Clark 1967 vor, ein Netz von „Interface message Processors (IMP)“ (Braun 2010, S. 201) zu bilden. Das Gerät des IMP sollte die Kommunikation zu anderen Computern über weitere IMPs erledigen. (vgl. Braun 2010, S.201). Zu diesem Zeitpunkt wusste man jedoch noch nicht, wie diese Kommunikationstechnologie aussehen sollte. (vgl. Braun 2010, S.201). Diese Interface Message Processors entlasteten also das Endgerät, sodass sich der Endcomputer (Client) nicht auch noch um den Netzbetrieb kümmern muss. Der Client-Computer musste sozusagen nur zur Kommunikation mit einem IMP eingerichtet werden, konnte aber über den IMP mit anders programmierten Rechnern kommunizieren. (vgl. Kirpal/Vogel 2006, S. 139f.)

Zur gleichen Zeit/Ebenfalls in den 1960ern überlegte sich Paul Baran wie die Kommunikation des Militärs sichergestellt werden konnte im Falle eines atomaren Angriffs. Da die Fernmeldetechnik bis dato auf hierarchischen, zentralistischen Strukturen beruhte, bedeutete der Ausfall eines Kommunikationsknotens einen Abbruch der Nachrichtenübermittlung (vgl. Braun 2010, S.202). Daher konzipierte er ein Netz von gleichberechtigten Knoten („Maschennetz“ (Kirpal/Vogel 2006, S. 139), sodass eine Nachricht beim Ausfall eines Knotens noch weitere Möglichkeiten hatte um an den Empfängerknoten weitergeleitet zu werden. (vgl. Braun 2010). Für die Umsetzung seiner Idee kontaktierte er die amerikanische Telefonfirma AT&T, der das Konzept nicht gefiel.

Ein Grund hierfür ist, dass „Traditionelle Telefonnetze sind im Gegensatz zu Datennetzen verbindungsorientiert und streng hierarchisch aufgebaut [sind]“ (Braun 2010, S.202). Das bedeutet auch, dass bei der Datenübermittlung die Leitung komplett belegt wird für eine Verbindung. (vgl. Braun 2010, S.202) Das heißt, selbst wenn beispielsweise zwei Leute am Telefon schweigen und somit keine Daten in dem Sinn übertragen werden ist die Leitung blockiert, da sie für diese Kommunikation belegt ist. (vgl. Kirpal/Vogel 2006, S. 139). Für die Kommunikation zwischen den Computern hätte dies zwei Nachteile: Zum einen werden die vorhandenen Leitungen nicht optimal ausgenutzt, zum anderen muss eine Verbindung auf bzw. abgebaut werden, um die „nicht genutzte“ Leitung freizugeben für andere Daten, was zeitlich sehr ineffizient ist. (vgl. Braun 2010, S. 202)

Die Paketübermittlung zwischen Netzwerkknoten

Donald Davis, damals am National Physical Laboratory (NPL) tätig, entwickelte parallel zu Barans dezentralem Netz das Konzept der Paketvermittlung. Die Idee ist sämtliche Verbindungen zwischen den Netzknoten für die jeweiligen Daten aufzuteilen, sodass bei „Nichtbelegung“ einer Verbindung die Daten über diese Leitung gesendet werden können. Zudem werden die Daten in kleine „Datenpakete“ aufgeteilt, die unabhängig voneinander über das Netz zum Empfängerknoten geschickt werden, wo die einzelnen Datenpakete wieder zur ursprünglichen Nachricht zusammengesetzt werden. (vgl. Braun 2010, S. 202).

1968 initiierte Larry Roberts die Umsetzung der Ideen durch eine Verbindung von vier Universitätsgroßrechnern. Die technische Umsetzung inklusive der Softwareprogrammierung für die IMP-Struktur übernahm das Unternehmen BBN. (vgl. Braun 2010, S.202f.) Dabei mussten die Nutzer des Netzwerks jedoch ihren eigenen Rechner selbst so programmieren, dass der eigene Rechner mit dem IMP kommunizieren konnte. (vgl. Kirpal/Vogel 2006, S. 140). Die Datenübertragung erfolgte zu diesem Zeitpunkt noch über die Telefonleitungen.

Dennoch musste 1969 auch noch ein Programm bzw. Protokoll entwickelt werden, dass die Kommunikation zwischen den IMP und den Endgeräten ermöglichte. Dieses Protokoll wurde von der Entwicklergruppe um Vint Cerf als „request for comments“ (RFC) –Spezifikation benannt. (vgl. Braun 2010, S. 203.)

Zudem entwickelte diese Arbeitsgruppe verschiedene Anwendungen wie 1971 die erste E-Mail-Software sowie die Telnet-Spezifikation, die „zum entfernten Einloggen in andere Rechner“ (Braun 2010, S. 203) dient. Da zwar über dieses Telnet-Protokoll Verbindungen zu anderen Computern möglich waren, der Austausch von größeren Datenmengen jedoch nicht, wurde 1972 das File Transfer Protocol (FTP) entwickelt. (vgl. Kirpal/Vogel 2006, S.141). Ebenso musste in den 1970ern der Programmiercode angepasst werden, sodass mehr als tatsächlich mehrere IMPs miteinander kommunizieren konnten. (vgl. Hellige 2006, S. 22).

1973 wurde mit „Talk“ eine Art Präform des Chats umgesetzt. Später gab es auch Usenet News, „ein Dienst, um Nachrichten in ein Forum zu stellen und diese zu diskutieren.“ (Braun 2010, S. 203).

Die Universität Hawaii entwickelte in den 1970ern das „Aloha-Verfahren“ für lokale Funktnetze. Beim Aloha-Verfahren sendet ein Netzwerkknoten einfach ein Datenpaket und hofft, dass es beim Empfänger ankommt, was jedoch zu Kollisionen führen kann, wenn zwei oder mehr Rechner gleichzeitig senden. (vgl. Braun 2010, S. 203). Das Ethernet verbesserte dieses Verfahren, indem der Netzwerkknoten vor dem Senden des Datenpakets abhört, ob andere Knoten senden und solange die eigene Übertragung zurückstellt. (vgl. Braun 2010, S.203).

Diese Ideen ließ die Entwicklergruppe um Vint Cerf auch bei der Konzipierung des Kommunikationsprotokolls Network Control Protocol einfließen, was später das TCP (Transport Control Protocol) wurde. Dabei „regelt [das TCP] den zuverlässigen Datentransport zwischen Computern über unzuverlässige Netze.“ (Braun 2010, S.203).

Denn das Problem war, dass es zu diesem Zeitpunkt bereits mehrere unabhängige Netze gab, die man verbinden wollte. Aufgrund unterschiedlicher Standards zwischen den Netzwerken (bezüglich Datenpakten, Übertragungsgeschwindigkeit…) war es nicht möglich sie einfach auf Grundlage der ARPANET-Standards zu verbinden. Vielmehr entwickelten Vint Cerf und Rober Kahn die Idee von Gateway-Computern, die als Mittler zwischen den Netzwerken dienen sollten. Dabei sollten diese Gateway-Computer in jede Richtung als eine Art IMP arbeiten konnten und unter anderem die Größe der Datenpakete angepasst werden sollten. (vgl. Kirpal/Vogel 2006, S. 141f.).

Zunächst wurden Fehler bei der Übertragung im ARPANET durch benachbarte IMPs behoben. Im TCP wurde dies von den Endsystemen übernommen. 1977 wurde das TCP in TCP und IP (Internet Protocol) aufgeteilt. Hierbei ist das „IP (…) für das Weiterleiten von Paketen zwischen Quelle und Ziel verantwortlich. TCP sorgt für eine zuverlässige Kommunikation zwischen zwei am Internet angeschlossenen Computern.“ (Braun 2010, S. 204), da es die Daten vor dem Senden aufbereitet und etwaige Übertragungsfehler erkennt. (vgl. Kirpal/Vogel 2006, S. 142). Das IP ist für „das Routing zwischen den Netzwerkrechnern“ (Kirpal/Vogel 2006, S. 142) zuständig. 1983 löste das TCP/IP das Network Control Protocol komplett ab. Zwar gab es 1990 noch einen Versuch seitens der ISO ein vereinheitliches Protokoll zu entwerfen, letztlich setzte sich aber TCP/IP durch, da es bereits von den meisten genutzt wurde

Ab den 1980ern entstanden sowohl in den USA als auch in Europa viele solcher „Forschungsnetze“, welche die Universitäten miteinander verband und zumeist auf dem TCP/IP basierten.

Später wurden diese verschiedenen Einzelnetze zu einem großen Netz zusammengeschlossen. Zur Verbindung der Netze nutzte man Gateways (= Router), die die Rolle der IMP übernahmen. (vgl. Braun 2010, S. 204). Dabei sind mehrere solcher Einzelnetze regional häufig über ein Backbone-Netz miteinander verbunden. Solche Backbone-Netze werden meist von großen Internet Service Providern betrieben und sind untereinander wie international miteinander verbunden. (vgl. Braun 2010, S. 204).

Ab 1983 wurde im Internet das Domain Name System (DNS) eingeführt, dass der Verwaltung der Rechner- und Domänennamen diente. (vgl. Braun 2010, S. 205).

Die Vorformen des Internet waren also primär zur Vernetzung der Wissenschaftler und allenfalls noch im militärisch-staatlichen Bereich angedacht und umgesetzt. Entgegen der gezielten “Legendenbildung” einzelner Personen, die am Entstehungsprozess des Internet beteiligt waren, waren es jedoch nicht nur einzelne Genies aus den USA, die gezielt das Internet entworfen haben und zu dem gemacht haben, was es heute ist. Vielmehr waren es zu Beginn das mangelnde Geld um mehr teure Hardware zu kaufen, die das Time-Sharing-Konzept hervorbracht und später aufgrund von Effizienzüberlegungen zur Paketübermittlung von Daten führte. Zudem waren es die Ideen mehrerer Personen, welche die Internetentwicklung vorantrieben.

Literaturverzeichnis

Braun, Torsten (2010): Geschichte und Entwicklung des Internets. In: Informatik Spektrum 33 (2), S. 201–207. DOI: 10.1007/s00287-010-0423-9 .

Hellige, Hans Dieter: Die Geschichte des Internet als LernprozessGI-Edition. stark erweiterte Neubearbietung von artec-paper 107, Nov.2003. artec – paper Nr. 138 2006. Online verfügbar unter https://www.researchgate.net/profile/Hans_Hellige/publication/37931469_Die_Geschichte_des_Internet_als_Lernprozess/links/552244d00cf2a2d9e14528b5.pdf, zuletzt geprüft am 17.03.2016.

Kirpal, Alfred; Vogel, Andreas (2006): Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web. In: N.T.M. 14 (3), S. 137–147. DOI: 10.1007/s00048-006-0239-5 .


“The Lobster” – absurdes Lieben in Perfektion

Gebloggt am: 12.07.2016 von Corinna

Yorgos Lanthimos neuer Film “The Lobster” ist verstörend wie faszinierend zugleich. Wer einen Film über Liebe sehen möchte, der nicht den klassischen Hollywooderzählstrang folgt, ist hier genau richtig.

Der Film “The Lobster” (Der Hummer) startet unvermittelt damit, dass eine Frau aus einem Auto steigt und einen von zwei grasenden Eseln erschießt und anschließend weiterfährt. Es gibt hierfür keine weitere Erklärung später im Film, gibt dem Zuschauer jedoch bereits einen Vorgeschmack auf die Grundstimmung des Films. (Wer den Film sehen möchte, sollte hier zu lesen aufhören.)

David (Colin Farrell) kommt in einem Hotel an, in dem Singles untereinander vermittelt werden. Jeder neuankommender Single hat 45 Tage Zeit einen Partner zu finden unter den anderen Hotelgästen. Damit jeder die gleichen Chancen hat, gibt es für jedes Geschlecht auch die gleiche Kleidung, vier Alltagsroben und eine Galaversion. Die Spielregeln sind klar: Schafft man es nicht innerhalb dieser 45 Tage einen Partner zu finden, wird man in ein Tier seiner Wahl verwandelt. Indem man jedoch “Loners” auf der Jagd erlegt, kann man diesen Tag hinausschieben. Die “Loners”, oder Alleingänger, sind diejenigen, die aus dem System ausgebrochen sind und bewusst allein leben wollen. Dafür müssen sie in Kauf nehmen, nur in den Wäldern eine Heimat zu haben und von den “normalen” Menschen im Hotel gejagt und verachtet zu werden.

Im Hotel werden Verstöße gegen die Spielregeln bzw. Moral geahndet: wer im Singlebereich wohnt, hat kein Recht auf Selbstbefriedigung oder Sex mit einem weiteren Single. Erst wenn man sich offiziell einen Partner ausgesucht hat und in den Paarbereich umziehen darf, hat man ein Recht darauf. Bis dahin erhalten die Singles Schießunterricht, um besser auf den Jagden zu sein und werden instruiert, wieso ein Single – Dasein nur negativ sein kein. Schafft man es und findet einen Partner der zu einem passt, was auf einer simplen Ähnlichkeit wie häufigen Nasenbluten beruhen kann, hat man weitere zwei Wochen Probezeit im Paarbereich. Dann kann man endlich in die Stadt zurück, wo jedoch auch peinlich genau öffentlich geprüft wird, ob man einen Partner hat mittels eines Zertifikats.

Als Zuschauer braucht man erst eine Weile bis man versteht, in welcher Welt man sich bewegt. Irritierend sind zum einen die kalten, blassen Farben, in denen der Film gefilmt ist und zum zweiten die Musik, die durch die Dissonanzen harmlose Szenen unangenehm machen. David fügt sich seinem Schicksal und versucht jemanden ähnlichen zu finden. Nachdem es relativ erfolglos ist, verlegt er sich auf das Taktieren, wie ein Freund von ihm. Dieser gibt vor auch häufig Nasenbluten zu haben, wie eine der jungen Frauen, um als Mensch zu überleben. David gibt vor keine Gefühle zu haben, genauso wie eine der Singlefrauen. Als diese jedoch im Paarbereich merkt, dass es sich um eine Lüge seitens David handelt, will sie ihn direkt zur Hotelmanagerin bringen. Mithilfe eines Zimmermädchens schafft er es sie jedoch in den Transformationsraum zu bringen, in dem sie in ein Tier verwandelt wird. David flieht in die Wälder und wird ein “Loner”.

Dort verliebt er sich in die Kurzsichtige (Rachel Weisz). Doch auch hier ist es strikt verboten jemanden anderen zu zu küssen oder zu lieben und wird vom Anführer der Gruppe (Lea Seydoux) mit Strafen geahndet. Dennoch beginnen David und die Kurzsichtige einen Code zu entwickeln, mit dem sie sich durch Gesten verabreden können zum Sex. Sporadisch machen die Anführerin mit einem Mann, sowie David und die Kurzsichtige einen Ausflug in die Stadt, wo sie die Eltern der Anführerin besuchen. Hier wird der Anführerin auch klar, dass sich David und die Kurzsichtige lieben. Daher macht sie dem ganzen auch Ende, in dem sie die Kurzsichtige unter dem Vorwand die Augen für besseres Sehen lasern zu lassen, blenden lässt. Dies geschieht kurz bevor die beiden aus den Wäldern in die Stadt fliehen wollen.

Doch das bringt die beiden nicht von ihrem Plan ab. Nach einigen Wochen fliehen sie in die Stadt. Da zuvor ihre Gemeinsamkeit in der Kurzsichtigkeit bestand, scheint David entschlossen, sich nun auch zu blenden, sodass sie beide blind sind. Da alle in dem Film sehr unterkühlt und ohne Emotion, fast puppenartig wirken, gibt diese Annäherung zwischen David und der Kurzsichtigen Hoffnung. Dennoch bleibt David mit seiner eigenen Blendung in der gleichen Logik der Hotelgäste: eine simple Gemeinsamkeit bildet die Basis für eine Beziehung.  Der scheinbare Ausbruch aus dem System, da sie obwohl sie Loner sind Gefühle für einen anderen Menschen hegen, bleibt unvollendet.

Am Ende bleibt man ratlos zurück: die einzelnen Versatzstücke ergeben kein kohärentes Gesamtbild. Einziger roter Faden:Das Verständnis von Beziehung ist absolut pervertiert und absurd. Man könnte den Film als Kritik an unserer Gesellschaft sehen, die nach wie vor das Leben in einer Partnerschaft als das erstrebenswerte hochhält. Auch wenn vielleicht an der Modernität des Konzepts der “Ehe” zweifeln mag, so ist doch die Mehrheit der Menschen auf der Suche nach einem Partner. Hotelzimmer werden günstiger als Doppelzimmer und in Restaurants sitzt man auch selten gerne allein. Nur Exzentriker und Mönche sind heute noch tatsächlich anerkannte Singles für immer. Dabei braucht es ja nach Lanthimos gar nicht viel für eine scheinbar funktionierende Partnerschaft: eine oberflächliche Gemeinsamkeit wie häufiges Nasenbluten reicht schon vollkommen aus, dass man in die Familienidylle eintreten kann. Klappt es nicht mehr so gut, erhält man ein Kind (im Film wie in der Realität), dass dann die Probleme verlagert und die Partnerschaft andauern lässt. Tiefergehende Liebe als Akzeptanz des Partners als Ganzes oder der bewussten Entscheidung scheint es nicht mehr zu geben. Man muss, nachdem eine Partnerschaft endet,  schnellst möglich wieder einen neuen Partner finden.

Wer also bereit ist, sich auf zwei Stunden Absurdität einzulassen, wird nicht enttäuscht mit diesem Film.


Offenheit

Gebloggt am: 29.05.2016 von Lisseuse

In der SZ steht ein Artikel zur historischen Entwicklung des Islam: “Eine Reformation im Islam ist sinnlos”. Der Artikel ist insgesamt sehr lesenswert, für alle, die sich für Ideen-Geschichte interessieren. Mir selbst ist aber vor allem folgende Aussage aufgefallen: Vor dem Kolonialismus sei es im Islam nicht nötig gewesen eine der Aufklärung vergleichbare Entwicklung zu haben. Stattdessen hätte es eine Verbindung von Religion und Philosophie gegeben, die zu toleranten, vielfältigen Gesellschaft geführt hätten. Viele unterschiedliche Strömungen hätten darin gleichzeitig Platz gehabt. 

Ich bin ja ein großer Fan davon immer neues positives von anderen dazu zu lernen. Und deshalb bin ich an diesem Artikel hängen geblieben: Manchmal habe ich nämlich den Eindruck, dass Toleranz und Akzeptanz von unterschiedlichen Ideen und Lebensentwürfen unserer westlichen Gesellschaft als selbstverständliches Element immer noch fehlt. Und nicht nur das: Unsere Gesellschaft wird immer und immer komplexer und die gewohnten Mechanismen zur Verringerung dieser Komplexität (hallo Luhmann!) scheinen mir nicht mehr zu funktionieren. Selbst wirklich intelligente Menschen scheitern in ihren Gesprächen regelmäßig daran, die Welt wenigstens ein bisschen zu erklären.

Mehr als je zuvor ist immer auch das Gegenteil wahr, kann man kaum noch etwas richtig machen. Ein paar überspitzte Beispiele: Ich kann aufhören Fleisch aus Massentierhaltung zu essen und auf Soja umsteigen, mache dann aber den Regenwald kaputt. Ich kann (fast) keine Kleidung kaufen, die nicht unter menschenunwürdigen Bedingungen hergestellt wurde. Von den Problemen, die die Herstellung Smartphones mit sich bringt, nicht erst anzufangen. Atomstrom ist doof, aber auch Windkraftanlagen sind ökologisch nicht unbedingt einwandfrei: sie sind schlecht für viele Vogelarten, bringen Fledermäuse um und bestehen aus schwer abbaubarem Sondermüll.

Kaum versucht mal also ein Problem zu lösen, steht man vor dem nächsten. Manchmal wundert es mich nicht, dass die Parteien und Gruppen, die einfache Lösungen versprechen, so viel Zulauf haben, wenn doch eigentlich alle überfordert sind.

Ich glaube, dass wir versuchen müssen mehr Offenheit in unsere Köpfe zu bringen. Angst aus Überforderung ist gefährlich – da muss man sich nur mal selbst beobachten. Und vielleicht ist es ein Weg, dass wir uns ansehen, dass Toleranz nicht gefährlich ist. Dass es möglich ist, dass verschiedene Wahrheiten gleichzeitig nebeneinander existieren können ohne dass Gesellschaften deshalb schlechter sind.

Ein weiteres gutes Beispiel dafür scheint mir übrigens der Artikel “Frauenherrschaft?” zu sein. Darin wird gezeigt, dass matriarchale Gesellschaften eben nicht Männer-unterdrückend sind, sondern einfach nur andere Organisationsstrukturen haben, als westliche Gesellschaften. Diese führen zu größerer Freiheit aller. (Ausgehend von diesem Artikel glaube ich ja, dass “Matriarchat” der falsche Begriff für solche Gesellschaften ist, weil er völlig falsche Assoziationen weckt.)


Arteducate – Hat er’s gemalt?

Gebloggt am: 17.03.2016 von Corinna

Zum Zeitvertreib bietet das Internet ein mannigfaches Angebot. Ein neues Spiel für Kunstliebhaber und Kunstinteressierte bietet Arteducate. Nach einer unkomplizierten Anmeldung (entweder als Neuregistrierung oder über Google/Twitter/Facebookaccount) kann man loslegen. Man kommt zunächst wieder auf die Startseite und muss dann oben rechts auf “Attribution” klicken.

Aus einer alphabetischen Liste Maler verschiedenster Epochen wählt man einen Künstler aus. Anschließend sieht der Spieler ein Bild und muss nur durch ein einfaches Klicken auf ein “Daumen-hoch”-Symbol bzw. “Daumen herunter”-Symbol entscheiden, ob das Bild vom ausgewählten Maler stammt oder nicht. Nach einer Reihe von bewerteten Bildern zeigt ein Prozentsatz an, wie viele Bilder man richtig zugeordnet hat. Zudem wird in einem Kreisdiagramm angezeigt, welche Bilder man richtig zugeordnet hat bzw. welche falsch.

Zum Zeitvertreib ist es gut geeignet, noch dazu hilft es der Forschung am Kunstinstitut der LMU, wie vergleichendes Sehen tatsächlich funktioniert. Da sich das Spiel erst noch in der Alpha-Phase befindet, gibt es selbstverständlich noch manches zu verbessern. So könnte man nach dem Einloggen sofort auf die Spielseite weitergeleitet werden ohne erst nach dem Feld “Attribution” suchen zu müssen. Leider werden auch nicht jeweils die Bilder mit Urhebernamen angezeigt, sondern nur die Namen der Künstler der vorher gezeigten Bilder. So lässt sich das Spiel sozusagen nur sinnvoll in eine Richtung spielen – “ich kenne diesen Künstler und kann Bilder zuordnen” und ein “ich kenne diesen Künstler noch nicht, möchte aber ihn kennenlernen über dieses Spiel” ist leider nicht möglich.

Wem dieses Spiel zu langweilig ist, dem sei nach wie vor ARTigo empfohlen, bei dem es mittlerweile auch noch mehr Varianten als in der Anfangsphase gibt.


Театр: ein Theaterbesuch in Russland

Gebloggt am: 26.01.2016 von Corinna

Marinski Theater

 

In St. Petersburg gibt es rund 200 Bühnen, wobei das bekannteste Theater das Marinski-Theater ist. Hier gibt es neben Opern vor allem auch Ballettaufführungen. Viele der Opern und Theater in St. Petersburg befinden sich in ähnlich herrschaftlich ausgestatteten Räumen wie das alte Marinskitheater. Breite Treppenaufgänge, verschnörkelte Stuckverzierungen und große Leuchter, deren Kristall glitzert.

Kein Wunder, dass man bei all dieser Pracht mit Jeans fehl am Platz wäre. Es kann hoher Schnee liegen, die Temperaturen bei -20 Grad liegen – im Theater wird man immer auf gut gekleidete Menschen treffen. Die Männer meist im Anzug oder zumindest Hemd. Die Damen (gefühlt) viel häufiger als in Deutschland in Röcken oder Kleidern, mit passender Frisur, kleiner Handtasche und schönen Schuhen. Mitunter werden dann an der Garderobe auch die Straßenschuhe gegen die schönen Schuhe, die zum Kleid passen,  gewechselt. театр музыкальной комедии (1)

An der Garderobe kann man sich dann auch kleine Ferngläser gegen eine Gebühr leihen, sodass man von der Aufführung auch in den hintersten Rängen die tollen Kostüme anschauen kann.

In der Pause kann man dann ins “кафе” [kafe] gehen und sich Lachsschnittchen oder Kanapees mit rotem Kaviar kaufen. Meist gibt es schwarzen und grünen Tee, Kaffee, Wein, Wasser und manchmal auch kleine Gebäckteilchen.

Das Theaterpublikum ist vielfältig: alle Alterklassen sind anzutreffen. Im Nussknacker beispielsweise die Mütter mit ihren kleinen Töchtern, die gerade mit Ballet begonnen haben; Junge Paare und Studenten genauso häufig wie Senioren. Im alten Marinskitheater selbstverständlich auch die Touristen, die den Theaterabend als unentbehrliches Erlebnis ihrer St. Petersburgreise gebucht haben.

Die Inszenierungen der Klassiker sind jedoch nicht immer im klassischen verhaftet. Selbstverständlich gibt es die konservativen, kostümlastigen Aufführungen, die die Ästhetik der Zuschauer befriedigt. Dennoch gibt es auch moderne Neuinterpretationen, sodass beispielsweise die “Brüder Karamasov” von Dostojevski schon mal als modernes Regietheater mit absoluter Reduktion an Figuren und Konzentration auf die großen Konflikte gezeigt werden.

Insgesamt scheint es mir, dass der Besuch des Theaters oder der Oper noch viel häufiger als in Deutschland in Russland eine legitime Option für die Abendgestaltung ist. Man spricht über die letzte Inszenierung. Und vielleicht mag das auch daran liegen, dass während der Sowjetunion das Theater eine Möglichkeit gab, indirekt die Politik zu kritisieren. Daher stellte man sich für genauso gern für eine Theaterkarte in die Schlange wie für Brot.