Posts Tagged ‘Geschichte’

Das Internet – die Kommerzialisierung

Gebloggt am: 25.07.2016 von Corinna

Das Internet entstand im Umfeld der Wissenschaft. Ab den 1990ern konnte es auch von Laiennutzen genutzt werden. Das lag zum einen am Preisverfall der Computer-Hardware, zum anderen an der zunehmend benutzerfreundlichen Interaktionsebene zwischen Mensch und Computer. Welche Entwicklungen zum heutigen Internet geführt haben und die grundlegende Funktionsweise einiger Internetanwendungen sind im Folgenden erklärt.

Die Kommerzialisierung

Ab 1991 konnten in den USA das Netz auch kommerzielle Unternehmen nutzen. 1989 entwickelte Tim Berners-Lee am CERN im Genf, die Anwendung des World Wide Web (WWW), was auch zur Verbreitung des Internet außerhalb der akademischen Welt beitrug. Berners-Lee übertrug das Hypertextkonzept auf das Internet, um somit eine effiziente Informationsverwaltung von verfügbaren Wissen zu ermöglichen. (vgl. Braun 2010, s. 205). Dabei ermöglicht dieses Konzept statt einer einzig linearen Darstellung bei Stichwörtern direkt zur verlinkten Stelle zu springen, die den Kontext bzw. die Erklärung hierzu gibt. (vgl. Kirpal/Vogel 2006), was der ursprünglichen Anwendung (Verlinkung und Präsentation von verschiedenen Forschungsergebnissen und -materialien) hilfreich war. (vgl. Kirpal/Vogel 2006, S. 143). Daher nannte Berners-Lee diese Verknüpfungsweise auch World Wide Web. (vgl. Kirpal/Vogel 2006, S. 143).

Berners-Lee ist auch Entwickler des Hypertext Transfer Protocol (HTTP) und der Hypertext Markup Language (HTML). Das HTTP diente dazu, dass ein Computer im Internet nach bestimmten Dateien suchen konnte, die zu einem Dokument verknüpft werden sollten. (vgl. Kirpal/Vogel 2006, S. 143). Der Uniform Resource Locator (URL) war die Adresse der so erstellten Dokumente. Mittels HTML war des dem Browser möglich, die gefundenen Daten angemessen darzustellen. (vgl. Kirpal/Vogel 2006, S. 143f.)

Das WWW wurde auch durch die kostenlose Verfügbarkeit der ersten Browser ermöglicht, wie beispielsweise den Mosaic Browser der Universität Illinois, was 1994 jedoch zur Gründung der Firma Netscape führte.

Mitte der 1990er begannen immer mehr Entwickler ihre Programme und geschriebenen Lösungen nur gegen Lizenzgebühr weiterzugeben. Kirpal und Vogel führen drei Geschäftsmodelle des Internets auf: den Verkauf der Browsersoftware, der kostenpflichtige Zugang zum Internet, sowie das Internet als weiterer Absatzkanal für Produkte und Dienstleistungen (vgl. Kirpal/Vogel 2006, S. 144). Dem Kommerzialisierungsbestreben kam entgegen, dass mehr und mehr Privatpersonen Computer für den Privatgebrauch hatten und auch die Bedienung des Computers zunehmend benutzerfreundlich gestaltet wurde. (vgl. Kirpal/Vogel 2006, S. 144f.). In den 1990ern war es zunächst vor allem der gebührenpflichtige Internetzugang, der Gewinne versprach. Dabei kann sich der Internetnutzer über einen Knotenrechner des Internetproviders über ein Modem oder eine ISDN-Verbindung in das www einwählen. (vgl. Kirpal/Vogel 2006, S. 145).

Spannend ist in diesem Zusammenhang, dass die Verbreitung des Internets erst durch laienorientierte Innovationen kam, welche nicht von Forschern entwickelt wurden, sondern von ersten Nutzern bzw. Studenten der Computer Science, die die bisher sehr technikorientierte und wenig benutzerfreundliche Oberfläche umgestalteten. (vgl. Hellige 2006, S. 17). Da es die Erfinder des Internets zunächst nicht für den privaten Gebrauch entwickelt hatten, war die Nutzung des Internetnetzes so umständlich, dass es kaum jemand außerhalb der Expertenzirkel auf sich nahm. (vgl. Hellige 2006, S. 16). Erst mit der Einführung von „Graphic User Interfaces“ für Email oder Browser wurde es einfacher für den Laien den Computer zu bedienen. (vgl. Hellige 2006, S. 17).

Funktionsweise von World-Wide-Web -Anwendungen

Um eine Seite im Web aufzurufen, baut ein PC eine TCP-Verbindung mit dem Webserver auf. Der Browser auf dem Computer schickt dann eine Anfrage nach einer Webseite an den Server. Der Server liest nun entweder die angeforderte Seite oder erstellt sie dynamisch und schickt sie dann zurück an den PC. Das gleiche Prinzip wird bei E-Mails und der Internettelefonie verwendet. (vgl. Braun 2010, S. 205).

Neben dem reinen Aufrufen von Webseiten, gibt es nun auch Webservices. Dies „ist eine Softwareanwendung, die über einen Uniform Resource Identifier eindeutig identifizierbar ist und deren Schnittstelle über die Web Service Description Language beschrieben werden kann.“ (Braun 2010, S. 205). Somit  können  Softwareagenten direkt über XML-Nachrichten (eXtensible Markup Language) kommunizieren, was den automatisierten Datenaustausch erleichtert. (vgl. Braun 2010, S. 205).

Neue Ansätze in der Netzwerkverknüpfung

Statt des Client-Server-Modells nahmen in den vergangenen Jahren auch Peer-to-Peer-Netze (P2P-Netze) zu. In einem P2P-Netz sind alle beteiligten Computer gleichberechtigt, sodass jeder Computer Empfänger und Sender für Daten werden kann. Häufig werden P2P-Netze „zur Verbreitung von Suchanfragen nach Objekten verwendet.“ (Braun 2010, S. 206). Das heißt, dass beispielsweise Musikdateien häufig über solche Netzwerke ausgetauscht werden.

Sicherheit

Da das Internet nicht primär für eine kommerzielle Nutzung entwickelt wurde, wurde Sicherheit erst ein großes Thema als es für alle geöffnet wurde. (vgl. Braun 2010, S. 206).

Die Zukunft

Braun schreibt 2010, dass vor allem drahtlos kommunizierende Endsysteme wie Kleinstcomputer und Sensoren über Funk ihre Datenpakete austauschen werden. Dabei werden die Datenpakete über mehrere drahtlose Zwischen knoten transportiert. (vgl. Braun 2010, S.206f.)

Literaturverzeichnis

Braun, Torsten (2010): Geschichte und Entwicklung des Internets. In: Informatik Spektrum 33 (2), S. 201–207. DOI: 10.1007/s00287-010-0423-9 .

Hellige, Hans Dieter: Die Geschichte des Internet als LernprozessGI-Edition. stark erweiterte Neubearbietung von artec-paper 107, Nov.2003. artec – paper Nr. 138 2006. Online verfügbar unter https://www.researchgate.net/profile/Hans_Hellige/publication/37931469_Die_Geschichte_des_Internet_als_Lernprozess/links/552244d00cf2a2d9e14528b5.pdf, zuletzt geprüft am 17.03.2016.

Kirpal, Alfred; Vogel, Andreas (2006): Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web. In: N.T.M. 14 (3), S. 137–147. DOI: 10.1007/s00048-006-0239-5 .


Das Internet – Wer hat’s erfunden?

Gebloggt am: 18.07.2016 von Corinna

Es gibt Technologien, wie das Fernsehen, das Handy oder das Internet, welche man einfach nur benutzt. Aber wie funktioniert beispielsweise das Internet? Wie hat es sich entwickelt und wie wird sich das ganze vielleicht noch entwickeln?

Die Anfänge

Die Advanced Research Projects Agency  – das ARPA-Netzwerk

In den 1950ern arbeitete das amerikanische Militär bereits mit einem netzwerk zur Erfassung und Auswertung von Daten der Luftraumüberwachung, dem sogenannten SAGE-Net (Semi-Automatic -Ground Environment Network). Dieses Netzwerk verband bereits mehrere geographisch verteilte Computer, basierte jedoch im Gegensatz zum späteren Internet noch auf dem Time-Sharing-Konzept, “das es mehreren Nutzer gleichzeitig ermöglichte, auf einen Großrechner zuzugreifen und mit ihm zu arbeiten.” (Kirpal/Vogel 2006, S. 138).

1958 wird die Advanced Research Projects Agency in den USA gegründet vom Verteidigungsministerium. Ziel dieser Einrichtung war es die „angewandte Forschung im akademischen und universitären Einrichtungen besser zu koordinieren“ (Braun 2010, S.201).

Zur damaligen Zeit gab es nur einige Großrechner. Die erste Idee war es, dass mehrere Anwender gleichzeitig an einem Computer arbeiten können. Das „Time-Sharing“ (Braun 2010, S.201) bedeutet, dass „[d]ie Rechenzeit eines Computers (…) so aufgeteilt [wird], dass jeder Prozess oder jeder Benutzer den Eindruck gewinnt, dass das entsprechende Programm Fortschritte erzielt.“ (Braun 2010, S.201).

Der ARPA-Mitarbeiter Bob Taylor hatte 1966 die Idee, die geographisch verteilten Großrechner zu einem Netzwerk zu verbinden. So hätte man ohne teure Investitionen die Rechnerleistung erhöht. Dies scheiterte jedoch daran, dass die Anzahl der erforderlichen Leitung „proportional zuN2 ,mit N=Anzahl der zu verbindenden Computer.“ (Braun 2010, S.201) ist.

Um dieses Kapazitätsproblem zu lösen, schlug Wesley Clark 1967 vor, ein Netz von „Interface message Processors (IMP)“ (Braun 2010, S. 201) zu bilden. Das Gerät des IMP sollte die Kommunikation zu anderen Computern über weitere IMPs erledigen. (vgl. Braun 2010, S.201). Zu diesem Zeitpunkt wusste man jedoch noch nicht, wie diese Kommunikationstechnologie aussehen sollte. (vgl. Braun 2010, S.201). Diese Interface Message Processors entlasteten also das Endgerät, sodass sich der Endcomputer (Client) nicht auch noch um den Netzbetrieb kümmern muss. Der Client-Computer musste sozusagen nur zur Kommunikation mit einem IMP eingerichtet werden, konnte aber über den IMP mit anders programmierten Rechnern kommunizieren. (vgl. Kirpal/Vogel 2006, S. 139f.)

Zur gleichen Zeit/Ebenfalls in den 1960ern überlegte sich Paul Baran wie die Kommunikation des Militärs sichergestellt werden konnte im Falle eines atomaren Angriffs. Da die Fernmeldetechnik bis dato auf hierarchischen, zentralistischen Strukturen beruhte, bedeutete der Ausfall eines Kommunikationsknotens einen Abbruch der Nachrichtenübermittlung (vgl. Braun 2010, S.202). Daher konzipierte er ein Netz von gleichberechtigten Knoten („Maschennetz“ (Kirpal/Vogel 2006, S. 139), sodass eine Nachricht beim Ausfall eines Knotens noch weitere Möglichkeiten hatte um an den Empfängerknoten weitergeleitet zu werden. (vgl. Braun 2010). Für die Umsetzung seiner Idee kontaktierte er die amerikanische Telefonfirma AT&T, der das Konzept nicht gefiel.

Ein Grund hierfür ist, dass „Traditionelle Telefonnetze sind im Gegensatz zu Datennetzen verbindungsorientiert und streng hierarchisch aufgebaut [sind]“ (Braun 2010, S.202). Das bedeutet auch, dass bei der Datenübermittlung die Leitung komplett belegt wird für eine Verbindung. (vgl. Braun 2010, S.202) Das heißt, selbst wenn beispielsweise zwei Leute am Telefon schweigen und somit keine Daten in dem Sinn übertragen werden ist die Leitung blockiert, da sie für diese Kommunikation belegt ist. (vgl. Kirpal/Vogel 2006, S. 139). Für die Kommunikation zwischen den Computern hätte dies zwei Nachteile: Zum einen werden die vorhandenen Leitungen nicht optimal ausgenutzt, zum anderen muss eine Verbindung auf bzw. abgebaut werden, um die „nicht genutzte“ Leitung freizugeben für andere Daten, was zeitlich sehr ineffizient ist. (vgl. Braun 2010, S. 202)

Die Paketübermittlung zwischen Netzwerkknoten

Donald Davis, damals am National Physical Laboratory (NPL) tätig, entwickelte parallel zu Barans dezentralem Netz das Konzept der Paketvermittlung. Die Idee ist sämtliche Verbindungen zwischen den Netzknoten für die jeweiligen Daten aufzuteilen, sodass bei „Nichtbelegung“ einer Verbindung die Daten über diese Leitung gesendet werden können. Zudem werden die Daten in kleine „Datenpakete“ aufgeteilt, die unabhängig voneinander über das Netz zum Empfängerknoten geschickt werden, wo die einzelnen Datenpakete wieder zur ursprünglichen Nachricht zusammengesetzt werden. (vgl. Braun 2010, S. 202).

1968 initiierte Larry Roberts die Umsetzung der Ideen durch eine Verbindung von vier Universitätsgroßrechnern. Die technische Umsetzung inklusive der Softwareprogrammierung für die IMP-Struktur übernahm das Unternehmen BBN. (vgl. Braun 2010, S.202f.) Dabei mussten die Nutzer des Netzwerks jedoch ihren eigenen Rechner selbst so programmieren, dass der eigene Rechner mit dem IMP kommunizieren konnte. (vgl. Kirpal/Vogel 2006, S. 140). Die Datenübertragung erfolgte zu diesem Zeitpunkt noch über die Telefonleitungen.

Dennoch musste 1969 auch noch ein Programm bzw. Protokoll entwickelt werden, dass die Kommunikation zwischen den IMP und den Endgeräten ermöglichte. Dieses Protokoll wurde von der Entwicklergruppe um Vint Cerf als „request for comments“ (RFC) –Spezifikation benannt. (vgl. Braun 2010, S. 203.)

Zudem entwickelte diese Arbeitsgruppe verschiedene Anwendungen wie 1971 die erste E-Mail-Software sowie die Telnet-Spezifikation, die „zum entfernten Einloggen in andere Rechner“ (Braun 2010, S. 203) dient. Da zwar über dieses Telnet-Protokoll Verbindungen zu anderen Computern möglich waren, der Austausch von größeren Datenmengen jedoch nicht, wurde 1972 das File Transfer Protocol (FTP) entwickelt. (vgl. Kirpal/Vogel 2006, S.141). Ebenso musste in den 1970ern der Programmiercode angepasst werden, sodass mehr als tatsächlich mehrere IMPs miteinander kommunizieren konnten. (vgl. Hellige 2006, S. 22).

1973 wurde mit „Talk“ eine Art Präform des Chats umgesetzt. Später gab es auch Usenet News, „ein Dienst, um Nachrichten in ein Forum zu stellen und diese zu diskutieren.“ (Braun 2010, S. 203).

Die Universität Hawaii entwickelte in den 1970ern das „Aloha-Verfahren“ für lokale Funktnetze. Beim Aloha-Verfahren sendet ein Netzwerkknoten einfach ein Datenpaket und hofft, dass es beim Empfänger ankommt, was jedoch zu Kollisionen führen kann, wenn zwei oder mehr Rechner gleichzeitig senden. (vgl. Braun 2010, S. 203). Das Ethernet verbesserte dieses Verfahren, indem der Netzwerkknoten vor dem Senden des Datenpakets abhört, ob andere Knoten senden und solange die eigene Übertragung zurückstellt. (vgl. Braun 2010, S.203).

Diese Ideen ließ die Entwicklergruppe um Vint Cerf auch bei der Konzipierung des Kommunikationsprotokolls Network Control Protocol einfließen, was später das TCP (Transport Control Protocol) wurde. Dabei „regelt [das TCP] den zuverlässigen Datentransport zwischen Computern über unzuverlässige Netze.“ (Braun 2010, S.203).

Denn das Problem war, dass es zu diesem Zeitpunkt bereits mehrere unabhängige Netze gab, die man verbinden wollte. Aufgrund unterschiedlicher Standards zwischen den Netzwerken (bezüglich Datenpakten, Übertragungsgeschwindigkeit…) war es nicht möglich sie einfach auf Grundlage der ARPANET-Standards zu verbinden. Vielmehr entwickelten Vint Cerf und Rober Kahn die Idee von Gateway-Computern, die als Mittler zwischen den Netzwerken dienen sollten. Dabei sollten diese Gateway-Computer in jede Richtung als eine Art IMP arbeiten konnten und unter anderem die Größe der Datenpakete angepasst werden sollten. (vgl. Kirpal/Vogel 2006, S. 141f.).

Zunächst wurden Fehler bei der Übertragung im ARPANET durch benachbarte IMPs behoben. Im TCP wurde dies von den Endsystemen übernommen. 1977 wurde das TCP in TCP und IP (Internet Protocol) aufgeteilt. Hierbei ist das „IP (…) für das Weiterleiten von Paketen zwischen Quelle und Ziel verantwortlich. TCP sorgt für eine zuverlässige Kommunikation zwischen zwei am Internet angeschlossenen Computern.“ (Braun 2010, S. 204), da es die Daten vor dem Senden aufbereitet und etwaige Übertragungsfehler erkennt. (vgl. Kirpal/Vogel 2006, S. 142). Das IP ist für „das Routing zwischen den Netzwerkrechnern“ (Kirpal/Vogel 2006, S. 142) zuständig. 1983 löste das TCP/IP das Network Control Protocol komplett ab. Zwar gab es 1990 noch einen Versuch seitens der ISO ein vereinheitliches Protokoll zu entwerfen, letztlich setzte sich aber TCP/IP durch, da es bereits von den meisten genutzt wurde

Ab den 1980ern entstanden sowohl in den USA als auch in Europa viele solcher „Forschungsnetze“, welche die Universitäten miteinander verband und zumeist auf dem TCP/IP basierten.

Später wurden diese verschiedenen Einzelnetze zu einem großen Netz zusammengeschlossen. Zur Verbindung der Netze nutzte man Gateways (= Router), die die Rolle der IMP übernahmen. (vgl. Braun 2010, S. 204). Dabei sind mehrere solcher Einzelnetze regional häufig über ein Backbone-Netz miteinander verbunden. Solche Backbone-Netze werden meist von großen Internet Service Providern betrieben und sind untereinander wie international miteinander verbunden. (vgl. Braun 2010, S. 204).

Ab 1983 wurde im Internet das Domain Name System (DNS) eingeführt, dass der Verwaltung der Rechner- und Domänennamen diente. (vgl. Braun 2010, S. 205).

Die Vorformen des Internet waren also primär zur Vernetzung der Wissenschaftler und allenfalls noch im militärisch-staatlichen Bereich angedacht und umgesetzt. Entgegen der gezielten “Legendenbildung” einzelner Personen, die am Entstehungsprozess des Internet beteiligt waren, waren es jedoch nicht nur einzelne Genies aus den USA, die gezielt das Internet entworfen haben und zu dem gemacht haben, was es heute ist. Vielmehr waren es zu Beginn das mangelnde Geld um mehr teure Hardware zu kaufen, die das Time-Sharing-Konzept hervorbracht und später aufgrund von Effizienzüberlegungen zur Paketübermittlung von Daten führte. Zudem waren es die Ideen mehrerer Personen, welche die Internetentwicklung vorantrieben.

Literaturverzeichnis

Braun, Torsten (2010): Geschichte und Entwicklung des Internets. In: Informatik Spektrum 33 (2), S. 201–207. DOI: 10.1007/s00287-010-0423-9 .

Hellige, Hans Dieter: Die Geschichte des Internet als LernprozessGI-Edition. stark erweiterte Neubearbietung von artec-paper 107, Nov.2003. artec – paper Nr. 138 2006. Online verfügbar unter https://www.researchgate.net/profile/Hans_Hellige/publication/37931469_Die_Geschichte_des_Internet_als_Lernprozess/links/552244d00cf2a2d9e14528b5.pdf, zuletzt geprüft am 17.03.2016.

Kirpal, Alfred; Vogel, Andreas (2006): Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web. In: N.T.M. 14 (3), S. 137–147. DOI: 10.1007/s00048-006-0239-5 .


Rezension: The Invisible Library

Gebloggt am: 14.08.2015 von Lisseuse

“The Invisible Library” ist eine Detective Story mit Fantasy-Elementen. Und diese Formulierung hat mich gerade zum ersten mal darauf gebracht, dass das vielleicht meine Lieblingsliteraturform ist. Ich liebe Detektivgeschichten, bei denen der Fall durch gute Recherche, hervorragende Beobachtungsgabe und vor allem durch die Intelligenz des Detektivs gelöst wird. Sherlock Holmes, Miss Marple, Flavia de Luce, you name it. Und ich liebe Fantasy: besonders Zauberer, Magie und Drachen. Wenn alles gut geht, haben die Drachen Magie und können sprechen, ich glaube wer so ‘ne Geschichte schreibt, der hat mich. Auch gut ist es immer, wenn Literatur selbstreflektiert ist und ironisch kommentiert, wie sie gemacht ist.

Also muss mir ein Roman der in einer Welt spielt, in der “Die Bibliothek”  die wichtigste Institution ist, von der aus Agenten in alternative Universen geschickt werden, um dort einmalige und einzigartige Bücher zu suchen und zurück zur Bibliothek zu bringen. Alternative Universen haben alle die gleichen Naturgesetze unterscheiden sich aber dadurch, dass bestimmte Ereignisse anders entschieden werden. Außerdem gibt es in manchen Universen Magie und manche Universen sind durch die Gefahr des “Chaos” bedroht.

Das Buch beginnt damit, dass die Hauptfigur Irene die Mission nach einem Buch erfolgreich beendet und ermöglicht es den Lesern so, Grundlegendes über die Hauptfigur und die Struktur der Welt im Buch zu erfahren. Gleich nach ihrer Rückkehr wird Irene jedoch – zusammen mit einem Gehilfen, an dem irgendetwas seltsam zu sein scheint – wieder los geschickt, ein besonderes Buch zu suchen, anstatt wie üblich etwas Erholungszeit in der riesigen Bibliothek zu bekommen.

Der Untertitel des Buches lautet: “One spy. One dangerous book. One deadly mission.” Und diese beginnt nun für Irene und ihren Begleiter Kai. Sie werden in eines der vielen parallelen London geschickt, die es in diesem Buch gibt, um dort eine besondere Ausgabe von Grimms “Kinder- und Hausmärchen” zu suchen. Dabei befreunden sie sich mit dem lokalen Detektiven Vale; sie geraten in Konflikt mit einer anderen Bibliotheks-Agentin Bradamant (alle Agenten und Agentinnen tragen Codenamen aus dem literarischen Kanon. Bradamant ist eine Heldenfigur aus einem Epos); sie treffen auf mächtige Feenwesen; und sie werden von Alberich bedroht, einem ehemaligen Bibliotheks-Agenten, um den sich viele Legenden ranken.

Für beinahe den gesamten Band gilt, dass der Plot insgesamt etwas mehr Tempo haben und präziser erzählt sein könnte, aber es ist Debutroman von Cogman. Außerdem schafft der Band es gerade am Ende einen völlig neuen Spannungsbogen zu eröffnen, der allen Figuren eine neue Perspektive gibt und gespannt auf den Folgeband macht.

“The invisible Library” von Genevieve Cogman habe ich als eBook für 0,99€ gelesen.


Historische Trivia

Gebloggt am: 18.05.2015 von Lisseuse

Schon 1733 berichtet Julius Bernhard von Rohr über Aufzüge! Also genauer gesagt über Fahrstühle:

[Er meine Ergänzung] berichtete des Weiteren über “einige grosse Herren”, denen Treppen zu steigen “incommode” sei. Für sie habe man “in den neueren Zeiten bequeme Sessel erfunden,” die “an einem Gewichte hängen”. Ohne auf den Stufen immer mal wieder verschnaufen zu müssen, könnten die Herren nun “aus einem Zimmer in das andere fahren”. Im Stadtschloss zu Dresden und in dem zu Altenburg seien solche Fahrstühle […] eingebaut. (Zitiert nach Heinrich Dily: Stumme Diener in Wörlitz. In: Holm/Dilly: Innenseiten des Gartenreichs. S. 160)

 

Die erste Industrieschule des Kurfürstentums Hannover war in Göttingen. In Industrieschulen lernten die Kinder

das Verarbeiten von Flachs, Wolle und Baumwolle, das Spinnen und das Weben, sowie das Stricken, Knütten [= niederdeutsch für Stricken, zumindest laut zeno.org], Netzen, Nähen, Waschen, Bügeln, Stopfen, Klöppeln und andere verarbeitenden Methoden, sowie Feld- und Gartenarbeit, Bienen- und Seidenraupenzucht; zusätzlich sollten sie zur Pünktlichkeit, zum Eifer, Fleiß, zur Ordnung und zu fehlerfreiem Arbeiten erzogen werden. (Zitiert nach Britta Schlaefke: Geschichte und Ziele des Handarbeitsunterrichts. In: “Langes Fädchen – faules Mädchen” S. 12)

Bienen- und Seidenraupenzucht – wie praktisch…

Randbemerkung für meine Twittertimeline: Schade dass Knütten kein leckeres Hefegebäck mit Apfelfüllung sind 😉


Quellenkritik

Gebloggt am: 22.04.2015 von Lisseuse

Ich arbeite ja am liebsten zu historischen Themen. Sobald ich eine historische Quelle verwende, wird ein Aspekt sehr wichtig: Die Quellenkritik. Dabei handelt es sich um den äußerst wichtigen Prozess die verwendete Quelle einzuordnen. In der Kulturanthropologie in Göttingen wurde in meinem ersten Semester als Grundlagentext zu dieser Methode der Aufsatz “Archivalische Quellen und die Möglichkeiten ihrer Auswertung” von Silke Göttsch verwendet.1 Inzwischen habe ich diesen Aufsatz bestimmt 10 Mal gelesen. Ich kehre nämlich immer und immer wieder dazu zurück, wenn ich mit einer historischen Arbeit nicht mehr so recht weiter weiß.

Damit ich beim nächsten Mal vielleicht einfach mal meine Zusammenfassung lesen kann, schreibe ich sie hier auf. Dabei existieren bestimmt schon 3 verschiedene Exzerpte des Textes in meinen Unterlagen. Aber ich lasse mal den guten alten hermeneutischen Zirkel von Gadamer ins Spiel kommen: Bei wirklich jedem Mal lesen ist etwas anderes an diesem Text wichtig für mich.

Fragen der Quellenkritik nach Karl-Sigismund Kramer

  1. “Kritik der Echtheit” = ist eine Quelle (un-)bewusst gefälscht?
  2. “Kritik des Früheren oder Späteren” = was ist die Reihenfolge des Dargestellten?
  3. “Kritik des Richtigen” = wie ist eine Quelle intentional gefärbt?

Es geht also vornehmlich um die Fragen der Entstehung und Herkunft einer Quelle. Das ist wichtig, weil Quellen, die in Archiven aufbewahrt werden, Geschehenes und Handlungen Verschriftlichen. Sie sind nur das Ergebnis von tatsächlichem Geschehen. Aus diesem Grund muss man besonders darüber nachdenken, wie der Entstehungsprozess der Quelle ist, um dann Aussagen treffen zu können, wie früheres Leben gewesen sein mag.

Für historische Texte, die keine archivalischen Quellen sind, gibt Brigitte Bönisch-Brednich im Beitrag “Reiseberichte” im selben Sammelband Hinweise:

  1. Welches Text-Genre verwendet man? Wie ist dieses historisch einzuordnen?
  2. Welche Autoren schreiben? Wie bilden sich deren Sichtweisen in den Texten ab?
  3. Welche Quellen haben diese Autoren möglicherweise verwendet?

Auch hier geht es vor allem darum sich die Bedingungen unter denen ein Text produziert wurde so bewusst wie möglich zu machen, um so der Gefahr zu entgehen Annahmen aus dem Text unbemerkt zu übernehmen und sich nicht genügend von der Quelle zu distanzieren.

  1. In: Silke Göttsch, Albrecht Lehmann (Hgg.): Methoden der Volkskunde. Positionen, Quellen, Arbeitsweisen der europäischen Ethnologie. Berlin 2007.