Haben Sie auch eine Schwäche für schöne Taschen, und wollen sich immer wieder die schönsten Taschen ergattern. Dann besuchen Sie bitte unsere Webseite und entdecken Sie eine Vielfalt an Taschen in allen Arten von Sporttaschen bis hin zu Aktentaschen. Besonders Kuriertaschen sind in den letzten Jahren ein modischer Trend geworden und wurden von vielen Schülern/innen getragen. Aber bevorzugt werden immer noch die Rücksäcke, denn sie dient immer noch als komfortabelster unter den Taschen. Es gibt etliche Arten von Taschen unter anderem die Einkaufstaschen worauf viele Menschen unmöglich verzichten können. Sie können sich bei uns nicht nur eine schöne Tasche zulegen, sondern Sie können diese auch mit Designs bestücken und somit veredeln. Besuchen Sie unserer Homepage und durchstöbern Sie diverse Taschen. Mit Ihren Werbetaschen werden Sie nicht nur zufriedenstellend sondern sie weckt die Aufmerksamkeit der Menschen und werden so richtig in Ihrem Umfeld zum Hingucker.
In unserem Sortiment sind die Taschen in unterschiedlichsten Größen und Farben aufzufinden. Taschen sind auch optimale Werbegeschenke, Promotionsartikel, Werbemittel, Werbeartikel, Werbeanbringung, Kundengeschenke oder Give Aways, die an Veranstaltungen, Messen, Events, Festen, an Interessenten, Kunden, Mitarbeiter oder Kollegen verteilt bzw. verschenkt werden können. Sie können alle unserer Produkte je nach Wunsch mit einem Logo, mit einem Slogan Ihrer Firma oder mit einem speziellen und einmaligen Spruch bedrucken, besticken, ätzen oder gravieren lassen. Außerdem sind alle unsere Kundenpräsente, Merchandise Artikel, Abgabeartikel, Werbeprämien, Inzentives bzw. Businesspräsente und Werbegeschenke mit QR-Code bzw. QR-Code Motiven bedruckbar bzw. zu kennzeichnen. Wir sind ein anerkanntes Werbeartikel Firma und unsere Schwerpunkte liegen einfach darin kundenspezifische bzw. individuelle Anfertigungen für unseren Kunden auszustellen. Leider liefern wir nicht an Privat, sondern nur an Firmen, Unternehmen, Gewerben, Behörden, Vereinen und Institutionen. Und falls sie Fragen, Anregungen oder irgendwelche Anliegen bezüglich dieser oder anderen Artikeln haben, dann sind wir für Sie jeder Zeit entweder telefonisch(069 84774255) und per E-Mail unter info@kawil.de erreichbar. Wir stehen Ihnen von Montag bis Donnerstag von 8:30- 18:00 Uhr und freitags von 8:30- 15:00 Uhr zur Verfügung. Oder Sie besuchen unsere Homepage unter www.werbeartikel-werbegeschenke-24shop.de für weitere Infos und interessanten Angeboten, die Ihnen sicherlich zufrieden stellen werden, sowie auch allen unserer Kunden. Wir freuen uns auf Ihren Besuch.
Zeigen Sie treuen Kunden Dankbarkeit oder locken Sie neue Kundschaft an mit Hilfe von Werbegeschenken. Perfekt würde sich hierzu ein MP3-Player eignen! Bei dem MP3-Player als Werbegeschenk ist garantiert, anders wie bei anderen Werbegeschenken, dass der Beschenkte einen Nutzen für ihn finden wird. Oft ist es nämlich so, dass Kunden für Werbeartikel keine Verwendung finden und sie deshalb ungesehen in einer Schublade lagern oder sogar in den Müll werfen. Bei dem MP3-Player können Sie sicher sein, dass er nicht im Müll landen wird, sondern genutzt wird.
Gerade der Werbeartikel MP3-Player ist ein Gerät der im Alltag relativ im Gebrauch ist; auf langen Reisen, in der Bahn, als Speichermedium oder auch zum Musikhören während dem Einschlafen. Ob er vom von Ihnen Beschenkten selbst oder von anderen Bekannten, die den MP3-Player geschenkt bekommen, genutzt wird, spielt keine Rolle, denn seinen werbenden Zweck wird er garantiert erfüllen. Doch mit der richtigen Wahl des Werbeartikels ist die Werbung noch nicht getan. Es kommt auch auf die richtige Gestaltung an. Hierbei ist zu beachten, dass Geschenke, bei denen man sieht, dass Sie von Ihnen persönlich stammen, immer besser ankommen und im Gedächtnis bleiben, als Artikel, die standardmäßig von Werbefirmen, in diesem Fall uns, ohne persönlichen Gedankeneinfluss des Auftraggebers gestaltet wurden. Verzieren Sie den MP3-Player mit Ihrem persönlichen Firmenlogo, Slogan oder sogar kleinen Sprüchen und lassen Sie denk Kunde wissen, dass er Ihnen etwas wert ist.
Ein Eiskratzer (auch: Eisschaber) ist ein Werkzeug zum Entfernen von Eis auf glatten Oberflächen.
Inhaltsverzeichnis
|
In seiner bekanntesten Form besteht der Eiskratzer aus einem Griff, der in eine quer dazu stehende Klinge übergeht. Die Klinge selbst ist bei heutigen Eiskratzern meist nur an einer Seite glatt, während die andere Seite ein Profil aus scharfen Zacken aufweist.
Eiskratzer bestehen heute fast immer aus Kunststoff und finden ihren Einsatz bevorzugt bei der Enteisung von Fahrzeugscheiben. Insbesondere für diesen Zweck wurden Versionen mit den Griff umschließendem Handschuh entwickelt, die die Arbeit des Eiskratzens durch Fernhalten gelöster Eispartikel von der Handoberfläche angenehmer gestalten.
Als günstiges, aber häufig benötigtes Fahrzeug-Utensil ist der Eiskratzer ein beliebtes Trägermedium für Werbeaufdrucke. Ebenso existieren Parkscheiben mit integrierten Eiskratzern.
Die scharfzackige Seite dient dem Aufbrechen häufig vorkommender stärkerer Eisschichten bzw. der Vorbehandlung extrem dünner, dafür aber sehr fester Eisbeläge. Dazu wird der Eiskratzer von den Seiten her waagerecht zur Scheibenmitte geführt. Mit der glatten Seite der Klinge wird das so behandelte Eis dann von der Oberfläche gelöst und entfernt.
Laut § 23 StVO hat in Deutschland jeder Fahrzeugführer u.a. dafür Sorge zu tragen, dass seine Sicht nicht durch den Zustand des Fahrzeuges beeinträchtigt wird. Dazu gehört auch, alle Fahrzeugscheiben von Eis zu befreien. Es reicht nicht aus, lediglich ein „Sichtfenster“ in das Eis zu kratzen.
Glas
aus Wikipedia, der freien Enzyklopädie
Glas (von germanisch glasa „das Glänzende, Schimmernde“, auch für „Bernstein“) ist ein amorpher, nichtkristalliner Feststoff. Materialien, die man im Alltagsleben als Glas bezeichnet (zum Beispiel Trink- und Fenstergläser, Fernsehscheiben und Glühlampen) sind nur ein Ausschnitt aus der Vielfalt der Gläser.
Inhaltsverzeichnis
|
Glas ist eine amorphe Substanz. Gewöhnlich wird Glas durch Schmelzen erzeugt, die Bildung von Glas ist aber auch durch die Erwärmung von Sol-Gel und durch Stoßwellen möglich. Thermodynamisch wird Glas als gefrorene, unterkühlte Flüssigkeit bezeichnet. Diese Definition gilt für alle Substanzen, die geschmolzen und entsprechend schnell abgekühlt werden. Das bedeutet, dass sich bei der Erstarrung der Schmelze zum Glas zwar Kristallkeime bilden, für den Kristallisationsprozess jedoch nicht genügend Zeit verbleibt. Das erstarrende Glas ist zu schnell fest, um noch eine Kristallbildung zu erlauben. Der Transformationsbereich, das ist der Übergangsbereich zwischen Schmelze und Feststoff, liegt bei vielen Glasarten um 600 °C.
Trotz des nicht definierten Schmelzpunkts sind Gläser Festkörper, allerdings werden sie in der Fachterminologie als „nicht-ergodisch“ bezeichnet, d. h. sie befinden sich im Gegensatz zu anderen Systemen nicht im „thermodynamischen Gleichgewicht“. Aber obwohl sich Glas unter langzeitiger Krafteinwirkung verformt, darf man es auch nicht als Flüssigkeit bezeichnen. Die langsame Verformung unter einer konstanten Kraft tritt auch in kristallinen Festkörpern auf und wird als Kriechen bezeichnet. Während aber in Kristallen diese Kriechprozesse auf Gitterfehler (z. B. Versetzungen) zurückgehen, treten diese gerade in Gläsern nicht auf. Berichte von fließenden Kirchenfenstern lassen sich nicht bestätigen und die Idee des flüssigen Glases scheint auf eine Falschübersetzung zurückzugehen, obwohl die Glasbildung mit dem Überschreiten extremer Zähigkeitswerte beim sogenannten „Abschrecken“ gewisser glasbildender Legierungen einhergeht.
Kunststoffe wie Plexiglas fallen wegen ihrer thermodynamischen Eigenschaften (amorpher Aufbau, Glasübergang usw.) ebenfalls in die Kategorie Gläser, obwohl sie eine völlig andere chemische Zusammensetzung aufweisen als Silikatgläser. Sie werden daher oft als organisches Glas bezeichnet.
Die im allgemeinen Sprachgebrauch bedeutungstragende Eigenschaft von Glas ist die optische Durchsichtigkeit. Die optischen Eigenschaften sind so vielfältig wie die Anzahl der Gläser. Neben klaren Gläsern, die in einem breiten Band für Licht durchlässig sind, kann man durch Zugabe von speziellen Materialien zur Schmelze die Durchlässigkeit blockieren. Zum Beispiel kann man optisch klare Gläser für infrarotes Licht undurchdringbar machen, die Wärmestrahlung ist blockiert. Die bekannteste Steuerung der Durchlässigkeit ist die Färbung. Die verschiedensten Farben können erzielt werden. Andererseits gibt es undurchsichtiges Glas, das schon aufgrund seiner Hauptkomponenten oder der Zugabe von Trübungsmitteln opak ist.
Gebrauchsglas hat eine Dichte von ca. 2500 kg/m³ (Kalk-Natronglas). Die mechanischen Eigenschaften variieren sehr stark. Die Zerbrechlichkeit von Glas ist sprichwörtlich. Die Bruchfestigkeit wird stark von der Qualität der Oberfläche bestimmt. Glas ist weitgehend resistent gegen Chemikalien. Eine Ausnahme ist Flusssäure; sie löst das Siliciumdioxid und wandelt es zu Hexafluorokieselsäure. Bei Raumtemperatur hat Glas einen hohen elektrischen Widerstand, der allerdings mit steigender Temperatur stark abfällt, sofern es sich nicht um Quarzglas (glasartig erstarrtes reines Siliciumdioxid) handelt. Neben den Silikatgläsern gibt es aber auch sog. metallische Gläser wie Fe80B20, die bereits bei Raumtemperatur höhere Leitfähigkeiten besitzen, weil sie sich ungefähr wie eingefrorene flüssige Metalle verhalten.
Obwohl Glas zu den ältesten Werkstoffen der Menschheit gehört, besteht noch Unklarheit in vielen Fragen des atomaren Aufbaus und seiner Struktur. Die mittlerweile allgemein anerkannte Deutung der Struktur ist die Netzwerkhypothese, die von Zachariasen 1932 aufgestellt wurde. Diese besagt, dass im Glas grundsätzlich dieselben Bindungszustände wie im Kristall vorliegen. Bei silikatischen Gläsern also in Form von SiO4-Tetraedern.
Wie die zweidimensionalen Abbildungen des Quarzes und des Quarzglases zeigen, liegt der Unterschied in der Regelmäßigkeit des Gefüges – hier Gitter und dort ein Netzwerk. Die vierte Oxidbindung, die in die dritte Dimension zeigt, ist zur besseren Anschaulichkeit nicht dargestellt. Die Bindungswinkel und Abstände im Glas sind nicht regelmäßig und die Tetraeder sind verzerrt. Der Vergleich zeigt, dass Glas ausschließlich über eine Nahordnung in Form der Tetraeder verfügt, jedoch keine kristalline Fernordnung aufweist. Diese fehlende Fernordnung ist auch verantwortlich für die sehr schwierige Analyse der Glasstruktur. Insbesondere die Analyse in mittlerer Reichweite, also die Verbindungen mehrerer Grundformen (hier den Tetraedern), ist Gegenstand der aktuellen Forschung und wird zu den heutigen größten Problemen der Physik gezählt.
Das Material, das diese Grundstruktur des Glases bestimmt, nennt man Netzwerkbildner. Neben dem erwähnten Siliciumoxid können auch andere Stoffe Netzwerkbildner sein, wie Bortrioxid und nichtoxidische wie Arsensulfid. Einkomponentengläser sind eine Ausnahme; sie neigen auch im Laufe der Zeit eher zur Kristallisation als Mehrkomponentengläser. Das trifft auch auf reines Quarzglas zu, was als einziges Einkomponentenglas wirtschaftliche Bedeutung hat.
Weitere Stoffe binden sich anders in das Netzwerkgefüge ein. Hier werden Netzwerkwandler und Stabilisatoren unterschieden.
Netzwerkwandler werden in das vom Netzwerkbildner gebildete Gerüst eingebaut. Für gewöhnliches Gebrauchsglas – Kalk-Alkali-Glas (gebräuchlicher ist allerdings der engere Terminus Kalk-Natron-Glas) – sind dies Natrium- bzw. Kaliumoxid und Calciumoxid. Diese Netzwerkwandler reißen die Netzwerkstruktur auf. Dabei werden Bindungen des Brückensauerstoffs in den Siliciumoxid-Tetraedern aufgebrochen. Anstelle der Atombindung mit dem Silicium geht der Sauerstoff eine Ionenbindung mit einem Alkaliatom ein.
Zwischenoxide wie Aluminiumoxid und Bleioxid können als Netzwerkbildner und -wandler fungieren. Allerdings sind sie alleine nicht zur Glasbildung fähig.
Während bei kristallinen Materialien der Übergang von der Schmelze zum Kristall bei einer bestimmten Temperatur spontan erfolgt, geht dieser Vorgang bei Gläsern allmählich vonstatten. Hier spricht man daher nicht von einem Schmelzpunkt sondern von einem Transformationsbereich. Im Laufe der Abkühlung nimmt die Viskosität des Materials stark zu. Dies ist das äußere Zeichen für eine zunehmende innere Struktur. Da diese Struktur kein regelmäßiges Muster aufweist, nennt man den Zustand der Schmelze im Transformationsbereich, wie auch des erstarrten Glases, amorph. Am kühlen Ende des Transformationsbereichs liegt ein thermodynamischer Übergang, der für Glas charakteristisch ist und daher den Namen Glasübergang trägt. An ihm wandelt sich die Schmelze in den festen, glasartigen Zustand, den das Glas auch bei weiterer Abkühlung beibehält. Der Glasübergang zeichnet sich durch eine sprunghafte Änderung des Wärmeausdehnungskoeffizienten sowie eine Abnahme der spezifischen Wärme Cp aus.
Diese Abfolge von Transformationsbereich und Glasübergang ist charakteristisch für alle Gläser, auch solchen, die wie Plexiglas aus Kohlenwasserstoffen bestehen. Der amorphe, viskose Zustand der Schmelze im Transformationsbereich wird für die Bearbeitung von Glas durch Glasbläserei ausgenutzt. Er erlaubt eine beliebige Verformung, ohne dass Oberflächenspannung und Gravitation das Werkstück sofort zerfließen lassen.
Glaseigenschaften können mittels statistischer Analyse von Glas-Datenbanken wie z. B. von SciGlass® oder Interglad® ermittelt und optimiert werden. Sofern die gewünschte Glaseigenschaft nicht mit Kristallisation (z. B. Liquidustemperatur) oder Phasentrennung in Zusammenhang steht, ist einfache lineare Regressionsanalyse anwendbar, unter Zuhilfenahme algebraischer Gleichungen der ersten bis zur dritten Ordnung.
Die nachstehende Gleichung zweiter Ordnung ist ein Beispiel, wobei C die Konzentrationen der Glaskomponenten wie Na2O oder CaO darstellen. Die b-Werte sind variable Koeffizienten, und n ist die Anzahl aller Glaskomponenten. Der Glas-Hauptbestandteil SiO2 ist in der dargestellten Gleichung ausgeschlossen und wird mit der Konstante bo berücksichtigt. Der Großteil der Glieder in der Beispielgleichung kann aufgrund von Korrelations- und Signifikanzanalyse vernachlässigt werden. Weitere Einzelheiten und Anwendungen siehe.
Oft ist es erforderlich, mehrere Glaseigenschaften sowie die Produktionskosten gleichzeitig zu optimieren. Dies geschieht mit der Methode der kleinsten Quadrate, wodurch der Abstand zwischen den gewünschten Eigenschaften und den vorausberechneten einer fiktiven Glassorte durch Variation der Zusammensetzung minimiert wird. Es ist möglich, die gewünschten Eigenschaften unterschiedlich zu wichten. [5]
Glasart | SiO2 | Al2O3 | Na2O | K2O | MgO | CaO | B2O3 | PbO | TiO2 | F | As | Se | Ge | Te |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Quarzglas | 100 | – | – | – | – | – | – | – | – | – | – | – | – | – |
Kalk-Natron-Glas | 72 | 2 | 14 | – | – | 10 | – | – | – | – | – | – | – | – |
Floatglas | 72 | 1,5 | 13,5 | – | 3,5 | 8,5 | – | – | – | – | – | – | – | – |
Bleikristallglas | 58 | - | 4 | 9 | – | – | 2 | 24 | – | – | – | – | – | – |
Borosilikatglas | 80 | 3 | 4 | 0,5 | – | – | 12,5 | – | – | – | – | – | – | – |
E-Glas | 54 | 14 | – | – | 4,5 | 17,5 | 10 | – | – | – | – | – | – | – |
40 | 1,5 | 9 | 6 | 1 | - | 10 | 4 | 15 | 13 | – | – | – | – | |
Chalkogenidglas 1 | – | – | – | – | – | – | – | – | – | – | 12 | 55 | 33 | – |
Chalkogenidglas 2 | – | – | – | – | – | – | – | – | – | – | 13 | 32 | 30 | 25 |
Glas-Zuschlagstoffe sind unter anderem:
Die meisten Glassorten werden mit weiteren Zusatzstoffen produziert, um bestimmte Eigenschaften, wie ihre Färbung zu beeinflussen. Zur Glasfärbung erfolgt die Beimischung von Metallen in Form von Nanopartikeln, (rund 0,1 %) in die Glasschmelze. Die am häufigsten verwendeten Metalle sind Gold und Silber in einer Korngröße von einigen Nanometern. Weiterhin entscheidend ist die Form der Partikel, z. B. prolat (platt), sphärisch oder oblat (abgeflacht). Die unterschiedlichen Farben bei Reflexion bzw. Transmission werden durch die Nanopartikel beeinflusst.
Für die Entfärbung von Gläsern, die durch Verunreinigungen ihrer Rohstoffe verursacht sind, werden vor allem Metalloxide verwendet. Grundsätzlich verwendet man zur Beseitigung von Farbstichen die komplementäre Farbe. Entfärbemittel wurden Glasmacherseifen genannt.
Für die Herstellung von Kalk-Natron-Glas, das ca. 90 % der produzierten Glasmenge ausmacht, werden folgende Rohstoffe eingesetzt:
Für Spezialgläser kommen auch Mennige, Borax, Bariumcarbonat und seltene Erden zum Einsatz.
Die Glasschmelze erfolgt in verschiedenen Phasen: Sie beginnt mit der Rauhschmelze, die das Erschmelzen des Gemenges und seine Homogenisierung umfasst. Danach kommt die Läuterung, in der die Gase ausgetrieben werden. Daran schließt sich das Abstehen des Glases an, in der das Material zur weiteren Formgebung abgekühlt wird.
Bei chargenweise arbeitenden Tageswannen und Hafenöfen geschehen alle diese Schritte nacheinander in demselben Becken. Dieses historische Produktionsverfahren findet heute nur noch bei kunsthandwerklicher Produktion und speziellen, optischen Gläsern in geringen Mengen statt. Im industriellen Maßstab finden ausschließlich kontinuierlich arbeitende Öfen Verwendung. Hier ist die Abfolge obiger Schritte nicht zeitlich, sondern räumlich getrennt. Die Menge des zugeführten Gemenges muss der der Glasentnahme entsprechen.
Das Gemenge wird der Schmelzwanne mit einer Einlegemaschine aufgegeben. Bei Temperaturen von ca. 1480 °C schmelzen die verschiedenen Bestandteile langsam. Die Bewegung der Konvektion im Glasbad erzeugt Homogenität. Diese kann durch ein Bubbling, der Eindüsung von Luft oder Gasen in die Schmelze, unterstützt werden.
Im Läuterbereich, der dem Schmelzbereich unmittelbar folgt und häufiger auch durch einen Wall in der Schmelze von diesem getrennt ist, werden in der Schmelze verbliebene Blasen ausgetrieben. Durch die hohe Zähigkeit der Schmelze geschieht dieses nur sehr allmählich, und es sind ebenso hohe Temperaturen erforderlich wie im Schmelzbereich. Da die Läuterung bestimmend für die Glasqualität ist, gibt es vielfältige unterstützende Maßnahmen.
Dem Läuterbereich schließt sich die baulich klar getrennte Arbeitswanne an. Da für die Formgebung niedrigere Temperaturen als zur Schmelze und Läuterung nötig sind, muss das Glas vorher abstehen. Daher spricht man auch von Abstehwanne. Der Kanal, der Schmelzwanne und Arbeitswanne verbindet, heißt Durchfluss und arbeitet nach dem Siphonprinzip. Bei Flachglaswannen sind Schmelz- und Arbeitswanne nur durch eine Einschnürung getrennt, da ein Durchfluss eine optische Unruhe im Fertigprodukt entstehen ließe.
Von der Arbeitswanne fließt das Glas weiter zum Punkt der Entnahme. Bei der Produktion von Hohlglas sind dieses die Speiser oder Feeder. Hier werden Tropfen in darunter stehende Glasmaschinen geleitet. Bei Flachglas fließt das Glas über die Lippe in das Floatbad.
Je nach Produkt wird Glas unterschiedlich geformt. Dabei unterscheidet man vor allem Gläser, die gepresst, geblasen, gedüst, gesponnen oder gewalzt werden.
In jedem Glasgegenstand entstehen bei der Formgebung mechanische Spannungen als Folge von Dehnungsunterschieden im Material. Diese Spannungen lassen sich mit optischen Spannungsprüfern messen (Spannungsdoppelbrechung). Die Spannungsanfälligkeit hängt vom Ausdehnungskoeffizienten des jeweiligen Glases ab und muss thermisch ausgeglichen werden.
Für jedes Glas lässt sich zwischen der oberen Kühltemperatur (Viskosität von 1013 dPa·s) und einer unteren Kühltemperatur (1014,5 dPa·s), in der Regel zwischen 590 °C und 450 °C, ein Kühlbereich festlegen. Die Spannungen verringert man durch definiertes langsames Abkühlen im Kühlbereich, dem Tempern.
Die Zeit, in der ein Glasgegenstand den Kühlbereich durchlaufen kann, ist maßgeblich von der je nach Glasart zu überbrückenden Temperatur und der Stärke (Dicke) des Gegenstands abhängig. Im Hohlglasbereich sind dies zwischen 30 min und 100 min, bei großen optischen Linsen mit 1 m Durchmesser und mehr, kann eine langsame Abkühlung von einem Jahr notwendig sein, um sichtbare Spannungen und somit Bildverzeichnungen der Linse zu vermeiden.
Die kontrollierte Temperatursenkung kann mit unterschiedlichen Öfen vorgenommen werden. Man unterscheidet periodische Kühlöfen und kontinuierliche Kühlbahnen. Kühlöfen eignen sich nur für Sonderfertigungen und Kleinstchargen, da nach jeder Entnahme der Werkstücke der Ofen wieder auf Temperatur gebracht werden muss. Industriell werden Kühlbahnen genutzt. Hier wird die Produktion auf Stahlmatten (Hohlglas) bzw. Rollen (Flachglas) langsam durch abgestuft geheizte Ofensegmente transportiert.
Natürliches Glas wie Obsidian wurde wegen seiner großen Härte und des scharfen Bruchs seit frühester Zeit für Werkzeuge wie Keile, Klingen, Schaber und Bohrer benutzt. Obsidian kann jedoch – anders als künstlich hergestelltes Glas – mit antiken Mitteln nicht geschmolzen oder gefärbt werden.
Ob die Glasherstellung in Mesopotamien, in Ägypten oder an der Levanteküste erfunden wurde, lässt sich nicht mit letzter Gewissheit sagen. Die ältesten regelmäßig auftretenden Glasfunde stammen aus Mesopotamien; ägyptische Quellen deuten für die Anfangsphase der Glasnutzung in Ägypten auf einen Import aus dem Osten hin. Die älteste textliche Erwähnung stammt aus Ugarit und wird auf etwa 1600 v. Chr. datiert. Als älteste Funde gelten die Nuzi-Perlen, das älteste sicher zu datierende Glasgefäß ist ein Kelch, der den Namen des ägyptischen Pharaos Thutmosis III. trägt und um 1450 v. Chr. entstand. Der Kelch befindet sich heute im Staatlichen Museum Ägyptischer Kunst in München.
Glas wurde in Ägypten seit etwa 1400 v. Chr. zu Gefäßen verarbeitet, der Herstellungsort dieses frühesten Glases ist allerdings unbekannt. Die bekannteste Verarbeitungstechnik beruht auf dem Herstellen von Hohlgefäßen durch das Wickeln von erweichten Glasstäbchen um einen porösen Keramikkern, der anschließend herausgekratzt wurde. Die besten Funde hierzu liegen aus den Grabungen von Flinders Petrie aus Amarna vor. Die bislang einzige bekannte bronzezeitliche Glashütte, in der Glas aus seinen Rohstoffen hergestellt wurde, datiert in die Ramessidenzeit und wurde Ende der 1990er Jahre bei Grabungen des Roemer- und Pelizaeus-Museums (Hildesheim) unter der Leitung von Edgar Pusch im östlichen Nil-Delta in Qantir-Piramesse gefunden. Untersuchungen gaben Aufschluss über das Schmelzverfahren. So wurde Quarzgestein zerkleinert, mit sodahaltiger Pflanzenasche vermengt, in einen Krug gefüllt und bei vielleicht 800 °C zu einer Fritte geschmolzen. Diese Fritte wurde nach dem Abkühlen vermutlich zerkleinert und in einer zweiten Schmelze in speziell hergestellten Tiegeln bei 900 bis 1100 °C zu einem 8 bis 10 cm hohen Barren mit 10 bis 14 cm Durchmesser geschmolzen. Das Glas wurde dabei durch Beimischen von Metall-Oxiden schwarz, violett, blau, grün, rot, gelb oder weiß gefärbt. Ein konkreter Zusammenhang von Glasherstellung und Metallgewinnung ist trotz der ähnlichen Temperaturen nicht nachzuweisen. Das gefärbte Rohglas wurde in Barrenform an die weiterverarbeitenden Werkstätten geliefert, die daraus monochrome und polychrome Objekte herstellten. Solche Glasbarren wurden im Schiffswrack von Uluburun nahe dem türkischen Bodrum gefunden, das auf das 14. Jahrhundert v. Chr. datiert ist. Die erste bekannte Rezeptur ist aus der Bibliothek des assyrischen Königs Assurbanipal überliefert, die auf ca. 650 v. Chr. datiert wird: Nimm 60 Teile Sand, 180 Teile Asche aus Meerespflanzen und 5 Teile Kreide und du erhältst Glas. Zu dieser Zeit wurde schon wesentlich mehr Glas verarbeitet, und es entwickelte sich eine neue Glasschmelztechnik.
Plinius der Ältere beschreibt in der Historia naturalis die Herstellung des Glases. Chemische Analysen und Erkenntnisse der experimentellen Archäologie haben Plinius in vielen Fragen bestätigt. Zur Römerzeit wurde Glas mit Flusssand und Natron aus Ägypten geschmolzen. Dieses ägyptische Natron wurde am Wadi Natrun, einem natürlichen Natronsee in Nord-Ägypten, abgebaut und über Alexandria von den Phöniziern in den Mittelmeerraum exportiert. Es enthielt mehr als 40 % Natriumoxid und bis zu 4 % Kalk, war also ein ideales Schmelzmittel. Plinius schreibt weiter von Glassandlagern in Italien, Hispanien und Gallien, aber an keiner dieser Stätten entwickelte sich eine so bedeutende Glasherstellung wie an der palästinischen Küste zwischen Akkon und Tyros sowie in den ägyptischen Glashütten rund um den Wadi Natrun bei Alexandria.
Kaiser Diokletian legte 301 die Preise für eine ganze Reihe von Produkten fest, unter anderem für Rohglas. Unterschieden wurde judaicum und alexandrium, wobei letzteres teurer und wahrscheinlich entfärbtes Glas war. Zu dieser Zeit war die Glasproduktion im Wesentlichen noch immer in Primär- und Sekundärwerkstätten gegliedert. In den Primärwerkstätten wurde in großen Schmelzwannen Rohglas geschmolzen, das dann an die Sekundärwerkstätten geliefert wurde, wo es in Tiegeln eingeschmolzen und verarbeitet wurde. In Bet Eli’ezer im heutigen Israel wurden 17 Glasschmelzwannen freigelegt, die jeweils 2 m × 4 m groß sind. Nachdem das Gemenge in die Wanne eingelegt worden war, wurde der Ofen zugemauert und 10 bis 15 Tage lang befeuert. Acht bis neun Tonnen blaues bzw. grünes Rohglas wurden so in nur einem Arbeitsgang erschmolzen. Nach dem Feuerungsstopp und dem Abkühlen wurde das Gewölbe des Ofens abgetragen, der Glasblock herausgestemmt und das Rohglas zur weiteren Verarbeitung versandt. Ein Schiffswrack aus dem 3. Jahrhundert, das an der südfranzösischen Küste gefunden wurde, hatte mehr als drei Tonnen Rohglas geladen. In Ägypten wurden Rohglashütten gefunden, die bis ins 10. Jahrhundert reichten. Die Ägypter benutzten Antimon zur Entfärbung, konnten also farbloses, durchsichtiges Glas herstellen.
Die Sekundärglashütten waren im ganzen Römischen Reich verbreitet und stellten Hohlglas, Flachglas und Mosaiksteine her. Das Rohglas wurde in einem Tiegel eingeschmolzen und mit der Pfeife im zähflüssigen Zustand aus dem Ofen genommen und verarbeitet. An der Pfeife konnte das Glas aufgeblasen werden, was die Herstellung von größeren Gefäßen und neuen Formen ermöglichte. Wurde bis dahin Glas für Perlen, Parfümfläschchen und für Trinkschalen verwendet, verbreitete sich im Römischen Reich vor allem Behälterglas – im Gegensatz zu den üblichen Ton-, Holz-, Metall- oder Lederbehältnissen ist Glas geschmacksneutral – sowie Karaffen zum Kredenzen und in der Spätantike auch Trinkgläser. Erste Fenstergläser fanden sich in Aix-en-Provence und Herculaneum. Die Funde haben Größen von 45 cm × 44 cm bzw. 80 cm × 80 cm. Allerdings ist über das Herstellungsverfahren nichts bekannt. Das Zylinderblasverfahren und die Gusstechnik werden hier in Betracht gezogen.
Glasarmringe sind eine typische Schmuckform, die neben gläsernen Fingerringen und Ringperlen zur mittleren La-Tène-Zeit im keltischen Mitteleuropa als Frauenschmuck aufkommt und als Grabbeigabe gefunden wird.
Im frühen Mittelalter stellten die Germanen überall dort, wo die Römer sich zurückgezogen hatten, Glas her, das nahtlos an die schon germanisierte Spätantike Formensprache anschließt. Man geht heute davon aus, dass für das Fränkische Glas noch vorhandene Römische Gläser recycelt wurden.
Mit „de diversis artibus“ des Benediktinermönches Theophilus Presbyter steht uns erstmals eine längere schriftliche Quelle zur Verfügung, die die Glasherstellung, das Blasen von Flachglas und Hohlglas sowie die Ofentechnologie beschreibt. Theophilus, der wahrscheinlich in Konstantinopel war, vermischte Asche von getrocknetem Buchenholz mit gesiebtem Flusssand im Verhältnis 2:1 und trocknete dieses Gemenge im Ofen unter ständigem Rühren, so dass es nicht schmelzen oder verkleben konnte, einen Tag und eine Nacht. Danach wurde diese Fritte in einen Tiegel gefüllt und in einer Nacht unter starker Hitze zu Glas geschmolzen.
Dieser am Anfang des 12. Jahrhundert wohl in Köln entstandene Text bildet vielleicht die Grundlage für die Kirchenfenster der Gotik und auch für das Waldglas. Die Pflanzenasche mit allen Verunreinigungen lieferte auch einen Teil des Kalks, der für die Herstellung guten Glases nötig war. Um die enorme Menge an Holz, die für die Befeuerung der Öfen und für die Aschegewinnung nötig war, nicht über lange Wege befördern zu müssen, wurden die Glashütten in abgelegenen Waldgebieten angelegt. Diese Waldglashütten stellten überwiegend Glas her, welches durch Eisenoxid (aus verunreinigtem Sand) grünlich verfärbt war.
In Georgius Agricolas „de re metallica“ gibt es eine kurze Beschreibung der Glaskunst. Er hat von 1524 bis 1527 in Venedig gelebt und wohl die Insel Murano besuchen dürfen, was die detaillierten Beschreibungen der Öfen vermuten lassen.
Als Rohstoff sind durchsichtige Steine genannt, also Bergkristall und Weiße Steine, also Marmor, die im Feuer gebrannt und im Pochwerk zerstoßen und in Form von grobem Griss gebracht und danach gesiebt werden. Weiter führt er Kochsalz, Magnetstein und Soda an. Kochsalz und Magnetstein werden von späteren Autoren als unnütz verworfen, Marmor und Soda gab es in Altare und in Mailand; sie sind aber in Deutschland nicht zu erhalten. Einzig eine Andeutung: „salz das aus laugen dargestellt wird“, weist auf ein venezianisches Geheimnis hin.
Die Glasschmelzöfen der Waldglashütten und Venedigs waren Hafenöfen, sie waren aus mit gebrannter Schamotte versetzten Lehmziegeln gemauerte, eiförmige Konstruktionen mit 3 m Durchmesser und bis zu 3 m Höhe. Im unteren Stock lag der Befeuerungsraum mit ein oder zwei halbrunden Öffnungen für den Holzeinwurf. In der Mitte schlugen die Flammen durch eine große runde Öffnung in den zweiten Stock, in dem die Häfen standen. Dieser etwa 1,20 m hohe Raum war rundum mit 20 cm × 20 cm großen Ofentoren versehen, durch die das Gemenge eingelegt und das Glas entnommen werden konnte. Im Obergeschoss, das durch eine kleine Öffnung mit dem Schmelzraum verbunden war, lag der Kühlofen, der nur 400 °C heiß war. Der Kühlofen war mit einer kleinen Öffnung versehen, durch die fertige Werkstücke eingetragen wurden. Am Abend wurde das Loch zwischen Schmelzraum und Kühlraum mit einem Stein verschlossen, sodass das Glas über Nacht abkühlen konnte.
Am Anfang der venezianischen Glastradition steht wohl der Handel mit byzantinischen Glaserzeugnissen, die schon im 10. Jahrhundert importiert und nach ganz Europa exportiert wurden. Erste Glasmacher finden sich in den Registern des 11. Jahrhundert Sie werden „phiolarius“, Flaschenmacher genannt. Ein an der Südküste der Türkei havariertes Handelsschiff, das um 1025 gesunken ist, transportierte nicht weniger als drei Tonnen Rohglas, das aus Caesarea in Palästina stammte. Ob es für Venedig bestimmt war, lässt sich nicht mit Gewissheit sagen, ist aber naheliegend. Bis 1295 werden alle Glasmacher auf der Insel Murano angesiedelt und ihre Reisefreiheit per Gesetz eingeschränkt. Auf dieser von der Welt abgeschnittenen Insel konnte Angelo Barovier, der Mitte des 15. Jahrhundert lebte, das Geheimnis der Glasentfärbung lüften und erstmals ungetrübtes, klar durchsichtiges Glas in Europa herstellen. Das „crystallo“, ein Soda-Kalkglas, das mit Manganoxid entfärbt war, sollte den Weltruhm des venezianischen Glases begründen. Die Soda wurde aus der Levante oder Alexandria importiert, ausgelaugt und versiedet, bis ein reines Salz entstand. Als Sand wurde ein reiner Glassand aus dem Ticino oder gebrannter Marmor verwendet. Eine weitere venezianische Wiederentdeckung ist das „lattimo“ (Milchglas), ein opakes weißes Glas, das mit Zinndioxid und Knochenasche getrübt war, und das chinesische Porzellan nachahmte.
Die Glasperlen wurden zu einer begehrten Handelsware und breiteten sich schnell über ganz Europa aus. Über Jahrhunderte waren Glasperlen ein beliebtes Zahlungsmittel im Tauschhandel mit Gold, Elfenbein, Seide und Gewürzen. Seit einigen Jahren sind die bunten Kunstwerke begehrte Objekte für Sammler.
Glasperlen aus Venedig sind die bekanntesten und begehrtesten Perlen der Welt. Venezianische Glaskünstler haben während mehrerer Jahrhunderte Perlenhersteller auf der ganzen Welt beeinflusst. Dort werden die Glasperlen über offener Flamme hergestellt. Es ist ein sehr zeitaufwendiges Verfahren, da jede Perle einzeln gefertigt wird.
Ein Glasstab wird unter der Verwendung einer Lötlampe bis zum Schmelzen erhitzt und um einen Metallstab gewickelt, bis die gewünschte Perlenform erreicht wird. Auf diese Grundperle können nach und nach weitere Glasfarben aufgeschmolzen werden und unterschiedliche Dekorationselemente, wie dünne Glasfäden oder hauchdünne Glasplättchen (Confettis), aufgebracht werden. Dann wird die Perle sehr langsam abgekühlt und von der Stange entfernt, wodurch ein Loch entsteht, durch das die Perle später aufgefädelt werden kann. Diese Perlen nennt man Wickelperlen.
Wie in archäologischen Museen regelmäßig gezeigt wird, war im Römischen Reich bei den Villen der Oberschicht ab dem 1.Jh. Fensterverglasung üblich. Meist handelte es sich um in Guss-Bügel-Technik erzeugte rechteckige Platten von ca. 20 x 30 cm. Butzenglasscheiben des 4.Jh werden im Museo Archeologico von Aquileia (Italien) gezeigt. Im 9. Jahrhundert wiesen St. Peter und Santa Maria in Rom eine Fensterverglasung auf. Zu einer breiteren Verwendung kommt es mit der aufkommenden Gotik im 12. Jahrhundert.
Zylinderstreckverfahren I…
Mondglasproduktion im 18. Jhd. Die Tafel stammt aus der Encyclopédie. Der Arbeiter links trägt Holz zu Befeuerung; mittig wird ein Glastropfen entnommen oder das Werkstück aufgeheizt; rechts im Vordergrund wird ein Glastropfen durch marbeln vorgeformt; im Hintergrund wird eine Scheibe ausgeschleudert
Bei dem Mondglasverfahren, das 1330 in Rouen belegt ist, wird ein Glastropfen mit der Glasmacherpfeife zu einer Kugel vorgeblasen. Diese wurde von der Pfeife gesprengt und mit einem Tropfen flüssigen Glases an der gegenüberliegenden Seite an einem Metallstab befestigt. Zur weiteren Verarbeitung wurde die Kugel wieder auf Temperatur gebracht. Bei ca. 1000 °C war das Glas weich genug, um mittels Zentrifugalkraft in Tellerform geschleudert zu werden: Die Kugel öffnete sich um das Loch, an dem vorher die Pfeife befestigt war. Durch diese Technik wurden Glasplatten von ca. 1,20 m Durchmesser erzeugt. Anschließend wurde der äußere Rand zu Rechtecken geschnitten. Diese fanden Verwendung als z. B. Kirchenglas mit Bleieinfassungen. Das Mittelstück mit der Anschlussstelle des Schleuderstabs heißt Butze und wurde für Butzenscheiben von 10–15 cm Durchmesser verwendet.
Das Walzglasverfahren wurde zum ersten Mal 1688 in Saint Gobain, der Keimzelle des heutigen gleichnamigen Weltkonzerns, dokumentiert. Geschmolzenes Glas wird auf den Walztisch gegossen, verteilt und schließlich gewalzt. Im Gegensatz zu den vorher genannten Verfahren wurde hier eine gleichmäßige Dicke erreicht. Auch waren erstmals Scheibengrößen von 40 Zoll × 60 Zoll möglich, was für die Produktion von Spiegeln genutzt wurde. Probleme bereitet jedoch die ungleichmäßige Oberfläche. Fensterglas dieses Herstellungsverfahrens ist oft blind und Spiegelglas nur durch aufwändiges kaltes Polieren zu erzielen.
Zylinderstreckverfahren II…
Wichtige Ereignisse in der Entwicklung der Glasindustrie
Um 1900 entwickelte der Amerikaner John H. Lubbers ein Verfahren zur Zylinderfertigung. Diese konnten einen Durchmesser von 80 cm erreichen und waren bis zu 8 m (!) hoch. Der Zylinder wurde aufgeschnitten und geplättet. Das Verfahren war jedoch sehr umständlich, insbesondere das Umlegen der Zylinder in die Horizontale bereitete Schwierigkeiten.
Ein weitreichendes Patent sollte 1904 von Emile Fourcault folgen. Das nach ihm benannte Fourcault-Verfahren zur Ziehglasherstellung. Das Glas wird dabei kontinuierlich entnommen. Eine Schamottedüse liegt in der flüssigen Schmelze. Mit dem Hochziehen durch einen Kühlkanal auf ca. 8 m Höhe kann es oben zugeschnitten werden. Die Glasdicke ist durch die Ziehgeschwindigkeit einstellbar. Es kam ab 1913 zum Einsatz und bedeutete eine große Verbesserung.
Ein darauf aufbauendes Verfahren ließ der Amerikaner Irving Wightman Colburn 1905 patentieren. Das Glasband wurde zur besseren Handhabe in einen horizontalen Kühlkanal umgeleitet. Mit einer eigenen Fabrik wurde bis 1912 versucht, das Verfahren zu beherrschen, blieb aber letztlich erfolglos, so dass Insolvenz angemeldet wurde. Das Patent ging an die Toledo Glass Company. 1917 kam das nunmehr so genannte Libbeys-Owens-Verfahren zur industriellen Anwendung. Die Vorteile gegenüber dem Fourcault-Verfahren lagen in der einfacheren Kühlung. Hingegen konnten bei jenem mehrere Ziehmaschinen an einer Glasschmelzwanne arbeiten. Da der Kühlofen in der Länge beliebig lang sein konnte, erreichte dieses Verfahren etwa die doppelte Produktionsgeschwindigkeit. In der Folgezeit existierten beide Verfahren parallel.
1928 verbesserte die Plate Glass Company die Vorteile der Verfahren von Fourcault und Colburn; sie erzielte mit dem Pittsburg-Verfahren dadurch eine deutliche Steigerung der Produktionsgeschwindigkeit.
1919 gelang Max Bicheroux der entscheidende Schritt bei der Gussglasherstellung. Die flüssige Glasmasse wurde dabei zwischen gekühlten Walzen zu einem Glasband geformt, im noch erwärmten Zustand zu Tafeln geschnitten und in Öfen abgekühlt. Mit diesem Verfahren erreichte man die heute noch üblichen Scheibengrößen von 3 m × 6 m.
1923 Pilkington und Ford: kontinuierliches Walzglas für Automobilglas.
1902 Patent von William E. Heal auf das Floatverfahren, das auf eine Idee von Henry Bessemer zurückgeht.
1959 Die Firma Pilkington bewältigt als erste die technischen Probleme der Floatglasfertigung. Dieses Prinzip revolutionierte die Flachglasfertigung und wurde in den 1970er Jahren allgemeiner Standard.
Im frühen 19. Jahrhundert wurden neue mechanische Hilfsmittel zum Blasen der Gläser benutzt. Es wurden Formen benutzt, die ein Relief als Negativ schon aufwiesen. Durch den Blasdruck wird das Glas in die Hohlräume gedrückt und das Werkstück bekommt seine Form. Allerdings ist die Lungenkraft des Glasmachers nicht ausreichend hoch für tiefere Reliefs, so dass mechanische Hilfsmittel eingeführt wurden: Durch Luftpumpen wird genügend Druck erzielt.
Eine weitere Neuerung in der Mitte des 19. Jahrhunderts war die Einführung von Metallformen. Erstmals 1847 ersetzten die von Joseph Magoun entwickelten Formen die alten aus Holz, was deren Haltbarkeit beträchtlich erhöhte.
Die ersten halbautomatische Flaschenblasmaschine wurde 1859 von den Briten Alexander Mein und Howard M. Ashley in Pittsburg entwickelt. Doch noch immer waren manuelle Arbeitsschritte vonnöten.
Ein Meilenstein war die 1903 von Michael Joseph Owens eingeführte Owens-Maschine als erste vollautomatische Glasmaschine überhaupt. In einem in der Schmelze eingetauchten Rohr wird ein Vakuum erzeugt und so die problematische Tropfengröße exakt dosiert. Der Arm schwenkt zurück und drückt den Tropfen in die Form. Mit der Umkehrung des Vakuums in Pressluft wird der Tropfen in die Metallform geblasen und das Werkstück erhält seine endgültige Gestalt. Mit dieser Technik war es möglich, die zu dieser Zeit enorme Menge von vier Flaschen pro Minute zu produzieren. Diese Technik nennt man Saug-Blas-Verfahren.
Trotz dieser Errungenschaft blieben maschinell geblasene Flaschen noch viele Jahre schwerer als mundgeblasene. Um die Glasmacher zu übertreffen, mussten die Maschinen noch sehr viel genauer arbeiten. So ist auch zu erklären, dass die verschiedenen Produktionsverfahren noch lange parallel betrieben wurden.
Auch wurden wesentliche Verbesserungen der Tropfenentnahme realisiert. Der Tropfenspeiser von Karl E. Pfeiffer im Jahre 1911 ließ den Glastropfen nicht mehr von oben aus der Schmelze entnehmen, sondern die Schmelze tropfte durch eine Öffnung im Feeder (Speiser). Durch die genauer mögliche Dosierung der Glasmenge konnten gleichmäßigere Flaschen gefertigt werden.
1924 wird die IS-Maschine von den Namensgebern Ingle und Smith patentiert, die erste industrielle Anwendung folgt wenige Jahre später. Diese Maschine, die die Vorteile des Tropfen-Verfahrens erst richtig nutzt, arbeitet nach dem Blas-Blas-Verfahren. Ein Tropfen wird in eine Metallform geleitet und vorgeblasen. Der vorgeformte Tropfen wird in eine zweite Form geschwenkt, in der das Werkstück fertig geblasen wird.
Erste Anwendungen des neuen Verfahrens folgten wenige Jahre später. Die erste Maschine von 1927 hatte vier Stationen: Ein Feeder beschickte eine Maschine und diese konnte parallel vier Flaschen fertigen. Das Prinzip des Blas-Blas-Verfahrens ist auch heute noch in der Massenfabrikation gültig.
Glasrohre wurden bis ins 19. Jahrhundert ebenfalls (mundgeblasen) ausschließlich diskontinuierlich aus einer Charge oder einem Glasposten hergestellt. 1912 entwickelte E. Danner (Libbey Glass Company) in den USA das erste kontinuierliche Röhrenziehverfahren; 1918 erhielt er dafür ein Patent.
Beim Danner-Verfahren fließt eine Glasschmelze als Band auf einen schräg nach unten geneigten, rotierenden keramischen Hohlzylinder auf, die sogenannte Dannerpfeife. Nach Zuführung von Druckluft über das Innere der Pfeife gelingt das Abziehen des sich bildenden Glasrohres in Richtung der Pfeifenachse. Ziehgeschwindigkeit sowie Höhe des Drucks der zugeführten Luft bestimmen hierbei die Rohrdimension.
1929 wurde in Frankreich von L. Sanches-Vello ein vertikales Ziehverfahren ausgearbeitet; hier kann das Rohr zunächst senkrecht nach unten in einem temperaturgeregelten Schacht abgezogen und dann in die Horizontale umgelenkt werden.
Garten
aus Wikipedia, der freien Enzyklopädie
Ein Garten ist ein abgegrenztes Stück Land, in dem Pflanzen unter mehr oder minder intensiver Pflege mit Hilfe von Gartengeräten angebaut werden (Gartenwirtschaft/Gartenbau).
Gärten werden nicht nur angelegt, um einen direkten Ertrag zu ernten (Nutzgarten), sondern auch um einem künstlerischen, spirituellen, religiösen, therapeutischen Zweck bzw. der Freizeitgestaltung und Erholung zu dienen (Ziergarten), (Kleingarten).
Inhaltsverzeichnis
|
Der deutsche Begriff Garten leitet sich etymologisch von Gerte (indogermanisch gher und später ghortos) ab. Gemeint sind Weiden-, Haselnussruten oder andere, die früher – ineinander verflochten – den Garten umfriedeten. Das Wort gerd, gard bezeichnet über gotisch garde „Gehege“ ursprünglich „das (mit Gerten) umzäunte Gelände“, erhalten in der Form Gatter für „Zaun“, während die von einem lebenden Zaun umstandenen Fläche im Wortfeld Hag, Hecke zu finden ist.
Der dem Wort in der heutigen Form zugrundeliegende Begriff ist „umfriedetes Land zum Zweck des Anbaus von Pflanzen“. Der Garten stand unter besonderem rechtlichem Schutz (Gartenfrieden). Toponyme auf -gard/t(en), -gad(en) leiten sich aus diesem Kontext ab, vermischen sich aber mit dem althochdeutschen Wort gadam „Gadem“, „Raum“, „Gemach“, „Scheune“ (Berchtesgaden).
Neben der heute oftmals anzutreffenden Form eines Mischgartens, der, wie der Name sagt, viele Aspekte in sich vereint, unterscheidet man in Europa auch je nach schwerpunktmäßiger Anlage den Haus- bzw. Nutzgarten, den Gemüse-, Obst- (früher auch Baumgarten genannt) und Kräutergarten, den Kleingarten, den Naturgarten, den botanischen Garten, den Versuchsgarten uvm.
Gärten im Sinne von Ziergärten können öffentlich oder privat sein, eingefriedet oder zugänglich.
Ein großer Garten, der nicht zu Ertragszwecken, sondern als ästhetisches Objekt angelegt und unterhalten wird, ist ein Park, auch wenn sich im Namen solcher Anlagen das Wort „Garten“ erhalten hat (zum Beispiel beim Englischen Garten).
In einem Garten verwendet man Nutzpflanzen (Obst und Gemüse, Küchen- und Gewürzkräuter, Heilpflanzen) und Zierpflanzen. Dazu gehören:
Gartenbau ist schon in der vorgeschichtlichen Zeit getrieben worden, das beweisen die Felsengräber von Beni Hassan (Ägypten), in denen Abbildungen von Gärten gefunden wurden.
Für die vordynastische Zeit lassen sich verschiedene Kulturpflanzen nachweisen:
Wandmalereien in vielen Gräbern dieser Zeit demonstrieren die Mühsal, mit der der Wüste die Gärten abgerungen wurden. In den Gräbern der Pyramiden wurden Samen folgender Gartenpflanzen gefunden: Akazien (Acacia nilotica), Lauch (Allium porrum), Balsamodendron, Balanites aegyptiaca, Zichorien (Cichorium Intybus), Dill, Sellerie, Koriander, Bockshornklee, Citrullus edulis, Gurke (Cucumis sativus), Erdmandel (Cyperus esculentus), Echte Feige (Ficus carica), Hyphaene thebaica, Juniperus phoenicea, Mimusops ummeligella sativa, Granatapfel (Punica granatum), Ricinus communis, Raphanus sativus, Sapindus.
Auch die alten Inder hatten gut bewässerte und ganz regelmäßig angelegte Gärten, in denen für jede Pflanzenart meist eine besondere Abteilung bestimmt war. Anders in China, wo der Land- und Gartenbau, ihretwegen auch die Wasserwirtschaft, sich stets in der höchsten denkbaren Blüte befand. Die Gärten Japans ähneln den chinesischen. Derselbe Gedanke liegt ihnen zu Grunde, nur ahmen jene die Natur noch treuer nach und suchen große Landschaften im Kleinen nachzubilden. In Japan werden Gärten nach den Prinzipien des Zen-Buddhismus oder des Feng Shui angelegt, die bestimmten Mustern entsprechen. Dabei wird vor allem auf Ausgewogenheit der Elemente geachtet.
Von den Gärten der Israeliten Araber, Syrer und Assyrer, kennen wir diejenigen des Königs Salomo in Jerusalem und der Königin Semiramis in Babylon.
König Salomo (1015) war ein großer Gartenfreund und zog, vielleicht zum Unterricht, Gewächse aller Art „von der Zeder bis auf den Ysop, der aus der Mauer wuchs“; in einem zweiten Garten zog man allerhand meist aus Indien eingeführte Gewürzkräuter.
Kyros II. (559–529), der Gründer des großen persischen Reichs und des persischen Gartens, beförderte den Obstbau durch weise Gesetze und durch Schulgärten bei den Anstalten, in denen die Kinder der Großen seines Reichs erzogen wurden. Von Obstarten dieser Länder wurden und werden heute noch genannt: Weintrauben, Quitte, Pfirsich, Lotospflaume (Diospyrus Lotus), Pflaumen und Birnen.
In Griechenland waren die Ureinwohner dem Waldkultus ergeben; spätere Einwanderer vom Norden wie von Ägypten und Kleinasien führten zahlreiche Nutzpflanzen ein, lichteten aber die Wälder und mussten bald für künstliche Bewässerung des Landes sorgten. Aus Homers Odyssee ist ein zusammenhängender, regelmäßig eingeteilter Obst- (und wohl auch Gemüse-) Garten bekannt. Homers Odyssee stellt in allen ihren umfangreichen Beschreibungen nie dar, dass Obst gegessen wird, und doch machen für den Dichter Birnen, Granatäpfel, Äpfel, Feigen, Oliven und natürlich Weintrauben einen wohlgeplanten Obstgarten aus, ein Garten, der über lange Zeit im Jahr Früchte hervorbringen würde:
In Griechenlands klassischer Zeit gingen Feld- und Gartenbau zurück, man lebte meist in den Städten, wo einige wenige regelmäßige Anpflanzungen den Einwohnern als Erholungsorte dienten, oder wo Epikur seine Schüler um sich versammelte, weshalb seine Philosophie Kepos (Garten) genannt wurde. Die Gemüse des alten Griechenland waren ziemlich diejenigen unsrer Tage. Aber die Halbinsel mit ihrer Blüte erlag im Anfang unsrer Zeitrechnung fremden Eroberern, und erst in neuerer Zeit sprach man wieder vom Garten auch in Griechenland, unter anderen von dem Schlossgarten, welchen Königin Amalie in Athen anlegen ließ, und der ein Wunderwerk von Schönheit sein soll; in neuester Zeit hat zwar, nach Professor Landerer, der Garten eine immer größere, allgemeine Ausdehnung gewonnen, dem aber der harte Winter 1879/80 ganz bedeutend geschadet hat.
In Italien haben die alten Römer die Nutzgärten (Gemüse- und Obstgärten) vom Lustgarten getrennt.
Nach dem Fall des römischen Reichs wurden in Italien die unverteidigten Besitzungen der Edlen geplündert und verwüstet, das Land wurde nur für den notwendigsten Bedarf, vor allem für die Ernährung bebaut. Dann entstanden Klöster, das eine oft neben dem anderen, und während der Herrschaft der Päpste im 8.–12. Jahrhundert waren die Mönche fast die einzigen, die sich mit Acker- und Gartenbau beschäftigten; Reiche und Mächtige schenkten ihnen, um sich Verzeihung der Sünden zu erwerben, große Flächen Landes mit Hörigen und belohnten ihre Tätigkeit als tüchtige Landwirte und Gärtner. Der Friede äußerte sich auch durch Einführung vieler fremden Pflanzen aus dem Orient, namentlich durch reiche Venezianer und Genuesen.
Frankreichs Gartenbau kennt im Anfang seiner Geschichte nur das rein Nützliche, erhebt sich nur langsam zur Beachtung der Blumen und erreicht erst sehr spät das ästhetisch Schöne; jedes angenehme und nützliche Erzeugnis des Land- und Gartenbaues stammt aus der Fremde, von den Phönikern, Griechen, Karthagern, Römern und Sarazenen. Karl der Große (768–814) beförderte Acker-, Obst- und Weinbau auf jede Weise, er liebte die Gärten und erteilte seinen Gärtnern gern Verhaltungsbefehle. Er stand in freundschaftlichem Verhältnis zu dem abbassidischen Kalifen Harun ar-Raschid (gest. 809), durch den er die besten Gemüse und Früchte erhalten haben soll.
Der botanische Gartenbau in Europa kam erst dauerhaft im 16. Jahrhundert, nach der Entdeckung Mexikos in Schwung, und ging daher zunächst von Spanien aus.
Gaspar de Gabriel, ein reicher toskanischer Edelmann, gründete 1525 den ersten botanischen Garten, dem bald der von Cornaro in Venedig, der von Simonetti in Mailand, von Pinetta in Neapel und andere folgten.
1545 wurde vom Senat in Venedig die Anlage eines öffentlichen botanischen Gartens in Padua bewilligt, Papst Pius V. ließ den in Bologna einrichten, der Großherzog von Toskana den in Florenz, und bald darauf hatte beinahe jede bedeutende Stadt in Italien einen botanischen Garten.
Auch in Frankreich wurden 1597 botanische Gärten angelegt.
Die Niederlande sind bekannt für Blumenzucht (Blumenzwiebeln), Baumschulen sowie der Obst- und Samenzucht für den Handel. Der niederländische Gartenstil war der Vorläufer der barocken Gärten im 17. und 18. Jahrhundert und beeinflusste auch die französische Gartenarchitektur. Herrenhäuser wurden häufig mit Hecken, Blumen, Laubengängen und Kanälen umgeben angelegt. Die flache Landschaft begünstigte die regelmäßige Anlage von Beeten.
Im 19. Jahrhundert, in dem die bürgerliche Sphäre die Kunst und Kultur dominierte, liebte man die seltenen Pflanzen. Die Gärtner wurden zu Hobby-Botanikern und legten Themengärten, etwa mit australischen, südamerikanischen oder asiatischen Pflanzen an, die Pflanzenjäger in aller Welt sammelten. Das Sammeln von seltenen Spezies wurde wichtiger als die künstlerische Gestaltung der Landschaft. So hielten z. B. die Rhododendren, Kamelien und Azaleenarten Einzug in die Gärten. Besonders beliebt waren auch Topiarien, d. h. in Form geschnittene Büsche und Bäume. Im Garten von Levens Hall vermeint man sich in einem überdimensionalen Spielzeugland zu befinden, so sehr dominieren hier die würfelförmig, kegelig und kugelig zugeschnittenen Hecken. In den Stadtgärten pflegte man besonders die nun wieder beliebten Blumenrabatten, die teppichförmig dalagen und in denen die Blumen bunte Ornamente bildeten.
Einen natürlichen Gegensatz zu diesen sehr gezierten Gärten bilden die Gärten der Women Gardeners wie Gertrude Jekyll oder Elizabeth Sitwell, die sich an der ungezähmten Pracht und Einfachheit von Bauerngärten orientieren.
Gärten können für die Biodiversität eine wichtige Bedeutung haben. Ihre vielfältigen Strukturen wie Hecken, Büsche, Zäune, Asthaufen oder Einzelbäume bieten Insekten, Vögeln und Amphibien Unterschlupf und Jagdrevier. Dabei spielt jedoch die Art des Gartens eine große Rolle. Herausgeputzte Privatgärten wirken sich nachteilig auf die Artenvielfalt aus.
Zu diesem Schluss kam auch die nationale Hummelnest-Zählung 2007 in England, bei der 700 Freiwillige im eigenen Garten sämtliche Nester abgesucht haben. Dabei stellte sich heraus, dass Gärten mit vielen unordentlichen Zonen in der Regel mehr Hummeln aufweisen. Damit hängt es direkt vom ästhetische Empfinden des Besitzers ab, ob ein Garten seiner Funktion als ökologische Nische gerecht werden kann oder nicht.
Zumindest auf dem Papier hat sich das Wissen um den Nutzen von Strukturreichtum niedergeschlagen. Ein Beispiel sind die Richtlinien für Schrebergarten-Besitzer in Zürich. Dort heißt es explizit: “Das Anlegen und Pflegen von naturnahen Lebensräumen für Tiere und Pflanzen (z.B. Wiesen, standortheimische Sträucher, Wildhecken, Obstbäume, Feucht- und Trockenbiotope, Kleinstrukturen wie Trockenmauern, Lesesteinhaufen u.a.) ist erwünscht.”
Doch offenbar kommt es immer wieder zum Konflikt zwischen Ästhetik und den Bedürfnissen des Ökosystems. So zeigte eine Studie aus den USA, dass die Bereitschaft zum naturnahen Gartenbau stark vom Aussehen des Gartens des Nachbarn abhängt. Wenn dieser einen sauber geschnittenen Rasen führt, dann fühlt man sich selbst dazu verpflichtet, das ebenfalls zu tun.
Eine Studie aus der Schweiz zeigt indessen, dass artenarme und langweilige Gärten generell als ästhetisch nicht ansprechend bewertet werden. Die Zustimmung steigt jedoch, umso farbenfroher, artenreicher und wilder ihr Erscheinungsbild ist. Doch irgendwann kippt die Bewertung wieder. Gänzlich chaotische Gärten findet niemand schön. Das Ökosystem Garten hat in der heutigen Zeit offenbar gute Chancen als wertvollen Lebensraum für Pflanzen und Tiere anerkannt zu werden.
Flasche
aus Wikipedia, der freien Enzyklopädie
Eine Flasche ist ein verschließbares Behältnis zum Transport und zur Lagerung von Flüssigkeiten und Gasen. Sie besteht meist aus Glas, Kunststoff oder Metall. Das altgermanische Substantiv (mittelhochdeutsch vlasche, althochdeutsch flaska, davon auch romanisch fiasko) gehört im Sinne von „umflochtenes Gefäß“ zu der indogermanischen Wortsippe „flechten“. Die früher aus Holz, Ton, Zinn oder Blech hergestellten Flaschen waren zum Schutz und besseren Transport mit Geflecht umgeben. Erst in neuerer Zeit bezeichnet „Flasche“ ein Glasgefäß – die Weinflasche hieß noch im 19. Jahrhundert Bouteille. Der niederdeutsche Ausdruck für Flasche „Buddel“ wird im Hochdeutschen gelegentlich auch verwendet (siehe Buddelschiff).
Inhaltsverzeichnis
|
Die meisten Flaschen haben im Verhältnis zu ihrer Höhe einen relativ geringen Durchmesser, einen flachen Boden. Das sich konisch verjüngende Ende einer Flasche wird oft auch als „Hals“ bezeichnet. Es endet in einer runden, mittels Deckel verschließbaren Öffnung.
Man unterscheidet zwischen Weithals- und Enghalsflaschen. Bei Enghalsflaschen ist der Durchmesser der Öffnung deutlich geringer als der durchschnittliche Innendurchmesser des Aufbewahrungsraumes; der übliche Außendurchmesser des Halses bei Getränkeflaschen mit Schraubverschluss beträgt 25 mm.
Die am meisten verbreiteten Verschlüsse für Flaschen dürften heutzutage verschiedene Formen von Gewinden sein. Fast alle Gasflaschen, ein großer Teil der Getränkeflaschen und Aufbewahrungsflaschen für Chemikalien und Putzmittel haben einen Schraubverschluss. Vor allem dann, wenn ein Wiederverschließen möglich sein soll. Schraubverschlüsse lassen sich mit allen Materialien realisieren. Normalerweise stellt das Gewinde allein aber keinen dichten Verschluss dar. Deshalb werden zu diesem Zweck stets zusätzliche Dichtmaterialien eingesetzt.
Nur bei Getränkeflaschen ist der Kronkorken üblich. Er ist nicht wiederverschließbar, besteht immer aus Metall und kann nur auf Flaschen aus hartem Material (Glas) aufgesetzt werden.
In praktisch allen historisch untersuchten Kulturen, die Flaschen herstellten, ist das Verstopfen von Flaschen üblich gewesen. Hierzu wurden unterschiedlichste Materialien verwendet. Am gebräuchlichsten waren wohl Bienenwachs und später Kork. Der Korken hat sich heute nur beim Verschluss von Weinflaschen erhalten, wird aber auch hier mehr und mehr durch Schraubverschluss und Kunststoffstopfen verdrängt.
Eine historische Form des Flaschenverschlusses ist der Kugelverschluss, der sich vom Schliffverschluss ableitet. Für besondere Anforderungen werden geschliffene Glasverschlüsse eingesetzt. Für Chemikalienflaschen werden insbesondere Kegelschliffverschlüsse genutzt, sie besitzen eine konische Form. Stopfen und Flasche passen exakt (eingeschliffen) zueinander und ergeben – wenn die Kontaktfläche sauber ist – einen gasdichten Verschluss.
Am häufigsten werden in Flaschen Getränke aufbewahrt. Die Flasche schützt das Getränk vor dem Eindringen von Fremdstoffen und vor Verdunstung. Viele Flaschen bestehen aus getöntem Material, um die Sonneneinstrahlung, insbesondere UV-Strahlen, abzuschirmen.
Bei Getränkeflaschen unterscheidet man zwischen Mehrwegflaschen und Einwegflaschen.
Neben Getränkeflaschen gibt es Flaschen, die Reinigungsmittel, Öle, Fette oder Brennstoffe enthalten. Außerdem wird Gas oft in Gasflaschen aufbewahrt. Gasflaschen sind in der Regel pfandbelegte Mehrwegflaschen. Sie werden für hochkomprimierte technische Gase, aber auch für Flüssiggas in Wohnwagen und für Grills verwendet.
Die Glasflasche ist eine verbreitete Form des Behälterglases und hat die ebendort beschriebenen Eigenschaften wie guter Produktschutz und Recyclingfähigkeit. Besonders Glasflaschen tragen am unteren Rand oder auf dem Boden eine Reihe Kennzeichen, aus denen Ort und Zeitpunkt der Herstellung erkennbar sind. Unter anderem befindet sich hier die Glasmarke der Glashütte.
Wenn geringes Gewicht, geringe Herstellkosten oder eine bestimmte chemische Beständigkeit eine Rolle spielen kommt Kunststoff zum Einsatz:
Hohe Drücke und hohe Temperaturen sprechen für eine Metallflasche, z.B. die schon erwähnten Flüssiggas- und Gasflaschen.
Zecken
aus Wikipedia, der freien Enzyklopädie
Die Zecken (Ixodida) sind eine Überfamilie innerhalb der Milben (Acari) mit lederartig dehnbarer Haut und gehören zur Klasse der Spinnentiere. Sie werden hier den parasitischen Milben der Unterordnung ParasitiformesEktoparasiten (sie dringen nicht in das Wirtsinnere ein) an Wirbeltieren. Als Wirte dienen Vögel, Reptilien und Säugetiere (Nager, Fledermäuse, Hundeartige, Paarhufer). Viele Zeckenarten gehören dadurch zu bedeutenden Krankheitsüberträgern. Weltweit gibt es etwa 900 Zeckenarten (Stand 2004). (Anactinotrichida) zugeordnet. Unter den Zecken finden sich die größten Milbenarten. Die meisten Arten sind
Hat eine Zecke zugestochen und sich festgesaugt, entfernt man sie am besten mit einer Zeckenzange.
Inhaltsverzeichnis
|
Der Gemeine Holzbock ist in Europa die häufigste Zeckenart. Schildzecken kommen weltweit auch in den gemäßigten Klimazonen vor. Lederzecken sind auf die Tropen und Subtropen beschränkt – mit Ausnahme der Taubenzecke Argas reflexus, die auch in Mitteleuropa auf Dachböden und gelegentlich in Ställen ähnlich warme Lebensbedingungen vorfinden kann.
Schildzecken bevorzugen hohe Luftfeuchtigkeit und relative Wärme. Deshalb halten sie sich vornehmlich im Gestrüpp, in hohen Gräsern und Farnen oder im Unterholz auf (bis ca. 1,5 m Höhe). Sie halten sich meist in einer Höhe auf, die der Größe des potentiellen Wirtes entspricht. Dort werden sie abgestreift, wenn sich der potentielle Wirt durch das Gras bewegt. Die weit verbreitete Ansicht, dass sich Zecken von Bäumen herabfallen lassen, trifft dagegen in der Regel nicht zu. Daneben suchen Zecken sich natürlich auch die Aufenthaltsorte aus, an denen ihre natürlichen Wirte besonders häufig vorkommen.
Lederzecken hingegen leben oft in der Nähe ihrer Wirte und bevorzugen eher trockenere dunkle Unterschlupfe. Besonders gut geeignete Bedingungen bieten unter all diesen Gesichtspunkten Waldränder und Waldlichtungen mit hochgewachsenen Gräsern, Feuchtwiesen und Bachränder mit gleichartigem Bewuchs und weiterhin Laub- oder Mischwald mit grasigem oder krautigem Unterwuchs. Allerdings sind Zecken durchaus auch in Gärten und Parks anzutreffen.
Ihre Aktivitäten entfalten sie normalerweise von März bis Oktober, doch können sich wetterabhängig auch Abweichungen davon ergeben. Im Freien sind Zecken während der Winterperiode nicht aktiv und sehr viele von ihnen überleben diese Jahreszeit nicht. Ihre Lebensspanne beträgt zwischen zwei und fünf Jahren.
Adulte Zecken besitzen acht Beine, die Larven nur sechs. Sie sind die größten Vertreter der Milben und können als adultes Tier bis zu 4 mm groß werden. Die Schildzecken haben einen verhärteten Chitinpanzer (Scutum) auf dem Hinterteil.
Die Zecke ritzt mit ihren paarig angelegten sogenannten Cheliceren die Haut ein und schiebt das Hypostom (Stechapparat) in die Wunde. Dieser ist symmetrisch mit Widerhaken besetzt. Damit bohren sie sich jedoch nur oberflächlich in die Haut ein und „lecken“ dann das austretende Blut beziehungsweise die Lymphe. Zecken dringen also meist nicht bis zu den Kapillaren vor. Dieser Vorgang wird umgangssprachlich als „Zeckenbiss“ bezeichnet, korrekt ist jedoch „Zeckenstich“.
Ähnlich wie blutsaugende Insekten geben auch Zecken beim Zeckenstich vor Beginn der Nahrungsaufnahme ein Sekret (Speichel) ab, das bei ihnen allerdings mehrere wichtige Komponenten enthält.
Nach einer ausgedehnten Blutmahlzeit erreichen vor allem weibliche Zecken eine Größe von bis zu 3 cm.
Sowohl die männlichen wie weiblichen Zecken sind Blutsauger. Bei den Männchen dauert eine Blutmahlzeit in der Regel nur wenige Tage, da sie nur für ihre eigene Ernährung Blut benötigen. Die Weibchen sind nicht nur zur eigenen Ernährung auf Blut angewiesen, sondern auch zur Eibildung und brauchen daher eine wesentlich größere Blutmenge. Ihre Blutmahlzeit kann ungestört sogar bis zu zwei Wochen andauern.
Zum Auffinden des Nahrungsopfers ist den Zecken ihr Haller-OrganChemorezeptor, der mit Sinnesborsten ausgestattet ist, befindet sich am letzten Beinelement (Tarse Nummer 23) des ersten Beinpaares und kann Stoffe wie Ammoniak, Kohlendioxid, Milchsäure und vor allem Buttersäure erkennen, die von den jeweiligen Wirtstieren durch Atem und Schweiß abgegeben werden. In der Lauerstellung (das vordere Beinpaar wird leicht schwenkend nach vorne gestreckt, mit den hinteren drei Beinpaaren umklammern sie ihren Ansitz) wird dieses Organ vorgestreckt, damit die Zecken die Sinnesreize besser empfangen können. Die wartenden Zecken wechseln sofort von der Wartestellung (die eingefalteten Vorderbeine liegen nahe am Körper) in die Lauerstellung, wenn sie durch Geruchsreize, Lichtveränderung – besonders von hell zu dunkel – oder durch Vibrationen bemerken, dass sich möglicherweise ein Wirt nähert. Sie hängen sich anschließend an alles, was ihren jeweiligen Aufenthaltsort streift und krabbeln dann oft bei Tier und Menschen bis zu mehreren Stunden lang am Körper umher, bis sie eine passende Einstichstelle gefunden haben. Zecken sind dabei sehr wählerisch und bevorzugen etwas feuchte, warme und gut durchblutete, dünne Haut. Beim Menschen sind besonders die Kniekehlen, der Haaransatz, die Leistenbeuge und die feine Haut hinter den Ohren ein beliebtes Ziel. behilflich. Dieser grubenförmige
Nach Beendigung der Blutmahlzeit lassen sie sich von ihrem Wirt abfallen und die Weibchen suchen anschließend eine geschützte Stelle am Boden, um alsbald Eier abzulegen. Eine Eiablage kann mehrere Tage dauern, wobei etwa alle zehn Minuten ein Ei abgelegt wird. Nachdem ein solches aus der Bauchöffnung ausgetreten ist, wird es mit den Mundwerkzeugen an einer Drüse vorbeigeführt und dabei mit einer Schutzschicht versehen, die das frische Ei vor dem Vertrocknen schützt. Bei einer Eiablage werden insgesamt etwa 2.000 Eier produziert, anschließend verendet das Weibchen.
Die Argasidae (Lederzecken) haben bis zu acht gleiche Nymphenstadien. Jede Nymphe ist auf Blut eines Wirtes angewiesen, jedoch wechseln sie häufig zwischen verschieden großen Wirten (Maus, Katze, Mensch). Schildzecken durchlaufen nach dem Schlüpfen stets drei Entwicklungsstadien: Larve, Nymphe (beide geschlechtslos) und Adulte (die erwachsenen Männchen und Weibchen). Lederzecken können mehrere Nymphenstadien durchlaufen, dabei kann jeweils ein Wirtswechsel stattfinden.
Bei den Ixodidae (Schildzecken) kommt nur ein Nymphenstadium vor. Nachdem die Eier in Paketen zu je etwa 2.000 Stück zumeist an verschiedenen geschützten Stellen wie zum Beispiel den Unterseiten von Grashalmen abgelegt wurden, schlüpft aus einem solchen Ei die sechsbeinige Larve. Diese sucht sich schon nach wenigen Tagen einen geeigneten Zwischenwirt (Nagetier), saugt sich dort fest und nimmt innerhalb von zwei bis drei Tagen Blut auf. Nach dem Saugen lässt sie sich abfallen und häutet sich nach einigen Monaten am Ende ihrer Entwicklung zur ersten achtbeinigen, rund 1,5 bis 2 mm großen Nymphe. Diese sucht sich nun abermals einen größeren Wirt (zweiter Zwischenwirt – Katze) und saugt dort ebenfalls Blut. Die Mehrzahl der Nymphen, die sich im Sommer oder Herbst gehäutet haben, suchen jedoch nicht sofort einen neuen Wirt für eine Blutmahlzeit, sondern treten zunächst bis zum nächsten Frühjahr in ein Ruhestadium ein. Erst nach dieser Pause suchen sie sich einen Wirt zur Sättigung und anschließend findet eine weitere Häutung zur zweiten Nymphe (Lederzecken) oder zum adulten Tier (Schildzecken) statt. Das ausgewachsene Tier befällt danach den Endwirt (Mensch, Rind), lässt sich nach dieser letzten Blutmahlzeit fallen und sucht darauf einen Partner auf, um sich zu paaren. Das Weibchen legt kurz darauf bis zu 3.000 Eier auf Grashalmen ab. Die männlichen Zecken sterben nach der Begattung, die Weibchen erst nach der Eiablage.
Zecken übertragen aufgrund ihrer Lebensweise häufig Krankheitserreger zwischen den Wirten, ohne jedoch selbst erkrankt zu sein. Es handelt sich dabei um mehr Arten von Krankheitserregern als bei jeder anderen parasitischen Tiergruppe. Da regelmäßig auch Menschen durch Erkrankungen wie Borreliose, Frühsommer-Meningoenzephalitis (FSME), Babesiose, Ehrlichiose oder Rickettsiosen betroffen sind, ist ein Zeckenstich eine Verletzung, mit der keineswegs leichtfertig umgegangen werden sollte. Wichtigste Überträger in Mitteleuropa sind die Arten der Gattung Ixodes mit der häufigsten einheimischen Art, dem Gemeinen Holzbock (Ixodes ricinus), daneben auch die Gattungen Rhipicephalus, Dermacentor, Haemaphysalis, Amblyomma und aus der Familie der Lederzecken die Gattungen Argas und Ornithodorus.
Für weitere ausführliche Informationen diesbezüglich siehe Zeckenstich.
Als natürliche Feinde der Zecken sind bisher festgestellt worden:
Unter Fachleuten wird diskutiert, bestimmte natürliche Feinde der Zecken, wie zum Beispiel die Wespen, im Freiland auszubringen und damit die Zeckenpopulation zu reduzieren.
Zecken werden in drei Familien eingeteilt und es gibt insgesamt weltweit mehr als 850 Arten.
Regenjacke
Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Windbreaker)
Eine Regenjacke ist eine leichte Jacke zum Schutz vor Regen. Sie besteht aus wasserdichtem oder wasserabweisendem Material. Regenjacken sind meistens mit einer Kapuze ausgestattet, die angeschnitten (außen bleibend) ist oder sich im Kragen der Jacke befindet. Eine ähnliche Form ist das Regencape.
Inhaltsverzeichnis
|
Häufig wird im alltäglichen Sprachgebrauch nicht scharf unterschieden zwischen Regenjacke einerseits und Windjacke bzw. Windbreaker andererseits. Winddichte Jacken müssen allerdings nicht notgedrungen wasserabweisend oder wasserdicht sein. Vielmehr sind wirkliche Regenjacken, die wasserdicht sind, in jedem Falle auch winddicht.
Meistens sind in der Praxis aber beide Eigenschaften vereint, so dass die Regenjacke als Schutz gegen Wind und Regen dient und daher auch mit Recht als Windjacke bezeichnet werden könnte.
Es gibt Regenjacken mit durchgehendem Reißverschluss oder solche mit halb durchgehendem Reißverschluss, die man über den Kopf zieht (so genannte Windbreaker oder besser Schlupfjacken). Am Saum und an der Kapuze befindet sich meistens ein Kordelzug.
Regenjacken gibt es aus verschiedenen mehr oder wenig wasserundurchlässigen Materialien wie z.B. Polyamid, Nylon (z.T. beschichtet, PVC, Kunststoff und Gummi. Regenjacken aus Oilskin, geölter Baumwolle, sind atmungsaktiv und werden seit mehr als 100 Jahren getragen. Immer mehr werden moderne Materialien verwendet die auch atmungsaktiv sind (z.B. K.WAY 2000, Goretex und Sympatex, was allerdings Markennamen für diese Materialien sind). Dieses hat den Vorteil, dass man bei körperlicher Anstrengung im Regen nicht so schwitzt. Das Material transportiert ein gewisses Maß an Feuchtigkeit nach außen, lässt aber nichts von außen nach innen. Grundsätzlich kann man aber nicht erwarten, dass man in einer Regenjacke gar nicht schwitzt.
Es gibt auch komplette Regen-Anzüge (zweiteilig) oder so genannte Regenkombis (einteilig), eigentlich Overalls, letztere sind vor allem im Motorradbereich verbreitet.
Universal Serial Bus
aus Wikipedia, der freien Enzyklopädie
Der Universal Serial Bus (USB) ist ein serielles Bussystem zur Verbindung eines Computers mit externen Geräten. Mit USB ausgestattete Geräte oder Speichermedien können im laufenden Betrieb miteinander verbunden (Hot-Plugging) und angeschlossene Geräte sowie deren Eigenschaften automatisch erkannt werden.
Inhaltsverzeichnis
|
USB ist ein serieller Bus, d. h. die einzelnen Bits eines Datenpaketes werden nacheinander übertragen. Die Datenübertragung erfolgt symmetrisch über zwei verdrillte Leitungen, die eine überträgt das Datensignal, die andere das dazu invertierte Signal. Der Signalempfänger bildet die Differenzspannung beider Signale; der Spannungsunterschied zwischen 1- und 0-Pegeln ist dadurch doppelt so groß, eingestrahlte Störungen werden weitgehend eliminiert. Das erhöht die Übertragungssicherheit, unterdrückt Gleichtaktstörungen und verbessert damit die elektromagnetische Verträglichkeit. Zwei weitere Leitungen dienen zur Stromversorgung der angeschlossenen Geräte. Durch die Verwendung von nur vier Adern in einer Leitung können diese dünner und billiger ausgeführt werden als bei parallelen Schnittstellen. Eine hohe Datenübertragungsrate ist mit relativ geringem Aufwand zu erreichen, da nicht mehrere Signale mit identischem elektrischem und zeitlichem Verhalten übertragen werden müssen.
Die Bus-Spezifikation sieht einen zentralen Host-Controller (Master) vor, der die Koordination der angeschlossenen Peripherie-Geräte (den sog. Slave-Clients) übernimmt. Daran können theoretisch bis zu 127 verschiedene Geräte angeschlossen werden. An einem USB-Port kann immer nur ein USB-Gerät angeschlossen werden. Sollen an einem Host mehrere Geräte angeschlossen werden, muss deshalb ein Verteiler (Hub) für deren Kopplung sorgen. Durch den Einsatz von Hubs entstehen Baumstrukturen, die alle im Host-Controller enden.
USB eignet sich für viele Geräte wie Massenspeicher (etwa Festplatte, Diskette, DVD-Laufwerk), Drucker, Scanner, Webcams, Maus, Tastatur, aber auch Dongles und sogar Grafikkarten und Monitore.[1] Einige Geräte, zum Beispiel USB-Speichersticks, sind überhaupt erst mit USB entstanden. USB kann für Geräte mit geringem Stromverbrauch wie Mäuse, Telefone, Tastaturen, aber auch einige CIS-Scanner oder manche 2,5-Zoll-Festplatten die Stromversorgung übernehmen.
USB soll viele ältere externe PC-Schnittstellen ersetzen, sowohl serielle (RS-232, PS/2-Schnittstelle für Tastatur und Maus, Apple Desktop Bus), parallele (Centronics-Schnittstelle) als auch analoge (Gameport). Die alten Schnittstellen wurden dabei teilweise noch sehr lange an Mainboards und Notebooks angeboten, selbst als entsprechende Geräte schon nicht mehr im Handel erhältlich waren. Im industriellen Bereich wird noch oft RS-232 über ältere PCs oder Adapterkarten eingesetzt, da entsprechende USB-Adapter nicht echtzeitfähig sind und Peripheriegeräte in diesem Umfeld wesentlich langlebiger sind. Mittlerweile hat USB auch PCMCIA-Slots und externe SCSI-Schnittstellen weitgehend verdrängt.
Im Vergleich zu den früheren Lösungen bietet USB deutlich höhere Datenübertragungsraten. Die Daten werden jedoch in Paketen übertragen, für manche zeitkritische Anwendungen ist es deshalb weniger geeignet – etwa bei mit nur wenigen Bytes belegten Paketen, die die Übertragungsrate senken, oder wenn das Sammeln von Bytes zum Füllen eines Pakets die Übertragung verzögern würde.
Seit der Einführung der USB-2.0-Spezifikation sind relativ hohe Datenübertragungsraten möglich, dadurch ist USB zum Anschluss weiterer Gerätearten wie Festplatten, TV-Schnittstellen und Foto-Kameras geeignet. Bei externen Massenspeicherlösungen steht USB heute in Konkurrenz zu FireWire und eSATA.
Der universelle serielle Bus (USB 1.0) wurde vom Hersteller Intel entwickelt und 1996 im Markt eingeführt. Er war zum Anschluss von Peripheriegeräten an PCs konzipiert und sollte die Nachfolge einer ganzen Reihe damals verwendeter PC-Schnittstellen antreten und diese vereinheitlichen. Deshalb war die USB-Spezifikation nicht auf Tastatur und Maus begrenzt, sondern schloss auch andere Peripheriegeräte wie Drucker und Scanner mit ein. Massenspeicher – wie etwa Festplatten – wurden zwar von USB 1.0 unterstützt, wegen der maximalen Datenrate von 12 Mbit/s waren sie dafür aber nur sehr eingeschränkt zu gebrauchen.
Als einer der ersten Chipsätze unterstützte 1996 der ursprünglich für den Pentium Pro entwickelte und später für den Pentium II verwendete 440FX das USB-Protokoll, was vor Einführung der ATX-Mainboards jedoch kaum bis gar nicht beworben wurde. Die Hauptursache dafür dürfte zum einen in der mangelhaften beziehungsweise fehlenden Unterstützung von USB durch die damals verbreiteten Betriebssysteme Windows 95 und Windows NT 4.0 gelegen haben, zum anderen waren in der Anfangszeit auch kaum USB-Geräte verfügbar. Dieser zähe Start brachte ihm den Spitznamen Useless Serial Bus ein.
Ende 1998 folgte die überarbeitete Spezifikation USB 1.1, die in erster Linie Fehler und Unklarheiten in der 1.0-Spezifikation behob und den Interrupt Out Transfer hinzufügte. Die Geschwindigkeit erhöhte sich nicht. USB 1.x war deshalb keine Konkurrenz zu Apples FireWire-Standard (IEEE 1394), der von Anfang an (1995) eine Datenrate von bis zu 400 Mbit/s hatte und im April 2003 auf bis zu 800 Mbit/s beschleunigt wurde. Dennoch setzte Apple die Schnittstelle in der Revision USB 1.1 mit der Entwicklung des iMac ein. Mit diesem beginnend, ersetzte Apple damit den hauseigenen ADB.
Im Jahr 2000 wurde USB 2.0 spezifiziert, was vor allem eine weitere Datenrate von 480 Mbit/s hinzufügte und so den Anschluss von Festplatten oder Videogeräten ermöglichte. Produkte dafür erschienen jedoch erst ab 2002 am Markt. Zu beachten ist, dass pro Anschluss nur maximal 500 mA (High Power) oder 100 mA (Low Power) als Stromversorgung zugesichert werden müssen.
Externe 3,5″-Festplatten lassen sich nicht anschließen, da diese 12 V als Betriebsspannung benötigen. Die Stromaufnahme ist, da USB nur 5 V zur Verfügung stellt, irrelevant. Externe 2,5″-Festplatten haben Anlaufströme von 600 mA bis 1100 mA, im Betrieb begnügen sie sich mit 250 mA bis 400 mA (Stand: 2010). Die kurzzeitige Überlastung des USB-Ports wird von fast allen Geräten geduldet, nur wenige Geräte (meist Festplattenrecorder) haben mit besonders stromhungrigen Festplatten Probleme. Die früher häufig zu findenden Doppel-USB-Anschlüsse (die laut USB-Spezifikation nicht zulässig sind) oder zusätzliche Betriebsspannungseingänge an Festplatten sind verschwunden (Stand: 2010). Externe 1,8″-Festplatten liegen mit Anlaufströme um die 400 mA und Betriebsströmen um die 150 mA weit innerhalb der USB-Spezifikation und bereiten nie Probleme.
2008 wurden die neuen Spezifikationen für USB 3.0 SuperSpeed vorgestellt, die Datentransferraten von mindestens 4,8 Gbit/s erreichen. Mit dieser Spezifikation werden auch neue Stecker, Kabel und Buchsen eingeführt, die größtenteils mit den alten kompatibel sein sollen. Mit USB 3.0 wird auch die Stromversorgung auf 900 mA erhöht, was die Versorgung von 2,5-Zoll-Festplatten absichert.
Die USB-Controller-Chips in den PCs halten sich an einen von drei etablierten Standards. Diese unterscheiden sich in ihrer Leistungsfähigkeit und der Implementierung von bestimmten Funktionen. Für ein USB-Gerät sind die verwendeten Controller (fast) vollständig transparent, allerdings ist es für den Benutzer des PC mitunter wichtig, feststellen zu können, welche Art Chip der Rechner verwendet, um den korrekten Treiber auswählen zu können.
Intern adressiert der USB-Controller die angeschlossenen Geräte mit einer sieben Bit langen Kennung, wodurch sich die 127 maximal anschließbaren Geräte ergeben. Die Adresse 0 wird automatisch von Geräten belegt, die ein Reset-Signal erhalten. Wenn an einem oder mehreren Ports neue Geräte detektiert werden, so schaltet der Host-Controller einen dieser Ports ein, sendet dem dort angeschlossenen Gerät einen Reset und versucht dann, das Gerät zu identifizieren. Danach teilt er ihm eine eindeutige Adresse mit. Da immer nur ein Port mit noch nicht konfiguriertem Gerät aktiviert wird, kommt es zu keinen Adresskollisionen.
Der Host-Controller fragt meist zuerst nach einem Device-Deskriptor, der unter anderem die Hersteller- und Produkt-ID enthält. Mit weiteren Deskriptoren teilt das Gerät mit, welche alternativen Konfigurationen es besitzt, in die es von seinem Gerätetreiber geschaltet werden kann. Bei einer Webcam könnten diese Alternativen etwa darin bestehen, ob die Kamera eingeschaltet ist oder ob nur das Mikrofon läuft. Für den Controller ist dabei relevant, dass die unterschiedlichen Konfigurationen auch einen unterschiedlichen Strombedarf mit sich bringen. Ohne besondere Freigabe durch das Betriebssystem darf ein Gerät nicht mehr als 100 mA Strom benötigen.
Innerhalb einer Konfiguration kann das Gerät verschiedene Schnittstellen definieren, die jeweils über einen oder mehrere Endpunkte verfügen. Unterschiedlicher Bedarf an reservierter Datenrate wird über sogenannte Alternate Settings signalisiert. Ein Beispiel dafür ist eine Kamera (etwa eine Webcam), die Bilder in zwei verschiedenen Auflösungen senden kann. Das Alternate Setting 0 wird aktiviert, wenn ein Gerät keine Daten übertragen möchte und somit pausiert.
Damit nicht für jedes Gerät ein eigener Treiber nötig ist, definiert der USB-Standard verschiedene Geräteklassen, die sich durch generische Treiber steuern lassen. Auf diese Weise sind USB-Tastaturen, -Mäuse, USB-Massenspeicher, Kommunikations- („Communications Device Class“, kurz: CDC) und andere Geräte mit ihren grundlegenden Funktionen sofort verwendbar, ohne dass zuvor die Installation eines spezifischen Treibers notwendig ist. Herstellerspezifische Erweiterungen (die dann einen eigenen Treiber erfordern) sind möglich. Die Information, zu welchen Geräteklassen sich ein Gerät zählt, kann im Device-Deskriptor (wenn das Gerät nur einer Klasse angehört) oder in einem Interface-Deskriptor (bei Geräten, die zu mehreren Klassen gehören) untergebracht werden.
Klasse![]() |
Verwendung![]() |
Beschreibung![]() |
Beispiele![]() |
---|---|---|---|
00h | Gerät | Composite Device | Die Klasse wird auf Ebene der Interface-Deskriptoren definiert |
01h | Interface | Audio | Lautsprecher, Mikrofon, Soundkarte, MIDI |
02h | Beides | Kommunikation und CDC-Steuerung | Netzwerkkarte, Modem, Adapter für serielle Schnittstelle |
03h | Interface | HID | Tastatur, Maus, Joystick etc. |
05h | Interface | PID | Physikalisches Feedback, etwa für Force-Feedback-Joysticks |
06h | Interface | Bilder | Digitalkamera |
07h | Interface | Drucker | Laserdrucker, Tintenstrahldrucker |
08h | Interface | Massenspeicher | USB-Stick, Memory-Card-Lesegerät, MP3-Player |
09h | Gerät | USB-Hub | Full-Speed Hub, High-Speed Hub |
0Ah | Interface | CDC-Daten | diese Klasse wird zusammen mit Klasse 02h verwendet |
0Bh | Interface | Chipkarte | Chipkarten-Lesegerät |
0Dh | Interface | Content Security | Finger-Print-Reader |
0Eh | Interface | Video | Webcam |
0Fh | Interface | Personal Healthcare | Pulsuhr |
DCh | Beides | Diagnosegerät | USB-Compliance-Testgerät |
E0h | Interface | kabelloser Controller | Wi-Fi-Adapter, Bluetooth-Adapter |
EFh | Beides | Diverses | ActiveSync-Gerät |
FEh | Interface | softwarespezifisch | IrDA-Brücke |
FFh | Beides | herstellerspezifisch | der Hersteller liefert einen Treiber mit |
Der USB bietet den angeschlossenen Geräten verschiedene Übertragungsmodi an, die diese für jeden einzelnen Endpunkt festlegen können.
USB-Geräte verfügen über eine Anzahl von durchnummerierten „Endpunkten“, gewissermaßen Unteradressen des Gerätes. Die Endpunkte sind in den Geräten hardwareseitig vorhanden und werden von der USB SIE (Serial Interface Engine) bedient. Über diese Endpunkte können voneinander unabhängige Datenströme laufen. Geräte mit mehreren getrennten Funktionen (z. B. Webcams, die Video und Audio übertragen) haben mehrere Endpunkte. Die Übertragungen von und zu den Endpunkten erfolgen meist unidirektional, für bidirektionale Übertragungen ist deshalb ein IN- und ein OUT-Endpunkt erforderlich (IN und OUT beziehen sich jeweils auf die Sicht des Hostcontrollers). Eine Ausnahme davon sind Endpunkte, die den sogenannten Control Transfer Mode verwenden.
In jedem USB-Gerät muss ein Endpunkt mit Adresse 0 vorhanden sein, über den die Erkennung und Konfiguration des Gerätes läuft, darüber hinaus kann er auch noch weitere Funktionen übernehmen. Endpunkt 0 verwendet immer den Control Transfer Mode.
Ein USB-Gerät darf maximal 31 Endpunkte haben: Den Control-Endpunkt (der eigentlich zwei Endpunkte zusammenfasst) und je 15 In- und 15 Out-Endpunkte. Low-Speed-Geräte sind auf Endpunkt 0 plus maximal zwei weitere Endpunkte im Interrupt Transfer Mode mit maximal 8 Bytes pro Transfer beschränkt.
Der isochrone Transfer ist für Daten geeignet, die eine garantierte Datenrate benötigen. Diese Transferart steht für Full-Speed- und High-Speed-Geräte zur Verfügung. Definiert das sogenannte Alternate Setting einen Endpunkt mit isochronem Transfer, so reserviert der Host-Controller-Treiber die erforderliche Datenrate. Steht diese Datenrate nicht zur Verfügung, so schlägt die Aktivierung des genannten Alternate Settings fehl, und es kann mit diesem Gerät keine isochrone Kommunikation aufgebaut werden.
Die erforderliche Datenrate ergibt sich aus dem Produkt des Abfrageintervalls und der Größe des Datenpuffers. Full-Speed-Geräte können jede ms bis zu 1023 Bytes je isochronem Endpunkt übertragen (1023 kbyte/s), High-Speed-Geräte können bis zu drei Übertragungen je Micro-Frame (125 µs) mit bis zu 1024 kbyte/s ausführen (24 Mbyte/s). Stehen in einem Gerät mehrere isochrone Endpunkte zur Verfügung, erhöht sich die Datenrate entsprechend. Die Übertragung ist mit einer Prüfnummer (CRC16) gesichert, wird aber bei einem Übertragungsfehler durch die Hardware nicht wiederholt. Der Empfänger kann erkennen, ob die Daten korrekt übertragen wurden. Isochrone Übertragungen werden zum Beispiel von der USB-Audio-Class benutzt, die bei externen USB-Soundkarten Verwendung findet.
Interrupt-Transfers dienen zur Übertragung von kleinen Datenmengen, die zu nicht genau bestimmbaren Zeitpunkten verfügbar sind. Im Endpoint Descriptor teilt das Gerät mit, in welchen maximalen Zeitabständen es nach neuen Daten gefragt werden möchte. Das kleinstmögliche Abfrageintervall beträgt bei Low-Speed 10 ms, bei Full-Speed 1 ms und bei High-Speed bis zu drei Abfragen in 125 µs. Bei Low-Speed können pro Abfrage bis zu 8 Byte, bei Full-Speed bis zu 64 Byte und bei High-Speed bis zu 1024 Byte übertragen werden. Daraus ergeben sich maximale Datenraten von 800 byte/s bei Low-Speed, 64 kbyte/s bei Full-Speed und bis zu 24 Mbyte/s bei High-Speed. Die Daten sind mit einer Prüfnummer (CRC16) gesichert und werden bei Übertragungsfehlern bis zu dreimal durch die Hardware wiederholt. Geräte der HID-Klasse (Human Interface Device), zum Beispiel Tastaturen, Mäuse und Joysticks, übertragen die Daten über den Interrupt-Transfer.
Bulk-Transfers sind für große Datenmengen gedacht, die jedoch nicht zeitkritisch sind. Diese Transfers sind niedrig priorisiert und werden vom Controller durchgeführt, wenn alle isochronen und Interrupt-Transfers abgeschlossen sind und noch Datenrate übrig ist. Bulk-Transfers sind durch eine Prüfnummer (CRC16) gesichert und werden durch die Hardware bis zu dreimal wiederholt. Low-Speed-Geräte können diese Transferart nicht benutzen. Full-Speed-Geräte benutzen Puffer-Größen von 8, 16, 32 oder 64 Bytes. High-Speed-Geräte verwenden immer einen 512 Byte großen Puffer.
Control-Transfers sind eine besondere Art von Datentransfers, die einen Endpunkt erfordern, der sowohl In- als auch Out-Operationen durchführen kann. Control-Transfers werden generell in beide Richtungen bestätigt, so dass Sender und Empfänger immer sicher sein können, dass die Daten auch angekommen sind. Daher wird der Endpunkt 0 im Control-Transfer-Modus verwendet. Control-Transfers sind zum Beispiel nach dem Detektieren des USB-Geräts und zum Austausch der ersten Kommunikation elementar wichtig.
Durch USB On-the-go (OTG) können entsprechend ausgerüstete Geräte miteinander kommunizieren, indem eines der beiden eine eingeschränkte Host-Funktionalität übernimmt. Dadurch kann auf einen Computer, der die Host-Funktion übernimmt, verzichtet werden. Mögliche Einsatzgebiete sind beispielsweise die Verbindung von Digitalkamera und Drucker oder der Austausch von Musikdateien zwischen zwei MP3-Spielern.
Gekennzeichnet werden USB-OTG-Produkte durch das USB-Logo mit zusätzlichem grünem Pfeil auf der Unterseite und weißem „On-The-Go“-Schriftzug. Die USB-OTG-Spezifikation wurde am 18. Dezember 2001 verabschiedet.
OTG-Geräte sind zum Beispiel die seit November 2007 erhältlichen Nokia 6500c und Nokia N810, aber auch einige Image Tanks.
Momentan besetzen zwei Initiativen den Begriff „Wireless USB“. Die ältere der beiden wurde von dem Unternehmen Cypress initiiert, mittlerweile ist Atmel als zweiter Chiphersteller auf den Zug aufgesprungen. Das „Cypress-WirelessUSB“-System ist eigentlich kein drahtloses USB, sondern eine Technik, um drahtlose Endgeräte zu bauen, die dann über einen am USB angeschlossenen Empfänger/Sender (Transceiver) mit dem Computer verbunden sind. Dazu wird eine Übertragungstechnik im lizenzfreien 2,4-GHz-Band benutzt, die Datenrate beträgt bis zu 62,5 kbit/s (neuere Chips von Cypress erreichen 1 Mbit/s) und ist damit für Eingabegeräte völlig ausreichend, für andere Anwendungen aber oft zu knapp bemessen.
Das zweite Wireless-USB-Projekt wird von der USB-IF vorangetrieben und ist wesentlich anspruchsvoller, neben Intel ist auch NEC dabei, entsprechende Chips zu entwickeln. Ziel ist es, eine Technik zu schaffen, mit der die vollen 480 Mbit/s des High-Speed-Übertragungsmodus drahtlos übertragen werden können. Dabei ist eine kurze Reichweite unter 10 m vorgesehen; die Übertragung soll auf einer Ultrabreitband-Technik basieren. Am 16. Januar 2008 gab die Bundesnetzagentur für die Ultrabreitband-Technik Frequenzbereiche frei. Der dabei für USB vorgesehene Bereich von 6 bis 8,5 GHz ist jedoch nicht so breit wie von USB-IF spezifiziert, so dass Geräte aus anderen Ländern eventuell in Deutschland nicht verwendet werden dürfen.
USB erlaubt es einem Gerät, Daten mit 1,5 Mbit/s, 12 Mbit/s oder mit 480 Mbit/s zu übertragen. Diese Raten basieren auf dem Systemtakt der jeweiligen USB-Geschwindigkeit und stellen die physikalische Datenübertragungsrate dar. Die Toleranzen werden für „USB 2.0“-Geräte und für die älteren USB-1.0-/1.1-Geräte getrennt behandelt. Der tatsächliche Datendurchsatz liegt – durch Protokoll-Overhead – darunter. Im USB-Standard ist eine maximale theoretische Datenlast bei High-Speed unter idealen Bedingungen von 49.152.000 Byte/s (Isochronous Mode) beziehungsweise 53.248.000 Byte/s (Bulk-Mode) angegeben. Dazu kommt die Verwaltung der Geräte, so dass bei aktuellen Systemen eine nutzbare Datenrate in der Größenordnung von 320 Mbit/s (40 MB/s) bleibt. Bei älteren Systemen wurde diese durch eine unzureichende Anbindung des USB-Chips an den Systembus zusätzlich reduziert.
Geschwindigkeit | Toleranz USB 3.0 | Toleranz USB 2.0 | Toleranz USB 1.0/1.1 |
---|---|---|---|
Low-Speed, 1,5 Mbit/s (187,5 KB/s) | – | ± 0,75 kbit/s | ± 22,5 kbit/s |
Full-Speed, 12 Mbit/s (1,5 MB/s) | – | ± 6 kbit/s | ± 30 kbit/s |
High-Speed, 480 Mbit/s (60 MB/s) | – | ± 240 kbit/s | – |
Super-Speed, 5 Gbit/s (625 MB/s) | – | – | – |
Wird die Schnittstelle eines Geräts mit „USB 2.0“ angegeben, heißt das nicht unbedingt, dass dieses Gerät auch die hohe Datenrate von 480 Mbit/s anbietet. Standpunkt der Anbieter ist dabei, dass ein USB-2.0-kompatibles Gerät grundsätzlich jede der drei Geschwindigkeiten benutzen kann und die 2.0-Kompatibilität in erster Linie bedeutet, dass die neueste Fassung der Spezifikation eingehalten wird. 480 Mbit/s dürfen also nur erwartet werden, wenn ein Gerät mit dem Logo „Certified USB Hi-Speed“ ausgezeichnet ist.
Die Kommunikation bei USB wird vom Hostcontroller gesteuert, der heutzutage in der Regel auf dem Motherboard eines Computers verbaut ist. Nur dieser kann Daten von einem Gerät lesen oder zu einem Gerät senden. Ein Gerät darf nur dann Daten zum Hostcontroller senden, wenn es von diesem abgefragt wird. Bei zeitkritischen Datenströmen, wie etwa bei Mausbewegungen, muss der Hostcontroller von sich aus häufig genug beim Gerät anfragen (Polling), ob es Daten senden will, um ein Ruckeln zu verhindern.
Eine direkte Kommunikation zwischen USB-Geräten ist gemäß dem USB-Standard eigentlich nicht möglich; das wurde erst durch die Erweiterung USB On-the-go eingeschränkt ermöglicht (die Geräte können hier wahlweise Host oder Endgerät sein, ein echter bidirektionaler Austausch ist aber trotzdem nicht möglich). Der FireWire-Standard, der für ähnliche Einsatzzwecke wie USB geschaffen wurde und mit diesem in Konkurrenz steht, bietet im Gegensatz dazu die Möglichkeit einer Peer-to-Peer-Kommunikation zwischen Geräten, ohne dass die Steuerung durch einen Host erforderlich ist. Somit ist mit FireWire etwa der Aufbau eines Netzwerks möglich.
Im November 2008 stellte das USB Implementers Forum, dem unter anderem die Unternehmen HP, Microsoft und Intel angehören, die Spezifikation für USB 3.0 vor. Es sollen Datenraten von 5 GBit/s (625 MB/s) erreicht werden (SuperSpeed-Modus).
Die höheren Datenraten werden durch eine Übertragungstechnik ähnlich PCI-Express beziehungsweise Serial ATA ermöglicht, die allerdings zusätzlich zum bisherigen Datenleitungspaar (D+/D-) im Kabel noch zwei weitere Aderpaare erfordert (plus einen weiteren Masseanschluss). Da in den Steckern somit fünf weitere Kontakte erforderlich sind, wurden mit USB 3.0 neue Steckverbinder und Kabel eingeführt.
Name | Beschreibung |
---|---|
SSTX+ | Datenübertragung vom Host zum Gerät |
SSTX− | mit SSTX+ verdrillt |
GND | Masse |
SSRX+ | Datenübertragung vom Gerät zum Host |
SSRX− | mit SSRX+ verdrillt |
Diese neuen Verbinder vom Typ A sind mit den bisherigen abwärtskompatibel. Bisherige USB-Geräte lassen sich auch weiterhin mit USB 3.0, neue 3.0-Geräte auch an alten 2.0- beziehungsweise 1.0/1.1-Hosts betreiben. Eine Ausnahme stellen B-, Mini-B-, Micro-B- und Mini-A-Verbinder dar. Durch die hier notwendigen Anbauten lassen sich zwar alte Stecker in neuen Buchsen, nicht jedoch neue Stecker in alten Buchsen verwenden. Dafür sind dann Adapter erforderlich.
Mit dem Linux-Kernel Version 2.6.31 ist Linux das erste Betriebssystem, das USB 3.0 unterstützt.
Weitere Besonderheiten:
Für einen späteren Zeitpunkt ist auch eine Erweiterung des Standards mit Lichtwellenleitern geplant. Erste Geräte, die USB 3.0 nutzen, sind bereits erhältlich. Anders als noch bei USB 2.0 dürfen sich Geräte nur „USB-3.0-kompatibel“ nennen, wenn sie tatsächlich die schnellstmögliche Geschwindigkeit (hier Super-Speed-Modus) anbieten.
Die Stecker eines USB-Kabels sind verpolungs- und vertauschungssicher gestaltet.
In Richtung des Hostcontrollers (Upstream) werden flache Stecker (Typ A „DIN IEC 61076-3-107“) verwendet. Zum angeschlossenen Gerät hin (Downstream) werden die Kabel entweder fix montiert oder über annähernd quadratische Steckverbinder (Typ B „DIN IEC 61076-3-108“) angeschlossen (vereinzelt und nicht standardkonform auch mit Typ A-Steckverbindern). Entsprechend der USB 1.0–2.0 Standards besitzen USB Typ A- und Typ B-Verbinder vier Leitungen plus Schirm. Beide Steckverbinder sollen in einer der drei Farben grau, „natur“ (elfenbeinfarben/weiß) oder schwarz ausgeführt werden. Mit USB 3.0 kommen neue Varianten der Typ A- und Typ B-Verbinder auf den Markt (siehe unten).
Seit einiger Zeit sind auch Stecker und Buchsen vom Typ A und B mit Rändelschrauben erhältlich, die ein Herausrutschen verhindern. Allerdings muss das empfangene Gerät dies auch unterstützen.
Verschiedene Hersteller brachten mechanisch inkompatible Ausführungen von USB-Verbindern heraus, die sich jedoch elektrisch nicht von USB 1.x oder 2.0 unterschieden. So etwa waren einige IBM Thinkpads mit einem sog. UltraPort ausgestattet, APC führt USB an ihren USVs über 10-polige Modular-Buchsen (10P10C/RJ50), die Microsoft Xbox benutzt ebenfalls proprietäre USB-Verbinder oder Apple führt USB beim iPod Shuffle über einen Klinkenstecker, der gleichzeitig als Audioverbinder dient. Diese nicht standardisierten Varianten haben jedoch bisher keine weitere Verbreitung erlangt.
Für den industriellen Einsatz gibt es mehrere nicht vom USB-Konsortium standardisierte USB-5-V(olt)-, USB-12V-, USB-19-V- und USB-24-V-Varianten mit deutlich höheren Strombelastbarkeiten von bis zu 6 A (3 A pro Kontakt) über insgesamt vier zusätzliche Leitungen, die um 1999 im Rahmen der PoweredUSB- und PlusPower-Spezifikationen von Firmen wie IBM, Microsoft, NCR und Berg/FCI definiert wurden und zum Teil lizenzpflichtig sind. Diese Varianten werden insbesondere bei POS-Anwendungen von verschiedenen Herstellern eingesetzt. Die Steckverbinder führen dabei neben dem USB-Typ-A-Stecker eine unabhängige hochstromfähige vierpolige Spannungsversorgung. Diese Stecker sind nicht rechteckig, sondern mehr quadratisch (wie zwei Stecker in einem gemeinsamen Gehäuse, der USB-Teil selbst entspricht mechanisch und elektrisch unverändert USB Typ A). Mittels einer mechanischen Kodierung wird verhindert, dass zum Beispiel USB-12-V-Stecker versehentlich in USB-24-V-Buchsen gesteckt werden können. Eine mechanische Arretierung der Stecker in den Buchsen ist ebenfalls vorgesehen. Zusätzlich wird für diese Stecker eine Farbkodierung empfohlen, naturfarben (z. T. auch gelb) für 5 V (30 W), blaugrün (Pantone Teal 3262C) für 12 V (72 W), rot (Pantone Red 032C) für 24/25 V (144 W) und seltener violett für 19 V. Kommt keine Farbkodierung zum Einsatz, sollen die Stecker für alle Spannungen größer 5 V schwarz ausgeführt werden, wohingegen grau als alternative Farbe für 5 V in Frage kommt. Für die B-Seite ist kein spezieller Stecker definiert, es gibt jedoch verschiedene Empfehlungen, teilweise mit unterschiedlichen HotPlug-Fähigkeiten. Die Bezeichnung für diese industriellen USB-Varianten lautet Retail USB, PoweredUSB, USB PlusPower oder USB +Power.
Insbesondere für Geräte mit geringerem Platzangebot (z. B. digitale Kameras, Mobiltelefone, MP3-Player und andere mobile Geräte) existieren auch verschiedene kompaktere USB-Steckverbinder. Im USB-2.0-Standard verankert sind dabei lediglich fünfpolige Mini- und Micro-Varianten (plus Schirm) (z. T. auf dem Foto in der Mitte abgebildet), die gegenüber den normalen USB-Steckverbindern über einen zusätzlichen ID-Pin verfügen:
Zunächst wurde im Jahr 2000 ein trapezförmiger Mini-B-Steckverbinder für die Downstream-Seite definiert, der in der Farbe Schwarz ausgeführt werden sollte. Bei zukünftigen Geräten sollen Gerätehersteller jedoch auf die Micro-USB-Verbinder (siehe unten) ausweichen. Auch Mini-A- (in weißer Farbe) und Mini-AB-Steckverbinder (in Grau) waren für eine gewisse Zeit Teil des Standards und sollten insbesondere in Verbindung mit USB On-the-Go (OTG) eine Rolle spielen, wurden jedoch im Mai 2007 offiziell zurückgezogen.
Im Januar 2007 wurden mit der Standarderweiterung Micro-USB für USB 2.0 noch kleinere Steckverbinder vorgestellt, die eine besonders kompakte Bauform der Geräte ermöglichen. Die Micro-USB-Spezifikation kann USB On-the-Go (OTG) unterstützen, was Verkabelung und Kommunikation auch ohne PC als Host ermöglicht. Micro-USB-Steckverbinder sollen bei neueren Geräten in naher Zukunft den Mini-Verbinder komplett ersetzen, lediglich der relativ weit verbreitete Mini-B-Verbinder wird derzeit noch geduldet. Die Micro-USB-Verbinder sind elektrisch gleichwertig, mechanisch allerdings nicht steckkompatibel, dafür jedoch dank der im Standard geforderten Edelstahlkrampe deutlich stabiler ausgeführt. Gemäß USB-2.0-Standard gibt es drei Varianten, die genau wie bei Mini-USB allesamt fünfpolig ausgeführt sind: Micro-A (rechteckige Bauform, für die Host-Seite, Farbe Weiß), Micro-AB (rechteckige Bauform, für USB-On-the-Go-Geräte, Farbe Grau) und Micro-B (Trapez-Bauform, für die Geräteseite, Farbe Schwarz). Die Open Mobile Terminal Platform OMTP hat Micro-USB 2007 als Standardverbinder für den Datentransfer und die Energieversorgung von Mobilfunkgeräten übernommen, in China müssen Mobiltelefone seitdem mit dieser Schnittstelle ausgestattet werden, um eine Zulassung zu bekommen. Mit USB 3.0 kommen neue Varianten der Micro-A-, AB- und -B-Steckverbinder auf den Markt (siehe unten).
Daneben gibt es noch eine ganze Reihe proprietärer, das heißt geräteherstellerspezifische Miniaturbauformen der Steckverbinder (siehe auch Bild), die zwar in der Regel elektrisch mit USB 2.0 kompatibel sind, jedoch nur über z. T. schwer erhältliche Adapterkabel mit USB-Komponenten gemäß dem USB-Standard verbunden werden können. Fälschlicherweise werden jedoch auch diese Steckverbinder häufig als „Mini“-USB bezeichnet, was immer wieder zu Missverständnissen führt und vermieden werden sollte. Nicht zuletzt deshalb soll der Micro-USB-Standard hier den Wildwuchs beenden. Verbreitet sind unterschiedlichste Ausführungen mit vier Pins (insbesondere Varianten von Mitsumi, Aiptek, Hirose) sowie eine große Zahl von Varianten mit acht Pins (darunter mehrere inkompatible Varianten, die sich bei Digitalkameras in begrenztem Rahmen auch über Herstellergrenzen hinweg verbreitet haben), elf Pins (ExtUSB für HTC-Mobiltelefone; kompatibel zu Mini-USB), zwölf Pins (für verschiedene Olympus-Digitalkameras) und 14 Pins (zwei Varianten für verschiedene Fuji-Finepix-Digitalkameras und als Nokias Pop-Port für manche Mobiltelefone), die auch noch andere, nicht-USB-spezifische Signale im gleichen Konnektor vereinen.
Im Rahmen des im Jahr 2008 verabschiedeten USB-3.0-Standards wurden weitere sechs Steckverbindertypen mit zusätzlichen Kontakten definiert:
Diese unterteilen sich in je drei Steckverbinder, die als weitestgehend rückwärtskompatible Erweiterungen der bisherigen Typ A- und Typ B-Steckverbinder angesehen werden können (genannt: USB 3.0 Standard-A, USB 3.0 Standard-B und USB 3.0 Powered-B) sowie drei kleinere Verbinder, die sich an die bisherigen Micro-USB-Verbinder anlehnen (genannt: USB 3.0 Micro-A, USB 3.0 Micro-AB und USB 3.0 Micro-B). Zur eindeutigen Kennzeichnung werden die bisherigen Steckverbinder nun als USB 2.0 Standard-A, USB 2.0 Standard-B, USB 2.0 Micro-A, USB 2.0 Micro-AB und USB 2.0 Micro-B bezeichnet. Zur besseren Unterscheidung sollen die USB-3.0-Standard-A-Verbinder in der Farbe Blau (Pantone 300C) ausgeführt und gegebenenfalls mit einem doppelten S-Symbol gekennzeichnet werden.
Aufnahmetyp | Steckertyp |
---|---|
USB 3.0 Standard-A | USB 3.0 Standard-A, USB 2.0 Standard-A |
USB 2.0 Standard-A | USB 2.0 Standard-A, USB 3.0 Standard-A |
USB 3.0 Powered-B | USB 3.0 Powered-B, USB 3.0 Standard-B, USB 2.0 Standard-B |
USB 3.0 Standard-B | USB 3.0 Standard-B, USB 2.0 Standard-B |
USB 2.0 Standard-B | USB 2.0 Standard-B |
(USB 2.0 Mini-AB) | (USB 2.0 Mini-A, USB 2.0 Mini-B) |
USB 2.0 Mini-B | USB 2.0 Mini-B |
USB 3.0 Micro-AB | USB 3.0 Micro-A, USB 3.0 Micro-B, USB 2.0 Micro-A, USB 2.0 Micro-B |
USB 2.0 Micro-AB | USB 2.0 Micro-A, USB 2.0 Micro-B |
USB 3.0 Micro-B | USB 3.0 Micro-B, USB 2.0 Micro-B |
USB 2.0 Micro-B | USB 2.0 Micro-B |
Anschlusstyp | Anzahl der Steckzyklen |
---|---|
USB (USB 1.0–3.0) | min. 500x, später min. 1500x (USB 3.0 Standard Class: min. 1500x, High Durability Class: min. 5000x) |
Mini-USB (USB 2.0) | min. 5000x |
Micro-USB (USB 2.0–3.0) | min. 10000x |
eSATA (zum Vergleich) | min. 5000x |
Firewire/IEEE 1394 (zum Vergleich) | min. 1500x |
Stecker | Steckerabmessungen | passende Buchsen | erlaubte Kabeltypen |
---|---|---|---|
A | ![]() |
A | → Stecker B → Stecker Mini-B → Stecker Micro-B |
B | ![]() |
B | → Stecker A |
Mini-B | ![]() |
Mini-B | → Stecker A |
Micro-A | ![]() |
Micro-AB | → Stecker Micro-B → Buchse A (als Adapter) |
Micro-B | ![]() |
Micro-B Micro-AB |
→ Stecker A → Stecker Micro-A |
Verbreitet haben sich weiterhin 1×4-, 1×5- und 2×2-polige Varianten von Stiftleisten im Rastermaß 2,54 Millimeter auf PC-Mainboards, ebenso wie Doppel-USB-Verbinder mit 2×4 oder 2×5 Polen im Rastermaß 2,54 mm. Gab es zunächst mehrere zueinander inkompatible Belegungsvarianten, hat sich im Zuge neuerer Mainboard-Spezifikationen von Intel inzwischen eine bestimmte 2×5-polige Belegung etabliert, die auch mit uDOC-Flashmodulen kompatibel ist.
In einem USB-Kabel werden vier Adern benötigt. Zwei Adern übertragen dabei die Daten, die anderen beiden versorgen das angeschlossene Gerät mit einer Spannung von 5 V. Der USB-Spezifikation entsprechende Geräte dürfen bis zu 100 mA oder 500 mA aus dem Bus beziehen, abhängig davon, wie viel der Port liefern kann, an den sie angeschlossen werden. Geräte mit einer Leistung von bis zu 2,5 W können also über den Bus versorgt werden. Je nach Kabellänge muss der Querschnitt der beiden Stromversorgungsadern angepasst sein, um den zulässigen Spannungsabfall einzuhalten; auch daher sind Verlängerungsleitungen nicht standardgemäß.
Die Kabel müssen je nach Geschwindigkeit unterschiedlich abgeschirmt werden. Kabel, die lediglich der Spezifikation low speed entsprechen, dürfen über keinen B-Stecker verfügen, sondern müssen fix am Gerät montiert sein oder einen herstellerspezifischen Stecker verwenden. Sie sind weniger stark abgeschirmt, kommen ohne verdrillte Adern aus und sind dadurch flexibler als Full/High-Speed Kabel. Sie sind daher gut für zum Beispiel Mäuse und Tastaturen geeignet. Die geringe Abschirmung des Kabels kann zu Problemen bei Geräten mit höheren Geschwindigkeiten führen.
Die Längen von Full-/High-Speed- und Low-Speed-Kabeln vom Hub zum Gerät sind auf fünf beziehungsweise drei Meter begrenzt. Längere Strecken kann man überwinden, indem USB-Hubs zwischengeschaltet werden. Sogenannte USB-Repeaterkabel entsprechen in ihren Funktionen einem Bus-Powered Hub (s. u.) mit einem einzigen Downstream-Port und einem fest angeschlossenen Kabel am Upstream-Port. Da die elektrischen Auswirkungen dieser Kabel im USB-Bus denen eines Bus-Powered-USB-Hubs mit fünf Meter Kabel entsprechen, sollten bei ihrer Verwendung zusätzlich die Beschränkungen beim Verschachteln von USB-Hubs beachtet werden.
USB arbeitet mit einem Wellenwiderstand von 90 Ω, direkte Verbindungskabel sollten daher auch in diesem Wellenwiderstandswert ausgeführt sein.
Für die Überbrückung von Längen über 30 Metern werden USB-Line-Extender angeboten. Diese bestehen aus zwei Komponenten: Einem Base-Modul, das an den Computer angeschlossen wird, und einem Remote-Modul für den Anschluss des USB-Gerätes. Zur Distanzüberbrückung zwischen diesen beiden Komponenten werden meist Ethernetkabel oder Lichtleiter eingesetzt. Da sich diese Line-Extender jedoch immer auf bestimmte, nicht vom Standard vorgeschriebene Verhaltensdetails der angeschlossenen Geräte verlassen und zudem bei langen Kabelstrecken die Signallaufzeit zu Protokollverletzungen führt, ist der Einsatz dieser Geräte oft mit Problemen verbunden.
Eine andere Möglichkeit, USB-Geräte weiter entfernt vom Rechner anzuschließen, sind Lösungen, die einen „remote host“ verwenden, also einen USB-Hostcontroller, der außerhalb des PCs liegt. Dabei geschieht die Kommunikation zwischen PC und Hostcontroller zum Beispiel über Ethernet. Das Ethernet ersetzt dabei den lokalen Bus, an dem sonst der Hostcontroller angeschlossen wäre. Auf dem PC muss also nur ein entsprechender Treiber installiert werden, der die Kommunikation mit dem Hostcontroller übernimmt. Alle Treiber für die USB-Geräte erkennen dann keinen Unterschied zu einem lokal angeschlossenen Gerät. Ein Beispiel für ein solches Gerät ist der USB-Server von Keyspan.
Der USB-Standard legt neben der Belegung der Schnittstelle auch die Namen der einzelnen Stecker-Pins und die Aderfarbe fest. Die Nummer eines Stecker-Pins kann in den oben angeführten Schemazeichnungen abgelesen werden.
Pin | Name | Farbe | Beschreibung |
---|---|---|---|
1 | VCC | Rot | +5 V |
2 | D- | Weiß | Data − |
3 | D+ | Grün | Data + |
4 | GND | Schwarz | Masse |
Pin | Name | Farbe | Beschreibung |
---|---|---|---|
1 | VCC | Rot | +5 V |
2 | D- | Weiß | Data − |
3 | D+ | Grün | Data + |
4 | ID | keine | erlaubt Unterscheidung vonMicro-A- und Micro-B-Stecker
Typ A: Masse Typ B: nicht verbunden |
5 | GND | Schwarz | Masse |
Ein USB-Hub ist ein USB-Gerät, das das USB-Signal an mehrere Ports verteilt. Handelsüblich sind USB-Hubs mit bis zu sieben Downstream-Ports.
Hubs können ihren Strom aus dem Bus selbst beziehen (als Bus-Powered oder passiver Hub bezeichnet) oder über eine eigene Stromversorgung verfügen (als Self-Powered oder aktiver Hub bezeichnet). Die meisten Self-Powered-Hubs werden über ein Steckernetzteil mit Strom versorgt. Manche Monitore haben auch einen USB-Hub eingebaut, der über die Stromversorgung des Monitors mitgespeist wird. Self-Powered-Hubs haben den Vorteil, dass jedes an sie angeschlossene Gerät bis zu 500 mA Strom beziehen kann. Bei Bus-Powered-Hubs dürfen der Hub und alle an ihn angeschlossenen Geräte gemeinsam maximal 500 mA beziehen. Hybride Self- und Bus-Powered-Hubs sind möglich – der Hub ist dann Self-Powered, wenn ein Netzteil an ihn angeschlossen ist, und ansonsten Bus-Powered. Manchmal werden Bus-Powered-Hubs auch als „passiv“ und Self-Powered-Hubs als „aktiv“ bezeichnet; technisch ist das jedoch falsch.
Bei der Verschachtelung von Hubs werden die Grenzen durch die maximal 127 möglichen USB-Geräte pro root-hub und durch die Signallaufzeit festgelegt – jeder Hub erhöht die Laufzeit, die Verschachtelungstiefe ist auf maximal fünf (Hub-)Ebenen unterhalb des Hostcontrollers beziehungsweise des Root-Hubs begrenzt. Die maximale Distanz zwischen zwei mit USB verbundenen Geräten liegt wegen der Beschränkung von 5 m pro USB-Kabel bei 30 m – sechs Kabel mit je fünf Meter Länge und dazwischen fünf Hubs.
Low-, Full- und High-Speed-Geräte lassen sich an einem USB-2.0-Host fast beliebig mischen, ohne dass Geschwindigkeitsnachteile entstehen. Hubs nach dem USB-1.x-Standard können an USB-2.0-Hosts verwendet werden. Geräte, die direkt oder indirekt an einen solchen Hub angeschlossen werden, können allerdings lediglich die Geschwindigkeit Full Speed erreichen, also 12 Mbit/s.
Ein USB-2.0-Host und ein USB-2.0-Hub kommunizieren immer mit High Speed, selbst wenn an dem Hub Low- oder Full-Speed-Geräte angeschlossen sind. Es ist Aufgabe des Hubs, die Daten dieser Geräte in das High-Speed-Protokoll zu verpacken, dazu hat er einen oder mehrere sogenannte „Transaction Translators“ eingebaut. Die Anzahl der Transaction Translators bestimmt, wie viele langsame Geräte an einen USB-2.0-Hub angeschlossen werden können, ohne sich gegenseitig auszubremsen. Wird diese Zahl überschritten, so bricht die Datenrate aller an diesen Host angeschlossenen Low-Speed- und Full-Speed-Geräte auf Geschwindigkeiten deutlich unter denen eines USB-1.1-Hosts ein; der Durchsatz von High-Speed-Geräten am selben Hub bleibt jedoch unbeeinflusst. An der Spezifikation des Stromverbrauchs hat sich bei USB 2.0 im Vergleich zu USB 1.1 nichts geändert.
Unter USB 3.0 gibt es ein neues Hub-Konzept. Hubs bestehen aus zwei Unter-Hubs. Der eine ist speziell für den neuen Super-Speed-Modus zuständig, der andere für die bisherigen Geschwindigkeitsmodi (Low-Speed, Full-Speed, High-Speed). Erst an den Ports werden beide Teile zusammengeführt. Dezember 2009 hat das Unternehmen VIA die ersten Chips für USB 3.0-Hubs vorgestellt. Der VL810 genannte Chip ist mit allen Geschwindigkeitsmodi kompatibel.
Der Cardbus-Standard (PC Card Standard 5.0) wurde ursprünglich für PCMCIA-Karten als Datenspeichermedium entwickelt, unterscheidet sich aber vom eigentlichen PCMCIA-Standard durch eine völlig andere Architektur. Es sind auch Steckkarten mit CardBus-Controller am Markt erhältlich, die USB in CardBus umsetzen, so dass USB-Stecker beispielsweise auch an Mobilgeräten ohne integrierte USB-Schnittstelle verwendet werden können – sie sind aber auf den 32 Bit breiten CardBus beschränkt. Ein Nachrüsten bei Computern mit 16-Bit-Bus ist daher nicht möglich.
Es ist anzunehmen, dass CardBus in Zukunft vom neueren und leistungsfähigeren ExpressCard-Standard abgelöst wird. In diesem Standard ist PCI-Express und USB 2.0 zugleich bereits integriert. Der Kartenhersteller kann hier entscheiden, welcher Bus genutzt wird. Entsprechende USB 2.0 Karten für ExpressCard Slots sind verfügbar.
Alle USB-Transaktionen werden durch die USB-Software auf dem Host-Computer realisiert. Das geschieht durch den jeweiligen USB-Gerätetreiber, der mit seinem Gerät kommunizieren will. Der USB-Bustreiber ist die Schnittstelle zwischen dem USB-Gerätetreiber und dem USB-Host-Controller.
Die Aufgabe des USB-Gerätetreibers (USB device driver) ist die Erzeugung von Anfragen (Requests) an den USB-Bustreiber. Für eine Anfrage werden I/O-Request-Packets (IRP) verwendet. Diese IRPs initiieren einen Transfer von oder zu USB-Geräten (z. B. Interrupt-Transfer der Tastatur durch Erzeugung eines entsprechenden IRP auslösen).
Der USB-Bustreiber (USB-Driver) kennt die spezifischen Kommunikationseigenschaften der einzelnen USB-Geräte, zum Beispiel die Datenmenge pro Frame oder Abstände zwischen den periodischen Zugriffen. Er erkennt diese Eigenschaften beim Analysieren der Geräte-Deskriptoren während der Konfigurationsphase. Wenn der USB-Bustreiber ein IRP von einem USB-Gerätetreiber erhält, erzeugt er entsprechend diesem Request einzelne Transaktionen, die innerhalb des Übertragungsrahmens (Frame) von einer Millisekunde ausführbar sind.
Der Universal-Serial-Bus-Host-Controller-Treiber (host controller driver) organisiert die zeitliche Abfolge der einzelnen Transaktionen (Scheduling). Dazu baut er eine Folge von Transaktionslisten auf. Jede dieser Listen besteht aus den noch nicht abgearbeiteten Transaktionen in Richtung eines Gerätes, das am Bus angeschlossen ist. Sie definiert die Reihenfolge der Transaktionen innerhalb des 1-ms-Zeitrahmens. Der USB-Bustreiber kann eine einzelne Anfrage für einen Datentransfer in mehrere Transaktionen zerlegen. Das Scheduling hängt von einer Reihe von Einflussfaktoren wie Transferart, Geräteeigenschaften und Busbelastung ab. Der USB-Host-Controller-Treiber löst die Transaktionen dann über den Root-Hub aus. Dieser setzt der Reihe nach alle Transaktionen um, die in der aktuellen Liste enthalten sind.
Bei Betriebssystemen ohne USB-Unterstützung kann das BIOS nach Aktivieren von „USB Legacy Support“ (engl. etwa „USB-Unterstützung für Altlasten“) in seinen Einstellungen Abhilfe schaffen, dadurch erscheinen USB-Eingabegeräte wie “Mäuse” und Tastaturen dem Betriebssystem gegenüber als PS/2-Geräte. Je nach BIOS wird meist genau ein USB-Laufwerk (wie USB-Stick, USB-Kartenleser, USB-Festplatte, USB-Floppy) eingebunden. USB-CD/DVD-Laufwerke werden nur dann eingebunden, wenn von ihnen gebootet wird.
Inzwischen sind auch ausgefallene Geräte auf den Markt gekommen, wie beispielsweise USB-Heizplatten, mit denen etwa eine Kaffeetasse über die USB-Schnittstelle warmgehalten werden kann. Eine weitere „Erfindung“ ist ein USB-Raketenwerfer, der auf Befehl kleine Schaumstoffraketen abfeuert. Daneben gibt es auch mehr oder weniger sinnvolle Hardware, wie USB-Lampen für Notebooks, um die Tastatur zu beleuchten, oder USB-Ventilatoren. Des Weiteren ist ein Trend zu beobachten, USB als standardisierte Stromquelle einzusetzen. Namhafte Mobiltelefonhersteller haben sich darauf geeinigt, Micro-USB als Standard-Gerätebuchse für den Ladekontakt einzusetzen.
Der USB-Standard sieht vor, dass sich Geräte zunächst im Low-Power (100 mA) Mode am Bus anmelden und erst mit Erlaubnis des Host in den High-Power Mode (500 mA) umschalten. Die meisten der vorgenannten Spielzeuge verwenden den USB-Anschluss jedoch nur als Stromquelle und verstoßen gegen den USB-Standard, indem sie ohne Erlaubnis des Host mehr als 100 mA Strom beziehen. Das könnte im Extremfall den USB-Anschluss des Hosts beschädigen oder das Energiemanagement des Rechners durcheinanderbringen, was zu instabilem Verhalten führen kann.
Einem der Miterfinder der USB-Schnittstelle, Ajay Bhatt, wurde durch einen Werbespot des Unternehmens Intel ungewohnte Aufmerksamkeit zuteil.
Textilie
aus Wikipedia, der freien Enzyklopädie
Eine Textilie (zu lat. textilis und frz. texere „gewebt“, „gewirkt“) ist ein flexibles Material, das aus einem Verbund von Fasern besteht. Sowohl Fasern, Garn, textile Flächen wie Gewebe, Gewirke oder Gestricke und fertige Produkte (unter anderem Bekleidung) werden unter dem Oberbegriff Textilien zusammengefasst. Die präzise Verwendung der unterschiedlichen Begriffe regelt DIN 60000.
Inhaltsverzeichnis
|
Die Wörter Stoff und Tuch werden, auch in der textilverarbeitenden Branche, oft synonym zu Textilie verwendet. Es gibt allerdings geringfügige Unterschiede in der Bedeutung dieser Wörter. „Textilien“ sind alle Materialien, die aus Fasern hergestellt sind. „Stoff“ oder „Tuch“ bezeichnet hingegen Material, das durch Weben, Wirken, Stricken oder anderes Verbinden von Fasern eine (textile) Fläche bildet. Bis zum Ende des 19. Jahrhunderts wurden ausschließlich Wollwalkstoffe Tuch genannt.
Textilien werden vielfältig benutzt. Das weitaus bekannteste Einsatzgebiet ist die Bekleidung. Darüber hinaus werden sie im Haushalt eingesetzt in Form von Teppichen, bei Polstermöbeln, Vorhängen, Handtüchern, Bettwäsche oder als Tischdecke. In Technik und Industrie finden sich Zelte, Airbags, Filter, Netze, Hebebänder, Zurrgurte und Geotextilien. Im medizinischen und Hygienebereich werden Textilien bei Windeln, Taschentüchern, Krankenhaus- bzw. OP-Textilien und Verbandszeug verwendet. In jüngerer Zeit werden Textilien in Verbindung mit Harz als faserverstärkter Kunststoff in Segelbooten und Flugzeugen eingesetzt.
Werden Textilien für industrielle Zwecke und aufgrund anderer Eigenschaften als ihrem Aussehen verwendet spricht man üblicherweise von Technischen Textilien.
Die Textilindustrie stellt Textilien in großem Maßstab mittels Textilmaschinen her. Damit sie den unterschiedlichen Qualitätsansprüchen genügen, werden Textilien in der Textilveredlung (Ausrüstung) gebrauchsfähig gemacht. Nach Bestimmung unterscheidet man Textilien für
Das Textilkennzeichnungsgesetz (TKG) regelt in Deutschland die Bezeichnung/Etikettierung von Textilien hinsichtlich ihres Fasergehaltes. Die Pflegekennzeichnung von Textilien mit den bekannten Symbolen ist nicht gesetzlich geregelt, sondern in einer internationalen Norm der ISO. Die Geschichte der Textilien wird an Textilforschungsinstituten und in Textilmuseen dokumentiert und erforscht.
Fasern, die Rohstoffe für alle anderen Textilien, teilen sich in zwei Hauptgruppen ein:
Hauptsächlich verwendete pflanzliche Rohstoffe sind neben Baumwolle Bastfasern wie Hanffasern, Flachs- oder Leinfasern, Nessel, Jute. Aus den harten Sisal- und Kokosfasern werden vornehmlich Bodenbeläge gefertigt. Tierische Rohstoffe sind Wolle, Seide und Rosshaar. Ökologische Überlegungen gehen in jüngerer Zeit dahin, die Verwendung von Chemiefasern zu Gunsten von Naturfasern zu reduzieren.
Textile Flächen lassen sich mit verschiedenen Verfahren herstellen. Nach der Art der Flächenkonstruktion unterscheidet man vliesartig verbundene (z. B. Filz oder Walkstoffe) und aus Fadensystemen aufgebaute Textilien (z. B. Gewebe, Gewirke, Strickwaren).
Das Weben beruht auf einer rechtwinkligen Verkreuzung zweier Fadensysteme, so dass verschieden Arten von Bindungen entstehen. Die wichtigsten sind Leinwand-, Köper- und Atlasbindung. Samtartige Gewebe entstehen dadurch, dass Kett- oder Schussfäden kleine Schlaufen (Noppen) bilden, die aufgeschnitten den Flor ergeben. Beispiele sind Plüsch und Frottierware.
Das Stricken zählt mit dem Wirken zu den maschenstoffbildenden Verfahren. Zur Bildung einer Masche wird ein Faden zu Schleifen verformt, die miteinander verschlungen werden.
Überdies gibt es viele historische Verfahren und Nischenanwendungen, wie etwa das Malimoverfahren. Spinnen ist das grundlegende Verfahren zur Herstellung von Fäden. Meist verbindet Nähen textile Flächen.
Die ältesten nachweislich von Menschen verwendeten Textilfasern sind etwa 30.000 Jahre alt und stammen zum einen aus der Dzudzuana-Höhle im Kaukasus (Georgien), zum anderen aus Dolní Věstonice und Pavlov in Mähren. In der Dzudzuana-Höhle handelt es sich um Flachsfasern (zum Teil bereits gefärbt), bei den berühmten Gravettien-Fundplätzen Mährens um Brennessel-Fasern. Neben den direkten Textilnachweisen können auch die sogenannten Venusfigurinen des Gravettiens vielfältige Hinweise auf Bekleidung geben, da diese auf den Oberflächen der Figuren angedeutet wird (vgl. Venus von Lespugue).
Etwas jünger (etwa 19.000 Jahre alt) sind die Textilnachweise von Ohalo II am See Genezareth.
Textilreste Mitteleuropas sind bis in die Zeit des Spätneolithikums stets nur aus Pflanzenfasern überliefert (Lein, Hanf, Baumbast). Erste indirekte Hinweise für Verarbeitung von Wolle geben die Spinnwirtel einiger spät- bzw. endneolithischer Kulturen (um 3000 v. Chr.), wie der Chamer Kultur in Bayern. Schafwolle in Form von Fasern ist erst im Endneolithikum bekannt. Zu den seltenen direkten Beweisen gehören Wollhaare in der französischen Seeufersiedlung Clairvaux-les-Lacs (frühes 3. Jahrtausend v. Chr.) sowie Wollreste an einem endneolithischen Feuersteindolch aus Wiepenkaten, Lkr. Stade.[6] Ebenfalls erst im Spätneolithikum kann archäologisch der Nachweis des Webstuhls (Gewichtswebstühle mit tönernen Webgewichten) erbracht werden. Hier ist jedoch nicht klar, welche Fasern gewebt wurden.
Prähistorische Textilreste sind oft verkohlt oder auch (seit der Kupfersteinzeit) durch Kontakt zu Kupferartefakten mit kupferbasierten Mineralien überkrustet. Das Kupfer hat in diesen Fällen das Wachstum von Bakterien und damit den biologischen Abbau gehemmt.
Im Jahre 2009 wurden erste Ergebnisse publiziert, bei denen mittels Strontiumisotopenanalyse die Herkunft der Wolle von eisenzeitlichen Textilfunden ermittelt werden konnte.