Mantle ist eine Programmierschnittstelle (API) für Grafikausgaben. Es ist 2013 erschienen und wurde von AMD entwickelt, ursprünglich gemeinsam mit dem schwedischen Unternehmen Dice, dessen PC-Spiel Battlefield 4 das erste Spiel mit Mantle war. Die API sollte eine Alternative zu OpenGL und Direct3D (= ein Teil von DirectX), darstellen.

Gut zu wissen: Was ist OpenGL?

Was unterscheidet Mantle von anderen Grafik-APIs?

Mantle ist eine sogenannte Low-Level-API, also eine schlanke Programmierschnittstelle. „Low-Level“ bedeutet, dass die API eine systemnahe Programmierung ermöglicht. Entwickler haben, ähnlich wie bei der Programmierung auf Konsolen, mehr Kontrolle und können die vorhandene Hardware so effektiver nutzen. Dadurch wird die Leistung von CPU und Grafikeinheit gesteigert. Zudem wird der Treiber-Overhead (= Daten, die nur zum Übermitteln oder Speichern benötigt und nicht primär genutzt werden) sowie der Speicherbedarf reduziert und Multithreading vereinfacht. Mehr Informationen und ein ausführlicher Testbericht sind bei golem.de zu finden.

Ist Mantle plattformübergreifend?

Zum Teil: Mantle unterstützt zwar die GPUs in der PlayStation 4 und der Xbox One, jedoch nicht die Grafikchips anderer PC-Hardware-Hersteller wie Intel oder Nvidia.

Wie sieht die Zukunft von Mantle aus?

Aufgrund der starken Konkurrenz von anderen, plattformübergreifenden APIs kündigte AMD im März 2015 an, Mantle nicht mehr weiterzuentwickeln. Stattdessen wurden DirectX12 und Vulkan, welches auf Mantle aufbaut, empfohlen.

Was heißt “CUDA”?

Der Begriff CUDA ist das Akronym von “Compute Unified Device Architecture”.

Was genau ist CUDA?

CUDA ist eine NVIDIA Architektur für parallele Berechnungen. Durch die zusätzliche Nutzung des Grafikprozessors wird die Rechenleistung eines PCs gesteigert.

Früher waren OpenGL und DirectX die einzige Möglichkeit mit GPUs zu interagieren, diese APIs waren jedoch überwiegend für Multimedia Anwendungen geeignet. Berechnungen wurden dagegen nur auf der CPU ausgeführt.

Da Grafikkarten ideal für rechenintensive, stark parallel arbeitende Prozesse sind, nutzen neue Betriebssysteme (Windows 7 und aufwärts) die GPUs nun nicht mehr nur für Grafikberechnungen, sondern als Mehrzweck-Parallelprozessor, auf den jede Anwendung zugreifen kann. So laufen Berechnungen mittlerweile parallel auf der CPU und dem Grafikprozessor, was die Performance enorm steigert. NVIDIA CUDA unterstützt dies und ermöglicht eine einfache und effiziente parallele Entwicklung. Mittlerweile gibt es tausende Anwendungen, unzählige Forschungsberichte und eine große Auswahl an CUDA Tools und Lösungen.

Was ist ein CUDA Core?

Üblicherweise werden CUDA Cores bzw. Kerne als Äquivalent zu CPU Kernen betrachtet. Jedoch sind die CUDA Cores weniger komplex und treten gleichzeitig in viel größeren Zahlen auf. Während die üblichen Intel-CPUs zwischen 2 und 8 Kernen besitzen, hat beispielsweise die NVIDIA Quadro P1000, die in unserem gleichnamigen Mini-PC verbaut ist, 640 CUDA Cores. Bei High-End-Grafikkarten, wie NVIDIAS Turing-Generation sind es oft über 4000 Kerne. Diese hohe Anzahl ist nötig, da oft viele komplexe Grafikberechnungen gleichzeitig ausgeführt werden müssen. Da GPUs jedoch auf diesen Zweck spezialisiert sind, sind die Kerne auch wesentlich spezifischer konstruiert und daher auch kleiner als bei CPUs.

Eine ausführliche Erklärung zu dem Thema findet sich bei Gamingscan. Wer noch tiefer in das Thema einsteigen möchte und sich für den genauen Unterschied zwischen CUDA Cores und CPU Kernen interessiert, sollte sich das Video “Why CUDA ‘Cores’ Aren’t Actually Cores” von Gamers Nexus ansehen.

In welchen Bereichen wird CUDA angewendet?

CUDA wird in den verschiedensten Bereichen angewendet. Zum einen in der Bild- und Videoverarbeitung, aber auch im medizinischen Bereich, zum Beispiel bei CT-Bildrekonstruktionen. Die Bereiche KI, Deep Learning und Machine Learning setzen ebenfalls oftmals auf CUDA, denn hier sind anspruchsvolle Entwicklungsumgebungen gefragt. Weitere Themen sind Computerbiologie und –chemie, Raytracing, seismische Analysen und vieles mehr.

Welches ist die aktuelle Version von CUDA?

Seit CUDA 2006 eingeführt wurde hat es sich enorm weiterentwickelt. Im Oktober 2018 wurde, zusammen mit der Einführung der neuen Turing-GPUs, CUDA 10 vorgestellt. Mehr Infos über die neuen Features sind bei heise.de und auf dem NVIDIA Developer Blog zu finden.

Wie wird CUDA programmiert?

Bei der Nutzung von CUDA können die Programmiersprachen C, C++, Fortran, Python und MATLAB verwendet werden.

Wie kann CUDA genutzt werden?

Mit CUDA kann unter Windows, Linux und Mac OS gearbeitet werden, vorausgesetzt man hat die richtige Hardware. Dies sind Grafikkarten der NVIDIA Reihen GeForce, Quadro und Tesla sowie NVDIA GRID solutions. Eine Übersicht über CUDA-fähige GPUs ist bei NVIDIA zu finden. Das CUDA Toolkit kann einfach bei NVIDIA heruntergeladen werden.

Der Begriff OpenGL ist die Abkürzung von „Open Graphics Library“ (dt.: „Offene Grafikbibliothek“) und beschreibt eine Programmierschnittstelle (API) zur Entwicklung von 2D- und 3D- Grafikanwendungen. OpenGL ist plattform- und programmiersprachenübergreifend. Wie auch bei DirectX, erleichtert die API die Entwicklung von Grafikanwendungen und -software, da diese nur an den OpenGL-Standard und nicht an diverse Betriebssysteme und verbaute Grafikhardware angepasst werden müssen. Der OpenGL-Standard beschreibt etwa 250 Befehle, andere Organisationen – wie Hersteller von Grafikkarten – können proprietäre (d.h. herstellergebundene) Erweiterungen definieren.

Gut zu wissen: Was ist DirectX?

Wo kommt OpenGL zum Einsatz?

Anwendungen, bei denen OpenGL genutzt wird, sind Computerspiele, Virtual Reality, Augmented Reality, 3D-Animationen, CAD und andere visuelle Simulationen.

Wie wird OpenGL genutzt?

OpenGL wird von den meisten gängigen Betriebssystemen unterstützt, dazu gehören zum Beispiel Microsoft Windows, macOS, Solaris, Linux, Android, Apple iOS, Xbox 360 und einige mehr. Die API verfügt über Sprachbindungen für die Programmiersprachen C, C++, Fortran, Ada, und Java.

Wie ist OpenGL entstanden?

OpenGL ist 1992 erschienen. Ursprünglich entwickelte der ehemalige PC-Hersteller Silicon Graphics (SGI) die proprietäre Programmierschnittstelle IRIS GL. Nach einiger Zeit wurde die API überarbeitet, der proprietäre Programmcode entfernt und IRIS GL als Industriestandard OpenGL veröffentlicht. Neue Funktionen wurden oft zunächst als herstellerspezifische Erweiterungen eingeführt. Mit der Zeit wurden sie dann herstellerübergreifend verwendet um im Idealfall anschließend als neue Kernfunktionen eingeführt zu werden. So wurde OpenGL immer weiterentwickelt bis hin zur aktuellen Version 4.6. Seit Juli 2006 ist die Khronos Group – ein Industriekonsortium zu dem unter anderem Intel, AMD, Nvidia, Apple und Google gehören – für die Weiterentwicklung von OpenGL verantwortlich.

Wie sieht die Zukunft von OpenGL aus?

Im März 2015 wurde auf der Game Developers Conference die API Vulkan als Nachfolger für OpenGL vorgestellt. Die zunächst als „Next Generation OpenGL“ oder „glNext“ bezeichnete Programmierschnittstelle ist quelloffen und ebenfalls plattformübergreifend. Der Unterschied zu OpenGL liegt darin, dass bei der Programmierung mehr Fokus auf die Hardware gelegt wird, was die Rechenleistung deutlich steigert. Einige PC-Spiele unterstützen bereits Vulkan, der Großteil setzt aber auf DirectX. Vulkan wird ebenfalls von der Khronos Group entwickelt.

Grundsätzlich gilt es zu beachten, dass ein PC nur so viele Monitore ansteuern kann, wie er Multimedia-Schnittstellen besitzt. Je nach Art der Ports, verbauter CPU und Grafikkarte, kann die Auflösung der abgespielten Inhalte variieren. Unsere spo-comm Mini-PCs sind alle mit mindestens zwei Multimedia-Schnittstellen ausgestattet.

Was ist ein duplizierter Bildschirm?

Bei einem duplizierten Bildschirm handelt es sich – wie es der Name schon sagt – um einen verdoppelten Bildschirm. Das bedeutet, dass auf zwei Displays ein und derselbe Inhalt zu sehen ist. Auch die Spiegelung auf ein Fernsehgerät oder einen Beamer ist selbstverständlich möglich.

How To: Um einen Bildschirm zu duplizieren, muss zunächst neben dem Hauptbildschirm ein zweiter angeschlossen und eingerichtet werden. Im Falle eines Windows-PCs gelangen Sie mit der Tastenkombination „Windows“ und „P“ in ein Menü, in dem Sie nun die Option „Duplizieren“ auswählen (siehe Foto 2, zweite Auswahl von links).

Was ist der erweiterte Desktop?

Der Unterschied des erweiterten Desktops gegenüber dem duplizierten Bildschirm liegt darin, dass bei Erstgenanntem die Anzeige nicht verdoppelt wird. Man sieht also auf jedem angeschlossenen Bildschirm einen anderen Inhalt. Der Vorteil liegt darin, dass die Erweiterung des Desktops mehr Platz zum Arbeiten oder Präsentieren von Inhalten schafft. Beispielsweise kann so auf einem der angeschlossenen Bildschirme aktiv gearbeitet werden, während der andere nur als eine Ablagefläche dient. Aber auch die im Digital-Signage-Bereich verwendeten Videowalls setzen auf den erweiterten Desktop. Da diese jedoch eher von leistungsstärkeren Grafikkarten gesteuert werden, erfahrt ihr in einem anderen Artikel, der bald veröffentlicht wird, mehr.

How To: Wie schon bei dem duplizierten Bildschirm muss auch für den erweiterten Desktop zunächst mindestens ein weiterer Bildschirm angeschlossen werden. Die Tastenkombination lautet ebenfalls „Windows“ und „P“, nur wählt man in der erscheinenden Anzeige dann die Option „Erweitert“ aus. Mit dem Auswählen dieser Option erzeugt Windows einen leeren Desktop auf dem zweiten Bildschirm, auf dem dann Programme und Fenster hingeschoben werden können.

Mehr spo-comm Wissen

DirectX ist eine Programmierschnittstelle bzw. API (kurz für „Application Programming Interface“)  für Multimediaanwendungen und Spiele unter Windows sowie auf der Spielekonsole Xbox. Es fungiert als Bindeglied zwischen der Hardware, dem Windows-Betriebssystem und dem jeweiligen Programm, das man benutzt, in der Regel Spiele. Da die Hardware (wie Grafikkarte, Soundkarte, Maus) und auch die Computerspiele von zahlreichen verschiedenen Herstellern kommen, garantiert diese einheitliche Schnittstelle einen reibungslosen Ablauf und erleichtert die Entwicklung neuer Produkte. Denn Spieleentwickler müssen so nur die Spezifikationen von DirectX beachten anstatt ihr Spiel an etliche Grafikkarten anzupassen.

Wie ist DirectX entstanden?

Ursprünglich wurde DirectX für PC-Spiele entwickelt. Als sich Microsoft Windows in den 1990er Jahren immer weiter ausbreitete, gab es zwar eine sogenannte WinAPI für Anwendungen, aber noch keine API für schnelle Grafik- und Audio-Wiedergabe, wie es für Spiele benötigt wurde. Diese wurden daher oft nur für MS-DOS entwickelt. Nach dem Erfolg des Spiels „Doom“ erkannte auch Microsoft das Potenzial von PC-Spielen und begann selbst Programmierschnittstellen für Windows 95 zu entwickeln. Infolgedessen wurde die Version 1.0 von DirectX veröffentlicht, es dauerte jedoch bis zur Version 3.0 bis DirectX von Spieleentwicklern ernstgenommen wurde. Mit den Jahren wurde DirectX immer weiter entwickelt, die aktuelle Version DirectX12 wurde 2014 vorgestellt.

Wie ist DirectX aufgebaut?

DirectX wird im gesamten Multimediabereich eingesetzt: bei der Darstellung von Grafik, Wiedergabe von Audio aber auch bei Eingabegeräten wie Maus und Joystick. Es besteht aus folgenden Teilen: DirectX Graphics ermöglicht den Zugriff auf die Grafikkarte; DirectSound ist für die Wiedergabe und Aufnahme von Ton verantwortlich und wurde mittlerweile von XAudio 2 abgelöst; DirectMusic ermöglicht die Wiedergabe von Musik; DirectInput ist der Standard für Eingabegeräte wie Tastatur, Maus oder einen Joystick, seit Windows XP wurde es durch XInput abgelöst; DirectPlay dient zur Kommunikation bei Multiplayerspielen und DirectShow zur Verarbeitung von Video- und Audio-Dateien.

Mehr spo-comm Wissen

We love to maintain you: spo-comm IT-Monitoring

Ein Problem lösen, bevor es auftritt und seinen Kunden so vermeidbare Betriebsausfälle ersparen – ein Wunschtraum? Bald nicht mehr. Wir arbeiten gerade fleißig an einer Monitoring-Lösung, die mit zahlreichen Sensoren die gesamte Hardware unserer Mini-PCs überwacht. Auf der ISE 2019 wird es die ersten exklusiven Einblicke in das Ganze geben. Mehr Infos dann demnächst hier.

Innovation und Intelligenz: Windows 10 IoT Enterprise 2019 LTSC & SAC

Im Oktober 2018 hat Microsoft das neue Windows 10 IoT Enterprise 2019 vorgestellt. Darin enthalten sind alle Funktionsupdates seit der Version 2016. Die vorherige CBB Version, in der alle sechs Monate ein Update gemacht wird, wurde zu Windows 10 IoT Enterprise SAC (Semi-Annual Channel) umbenannt. In dieser Version sind auch diverse Windows System Apps (wie Microsoft Edge, Cortana) und Universal Apps (wie Mail/Calendar, OneNote, Weather, Music etc.) enthalten. Bei der LTSC-Version (Long-Term Servicing Channel) fehlen diese. Wie bisher werden, wie der Name schon sagt, zudem über zehn Jahre nur Sicherheitsupdates und keine Funktionsupdates zur Verfügung gestellt. Das Lizenz- und Preismodell mit den Stufen Entry, Value und High-End bleibt bestehen. Bei Elbacom findet sich eine aktuelle Prozessorenliste zum Download. Mehr Informationen über die innovativen Möglichkeiten die Windows 10 IoT der Industrie bietet sind auch auf dem Windows Blog zu finden.

Neues im Sortiment: spo-comm auf Ryzen

In unseren letzten News berichteten wir bereits über die Problematik rund um die aktuell schlechte Verfügbarkeit von Intel CPUs. Eine Lösung aus der Misere? Ein anderer Hersteller! spo-comm bringt in den nächsten Wochen gleich zwei Mini-PCs mit einer AMD Ryzen V1807 CPU auf den Markt. Unsere Techniker schwärmen bereits von der erstklassigen Performance des Prozessors, vor allem in Hinblick auf Grafikanwendungen.

Wissen was drin ist: Neues Gehäuse für KUMO IV

Da unser beliebtes KUMO IV zwei zusätzliche USB 3.1 Anschlüsse (einer davon Type C)  bekommen hat, musste ein neues Gehäuse her. Im Zuge dessen haben wir direkt mal diverse Anschlüsse bedrucken lassen, sodass diese nun auf den ersten Blick richtig erkannt und genutzt werden können. Und für alle Kunden, die ihren KUMO an öffentlichen Orten nutzen: Ab sofort bietet ein Kensington Lock Schutz vor Diebstahl.

Die KUMO-Serie entdecken

Intels CPU-Problematik bleibt bestehen

Bereits in unserem letzten „What’s New?“-Artikel haben wir über die allgemeine Knappheit von Elektronik-Bauteilen berichtet. Hiervon betroffen waren jedoch hauptsächlich DRAM-Speicherchips und MLCC-Kondensatoren. Nun trifft es auch die Intel CPUs.

What´s New? | spo-comm

In einem Statement gab Intels CEO bekannt, dass das Unternehmen nicht mit einer so hohen Nachfrage, wie sie aktuell aufkommt, gerechnet habe. Als Folge davon leidet die Elektronik-Branche derzeit unter der enormen Knappheit an beinahe allen CPUs der 6., 7. und 8. Generation. Dies hat immense Preisanstiege zur Folge.

Wie es weitergeht, ist derzeit noch ungewiss. Wir bei der spo-comm versuchen in Ihrem, wie auch in unserem Interesse, die Preisanstiege so gut es geht abzufangen. Unseren Kunden raten wir, bereits geplante Projekte, so bald wie möglich mit uns abzusprechen.

AMD Ryzen gewinnt Marktanteile

Im dritten Quartal von 2018 gewinnt AMD weiter an Marktanteil im Bereich der x86-Prozessoren und steigert ihn somit auf über 10 Prozent. Vor allem im Bereich der Mobilprozessoren legt der Konzern noch deutlicher zu. Hier wächst der Anteil um ganze 4,1 Prozentpunkte auf fast 11 Prozent. Und auch in Sachen Desktop-PCs kann sich AMD mit einem Marktanteil von satten 13 Prozent sehen lassen.

Quelle: heise

eMMC: Vom Smartphone lernen wie man Platz spart

Wo vor einiger Zeit nur die klassische HDD-Festplatte zur Auswahl stand, kann sich jetzt auch an verschiedenen Alternativen bedient werden. Die bekannteste davon ist vermutlich die SSD (Solid State Disk). Was genau der Unterschied zwischen diesen beiden Arten von Festplatten ist, erklären wir in diesem Artikel.

Inzwischen ist auch vom sogenannten „eMMC“ immer häufiger die Rede. Doch was ist das eigentlich? eMMC steht für „Embedded Multi Media Card“, was auf Deutsch so viel wie „Eingebettete Multimedia-Karte“ bedeutet. Es handelt sich dabei um ein auf dem MMC-Standard aufbauendes Speichermedium. Dank der Energie- und Platzersparnis und der technischen Ähnlichkeit zur SD-Karte wird es vor allem in kompakten, mobilen Endgeräten verbaut.

Zwar liegt die Speicherkapazität von eMMC nur bei 16 GB bis 128 GB, dafür liegt der Preis deutlich unter dem von SSDs. Vergleicht man eine eMMC- mit einer HDD-Festplatte so liegen die Vorteile der eMMC besonders beim Übertragen von 4K-Blöcken.

Quelle: Wikipedia, SearchStorage

Auch unser neues System spo-book BOX N4100, das nächste Woche vorgestellt wird, ist mit einem eMMC-Flash-Speicher in Höhe von 32 GB ausgestattet. Dieser Mini-PC kann dank seinem HDMI- und DisplayPort-Videoausgang als Digital-Signage-Player für einfache 4K-Anwendungen eingesetzt werden.

Die Geschichte der Klinke

Der Klinkenstecker, so wie man ihn heutzutage kennt, entwickelte sich aus den Steckern, die im ausgehenden 19. und beginnenden 20. Jahrhundert in Handvermittlungs-Telefonzentralen verwendet wurden. Somit ist die Evolutionslinie der Klinkenstecker eine der  ältesten der Steckertechnik.

Das typische Anwendungsgebiet des Klinkensteckers ist die Übertragung von Audio- und Videosignalen. Früher war es des Weiteren gebräuchlich den Klinkenstecker zur Stromversorgung von elektronischen Kleingeräten zu verwenden. Dies wird jedoch wegen der erhöhten Kurzschlussgefahr nicht mehr angewendet.

Bauformen des Klinkensteckers

In seiner einfachsten Form besteht der Stecker aus einem länglichen Schaft und einer kugelförmigen, abgerundeten Spitze, die durch einen Isolationsring abgetrennt ist.

Der Klinkenstecker hat zwei wesentliche Formen, die sich in ihrem Schaftdurchmesser unterscheiden: zum einen der Stecker mit 3,5 mm und zum anderen der mit 6,3 mm Durchmesser. Die Mini-Klinke mit 3,5 mm Durchmesser ist meistens an tragbaren Geräten wie Smartphones oder an Soundkarten zu finden. Der Poststecker hat einen Durchmesser von 6,35 mm und wird bei beinahe allen Geräten in der Musikbranche verwendet. Es gibt auch noch diverse andere Stecker beispielsweise mit 2,5 mm, 4,4 mm, 5,2 mm und 7,1 mm Durchmesser. Diese sind jedoch nur selten zu finden und spielen keine große Rolle.

Sonderanwendungen des Klinkensteckers

Neben den verschiedenen Schaftdurchmessern, unterscheiden sich die Klinkenstecker außerdem in der Anzahl ihrer Pole. Hier gibt es unter anderem den Monostecker mit zwei Polen, den dreipoligen Stereostecker, sowie den Monostecker mit symmetrischer Verbindung und drei Polen.

Eine Besonderheit ist der vierpolige Stereostecker mit Zusatzfunktion. Bei diesem Stecker stehen insgesamt vier Kontakte zur Verfügung. Eingesetzt wird dieser Stereostecker beim Anschluss von Headsets, aber auch bei der Übertragung von Mehrkanalton, Audio-, Video- und USB-Signalen.

Farbkennzeichnung des 3,5 mm Steckers

Auch an unseren Mini-PCs befinden sich verschiedenste Buchsen für den Anschluss von Klinkensteckern. Unter den 3,5 mm Steckern gibt es spezielle Farben, um die Spezifikationen unterscheiden zu können.

  • rosa        Mic-In
  • blau:        Line-In
  • grün:       Line-Out
  • schwarz:  Rücklautsprecher-Ausgang
  • silber:      Seitenlautsprecher-Ausgang
  • orange:    Subwoofer-Ausgang

Entdecken Sie alle spo-comm Mini-PCs!

SPDIF – Digitale Audioübertragung: All in one

Das Kürzel SPDIF, oft auch S/PDIF, steht für „Sony/ Philips Digital Interface“. Hinter der seriellen Schnittstelle stecken die Firmen Sony und Philips, die mit SPDIF eine Spezifikation zur Übertragung von digitalen Stereo- oder Audiosignalen geschaffen haben. Das Besondere ist, dass SPDIF sowohl optisch als auch elektrisch übertragen kann. Eingesetzt wird die Schnittstelle vor allem bei CD-Spielern, zwischen DVD-Playern und im Heimkinobereich, da mithilfe des Anschlusses nur ein einziges Kabel benötigt wird und dadurch Kabelbäume vermieden werden können.

Steckerverbindung des SPDIF

Wie jede andere Schnittstelle, hat auch der SPDIF spezielle Stecker. Hier unterscheiden wir zwischen elektrischen Steckern und Steckern für eine optische Signalübertragung. Für Letzteres wird ein sogenannter TOSLINK-Anschluss verwendet. Die elektrische Übertragung setzt auf einen Cinch-Anschluss mit Koaxialkabel, in seltenen Fällen auch auf einen 3,5 mm-Klinkenstecker.

HDMI oder SPDIF – Womit Audio übertragen?

Sowohl HDMI als auch SPDIF übermitteln Daten digital, wobei HDMI rein elektronisch funktioniert und SPDIF auch optisch aufgebaut sein kann. Im Gegensatz zu HDMI ist der SPDIF wesentlich älter und bringt deshalb auch einen immer größer werdenden Nachteil mit sich: SPDIF war anfangs nur für PCM gedacht und kann die mittlerweile enorm großen Bandbreiten wie beispielsweise bei DTS nicht mehr übertragen. Ein Downmix der Daten ist zwar möglich, verursacht jedoch deutliche Leistungseinbußen, welche es bei HDMI nicht gibt. Ein weiterer Vorteil von HDMI ist die gleichzeitige Übertragung von Video- und Audiodaten, wodurch ein weiteres Kabel eingespart werden kann.

Q: chip.de, heise.de

spo-comm Mini-PC mit SPDIF:

•    WINDBOX III Evo

Entdecken Sie alle spo-comm Mini-PCs!

Universal Serial Bus – USB

Die bekannte Abkürzung USB steht für Universal Serial Bus und beschreibt ein serielles Bussystem, welches vom Zusammenschluss einiger Firmen – darunter NEC und Microsoft – für den Anschluss von Peripheriegeräten an PCs entwickelt wurde. Ein Computer mit USB-Anschluss, aber auch USB-Sticks, können im laufenden Betrieb miteinander verbunden werden, wobei das externe Gerät und dessen Eigenschaften automatisch erkannt werden. Dieser Prozess wird als Hot Plugging bezeichnet.

Vom USB 1.0 zum USB 3.1 SuperSpeed – Die Entwicklung der Schnittstelle

Im Jahr 1996 wurde die erste Spezifikation USB 1.0 mit einer Datenrate von 12 Mbit/s auf den Markt gebracht. Mit der Einführung von USB 2.0 im Jahr 2000 konnten dank einer Datenrate von bis zu 480 Mbit/s nun auch Festplatten und Videogeräte angeschlossen werden.

Vor zehn Jahren wurden dann die neuen Spezifikationen für USB 3.0 SuperSpeed – auch USB 3.1 Gen. 1 genannt – mit einer Datenrate von 5 Gbit/s vorgestellt. Zeitgleich wurden auch neue Kabel, Stecker und Buchsen eingeführt. 2013 wurde der USB 3.1 – bekannt als USB 3.1 Gen. 2 – der die Geschwindigkeit des Vorgängers auf 10 Gbit/s verdoppelte, fertiggestellt. Die allerneueste Spezifikation USB 3.2 mit einer Datenrate von bis zu 20 Gbit/s wurde erst 2017 veröffentlicht.

Übrigens: Jedes System der spo-comm Mini-PCs ist mit mindestens einem USB 3.0-Port ausgestattet!

Übertragungstechniken des USB

Durch einen Host-Controller, der im Regelfall auf dem Mainboard verbaut ist, wird die Kommunikation bei USB gesteuert. Nur dieser Controller kann die Daten eines Geräts lesen oder Daten zum Gerät senden. Das Gerät darf jedoch nur Daten senden, wenn dies vom Host-Controller abgefragt wird.

Es gibt vier etablierte Standards, an die sich die USB-Controller-Chips halten und die sich in ihrer Leistungsfähigkeit und der Implementierung von Funktionen unterscheiden:

  • Universal Host Controller Interface (UHCI): Wurde 1995 von Intel spezifiziert und bietet Datenraten von 1,5 bis 12Mbit/s.
  • Open Host Controller Interface (OHCI): Von einem Firmenkonsortium entwickelt und nur marginal schneller als sein Pendant UHCI.
  • Enhanced Host Controller Interface (EHCI): Stellt USB 2.0 Funktionen bereit und ist für den Hi-Speed-Modus (480 Mbit/s) konzipiert. Bei Übertragung zu einem USB 1.0/1.1 Gerät muss weiterhin OHCI & UHCI unterstützt werden.
  • Extensible Host Controller Interface (xHCI): xHCI wurde 2010 von Intel veröffentlicht, bietet USB 3.0 Funktionen und stellt den SuperSpeed-Modus mit 4,0 Gbit/s bereit – bei USB 3.1 sogar 9,7Gbit/s.

Die verschiedenen Steckertypen eines USB

Der Universal Serial Bus kennt diverse Stecker und Buchsen, die sich unter anderem in ihren Maßen, aber auch in den möglichen Datenübertragungsgeschwindigkeiten unterscheiden.

Der aktuellste unter ihnen ist der universelle USB Typ C Anschluss, der wegen seiner niedrigen Bauhöhe und –breite unter anderem auch in Smartphones eingesetzt wird. Hier sind Datenraten von bis zu 10 Gbit/s bzw. 1,25Gb/s möglich, da USB 3.1 Gen 2 unterstützt wird. Die USBC-Schnittstelle ist dafür geeignet Audio- und Videodaten parallel zu USB-Daten zu übertragen und unterstützt außerdem auch DisplayPort, PCIe & Thunderbolt.

Alle spo-comm Mini-PCs entdecken!

Zum „Was ist LAN?“-Artikel