Byte
Das Byte (Aussprache [baɪt]; wohl gebildet zu „Bit“)[1] ist eine Maßeinheit der Digitaltechnik und der Informatik, wobei ein Byte meist für eine (binäre) Folge aus 8 Bit steht. Ein Bit kann den Wert 0 oder 1 haben. Historisch gesehen war ein Byte die Anzahl der Bits zur Kodierung eines einzelnen Schriftzeichens im jeweiligen Computersystem und daher das kleinste adressierbare Element in vielen Rechnerarchitekturen. Um ausdrücklich auf eine Anzahl von 8 Bit hinzuweisen, wird auch die Bezeichnung Oktett verwendet[2] – die früher dafür ebenfalls gängige Bezeichnung Oktade ist hingegen nicht mehr geläufig. In Frankreich ist die Bezeichnung octet noch immer üblich.
Inhaltsverzeichnis
Übrigens: Die PlusPedia ist NICHT die Wikipedia. Wir sind ein gemeinnütziger Verein, PlusPedia ist werbefrei. Wir freuen uns daher über eine kleine Spende! |
1 Darstellung und Definitionen
Was genau ein Byte bezeichnet, wird je nach Anwendungsgebiet etwas unterschiedlich definiert. Der Begriff kann stehen für:
- eine Maßeinheit für eine Datenmenge von 8 Bit mit dem Einheitenzeichen „B“,[3] wobei es nicht auf die Ordnung der einzelnen Bits ankommt. Eine geordnete Zusammenstellung (n-Tupel) von 8 Bit, deren formale ISO-konforme Bezeichnung Oktett ist (1 Byte = 8 Bit). Ein Oktett wird manchmal in zwei Hälften (Nibbles oder Halbbyte) zu je 4 Bit zerlegt, wobei jedes Nibble durch eine Ziffer im Hexadezimalsystem darstellbar ist. Ein Oktett kann also durch zwei Hexadezimalziffern dargestellt werden. Dies wurde bei IBM zum Standard. Auch die ISO-C99 definiert 1 Byte als eine zusammenhängende Folge von mindestens 8 Bit.[4]
- die kleinste, meist per Adressbus adressierbare Datenmenge eines bestimmten technischen Systems. Die Anzahl an Bits pro Zeichen ist dabei eine festgelegte natürliche Zahl:
- bei Telex: 1 Zeichen = 5 Bit
- bei Rechnern der Familien PDP erfolgte eine variable Zuteilung durch Umrechnung: 1 Zeichen benötigt durchschnittlich 5,644 Bit (Radix-50-Code)
- bei IBM 1401: 1 Zeichen = 6 Bit
- bei ASCII war ursprünglich 1 Zeichen = 7 Bit
- bei Nixdorf 820: 1 Zeichen = 12 Bit
- bei Rechnersystemen der Typen UNIVAC 1100/2200 und OS2200 Series: 1 Zeichen = 9 Bit (ASCII-Code) beziehungsweise 6 Bit (FIELDATA-Code)
- bei Rechnern der Familie PDP-10: 1 Zeichen = 1…36 Bit, Bytelänge frei wählbar
- einen Datentyp in Programmiersprachen. Die Anzahl an Bits pro Byte kann je nach Programmiersprache und Plattform variieren
Bei den meisten heutigen Rechnern fallen diese Definitionen (Maßeinheit, kleinste adressierbare Einheit, Datentyp in Programmiersprachen) zu einer einzigen zusammen und sind dann von identischer Größe. Zur Unterscheidung der ursprünglichen Bedeutung als kleinste adressierbare Informationseinheit und der Bedeutung als 8-Bit-Tupel wird in der Fachliteratur (abhängig vom Fachgebiet) korrekterweise auch der Begriff Oktett für letzteres benutzt, um eine klare Trennung zu erzielen.
Zu unterscheiden sind Bytes als Schriftzeichen und als Steuerzeichen. Beispiele der Darstellung eines Bytes mit 8 Bit sind im ASCII-Code, der heute von vielen Computern verwendet wird:
- Die Dezimalzahl 0 wird mit der Bit-Folge 0011 0000, hexadezimal 30 dargestellt und hat die Größe von einem Byte
- Der große Buchstabe A wird mit der Bit-Folge 0100 0001, hexadezimal 41 dargestellt und hat die Größe von einem Byte
- Das Steuerzeichen für Löschen wird mit der Bit-Folge 0111 1111, hexadezimal 7F dargestellt und wird DEL abgekürzt.
- Das Ende in einer Textzeile wurde bereits in frühen Computersystemen (auch schon bei MS-DOS) mit der Bit-Folge 0000 1101 0000 1010, hexadezimal 0D0A erzeugt.
Wird für die Darstellung eines Schriftzeichens eine Bitkombination verwendet, die nicht der Norm entspricht, so wird die Anzeige wenigstens bei einem Byte unleserlich, im schlimmsten Fall können Teile eines Textes verschwinden.
Der ausgeschriebene Name unterliegt grundsätzlich der normalen Deklination. Aufgrund der großen Ähnlichkeit der Kürzel mit den ausgeschriebenen Einheitennamen sowie entsprechender Pluralformen in der englischen Sprache werden jedoch gelegentlich auch die Einheitenkürzel „bit“ und „byte“ mit Plural-s versehen.
2 Geschichte
Byte ist ein Kunstwort und wurde wohl aus den englischen Wörtern bit (siehe auch Bit)[1] (zu deutsch „[das] Bisschen“ oder „Häppchen“) und bite (zu deutsch: „[der] Bissen“ oder „Happen“) gebildet.[5] Verwendet wurde es, um eine Speichermenge oder Datenmenge zu kennzeichnen, die ausreicht, um ein Zeichen darzustellen. Der Begriff wurde im Juni 1956 von Werner Buchholz in einer frühen Designphase des IBM-7030-Stretch-Computers geprägt,[6][7][8] wobei die Schreibweise von „bite“ zu „byte“ geändert wurde, um zu vermeiden, dass es sich versehentlich zu „bit“ ändere.[9] Im Original beschrieb es eine wählbare Breite von ein bis sechs Bits (damit konnten 26 = 64 Zustände, z. B. Zeichen, dargestellt werden) und stellte die kleinste direkt adressierbare Speichereinheit eines entsprechenden Computers dar.[10][11][12] Im August 1956 wurde die Definition auf ein bis acht Bits aufgeweitet (damit konnten dann 28 = 256 Zeichen dargestellt werden).[12][13][14] So konnte man die Buchstaben und gängige Sonderzeichen zum Beispiel in Quelltexten von Programmen oder anderen Texten speichern (also verschiedene Zeichen).
Bei Rechnern der Familien PDP erfolgte ab 1959 eine variable Zuteilung durch Umrechnung. Dies ergibt gegenüber 6 Bit eine Ersparnis von wenigen Bits pro Zeichenkette, die für Steuerungszwecke genutzt wurden. Allerdings gingen die Byte-Grenzen mitten durch die Bits, was die Analyse von Inhalten erschweren kann. Dieses System setzte sich langfristig nicht durch.
In den 1960er Jahren wurde der sich in seiner Verwendung schnell ausbreitende ASCII-Zeichensatz definiert, welcher sieben Bits zur Kodierung eines Zeichens verwendet (das sind 27 = 128 Zeichen). Später wurden durch Nutzung des meist sowieso vorhandenen achten (höchstwertigen) Bits erweiterte Zeichensätze entwickelt, die Darstellungen in anderen Sprachen und Schriften ermöglichen sollten. So entstand zum Beispiel die Codepage 437 und der für IBM typische EBDIC-Zeichensatz. In diesen erweiterten Zeichensätzen entspricht jedes Zeichen exakt einem Byte mit acht Bit, wobei die ersten 128 Zeichen meist dem ASCII-Code entsprechen.
In den 1960er und 1970er Jahren war in Westeuropa auch die Bezeichnung Oktade geläufig, wenn speziell 8 Bit gemeint waren. Diese Bezeichnung geht möglicherweise auf den niederländischen Hersteller Philips zurück, in dessen Unterlagen zu Mainframe-Computern sich die Bezeichnung Oktade (bzw. englisch: oktad(s)) regelmäßig findet.[15][16]
Seit Anfang der 1970er Jahre gibt es 4-Bit-Mikroprozessoren, deren 4-Bit-Datenwörter (auch Nibbles genannt) mit hexadezimalen Ziffern dargestellt werden können. 8-Bit-Prozessoren wurden schon kurz nach der Erfindung der Programmiersprachen C und Pascal eingeführt, also Anfang der 1970er Jahre, und waren in Heimcomputern bis in die 1980er Jahre im Einsatz (bei eingebetteten Systemen auch heute noch), deren 8-Bit-Datenwörter (respektive Bytes) mit genau zwei hexadezimalen Ziffern dargestellt werden können. Seitdem hat sich die Breite der Datenwörter von Hardware von 4 über 8, 16, 32 bis heute zu 64 und 128 Bit hin immer wieder verdoppelt.
Das Unicode Consortium veröffentlichte 1991 eine erste Fassung des gleichnamigen Standards, der es sich zum Ziel gesetzt hat, alle Zeichen aller Sprachen in Codeform zu definieren. Unicode ist gleichzeitig die internationale Norm ISO 10646.[17]
ISO 8859-1, genauer ISO/IEC 8859-1, auch bekannt als Latin-1, ist ein von der ISO zuletzt 1998 aktualisierter Standard für die Informationstechnik zur Zeichenkodierung mit acht Bit und wurde für die westeuropäischen Sprachen entwickelt. Demgegenüber wurde die ISO 8859-8 für Hebräisch zuletzt 1999 aktualisiert.
3 Praktische Verwendung
Bei der Übertragung kann ein Byte übertragen werden, indem parallel alle Bits gleichzeitig oder seriell die einzelnen Bits nacheinander gesendet werden. Bei der Übertragung größerer Mengen oder über größere Entfernungen sind Kommunikationsprotokolle erforderlich.
Im Einzelfall ist das vom jeweiligen Betriebssystem abhängig. So werden bei 32-Bit-Rechnern oft 32 Bits (vier Byte) gemeinsam in einem Schritt übertragen, auch wenn nur ein 8-Bit-Tupel übertragen werden muss. Für die Übertragungsgeschwindigkeit wird die Zahl der Bits pro Sekunde angegeben.
Mindestens acht Bits werden zu einer Einheit – sozusagen einem Datenpäckchen – zusammengefasst. Viele Programmiersprachen unterstützen einen Datentyp mit dem Namen „byte“ (respektive „Byte“ oder „BYTE“), wobei zu beachten ist, dass dieser je nach Definition als ganze Zahl, als Bitmenge, als Element eines Zeichensatzes oder bei typunsicheren Programmiersprachen sogar gleichzeitig für mehrere dieser Datentypen verwendet werden kann, sodass keine Zuweisungskompatibilität mehr gegeben ist.
Ein Bit kann nur zwei mögliche Zustände annehmen, die meist als „Null“ und „Eins“ bezeichnet werden. In vielen Programmiersprachen wird für ein einzelnes Bit der Datentyp „boolean“ (respektive „Boolean“ oder „BOOLEAN“) verwendet. Aus technischen Gründen erfolgt die tatsächliche Abbildung eines Boolean aber meist in Form eines Datenwortes („WORD“).
Das Byte ist zwar die Standardeinheit, um Speicherkapazitäten oder Datenmengen zu bezeichnen. Dazu gehören Dateigrößen, die Kapazität von permanenten Speichermedien (Festplattenlaufwerke, CDs, DVDs, Blu-ray Discs, Disketten, USB-Sticks und so weiter) und die Kapazität von vielen flüchtigen Speichern (zum Beispiel im Arbeitsspeicher RAM).
Bei der technischen Anwendung spielen jedoch einzelne Bits als Steuersignale eine Rolle. Zur Sicherung der Richtigkeit werden oft Prüfbits angefügt, und zwar sowohl bei der Datenübertragung als auch bei der Speicherung.
4 Bedeutungen von Dezimal- und Binärpräfix
4.1 SI-Präfixe
Für Datenspeicher ergibt sich aufrgund der Adressierung die technische Besonderheit, dass Speicherkapazitäten basierend auf Zweierpotenzen, also 2n Byte berechnet werden. Da es bis 1996 keine speziellen Einheitenvorsätze für Zweierpotenzen gab, war es üblich, die eigentlich dezimalen SI-Präfixe im Zusammenhang mit Speicherkapazitäten zur Bezeichnung von Zweierpotenzen zu verwenden (mit Faktor 210 = 1024 statt 1000). Daher kommt es teilweise zu sehr großen Unterschieden zwischen den beim Verkauf angebotenen Zahlen und der späteren Feststellung des Speichers im praktischen Einsatz. Heutzutage sollten die Präfixe nur noch in Verbindung mit der dezimalen Angabe der Speichergrößen benutzt werden. Ein Beispiel:
- 1 Kilobyte (kB) = 1000 Byte, 1 Megabyte (MB) = 1000 Kilobyte = 1000 × 1000 Byte = 1.000.000 Byte und so weiter
Bei Hard Drive Disks, SSD-Laufwerken und anderen Speichermedien ist dies weit verbreitet, während die Größe von Arbeitsspeicher (RAM), Grafikspeicher und Prozessor-Cache nur binär angegeben werden kann, da die entsprechenden Systeme auf der Hardware aus technischen Gründen alle rein binär arbeiten. Auch Microsoft Windows zeigt teilweise noch heute die SI-Präfixe an, obwohl es Größenangaben anhand von Zweierpotenzen berechnet.
Vereinzelt kommen auch Mischformen vor, etwa bei der Speicherkapazität einer 3,5-Zoll-Diskette (1984):
- Angezeigt: 1,44 MB ⇒ Aber es sind: 1440 KiB = 1440 × 1024 Byte = 1.474.560 Byte.
Zu den heute empfohlenen, aber außerhalb der UNIX-Welt nur wenig verwendeten Vorsätzen für binäre Größenangaben siehe nachfolgenden Abschnitt IEC-Präfixe.
Für die Angabe Terabyte (entspricht 1 Billion Bytes) ist die definitiv falsche Schreibweise „Terrabyte“ (mit zwei „r“) relativ häufig anzutreffen.[18]
4.2 IEC-Präfixe
Um Mehrdeutigkeiten zu vermeiden, schlug die IEC 1996 neue Einheitenvorsätze vor, die nur in der binären Bedeutung verwendet werden sollten.[19] Dabei wird eine den SI-Präfixen ähnlich lautende Vorsilbe ergänzt um die Silbe „bi“, die klarstellt, dass es sich um binäre Vielfache handelt. Ein Beispiel:
- 1 Kibibyte (KiB) = 1024 Byte, 1 Mebibyte (MiB) = 1024 × 1024 Byte = 1.048.576 Byte.
Das für die SI-Präfixe zuständige Internationale Büro für Maß und Gewicht (BIPM) empfiehlt diese Schreibweise,[20] auch wenn es nicht für Byte zuständig ist, da dies keine SI-Einheit ist. Dessen ungeachtet haben sich viele Standardisierungsorganisationen dieser Empfehlung angeschlossen. (Siehe Binärpräfix.)
4.3 Vergleich
Vor allem weil die Speicher-Kapazitäten der Hersteller meist nur mit SI-Präfix angegeben sind, kann es gerade in Verbindung mit Microsoft-Systemen zu Verwirrung kommen. Denn Microsoft rechnet für Datengrößen immer mit Zweierpotenzen, gibt diese dann aber mit Hilfe der SI-Präfixe an. So wird also ein 128-GB-Speichermedium als 119,2 GB angezeigt, obwohl es laut IEC 119,2 GiB lauten müsste. Hinzu kommt die Verwirrung der Benutzer, dass laut Microsoft 120 GB (eigentlich 120 GiB) nicht auf ein mit 128 GB beworbenes Speichermedium passen und ein Fehler ausgegeben wird. Vergleich:
- (128 GB = 128.000.000.000 Byte) < (120 GiB = 128.849.018.880 Byte = 120 × 1024 × 1024 × 1024 Byte)
Für größere Dezimal- und Binärpräfixe wird die Unterscheidung bedeutender, da die nominelle Differenz größer wird. So beträgt sie zwischen kB und KiB nur 2,4 %, zwischen TB und TiB hingegen bereits 10 %. Eine anschauliche Übersicht über die möglichen Einheitenvorsätze und deren Bedeutungen bietet die Vergleichstabelle.
4.4 Kapazitätsangaben bei Speichermedien
Die Hersteller von Massenspeichermedien, wie Festplatten, DVD-Rohlingen und USB-Speicher-Sticks, verwenden die Dezimal-Präfixe, wie es bei internationalen Maßeinheiten üblich ist, um die Speicherkapazität ihrer Produkte anzugeben. Daraus ergibt sich beispielsweise das Problem, dass ein mit „4,7 GB“ gekennzeichneter DVD-Rohling von Software, die entgegen dem oben genannten Standard (nämlich bei „GB“ die Zehnerpotenzen zu verwenden) die Zweierpotenzen verwendet (so handhabt es zum Beispiel der Windows-Explorer), mit dem abweichenden Wert von „4,38 GB“ (richtig wäre hier „4,38 GiB“ anzuzeigen) angezeigt wird, obwohl rund 4,7 Gigabyte (4.700.000.000 Byte) gemeint sind. Ebenso wird eine mit „1 TB“ spezifizierte Festplatte mit der scheinbar deutlich kleineren Kapazität von etwa „931 GB“ oder „0,9 TB“ erkannt (auch hier sollte eigentlich „931 GiB“, beziehungsweise „0,9 TiB“ angezeigt werden), obwohl jeweils rund 1,0 Terabyte (1.000.000.000.000 Byte) gemeint sind. Andererseits enthält ein mit „700 MB“ gekennzeichneter CD-Rohling tatsächlich 700 MiB (734.003.200 Byte), also etwa 734 MB (und sollte somit streng genommen mit „700 MiB“ ausgezeichnet werden).
Andererseits ist die dezimale Verwendung der Präfixe im Computerbereich unpraktisch, weil das gesamte System technisch binär funktioniert; es wäre technisch kaum sinnvoll, Halbleiterspeicher mit einer Kapazität herzustellen, die nicht auf Binärgrößen basiert.
Apples macOS benutzt ab Version Mac OS X Snow Leopard (10.6)[21] einheitlich Dezimalpräfixe nur in dezimaler Bedeutung. KDE folgt dem IEC-Standard und lässt dem Anwender die Wahl zwischen binärer und dezimaler Angabe. Für Linux-Distributionen mit anderen Desktopumgebungen, wie zum Beispiel Ubuntu ab Version 11.04,[22] gibt es klare Richtlinien, wie Anwendungen Datenmengen angeben sollen; hier findet man beide Angaben, wobei die Binärpräfixe überwiegen.
5 Weblinks
- Prefixes for binary multiples. (englisch)
- „Byte“ From MathWorld (englisch)
- UnitJuggler Konvertieren zwischen den verschiedenen Bytegrößen
- Beispielhafte Umrechnung eines Bytes in das Dezimalsystem
6 Einzelnachweise und Anmerkungen
- ↑ 1,0 1,1 Byte – Duden, Bibliographisches Institut, 2016
- ↑ von latein octo = acht
- ↑ IEC 60027-2, Ed. 3.0, (2005–2008): Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics.
- ↑ Rationale for International Standard – Programming Languages – C. 2003-04, S. 217. Abgerufen am 28. November 2009. (PDF; 898 kB, en)
- ↑ bite (englisch-deutsch) – Duden, Langenscheidt, 2015
- ↑
Werner Buchholz: 7. The Shift Matrix. In: The Link System, S. 5–6, IBM 11. Juni 1956, Stretch Memo No. 39G „[…] Most important, from the point of view of editing, will be the ability to handle any characters or digits, from 1 to 6 bits long.
Figure 2 shows the Shift Matrix to be used to convert a 60-bit word, coming from Memory in parallel, into characters, or „bytes“ as we have called them, to be sent to the Adder serially. The 60 bits are dumped into magnetic cores on six different levels. Thus, if a 1 comes out of position 9, it appears in all six cores underneath. Pulsing any diagonal line will send the six bits stored along that line to the Adder. The Adder may accept all or only some of the bits.
Assume that it is desired to operate on 4 bit decimal digits, starting at the right. The 0-diagonal is pulsed first, sending out the six bits 0 to 5, of which the Adder accepts only the first four (0-3). Bits 4 and 5 are ignored. Next, the 4 diagonal is pulsed. This sends out bits 4 to 9, of which the last two are again ignored, and so on.
It is just as easy to use all six bits in alphanumeric work, or to handle bytes of only one bit for logical analysis, or to offset the bytes by any number of bits. All this can be done by pulling the appropriate shift diagonals. An analogous matrix arrangement is used to change from serial to parallel operation at the output of the adder. […]“ - ↑
Werner Buchholz: 5. Input-Output. In: Memory Word Length, S. 2, IBM 31. Juli 1956, Stretch Memo No. 40 „[…] 60 is a multiple of 1, 2, 3, 4, 5, and 6. Hence bytes of length from 1 to 6 bits can be packed efficiently into a 60-bit word without having to split a byte between one word and the next. If longer bytes were needed, 60 bits would, of course, no longer be ideal. With present applications, 1, 4, and 6 bits are the really important cases.
With 64-bit words, it would often be necessary to make some compromises, such as leaving 4 bits unused in a word when dealing with 6-bit bytes at the input and output. However, the LINK Computer can be equipped to edit out these gaps and to permit handling of bytes which are split between words. […]“ - ↑ Robert William Bemer: Why is a byte 8 bits? Or is it?. In: Computer History Vignettes. 2000-08-08. Archiviert vom Original am 2017-04-03.: „[…] I came to work for IBM, and saw all the confusion caused by the 64-character limitation. Especially when we started to think about word processing, which would require both upper and lower case. […] I even made a proposal (in view of STRETCH, the very first computer I know of with an 8-bit byte) that would extend the number of punch card character codes to 256 […] So some folks started thinking about 7-bit characters, but this was ridiculous. With IBM's STRETCH computer as background, handling 64-character words divisible into groups of 8 (I designed the character set for it, under the guidance of Dr. Werner Buchholz, the man who DID coin the term „byte“ for an 8-bit grouping). […] It seemed reasonable to make a universal 8-bit character set, handling up to 256. In those days my mantra was „powers of 2 are magic“. And so the group I headed developed and justified such a proposal […] The IBM 360 used 8-bit characters, although not ASCII directly. Thus Buchholz’s „byte“ caught on everywhere. I myself did not like the name for many reasons. The design had 8 bits moving around in parallel. But then came a new IBM part, with 9 bits for self-checking, both inside the CPU and in the tape drives. I exposed this 9-bit byte to the press in 1973. But long before that, when I headed software operations for Cie. Bull in France in 1965–1966, I insisted that „byte“ be deprecated in favor of „octet“. […] It is justified by new communications methods that can carry 16, 32, 64, and even 128 bits in parallel. But some foolish people now refer to a „16-bit byte“ because of this parallel transfer, which is visible in the UNICODE set. I’m not sure, but maybe this should be called a „hextet“. […]“. Abgerufen am 15. September 2018.
- ↑ Peter Fenwick: Introduction to Computer Data Representation. In: books.google.de. S. 231. Abgerufen am 2. November 2017.
- ↑ [[Gerrit Blaauw|]] Processing Data in Bits and Pieces. In: IRE Transactions on Electronic Computers. Juni 1959 , S. 121
- ↑
4: Natural Data Units. In: Planning a Computer System – Project Stretch, S. 39–40, McGraw-Hill Book Company / The Maple Press Company, York PA. 1962 „[…] Terms used here to describe the structure imposed by the machine design, in addition to bit, are listed below.
Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (i. e., different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
A word consists of the number of data bits transmitted in parallel from or to memory in one memory cycle. Word size is thus defined as a structural property of the memory. (The term catena was coined for this purpose by the designers of the Bull Gamma 60 computer.)
Block refers to the number of words transmitted to or from an input-output unit in response to a single input-output instruction. Block size is a structural property of an input-output unit; it may have been fixed by the design or left to be varied by the program. […]“ - ↑ 12,0 12,1 Werner Buchholz: The Word „Byte“ Comes of Age.... In: Byte Magazine. 2, Nr. 2, February 1977 , S. 144
- ↑ Werner Buchholz: 2. Input-Output Byte Size. In: Memory Word Length and Indexing, S. 1, IBM 19. September 1956, Stretch Memo No. 45 „[…] The maximum input-output byte size for serial operation will now be 8 bits, not counting any error detection and correction bits. Thus, the Exchange will operate on an 8-bit byte basis, and any input-output units with less than 8 bits per byte will leave the remaining bits blank. The resultant gaps can be edited out later by programming […]“
- ↑ Robert William Bemer: A proposal for a generalized card code of 256 characters. In: Communications of the ACM. 2, Nr. 9, 1959 , S. 19–23. doi:10.1145/368424.368435
- ↑ Philips Data Systems’ product range – April 1971. Philips, 1971. Abgerufen am 3. August 2015. (PDF)
- ↑ R. H. Williams: British Commercial Computer Digest: Pergamon Computer Data Series. Pergamon Press, 1969, S. 308.
- ↑ https://de.wikipedia.org/wiki/Zeichenkodierung#Computer_und_Datenaustausch
- ↑ Terrabyte / Terabyte. In: korrekturen.de. Julian von Heyl. Abgerufen am 2. August 2018.
- ↑ Vgl. internationale Norm IEC 60027-2:2005, 3. Auflage. Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics veröffentlicht. Mittlerweile übernommen durch die weltweite IEC-Norm IEC 80000-13:2008 (bzw. DIN EN 80000-13:2009-01)
- ↑ BIPM – SI-Broschüre, 8. Auflage. März 2006, Abschnitt 3.1: SI-Präfixe. Randnotiz. Abgerufen am 7. April 2015. (en)
- ↑ Eric Schäfer: Dateigrößen: Snow Leopard zählt anders.. In: Mac Life. 2009-08-28. Abgerufen am 28. August 2009.
- ↑ UnitsPolicy. Ubuntu. Abgerufen am 24. April 2010. (en)
7 Andere Lexika
Hast du einen Löschwunsch oder ein anderes Anliegen? Dann nutze bitte unser Kontaktformular
PlusPedia Impressum
Bitte Beachte:
Sämtliche Aussagen auf dieser Seite sind ohne Gewähr.
Für die Richtigkeit der Aussagen übernimmt die Betreiberin keine Verantwortung.
Nach Kenntnissnahme von Fehlern und Rechtsverstößens ist die Betreiberin selbstverständlich bereit,
diese zu beheben.
Verantwortlich für jede einzelne Aussage ist der jeweilige Erstautor dieser Aussage.
Mit dem Ergänzen und Weiterschreiben eines Artikels durch einen anderen Autor
werden die vorhergehenden Aussagen und Inhalte nicht zu eigenen.
Die Weiternutzung und Glaubhaftigkeit der Inhalte ist selbst gegenzurecherchieren.