Golden Ears Are Expensive


Massimo Ferronato [epidemiC]




Die Vorstellung, Töne und Musik zu konservieren,
um sie wieder anhören zu können, ist so alt wie die Menschheit.



Der Ton

Der Ton ist eine Schwingung, die von einem Material übertragen wird, und sich analog wie zu Meereswellen verbreitet. Unser Ohr kann diese Schwingungen, die normalerweise durch die Luft übertragen werden, aufnehmen und sie in vom Gehirn interpretierbare Impulse umwandeln. Die Schwingung wird aus Wellen gebildet, die sich im Material bewegen; die Anzahl der Wellen pro Sekunde wird Frequenz genannt; ihre Amplitude drückt die Energie des Tons aus, sein Volumen. Eine hohe Wellenfrequenz wird von unserem Ohr als hoher Ton aufgenommen, zum Beispiel der einer Violine, eine niedrige Frequenz als tiefer Ton, wie der des Kontrabasses.

Der Phonograph von Edison

Die Aufzeichnung des Tons wird im Jahre 1877 mit der Erfindung des Phonographen von Edison patentiert. Es handelt sich um eine Wachswalze in ständiger Rotation, an der ein Stift vorbeibewegt wird, der an einem Schalltrichter befestigt ist. Dieser Stift wird durch die Schallwellen der Umgebung in Schwingung versetzt. Die so entstandene Rille reproduziert die Form der Schallwellen in Frequenz und Amplitude. Ist die Walze einmal abgekühlt und erhärtet, ist es möglich, den Stift durch dieselbe Rille noch einmal durchziehen zu lassen. Der Stift schwingt mit einer zur Größe der Rille analogen Frequenz und Intensität, wodurch eine Schallwelle entsteht. Der hervorgebrachte Ton wird vom Trichter des Phonographen verstärkt, um ihn hörbar zu machen.

Die analoge Aufnahme des Tons

Der Phonograph von Edison ist ein Aufnahmegerät von analogen Tönen. Er nimmt eine Schwingung mit gleicher Frequenz und gleicher Amplitude aus der Luft auf und überträgt sie auf einen Stift; dieser bildet schwingend eine analoge Tonspur. Die Äquivalenz zwischen dem Ton und seiner Kopie ist das Merkmal der analogen Aufnahme. Sie ist theoretisch perfekt, keine einzige Information geht verloren, da ein gleichwertiges Verhältnis zwischen der Kopie und dem Original besteht. In der Realität ist man jedoch weit von dieser Perfektion entfernt. Die für die Realisierung der Kopie verwendeten Materialien haben aufgrund ihrer physischen Eigenschaften Grenzen und verändern die ursprüngliche Schwingung. Diese Fehler oder Verzerrungen erlauben keine korrekte Aufnahme und Reproduktion des Originaltons.

Das Fernsprechwesen

Mit Aufkommen des Fernsprechwesens, das sich Ende des 19. Jahrhunderts verbreitete, stellten sich die Grenzen der Aufnahme, Reproduktion und Übertragung mittels analoger Technik heraus. An dieselben Grenzen stieß man bei der Rundfunkübertragung. In dem Moment, in dem die Stimme aufgenommen und in ein analoges elektrisches Signal übertragen wird, beginnt eine Reise durch Kupferkabel, Telefonzentralen und unzählige Verbindungen. Jeder dieser Faktoren bringt eine gewisse Verzerrung mit sich, die mit zunehmender Distanz und Anzahl der durchlaufenen Faktoren größer wird. In jedem Fall wird sich der Originalton von dem unterscheiden, den der Empfänger des Telefonats hört.

Das Morsen

Der Telegraph, Mitte des 19. Jahrhunderts eingeführt, überträgt keine Stimme, sondern einen Text, der in elektrische Signale mit Hilfe einer als Morsealphabet bekannten Tabelle umgewandelt wird. Jedem Schriftzeichen wird eine Sequenz von zwei Impulsen (Punkt/Linie) zugeordnet, die leicht durch ein elektrisches Netz oder via Radio zu übertragen sind. Das analoge Signal dagegen ist mit seinen unzähligen Unsauberkeiten anfällig für jede Verzerrung. Das Morsen erlaubt eine getreue Übertragung des Originaltextes; alle Möglichkeiten werden optimal genutzt.

Das Sampeln des Tons

In der ersten Hälfte des letzten Jahrhunderts wurden beide Übertragungssysteme (morsen und analog) weiterhin parallel verwendet. Die Unmittelbarkeit beim Gebrauch der Stimme war der Vorteil des Telefons und des Radios, aber durch die Sicherheit und den geringen Preisfaktor blieb das Morsen bei Übertragungen über große Distanzen auch weiterhin populär. Man begann sich zu fragen, wie man ein analoges Signal in eine Sequenz von Impulsen umwandeln kann, die, wie beim Morsen, leichter übertragbar und weniger anfällig für Verzerrungen wären. Wegbereiter wie E.T. Whitaker, P.M. Rainey, Harold Nyquist und Claude Shannon haben den Grundstein für das Sampling eines Signals gelegt.

Sampling

Ein Ton kann in ein analoges elektrisches Signal mit äquivalenter Frequenz und Amplitude umgewandelt werden. Das Sampling-Verfahren misst die Amplitude dieses Signals und registriert seinen Wert in numerischer Form. Das Verfahren wird während der gesamten Dauer des Signals in regelmäßigen Abständen wiederholt. Es entsteht eine Matrix, die numerisch den Ablauf des Signals darstellt. Die Matrix ermöglicht im umgekehrten Verfahren die Rekonstruktion des ursprünglichen Signals. Ihre Genauigkeit hängt von der Präzision und Häufigkeit der Messungen ab. Die Matrix ist die digitale (numerische) Darstellung des Signals - der digitale Ton.

Vorteile des Samplings

Die numerische Umwandlung eines Tons bringt verschiedene Vorteile mit sich. Die Information ist stabil; es spielt keine Rolle, wie viele Kopien oder wie weit gesendet wird, die Information bleibt stets dieselbe. Es kann eine Verzerrung am Übertragungsmedium auftreten, aber Korrektursysteme garantieren, dass die Information erhalten bleibt. Dies ist so, weil- im Unterschied zum analogen Signal- der Datenträger nicht die Information selbst ist. Eine leicht verständliche Analogie ist ein altes Buch mit Illustrationen; die Bilder werden wahrscheinlich mit der Zeit ruiniert und demzufolge die darin enthaltenen Informationen unwiederbringlich verwischt sein, aber der Text, so sehr die Buchstaben auch ausgeblichen sein mögen, wird seine Botschaft genauestens bewahren, ohne jegliche Verzerrung seiner Bedeutung.

Probleme des Samplings

Die Übertragung eines analogen Signals in eine numerische Sequenz hat zwei Grenzen. Die erste hängt mit der Sample-Frequenz zusammen, die mindestens doppelt so hoch sein muss wie die vom Originalton maximal erreichte Frequenz (Theorie von Nyquist). Ein Signal mit einer Frequenz von 10.000 Hertz (Schwingungen pro Sekunde) muss mindestens 20.000 Mal pro Sekunde gemessen werden. Zum zweiten tritt ein Fehler auf, der die Präzision bei der Speicherung des Amplitudenwertes des Signals betrifft. Verwendet man eine begrenzte Anzahl möglicher Werte, gelingt es nicht, die unendlich vielen Werte des analogen Originalsignals darzustellen. Die größtmögliche Differenz zwischen dem Originalwert und dem gespeicherten Wert wird als Quantisierungsfehler bezeichnet. Er ist beim Sampling-Verfahren unumgänglich, aber man beschränkt sich darauf, die Anzahl der verwendeten Pegelstufen zu erhöhen, um das Signal darzustellen.

Das Ton-Sampling

Der Mensch kann zwischen 20 und 20.000 Hertz liegende Frequenzen hören, es ist ausreichend, den Ton mit einer Frequenz von 40.000 Hertz zu digitalisieren, um keine Information zu verlieren. Unser Ohr hat außerdem Schwierigkeiten, minimale Differenzen im Volumen des Tons zu erkennen; es akzeptiert als absolut gleichwertig zum Original ein gesampeltes Signal mit einer Auflösung von einer Million Werten (oder 20 Bit).
Der Großteil der Menschen wird bei Verwendung von 65.000 Werten (zwei Byte oder 16 Bit) keinen Unterschied zwischen Original und Kopie bemerken. Das ist das Maß, das für eine gewöhnliche Compact Disc verwendet wird.

Das digitale Fernsprechwesen

Mit dem Aufkommen der digitalen Elektronik und der Computer in den 50er Jahren, versuchten die Telefongesellschaften, die digitale Übertragung der Stimme zu nutzen, mit dem Ziel, die Übertragungsqualität zu verbessern und existierende Telefonleitungen effizienter zu nutzen. 1954 verwirklichte die EPSCO den ersten noch auf Röhren basierenden Schaltkreis, der ein analoges in ein digitales Signal umwandeln konnte (ADC- Analog to digital converter). 1962 wurde das erste kommerzielle System zur digitalen Stimmübertragung eingeführt, T1. Für die Übertragung wurde eine Technologie namens PCM (pulse code modulation) verwendet, die 8000 Messungen pro Sekunde mit einer Genauigkeit von einem byte in einem Telefongespräch vorsah; das ergab ein Maximum von 256 erkannten Stufen und einen Verkehr von 64.000 bit pro Sekunde (64 Kbps). Jedes T1 konnte 24 Stimmkanäle transportieren.

Kompression des Tons

Jedes geschriebene Dokument besitzt einen gewissen Grad an Redundanz, die dessen Umfang vergrößert. Sie macht Lektüre und Interpretation des Geschriebenen leichter. Techniken, wie die Verwendung von Akronymen oder Abkürzungen, reduzieren die Redundanz, dafür geht aber ein Stück Lesbarkeit verloren. Man kann diese Regeln natürlich nur dann anwenden, wenn sie den zukünftigen Lesern des Dokuments ebenfalls bekannt sind. Auch Dokumente in digitalem Format können redundant sein. In den letzten 50 Jahren haben Mathematiker Kompressionsmethoden entwickelt, die Dokumentgrößen verringern können. Hier gibt es zwei Typen: die erste bewahrt die originale Information des Dokuments; die zweite bildet eine Annäherung an das Original und wird zur Komprimierung von Bildern und Tönen verwendet, die einer leichten Verzerrung besser standhalten, dafür ist aber die Dateigröße geringer ("lossless and lossy compression").

Verlustbehaftete Kompression

Der Mensch nimmt einen begrenzten Bereich von Tönen wahr, sei es in Frequenz oder Amplitude, und besitzt Selektionsmechanismen, die einige Töne angesichts anderer ausschließen. Ein leiser Ton zum Beispiel, der parallel zu einem Ton mit großer Amplitude und einer ähnlichen Frequenz entsteht, wird von unserem Gehirn nicht wahrgenommen. Dieses Phänomen wird "Maskierung" genannt. Diese Mängel basieren auf den Theorien der Tonunterdrückung. Nicht wahrnehmbare Frequenzen, die auf das Gehör also keinen Einfluss haben, werden vom originalen Digitalsignal ausgeschaltet. Das Ergebnis ist ein neues Digitalsignal, das dem umgekehrten Verfahren ausgesetzt wird; es entsteht ein dem Original ähnlicher Ton, der als gute Annäherung wahrgenommen wird.

Kompression im Fernsprechwesen

Die Verbreitung des digitalen Fernsprechwesens von Anfang der 60er Jahre an hat die Telefongesellschaften dazu veranlasst, ausgiebig in die Technologien der Tonunterdrückung zu investieren, die einen effizienteren Gebrauch existierender Leitungen versprachen und demzufolge eine spürbare Verringerung der Kosten für Einzelgespräche. Bereits die PCM-Technologie gestattete eine gute Stimmkompression, mit einer Sampling-Frequenz von 8000 Hertz und einer Quantisierung von einem Byte. Die Wiedergabequalität von Musikstücken war zwar nicht zufriedenstellend, für die Stimme jedoch reichte PCM aus. PCM erzeugte zehnmal weniger Verkehr verglichen mit einem mit 40.000 Hertz und 16 Bit durchgeführten Sampling.
Mathematiker begannen das Verhalten des menschlichen Ohres zu erforschen und zu begreifen, wie Informationen mit PCM besser komprimiert werden könnten. In den 60er- und 70er Jahren entwickelten sich die Kompressionstechniken ADM (Adaptive Delta Modulation), ADPCM (Adaptive Delta Pulse-Code Modulation) und andere. Es wurden Sampling- Techniken eingeführt, die die Merkmale des menschlichen Ohres berücksichtigten; diese Techniken waren empfindlicher gegenüber Amplitudenschwankungen bei geringem Volumen, weil sie physiologisch den Quantisierungsfehler reduzierten ("a-law" in Europa und "μ-law" in Amerika).

Standardisierung der Kompression

Die Kompressionstechnologien wurden patentiert und Internationale Organisationen begannen geeignete Dokumentationen zu schaffen, um Einheitlichkeit in der Anwendung zu garantieren. Die ITU-T (International Telecommunication Union) ist die Organisation, die die Einführung und Anwendung aller Telekommunikationstechnologien kontrollierte.

Die gesampelte Musik

Mit dem Aufkommen der Low-Budget-Technologien Ende der 70er Jahre wurden Geräte produziert, mit denen man Musik sampeln und vervielfältigen konnte (Sampler); außerdem gab es nun Recorder mit digitalen Tonbändern in selbst für ein professionelles Aufnahmestudio ausreichender Qualität. Thomas Greenway Stockham ist hier ein wichtiger Name. 1962 realisierte er am MIT (Massachusetts Institute of Technologie) einen Prototyp des digitalen Recorders, aber erst 1976 gelang es ihm, diesen mit seiner Gesellschaft, der Soundstream Inc., zu produzieren und zu verkaufen. Mitte der 70er Jahre führte er die audio-editing-Computertechnologie und die Speicherung des Tons auf Hard Disk ein. 1965 patentierte James T. Russell ein System, das eine gesampelte Musiksequenz, aufgenommen auf einer Schallplatte, mithilfe eines Lasers lesen konnte. Dieses System blieb jedoch bis Ende der 80er Jahre nur Theorie.

Compact Discs

Die ersten analogen Platten digitaler Aufnahmen wurden 1978 veröffentlicht, aber die Grenze, die das Vinyl der Originalaufnahme setzte, wurde offensichtlich. Russels Ideen und Patente wurden 1982 von Sony und Philips lizenziert, und für das erste Produkt zur Vervielfältigung von digitaler Musik für den Privatgebrauch, der Compact Disc, neu überarbeitet. Die Lizenzen für dieses Produkt wurden frei auf dem Markt verteilt, mit strengen Verwendungsregeln, um jegliche Kompatibilitätsprobleme zwischen digitalen Trägern und Playern zu vermeiden. Der Ton wurde mit 44.000 Hertz und 16 Bit gesampelt, musikalisch theoretisch perfekt. Offen gestanden wurde diese Perfektion jedoch von den Digital/Analog-Umsetzern (DAU), die es für die ersten Player gab, noch nicht umgesetzt.

MPEG

Die ISO (International Organization for Standardization) ist ein weltweiter Zusammenschluss von 140 nationalen Instituten, die mit der Ratifizierung und Verwendung der Standards beauftragt sind. Die von der ISO erlassenen Dokumente fördern die Vereinheitlichung der Kooperation zwischen den Firmen und Menschen der Welt, von Produkten und Informationen. 1987 bildete die ISO eine Arbeitsgruppe, der die Ratifizierung eines Standards zur Kompression von Bildern gelang, bekannt als JPEG. Der Erfolg dieses Unternehmens bewegte die ISO zur Bildung einer weiteren Arbeitsgruppe, die den Auftrag hatte, einen Standard für die Speicherung und die Vervielfältigung von bewegten Bildern, Ton und ihrer Kombinierung zu entwickeln. Die Moving Picture Experts Group initiierte eine Reihe von Konferenzen, an denen viele nationale Forschungslaboratorien, Universitäten und einige Firmen teilnahmen. Hauptvertreter war und ist das von Leonardo Chiariglione geführte Forschungslaboratorium der Telecom Italia (CSELT, heute Telecom Lab) in Turin. Die MPEG stellt Dokumente aus, die auf die jährlichen Versammlungen Bezug nehmen und in großen Akten gesammelt werden. Der erste nannte sich MPEG-1.

MPEG-1 (ISO/IEG 11172)

Im Juli des Jahres 1989 wird das MPEG-1 Dokument ausgestellt, ein Gefüge aus Techniken, die zur Komprimierung und Synchronisation von Tönen und Videos verwendet werden. Anfänglich beabsichtigte man, Klangvideos auf dem am weitesten verbreiteten digitalen Träger, der Compact Disc, zu lesen und zu speichern.
MPEG-1 ist in fünf Level unterteilt.
Das erste beschreibt die Lösung, um einen oder mehrere Soundstreams zu verbinden. Dies geschieht durch die Bildung eines einzigen Datenflusses, der für die Übertragung und Speicherung mühelos veränderbar ist.
Das zweite Level beschreibt die Kompression eines Videostroms auf 1,5 Millionen Bit pro Sekunde (Standardlesegeschwindigkeit einer Compact Disc). Es werden die besten verfügbaren Techniken verwendet, wie Differenzbilder und die Beseitigung nicht signifikanter Bildinformationen. Eine der bekanntesten kommerziellen Umsetzungen war die Video-CD.
Das dritte Level beschreibt die Kompression einer Audio-Sequenz.
Das vierte Level führt alle Tests einzeln auf, die ermöglichen, die Kompatibilität der Dokumente und MPEG-Konverter mit den in den ersten drei Levels beschriebenen Eigenschaften zu überprüfen. Diese Tests werden von all denjenigen benutzt, die eine Lösung entwickeln, die auf dem MPEG-1 Standard basiert.
Das fünfte Level beschreibt basierend auf dem MPEG-1 Standard ein Programm für die Konvertierung der Dokumente.

MP 3 (MPEG-1 Layer 3)

Die Fraunhofer-Gesellschaft ist eine deutsche Organisation, die verschiedene Forschungsinstitute vereint, die mit privat- oder staatlich finanzierten Forschungsprojekten beschäftigt sind. Sie hat 56 Institute und 11.000 Forscher, die über ganz Deutschland verteilt sind. Die Finanzmittel für die Forschung betragen zwei Drittel der laufenden Ausgaben, der Rest wird von der deutschen Regierung und den Ländern gezahlt. Die Fraunhofer-Gesellschaft begann 1987 im Rahmen des Gemeinschaftsprojektes Eureka EU 147 in Zusammenarbeit mit der Universität Erlangen, sich mit der Problematik der Schallwahrnehmung zu befassen. Das Ergebnis wurde auf der MPEG- Konferenz präsentiert und als Standard im Rahmen des MPEG-1 Projektes bestätigt. Der ISO-MPEG Audio Layer 3 (IS 11172-3 und IS 13818-3), auch MP3 genannt, verwertet die ausgefeiltesten Kenntnisse zur Tonwahrnehmung. Diese werden diese vereinfacht, ohne dass die Qualität des Hörens beeinträchtigt würde. Im Ergebnis lässt sich ein Musikstück auf ein Elftel komprimieren, ohne dass der Hörer dies zwingend wahrnehmen würde. Wo vorher eine Reduktion der Audio-Qualität aus Mangel an Speicherplatz und geringer Übertragungsgeschwindigkeit notwendig gewesen war, hat MP3 genau dies vermieden. Als erstes hat das Radio aus dieser neuen Technologie Nutzen gezogen. Tatsächlich konnten Schaltungen von hoher Qualität herstellt werden, ohne auf kostspielige Funkverbindungen zurückgreifen zu müssen; es reichten einfache ISDN-Leitungen. Die Übertragung einer Musik-CD erfordert 1,4 Millionen Bit pro Sekunde. Dies ist die erreichbare Übertragungsgeschwindigkeit von sehr kostspieligen Leitungen, die heute durch eine digitale Telefonleitung (ISDN), die bereits in ganz Europa verfügbar ist, auf 128.000 Bit pro Sekunde komprimiert werden kann. Der MPEG-Standard beschreibt das bereits komprimierte Dateiformat, ohne jedoch seinen Entstehungsprozess zu kommentieren. Dies hat vielen Gesellschaften, die Fraunhofer- Gesellschaft ist darunter die wichtigste, erlaubt, zahlreiche der von den wichtigsten MP3-Konvertierungsprogrammen verwendeten Techniken registrieren zu lassen. Deren Hersteller sind zu Lizenzzahlungen an die Patentinhaber verpflichtet. Mitte der 90er Jahre verbreitete sich im Internet ein kostenloser Konverter für die Umwandlung von unkomprimierten CD-Audio-Files in MP3-Format. Das Abspielen erfolgte über die Soundkarte des Computers. Dieses Programm war der Beginn des populären MP3-Phänomens.

MPEG-2 (ISO/IEC 13818)

Die ISO vertraute erneut auf die MPEG-Arbeitsgruppe und beauftragte diese mit der Ausfertigung eines kompletten Standards für die Kompression von Bildern und Tönen unter Einbeziehung ausgefeilter Technik. Der alte Standard hatte nur wenige Möglichkeiten für das komprimierte Dokument bereitgestellt; Bilder und Töne konnten nur in einige vorbestimmte Formate umgewandelt werden. Das neue MPEG-2 Dokument dagegen würde in der Lage sein, dem User bezüglich der Kompressionsrate und der Bildgröße die Wahl zu lassen. Mit der Zeit wurden zehn Level entwickelt, jedes davon auf einen Aspekt des Standards spezialisiert. Der Ton wurde in Level 3 beschrieben, einem Standard, der den von MP3 unter Beibehaltung der Kompatibilität verbesserte und erweiterte. Die Mehrkanaltechnik, die für den Transport des Kinosounds benutzt wird (Dolby Surround), wurde eingeführt. 1997 wurde das Level 7 (AAC, Advanced Audio Coding) erstellt, das die Tonkompression neu festlegte ohne Kompatibilitätszwang mit dem alten MPEG-1. Es entstanden neue Kompressionstechniken, die die Endleistung bei gleichbleibender Qualität um 30% verbesserten. Der offensichtliche Vorteil dieser neu eingeführten Techniken wurde sofort von Medien wie dem digitalen Fernsehen und der DVD entdeckt. Der bei den MP3-Usern erhoffte Erfolg blieb jedoch aus; sie hielten die Kompatibilität mit dem bereits im Internet vorhandenen enormen Song-Archiv für interessanter.

MPEG-4 (ISO/IEC 14496)

MPEG-4 wurde 1998 beendet, aber erst im Jahr 2000 Standard. Unabhängigkeit vom Übertragungsmedium, mühelose Wiederverwendbarkeit der komprimierten Inhalte, Integrationsfähigkeit mit dem Internet und eine größere Kontrollierbarkeit der Verbreitung waren Vorteile des neuen Standards. Der Standard setzte bezüglich des Formats und der Qualität des komprimierten Dokuments keine Grenzen, das sich der Empfangskapazität und der Empfängerdarstellung anpassen konnte. MPEG-4 hat mit einigen seiner Implementierungen große Bekanntheit erreicht, zum Beispiel mit DIVx, einem im Internet sehr beliebten Video-Kompressionsstandard, und dem Microsoft Media Player, einer Software, die in den neuesten Versionen von Microsoft Windows enthalten ist und eine überzeugende Darstellung von Video- und Audio-Files liefert.

MPEG-7 (ISO/IEC 15938)

Die enorme Menge an im Internet vorhandenen Multimedia-Informationen hat das Problem ihrer Katalogisierung und Recherche offengelegt, ganz ähnlich wie bei schriftlichen Dokumenten. MPEG-7 (Multimedia Content Description Interface), das mit Hilfe von MPEG-2 bzw. MPEG-4 entwickelt wurde, beschreibt eine Dokumentationsmethode für den Inhalt eines Multimedia-Files, um ihn für Suchmaschinen zugänglich zu machen.

MPEG-21 (ISO/IEC 18034)

In den letzten Jahren hat die Verbreitung neuer Technologien zur Distribution multimedialer Inhalte die ISO vor ganz neue Herausforderungen gestellt. Die Unterscheidung von Text, Musik, Video, Bildern und anderen Inhalten wird immer unschärfer. Abhängig vom Instrument und Medium, das der User zur Übertragung wählt, ist die Darstellung solcher Inhalte mit den zur Verfügung stehenden Geräten nicht möglich. MPEG-21 ist eine offene Plattform zur Verbreitung und dem Gebrauch multimedialer Dokumente. Die Konzepte der "Digitalen Einheit" und des "Users" werden eingeführt. Es werden Regeln festgelegt, die Austausch, Zugang, Konsum, Handel und Manipulation digitaler Inhalte erlauben. Der Standard unterscheidet nicht zwischen Nutzendem und Verbreitendem, beide sind einfach User. MPEG-21 wird vielleicht die Art und Weise festlegen, wie in kommender Zeit digitale Informationen verwendet werden.



Links: http://mpeg.telecomitalialab.com/standards

Torino, 25, 11, 2002
©2002 Massimo Ferronato, [epidemiC]
Email: massimo@ferrona.to