Golden Ears Are Expensive
Massimo Ferronato [epidemiC]
Die Vorstellung, Töne und Musik zu konservieren,
um sie wieder anhören zu können, ist so alt wie die Menschheit.
Der Ton
Der Ton ist eine Schwingung, die von einem Material übertragen wird, und sich analog wie zu Meereswellen
verbreitet. Unser Ohr kann diese Schwingungen, die normalerweise durch die Luft übertragen werden,
aufnehmen und sie in vom Gehirn interpretierbare Impulse umwandeln. Die Schwingung wird aus Wellen
gebildet, die sich im Material bewegen; die Anzahl der Wellen pro Sekunde wird Frequenz genannt;
ihre Amplitude drückt die Energie des Tons aus, sein Volumen. Eine hohe Wellenfrequenz wird von
unserem Ohr als hoher Ton aufgenommen, zum Beispiel der einer Violine, eine niedrige Frequenz als
tiefer Ton, wie der des Kontrabasses.
Der Phonograph von Edison
Die Aufzeichnung des Tons wird im Jahre 1877 mit der Erfindung des Phonographen von Edison patentiert.
Es handelt sich um eine Wachswalze in ständiger Rotation, an der ein Stift vorbeibewegt wird, der an
einem Schalltrichter befestigt ist. Dieser Stift wird durch die Schallwellen der Umgebung in Schwingung
versetzt. Die so entstandene Rille reproduziert die Form der Schallwellen in Frequenz und Amplitude. Ist
die Walze einmal abgekühlt und erhärtet, ist es möglich, den Stift durch dieselbe Rille noch einmal
durchziehen zu lassen. Der Stift schwingt mit einer zur Größe der Rille analogen Frequenz und Intensität,
wodurch eine Schallwelle entsteht. Der hervorgebrachte Ton wird vom Trichter des Phonographen verstärkt,
um ihn hörbar zu machen.
Die analoge Aufnahme des Tons
Der Phonograph von Edison ist ein Aufnahmegerät von analogen Tönen. Er nimmt eine Schwingung mit
gleicher Frequenz und gleicher Amplitude aus der Luft auf und überträgt sie auf einen Stift; dieser
bildet schwingend eine analoge Tonspur. Die Äquivalenz zwischen dem Ton und seiner Kopie ist das
Merkmal der analogen Aufnahme. Sie ist theoretisch perfekt, keine einzige Information geht verloren,
da ein gleichwertiges Verhältnis zwischen der Kopie und dem Original besteht. In der Realität ist man
jedoch weit von dieser Perfektion entfernt. Die für die Realisierung der Kopie verwendeten Materialien
haben aufgrund ihrer physischen Eigenschaften Grenzen und verändern die ursprüngliche Schwingung. Diese
Fehler oder Verzerrungen erlauben keine korrekte Aufnahme und Reproduktion des Originaltons.
Das Fernsprechwesen
Mit Aufkommen des Fernsprechwesens, das sich Ende des 19. Jahrhunderts verbreitete, stellten sich die
Grenzen der Aufnahme, Reproduktion und Übertragung mittels analoger Technik heraus. An dieselben Grenzen
stieß man bei der Rundfunkübertragung. In dem Moment, in dem die Stimme aufgenommen und in ein analoges
elektrisches Signal übertragen wird, beginnt eine Reise durch Kupferkabel, Telefonzentralen und unzählige
Verbindungen. Jeder dieser Faktoren bringt eine gewisse Verzerrung mit sich, die mit zunehmender Distanz
und Anzahl der durchlaufenen Faktoren größer wird. In jedem Fall wird sich der Originalton von dem
unterscheiden, den der Empfänger des Telefonats hört.
Das Morsen
Der Telegraph, Mitte des 19. Jahrhunderts eingeführt, überträgt keine Stimme, sondern einen Text, der
in elektrische Signale mit Hilfe einer als Morsealphabet bekannten Tabelle umgewandelt wird. Jedem
Schriftzeichen wird eine Sequenz von zwei Impulsen (Punkt/Linie) zugeordnet, die leicht durch ein
elektrisches Netz oder via Radio zu übertragen sind. Das analoge Signal dagegen ist mit seinen
unzähligen Unsauberkeiten anfällig für jede Verzerrung. Das Morsen erlaubt eine getreue Übertragung
des Originaltextes; alle Möglichkeiten werden optimal genutzt.
Das Sampeln des Tons
In der ersten Hälfte des letzten Jahrhunderts wurden beide Übertragungssysteme (morsen und analog)
weiterhin parallel verwendet. Die Unmittelbarkeit beim Gebrauch der Stimme war der Vorteil des Telefons
und des Radios, aber durch die Sicherheit und den geringen Preisfaktor blieb das Morsen bei Übertragungen
über große Distanzen auch weiterhin populär. Man begann sich zu fragen, wie man ein analoges Signal in
eine Sequenz von Impulsen umwandeln kann, die, wie beim Morsen, leichter übertragbar und weniger anfällig
für Verzerrungen wären. Wegbereiter wie E.T. Whitaker, P.M. Rainey, Harold Nyquist und Claude Shannon
haben den Grundstein für das Sampling eines Signals gelegt.
Sampling
Ein Ton kann in ein analoges elektrisches Signal mit äquivalenter Frequenz und Amplitude umgewandelt
werden. Das Sampling-Verfahren misst die Amplitude dieses Signals und registriert seinen Wert in
numerischer Form. Das Verfahren wird während der gesamten Dauer des Signals in regelmäßigen Abständen
wiederholt. Es entsteht eine Matrix, die numerisch den Ablauf des Signals darstellt. Die Matrix ermöglicht
im umgekehrten Verfahren die Rekonstruktion des ursprünglichen Signals. Ihre Genauigkeit hängt von der
Präzision und Häufigkeit der Messungen ab. Die Matrix ist die digitale (numerische) Darstellung des
Signals - der digitale Ton.
Vorteile des Samplings
Die numerische Umwandlung eines Tons bringt verschiedene Vorteile mit sich. Die Information ist stabil;
es spielt keine Rolle, wie viele Kopien oder wie weit gesendet wird, die Information bleibt stets
dieselbe. Es kann eine Verzerrung am Übertragungsmedium auftreten, aber Korrektursysteme garantieren,
dass die Information erhalten bleibt. Dies ist so, weil- im Unterschied zum analogen Signal- der
Datenträger nicht die Information selbst ist. Eine leicht verständliche Analogie ist ein altes Buch
mit Illustrationen; die Bilder werden wahrscheinlich mit der Zeit ruiniert und demzufolge die darin
enthaltenen Informationen unwiederbringlich verwischt sein, aber der Text, so sehr die Buchstaben auch
ausgeblichen sein mögen, wird seine Botschaft genauestens bewahren, ohne jegliche Verzerrung seiner
Bedeutung.
Probleme des Samplings
Die Übertragung eines analogen Signals in eine numerische Sequenz hat zwei Grenzen. Die erste hängt
mit der Sample-Frequenz zusammen, die mindestens doppelt so hoch sein muss wie die vom Originalton
maximal erreichte Frequenz (Theorie von Nyquist). Ein Signal mit einer Frequenz von 10.000 Hertz
(Schwingungen pro Sekunde) muss mindestens 20.000 Mal pro Sekunde gemessen werden. Zum zweiten tritt
ein Fehler auf, der die Präzision bei der Speicherung des Amplitudenwertes des Signals betrifft.
Verwendet man eine begrenzte Anzahl möglicher Werte, gelingt es nicht, die unendlich vielen Werte
des analogen Originalsignals darzustellen. Die größtmögliche Differenz zwischen dem Originalwert
und dem gespeicherten Wert wird als Quantisierungsfehler bezeichnet. Er ist beim Sampling-Verfahren
unumgänglich, aber man beschränkt sich darauf, die Anzahl der verwendeten Pegelstufen zu erhöhen, um
das Signal darzustellen.
Das Ton-Sampling
Der Mensch kann zwischen 20 und 20.000 Hertz liegende Frequenzen hören, es ist ausreichend, den Ton
mit einer Frequenz von 40.000 Hertz zu digitalisieren, um keine Information zu verlieren. Unser Ohr
hat außerdem Schwierigkeiten, minimale Differenzen im Volumen des Tons zu erkennen; es akzeptiert als
absolut gleichwertig zum Original ein gesampeltes Signal mit einer Auflösung von einer Million Werten
(oder 20 Bit).
Der Großteil der Menschen wird bei Verwendung von 65.000 Werten (zwei Byte oder 16 Bit) keinen
Unterschied zwischen Original und Kopie bemerken. Das ist das Maß, das für eine gewöhnliche Compact
Disc verwendet wird.
Das digitale Fernsprechwesen
Mit dem Aufkommen der digitalen Elektronik und der Computer in den 50er Jahren, versuchten die
Telefongesellschaften, die digitale Übertragung der Stimme zu nutzen, mit dem Ziel, die
Übertragungsqualität zu verbessern und existierende Telefonleitungen effizienter zu nutzen.
1954 verwirklichte die EPSCO den ersten noch auf Röhren basierenden Schaltkreis, der ein analoges
in ein digitales Signal umwandeln konnte (ADC- Analog to digital converter). 1962 wurde das erste
kommerzielle System zur digitalen Stimmübertragung eingeführt, T1. Für die Übertragung wurde eine
Technologie namens PCM (pulse code modulation) verwendet, die 8000 Messungen pro Sekunde mit einer
Genauigkeit von einem byte in einem Telefongespräch vorsah; das ergab ein Maximum von 256 erkannten
Stufen und einen Verkehr von 64.000 bit pro Sekunde (64 Kbps). Jedes T1 konnte 24 Stimmkanäle
transportieren.
Kompression des Tons
Jedes geschriebene Dokument besitzt einen gewissen Grad an Redundanz, die dessen Umfang vergrößert.
Sie macht Lektüre und Interpretation des Geschriebenen leichter. Techniken, wie die Verwendung von
Akronymen oder Abkürzungen, reduzieren die Redundanz, dafür geht aber ein Stück Lesbarkeit verloren.
Man kann diese Regeln natürlich nur dann anwenden, wenn sie den zukünftigen Lesern des Dokuments
ebenfalls bekannt sind. Auch Dokumente in digitalem Format können redundant sein. In den letzten
50 Jahren haben Mathematiker Kompressionsmethoden entwickelt, die Dokumentgrößen verringern können.
Hier gibt es zwei Typen: die erste bewahrt die originale Information des Dokuments; die zweite bildet
eine Annäherung an das Original und wird zur Komprimierung von Bildern und Tönen verwendet, die einer
leichten Verzerrung besser standhalten, dafür ist aber die Dateigröße geringer ("lossless and lossy
compression").
Verlustbehaftete Kompression
Der Mensch nimmt einen begrenzten Bereich von Tönen wahr, sei es in Frequenz oder Amplitude, und
besitzt Selektionsmechanismen, die einige Töne angesichts anderer ausschließen. Ein leiser Ton zum
Beispiel, der parallel zu einem Ton mit großer Amplitude und einer ähnlichen Frequenz entsteht, wird
von unserem Gehirn nicht wahrgenommen. Dieses Phänomen wird "Maskierung" genannt. Diese Mängel basieren
auf den Theorien der Tonunterdrückung. Nicht wahrnehmbare Frequenzen, die auf das Gehör also keinen
Einfluss haben, werden vom originalen Digitalsignal ausgeschaltet. Das Ergebnis ist ein neues
Digitalsignal, das dem umgekehrten Verfahren ausgesetzt wird; es entsteht ein dem Original ähnlicher
Ton, der als gute Annäherung wahrgenommen wird.
Kompression im Fernsprechwesen
Die Verbreitung des digitalen Fernsprechwesens von Anfang der 60er Jahre an hat die Telefongesellschaften
dazu veranlasst, ausgiebig in die Technologien der Tonunterdrückung zu investieren, die einen effizienteren
Gebrauch existierender Leitungen versprachen und demzufolge eine spürbare Verringerung der Kosten für
Einzelgespräche. Bereits die PCM-Technologie gestattete eine gute Stimmkompression, mit einer
Sampling-Frequenz von 8000 Hertz und einer Quantisierung von einem Byte. Die Wiedergabequalität
von Musikstücken war zwar nicht zufriedenstellend, für die Stimme jedoch reichte PCM aus. PCM
erzeugte zehnmal weniger Verkehr verglichen mit einem mit 40.000 Hertz und 16 Bit durchgeführten
Sampling.
Mathematiker begannen das Verhalten des menschlichen Ohres zu erforschen und zu begreifen, wie
Informationen mit PCM besser komprimiert werden könnten. In den 60er- und 70er Jahren entwickelten
sich die Kompressionstechniken ADM (Adaptive Delta Modulation), ADPCM (Adaptive Delta Pulse-Code
Modulation) und andere. Es wurden Sampling- Techniken eingeführt, die die Merkmale des menschlichen
Ohres berücksichtigten; diese Techniken waren empfindlicher gegenüber Amplitudenschwankungen bei
geringem Volumen, weil sie physiologisch den Quantisierungsfehler reduzierten ("a-law" in Europa und
"μ-law" in Amerika).
Standardisierung der Kompression
Die Kompressionstechnologien wurden patentiert und Internationale Organisationen begannen geeignete
Dokumentationen zu schaffen, um Einheitlichkeit in der Anwendung zu garantieren. Die ITU-T
(International Telecommunication Union) ist die Organisation, die die Einführung und Anwendung
aller Telekommunikationstechnologien kontrollierte.
Die gesampelte Musik
Mit dem Aufkommen der Low-Budget-Technologien Ende der 70er Jahre wurden Geräte produziert, mit
denen man Musik sampeln und vervielfältigen konnte (Sampler); außerdem gab es nun Recorder mit
digitalen Tonbändern in selbst für ein professionelles Aufnahmestudio ausreichender Qualität.
Thomas Greenway Stockham ist hier ein wichtiger Name. 1962 realisierte er am MIT (Massachusetts
Institute of Technologie) einen Prototyp des digitalen Recorders, aber erst 1976 gelang es ihm,
diesen mit seiner Gesellschaft, der Soundstream Inc., zu produzieren und zu verkaufen. Mitte der
70er Jahre führte er die audio-editing-Computertechnologie und die Speicherung des Tons auf Hard
Disk ein. 1965 patentierte James T. Russell ein System, das eine gesampelte Musiksequenz,
aufgenommen auf einer Schallplatte, mithilfe eines Lasers lesen konnte. Dieses System blieb
jedoch bis Ende der 80er Jahre nur Theorie.
Compact Discs
Die ersten analogen Platten digitaler Aufnahmen wurden 1978 veröffentlicht, aber die Grenze,
die das Vinyl der Originalaufnahme setzte, wurde offensichtlich. Russels Ideen und Patente wurden
1982 von Sony und Philips lizenziert, und für das erste Produkt zur Vervielfältigung von digitaler
Musik für den Privatgebrauch, der Compact Disc, neu überarbeitet. Die Lizenzen für dieses Produkt
wurden frei auf dem Markt verteilt, mit strengen Verwendungsregeln, um jegliche Kompatibilitätsprobleme
zwischen digitalen Trägern und Playern zu vermeiden. Der Ton wurde mit 44.000 Hertz und 16 Bit gesampelt,
musikalisch theoretisch perfekt. Offen gestanden wurde diese Perfektion jedoch von den
Digital/Analog-Umsetzern (DAU), die es für die ersten Player gab, noch nicht umgesetzt.
MPEG
Die ISO (International Organization for Standardization) ist ein weltweiter Zusammenschluss von 140
nationalen Instituten, die mit der Ratifizierung und Verwendung der Standards beauftragt sind. Die
von der ISO erlassenen Dokumente fördern die Vereinheitlichung der Kooperation zwischen den Firmen
und Menschen der Welt, von Produkten und Informationen. 1987 bildete die ISO eine Arbeitsgruppe,
der die Ratifizierung eines Standards zur Kompression von Bildern gelang, bekannt als JPEG. Der
Erfolg dieses Unternehmens bewegte die ISO zur Bildung einer weiteren Arbeitsgruppe, die den Auftrag
hatte, einen Standard für die Speicherung und die Vervielfältigung von bewegten Bildern, Ton und ihrer
Kombinierung zu entwickeln. Die Moving Picture Experts Group initiierte eine Reihe von Konferenzen, an
denen viele nationale Forschungslaboratorien, Universitäten und einige Firmen teilnahmen. Hauptvertreter
war und ist das von Leonardo Chiariglione geführte Forschungslaboratorium der Telecom Italia (CSELT,
heute Telecom Lab) in Turin. Die MPEG stellt Dokumente aus, die auf die jährlichen Versammlungen Bezug
nehmen und in großen Akten gesammelt werden. Der erste nannte sich MPEG-1.
MPEG-1 (ISO/IEG 11172)
Im Juli des Jahres 1989 wird das MPEG-1 Dokument ausgestellt, ein Gefüge aus Techniken, die zur
Komprimierung und Synchronisation von Tönen und Videos verwendet werden. Anfänglich beabsichtigte
man, Klangvideos auf dem am weitesten verbreiteten digitalen Träger, der Compact Disc, zu lesen
und zu speichern.
MPEG-1 ist in fünf Level unterteilt.
Das erste beschreibt die Lösung, um einen oder mehrere Soundstreams zu verbinden. Dies geschieht
durch die Bildung eines einzigen Datenflusses, der für die Übertragung und Speicherung mühelos
veränderbar ist.
Das zweite Level beschreibt die Kompression eines Videostroms auf 1,5 Millionen Bit pro Sekunde
(Standardlesegeschwindigkeit einer Compact Disc). Es werden die besten verfügbaren Techniken
verwendet, wie Differenzbilder und die Beseitigung nicht signifikanter Bildinformationen. Eine
der bekanntesten kommerziellen Umsetzungen war die Video-CD.
Das dritte Level beschreibt die Kompression einer Audio-Sequenz.
Das vierte Level führt alle Tests einzeln auf, die ermöglichen, die Kompatibilität der Dokumente
und MPEG-Konverter mit den in den ersten drei Levels beschriebenen Eigenschaften zu überprüfen.
Diese Tests werden von all denjenigen benutzt, die eine Lösung entwickeln, die auf dem MPEG-1
Standard basiert.
Das fünfte Level beschreibt basierend auf dem MPEG-1 Standard ein Programm für die Konvertierung
der Dokumente.
MP 3 (MPEG-1 Layer 3)
Die Fraunhofer-Gesellschaft ist eine deutsche Organisation, die verschiedene Forschungsinstitute
vereint, die mit privat- oder staatlich finanzierten Forschungsprojekten beschäftigt sind. Sie hat
56 Institute und 11.000 Forscher, die über ganz Deutschland verteilt sind. Die Finanzmittel für die
Forschung betragen zwei Drittel der laufenden Ausgaben, der Rest wird von der deutschen Regierung
und den Ländern gezahlt. Die Fraunhofer-Gesellschaft begann 1987 im Rahmen des Gemeinschaftsprojektes
Eureka EU 147 in Zusammenarbeit mit der Universität Erlangen, sich mit der Problematik der
Schallwahrnehmung zu befassen. Das Ergebnis wurde auf der MPEG- Konferenz präsentiert und als Standard
im Rahmen des MPEG-1 Projektes bestätigt. Der ISO-MPEG Audio Layer 3 (IS 11172-3 und IS 13818-3), auch
MP3 genannt, verwertet die ausgefeiltesten Kenntnisse zur Tonwahrnehmung. Diese werden diese
vereinfacht, ohne dass die Qualität des Hörens beeinträchtigt würde. Im Ergebnis lässt sich ein
Musikstück auf ein Elftel komprimieren, ohne dass der Hörer dies zwingend wahrnehmen würde. Wo
vorher eine Reduktion der Audio-Qualität aus Mangel an Speicherplatz und geringer
Übertragungsgeschwindigkeit notwendig gewesen war, hat MP3 genau dies vermieden. Als erstes hat
das Radio aus dieser neuen Technologie Nutzen gezogen. Tatsächlich konnten Schaltungen von hoher
Qualität herstellt werden, ohne auf kostspielige Funkverbindungen zurückgreifen zu müssen; es
reichten einfache ISDN-Leitungen. Die Übertragung einer Musik-CD erfordert 1,4 Millionen Bit
pro Sekunde. Dies ist die erreichbare Übertragungsgeschwindigkeit von sehr kostspieligen Leitungen,
die heute durch eine digitale Telefonleitung (ISDN), die bereits in ganz Europa verfügbar ist, auf
128.000 Bit pro Sekunde komprimiert werden kann. Der MPEG-Standard beschreibt das bereits
komprimierte Dateiformat, ohne jedoch seinen Entstehungsprozess zu kommentieren. Dies hat vielen
Gesellschaften, die Fraunhofer- Gesellschaft ist darunter die wichtigste, erlaubt, zahlreiche der
von den wichtigsten MP3-Konvertierungsprogrammen verwendeten Techniken registrieren zu lassen.
Deren Hersteller sind zu Lizenzzahlungen an die Patentinhaber verpflichtet. Mitte der 90er Jahre
verbreitete sich im Internet ein kostenloser Konverter für die Umwandlung von unkomprimierten
CD-Audio-Files in MP3-Format. Das Abspielen erfolgte über die Soundkarte des Computers. Dieses
Programm war der Beginn des populären MP3-Phänomens.
MPEG-2 (ISO/IEC 13818)
Die ISO vertraute erneut auf die MPEG-Arbeitsgruppe und beauftragte diese mit der Ausfertigung
eines kompletten Standards für die Kompression von Bildern und Tönen unter Einbeziehung ausgefeilter
Technik. Der alte Standard hatte nur wenige Möglichkeiten für das komprimierte Dokument bereitgestellt;
Bilder und Töne konnten nur in einige vorbestimmte Formate umgewandelt werden. Das neue MPEG-2 Dokument
dagegen würde in der Lage sein, dem User bezüglich der Kompressionsrate und der Bildgröße die Wahl zu
lassen. Mit der Zeit wurden zehn Level entwickelt, jedes davon auf einen Aspekt des Standards
spezialisiert. Der Ton wurde in Level 3 beschrieben, einem Standard, der den von MP3 unter
Beibehaltung der Kompatibilität verbesserte und erweiterte. Die Mehrkanaltechnik, die für den
Transport des Kinosounds benutzt wird (Dolby Surround), wurde eingeführt. 1997 wurde das Level 7
(AAC, Advanced Audio Coding) erstellt, das die Tonkompression neu festlegte ohne Kompatibilitätszwang
mit dem alten MPEG-1. Es entstanden neue Kompressionstechniken, die die Endleistung bei gleichbleibender
Qualität um 30% verbesserten. Der offensichtliche Vorteil dieser neu eingeführten Techniken wurde sofort
von Medien wie dem digitalen Fernsehen und der DVD entdeckt. Der bei den MP3-Usern erhoffte Erfolg blieb
jedoch aus; sie hielten die Kompatibilität mit dem bereits im Internet vorhandenen enormen Song-Archiv für
interessanter.
MPEG-4 (ISO/IEC 14496)
MPEG-4 wurde 1998 beendet, aber erst im Jahr 2000 Standard. Unabhängigkeit vom Übertragungsmedium, mühelose
Wiederverwendbarkeit der komprimierten Inhalte, Integrationsfähigkeit mit dem Internet und eine größere
Kontrollierbarkeit der Verbreitung waren Vorteile des neuen Standards. Der Standard setzte bezüglich des
Formats und der Qualität des komprimierten Dokuments keine Grenzen, das sich der Empfangskapazität und der
Empfängerdarstellung anpassen konnte. MPEG-4 hat mit einigen seiner Implementierungen große Bekanntheit
erreicht, zum Beispiel mit DIVx, einem im Internet sehr beliebten Video-Kompressionsstandard, und dem
Microsoft Media Player, einer Software, die in den neuesten Versionen von Microsoft Windows enthalten
ist und eine überzeugende Darstellung von Video- und Audio-Files liefert.
MPEG-7 (ISO/IEC 15938)
Die enorme Menge an im Internet vorhandenen Multimedia-Informationen hat das Problem ihrer
Katalogisierung und Recherche offengelegt, ganz ähnlich wie bei schriftlichen Dokumenten. MPEG-7
(Multimedia Content Description Interface), das mit Hilfe von MPEG-2 bzw. MPEG-4 entwickelt wurde,
beschreibt eine Dokumentationsmethode für den Inhalt eines Multimedia-Files, um ihn für Suchmaschinen
zugänglich zu machen.
MPEG-21 (ISO/IEC 18034)
In den letzten Jahren hat die Verbreitung neuer Technologien zur Distribution multimedialer Inhalte
die ISO vor ganz neue Herausforderungen gestellt. Die Unterscheidung von Text, Musik, Video, Bildern
und anderen Inhalten wird immer unschärfer. Abhängig vom Instrument und Medium, das der User zur
Übertragung wählt, ist die Darstellung solcher Inhalte mit den zur Verfügung stehenden Geräten nicht
möglich. MPEG-21 ist eine offene Plattform zur Verbreitung und dem Gebrauch multimedialer Dokumente.
Die Konzepte der "Digitalen Einheit" und des "Users" werden eingeführt. Es werden Regeln festgelegt,
die Austausch, Zugang, Konsum, Handel und Manipulation digitaler Inhalte erlauben. Der Standard
unterscheidet nicht zwischen Nutzendem und Verbreitendem, beide sind einfach User. MPEG-21 wird
vielleicht die Art und Weise festlegen, wie in kommender Zeit digitale Informationen verwendet
werden.
Links:
http://mpeg.telecomitalialab.com/standards
Torino, 25, 11, 2002
©2002 Massimo Ferronato, [epidemiC]
Email: massimo@ferrona.to