Warum neue Musik lauter klingt als alte
Heute mal ein Gastblog von Arne. Damit ihr ihn auch würdigen könnt, gibt es erst am Montag neues von mir.
Bei den vielen Musiktipps in letzter Zeit hier im Blog ist mir mal wieder aufgefallen, wie sich doch die Musikaufnahmen im Laufe der Jahre verändert haben. Bei Youtube ist der Effekt nicht unbedingt zu hören, da es davon abhängt, wie die Aufnahme digitalisiert wurde. Wer aber eine CD von Abba oder den Beatles einlegt und danach eine aktuelle, wird feststellen, dass die aktuelle bei unveränderter Lautstärkeeinstellung im allgemeinen deutlich lauter klingt. Woran liegt das?
Tatsächlich ist die aktuelle Aufnahme nicht wirklich lauter, jedenfalls nicht der Maximalpegel, es erscheint nur so. Um die sogenannte Lautheit (sozusagen die gefühlte Lautstärke) zu erhöhen, wird ein Dynamikkompressor eingesetzt. Das ist ein Gerät oder auch ein Softwaremodul, das den Signalpegel misst und die Verstärkung erhöht, wenn ein gewisser Schwellwert unterschritten wird. Vereinfacht gesagt, werden die leiseren Teile der Aufnahme lauter gemacht, die lauten bleiben unverändert. Schon klingt die Aufnahme insgesamt lauter, dafür geht aber natürlich einiges an Dynamik (die Spanne zwischen leisen und lauten Stellen) verloren.
Warum macht man das? Um sich von anderen abzuheben. Begonnen hat der Krieg der Lautheit (siehe auch Wikipedia – Loudness War) im Radio. Ein Lied wird eher wahrgenommen, wenn es lauter klingt als das vorige. Das gilt natürlich auch für Werbung, die besonders aus der Musik herausstechen soll. Das Problem bei der Sache ist, dass es nichts mehr bringt, wenn es jeder macht. Seit Jahren werden die Einstellungen der Kompressoren immer extremer, um das letzte Bisschen gefühlte Lautstärke herauszuholen und die anderen zu übertrumpfen. Wer heutzutage noch eine Hifi-Anlage mit Aussteuerungsanzeige hat, kann sehen, wie bei aktueller Musik die Anzeige viel mehr am Anschlag klebt als bei älterer. Das machen auch nicht mehr nur die Radiosender, sondern die Tonstudios, wenn die Aufnahme eines Songs fertig ist und es ans sogenannte Mastering geht.
Gutes Mastering erfordert viel Erfahrung und Fingerspitzengefühl des Toningenieurs, um das ganze nicht unnatürlich oder aufdringlich klingen zu lassen. Besonders bei der Komprimierung kann man viel falsch machen, die Einstellungen des Kompressors müssen auf jeden Fall für jeden Song individuell gemacht werden. Das können Radiosender im Gegensatz zu den Tonstudios natürlich nicht leisten.
Den Vogel abgeschossen hatte hier im Norden N-Joy Radio, das Anfang der 90er auf Sendung ging. Sämtliche Musik wurde vorm Senden noch einmal durch einen Kompressor mit extremen Einstellungen gejagt, was die Songs teilweise richtiggehend kaputtgemacht hat. Man stelle sich ein Lied vor, das leise beginnt. Der Kompressor regelt nun sofort die Verstärkung hoch. Dann setzt das Schlagzeug ein, und da die erste Bassdrum im Original viel lauter als das Intro ist, muss der Kompressor die Verstärkung wieder zurücknehmen, mit dem Erfolg, dass die übrigen Instrumente aus dem Intro plötzlich kaum noch hörbar sind. Mit dem Original hat das dann nicht mehr viel zu tun. Heutzutage ist das nicht mehr so extrem, unter anderem auch, weil sich die Technik verbessert hat. Um unerwünschte Effekte wie z.B. das sogenannte “Pumpen” zu vermeiden (die Lautstärke ändert sich rhythmisch mit dem Schlagzeug), werden im Mastering eher Multibandkompressoren verwendet. Die funktionieren so, dass das Audiosignal zunächst mittels Filtern in mehrere Frequenzbänder aufgeteilt wird, z.B. Höhen, Mitten und Bässe. Dann werden die Bänder einzeln komprimiert und wieder zusammengemischt. So kann dann, um bei obigem Beispiel zu bleiben, eine laute Bassdrum die höheren Töne nicht mehr beeinflussen.
In der Praxis werden noch weitere Signalbearbeitungen eingesetzt, das würde hier jedoch zu weit führen. Letztlich zielt es immer darauf ab, noch mehr Lautheit herauszuholen bei minimal wahrnehmbarer Klangverfälschung. Ohne Verfälschungen geht es aber nicht, weshalb das Wettrüsten im Kampf um die lauteste Aufnahme durchaus auf Kritik bei manchen Künstlern und Produzenten stößt. Ein unbestreitbarer Vorteil ist aber, dass komprimierte Aufnahmen sowohl bei niedriger Lautstärke als auch in Umgebungen mit Hintergrundgeräuschen besser verständlich sind, in denen die leisen Passagen ansonsten untergehen würden.
So, das war mein erster Gastblogeintrag hier und auch mein erster Blog überhaupt. Ich freue mich über Rückmeldungen.
Arne
Herzlichen Glueckwunsch zu Deinem ersten Blog-Eintrag 🙂
Ich mache selbst relativ viel Mastering, denke mir jedoch inzwischen, dass das praktisch ueberfluessig geworden ist. Auch ein guter Mix ist eigentlich heutzutage Schwachsinn.
Warum?
Weil die Musik heute nicht mehr auf (halbwegs) gutklingenden Hifi-Anlagen o.ae., sondern hauptsaechlich auf Handys (oder wahlweise auch Laptops) mit 0,1 Milliwatt Piezo-Kristall und 0,5 bis 10 kHz /- 20 dB Frequenzgang (das ganze natuerlich in Mono). Da hoert man eh nicht mehr raus, ob man jetzt liebevoll 8 Stunden lang am TC Finalizer (benutz ich immer noch) gedreht hat oder schoen feinfuehlig die Snare bei 5 kHz um 1 dB angehoben hat.
Das einzige, worauf man heute beim Mastering eigentlich noch achten muss, ist der Phasenkorrelationsmesser, damits auch schoen Mono-Kompatibel ist 😉 Oder am besten Stereo gleich ganz abschaffen.
Das Phänomen ist nicht nur auf Radio bechränkt (dann könnte man es ja noch ignorieren und zur CD greifen), sondern auch bei CD’s und zwar nicht nur aktuellen sondern auch alten. Die CD hat mal einige CD’s von Dire straits und Prince aus den achtzigern und die gleiche CD, aber mit Pressdatum von Heute verglichen – auch da wurde die Dynamik angehoben.
Das finde ich unverschämt, denn schlussendlich will ich das Lied so haben wie es mal eingespielt wurde und nicht wie sich das ein Toningenieur denkt. Wenn der Künstler einen Remix macht (meistens wirds nur schlimmer) dann sehe ich das am Titel aber einfach eine alte Aufnahme zu verändern ist eine frechheit.
Es ist interessant wie bei Musik die Geschmäcker auseinander laufen. Ich kenne Jemand der hört Musik nur loseless komprimiert (FLAC) und behauptet selbst bei hohen Bitraten noch bei MP3 den Unterschied zwischen Original und MP3 zu hören. Andere schwören auf die Schallplatte gerade wegen ihrer akustischen Mängel, weil es „authentisch“ klingt. Auf der anderen Seite wird Musik heute vorwiegend mit dem Handy oder MP3 Player gehört, wo ich Alexander recht geben muss – da spielt es keine Rolle. Ich habe hier sogar die dynamikangepasst manchmal leiber weil ich wegen Umgebungsgeräuschen sonst die leisen Passagen kaum höre und zu laut will ich es auch nicht machen (man will ja auch noch was mitbekommen).
Alte Aufnahmen beim Remastern nach heutigen Standards zu komprimieren macht mich auch sauer. Glücklicherweise habe ich meine Abba CDs schon vor langer Zeit gekauft, die sind noch so wie sie sein sollten. Mit dem Thema „was manche Leute nicht hören und manche zu hören glauben“ könnte man einen eigenen Blogeintrag machen. Das reicht vom Bekannten, der nicht bemerkt hatte, dass nur eine seiner beiden Boxen funktioniert, bis zu Danksagungen von TC-Kunden (da habe ich mal gearbeitet) dafür, wie sehr sich doch der Klang mit der neuen Software verbessert hat – dabei hatten wir ausschließlich die Bedienoberfläche erneuert.
Mit dem Sinn des Mastering sehe ich es nicht ganz so kritisch; es wird auch viel über Kopfhörer gehört, über die man auch bei mp3 Playern mehr Details mitbekommt.
Das Klangerlebnis ueber Kopfhoerer bzw. Ohrstoepsel ist natuerlich wesentlich besser als der Piezolautsprecher in einem Laptop oder Handy.
Wobei man beim Kopfhoerer wieder das Problem hat, dass dort das Stereobild nicht stimmt, weil voellig ueberzeichnet. Die meisten Aufnahmen / Mastering werden ja ueber das „traditionelle“ Setup im Studio gemacht, das heisst gleichseitiges Dreieck Boxen – Abhoerposition. Danach beurteilt man auch das Stereobild. Beim Kopfhoerer sind die „Boxen“ aber genau links und rechts vom Zuhoerer und es klingt alles viel zu „breit“.
Insofern ist es eigentlich eine interessante Frage, ob man vielleicht beim Produzieren / Mastering dazu uebergehen sollte, alles fuer Kopfhoerer zu produzieren und das Stereobild dementsprechend schmaler zu machen. Denn wie schon gesagt: Fuer Handylautsprecher ist es eh komplett egal, wie es klingt, und wenn die einzige Zielgruppe, die noch entfernt was vom Klangbild mitkriegt, die „Kopfhoerertraeger“ sind, dann sollte man im Studio auch mit Kopfhoerern mastern.
Ich frage mich gerade, ob man diese Dynamikanpassungen bei klassischer Musik auch macht? – Wenn ja, dann würde das so manches Stück restlos ruinieren, weil es ja gerade die Absicht des Komponisten war, einige Passagen laut und andere leise zu gestalten. – Ich denke da gerade an die 9. Sinfonie von Beethoven (wovon „Freude schöner Götterfunken“ der bekannteste Ausschnitt ist.)
Als Beispiel aus der Popmusik hätte ich da „Music“ von John Miles im Angebot, dessen Reiz ja gerade auch in der Abwechselung der Laut-/ Leisepassagen liegt. Oder „Bohemian Rhapsody“ von Queen? – Aber das fällt jetzt wahrscheinlich etwas aus dem Rahmen, weil das Werk sowieso daraus fällt.
Ansonsten finde ich diese ganze Sache reichlich albern. Da wird einerseits bei Filmen und Filmmusik Surround-sound mit möglichst vielen Kanälen, d.h. Boxenpaaren propagiert, um möglichst realistischen Raumklang hinzukriegen. Und andrerseits so ein Unsinn von mehr „Lautheit“. Stattdessen sollte man sich wahrscheinlich mal eher überlegen, ob es nicht Sinnvoller wäre, etwas Dynamik aus dem Alltag heraus zu nehmen. (D.h. in diesem Fall weniger Stress und Hektik)
Und was das Mastern angeht, da sage ich jetzt einfach mal, das sich der Tonmischer da nach den Vorstellungen der Musiker zu richten hat, die die Musik machen, und was die ihren Zuhörern bieten wollen. Und nicht danach, was irgendwelche Werbestrategen sich denken, die die Musik missbrauchen.
Es mag Ausnahmen geben, aber Klassik wird normalerweise nicht komprimiert. Music und Bohemian Rhapsody sind ja schon älter, das originale Mastering war da sicherlich noch im Sinne der Künstler. Wie es da aber mit aktuellen CD-Veröffentlichungen aussieht, kann ich nicht sagen. Dass sich die Toningenieuere nach den Vorstellungen der Musiker richten sollten, ist im gnadenlosen Musikbusiness leider eher eine Wunschvorstellung. Die Plattenfirmen versuchen meist so viel wie möglich nach ihren Vorstellungen zu gestalten.
Was noch hinzukommt: Signalstärke und Lautstärke korrelieren nur mäßig miteinander. Bei der Signalstärke werden ja die Spitzen gemessen. Letztendlich besteht ja Musik aus vielen Einzeltönen unterschiedlicher Frequenz. Treffen nun zufälligerweise zu einer bestimmten Zeit alle Töne mit Maximum (oder Minimum) zusammen, gibt es eine extreme Spitze. Auch dann, wenn die Töne in Summe gar nicht so laut sind.
Man kann natürlich die Spitze wegschneiden, aber das gibt hässliche Verzerrungen, da man dadurch alle Einzeltöne beschneidet. Aber es geht heute auch, die Spitzen durch fast unhörbare Bearbeitungen loszuwerden: Man verschiebt die Einzeltöne minimal in Phase und/oder Frequenz, und zwar so, dass während des relevanten Zeitraums jeweils möglichst wenige mit Maximum oder Minimum aufeinander treffen.
Die Folge: Die Maxima sind weg. Nun kann man das ganze Signal weiter anheben, ohne dass es zu Übersteuerungen kommt. Der Signalstärkeanzeiger zeigt beim bearbeiteten Signal nach dem Anheben denselben Maximalwert wie beim Ausgangssignal. Die Lautstärke ist aber durch das Anheben viel größer geworden!
Der Vorteil: Wir kommen heute mit viel kleineren Boxen, Endstufen usw. aus.
Der Nachteil: Alle Signale werden bearbeitet; sie entsprechen somit streng genommen nicht mehr dem Original.
Kai
Das lustige ist ja, dass scheinbar gerade DURCH den Fortschritt in der digitalen Audio-Technik die Wiedergabequalitaet inzwischen sowieso insgesamt SCHLECHTER geworden ist.
Ich meine, klar, heute kann man mit 48 kHz und 20 Bit samplen und das ganze als unkomprimierte WAV-Datei speichern, und das klingt natuerlich besser als jede Schallplatte und auch als jede CD und man koennte in den 20 Bit auch ohne Probleme eine komplett unbearbeitete Klassik-Aufnahme unterbringen inkl. Peaks.
Aber das waeren ja eh absolute Nischenprodukte. Die Jugendlichen heute (m.E. die „Hauptzielgruppe“) laedt sich Videos von Youtube runter und konvertiert die in einen 64 kBit MP3-Stream, der ungefaehr die Qualitaet von einem Diktiergeraet von 1980 hat und das reicht denen scheinbar auch.
Ich geh auch davon aus, dass durch die massive Anhebung der Lautstaerke auf oeffentlichen Tanzveranstaltungen die meisten Konsumentenohren so massiv geschaedigt sind, dass sie den Unterschied zwischen Youtube 64kBit und einem 256kBit MP3 nicht mehr wahrnehmen.
Tja das wäre ein Blogeintrag selbst wert: Wie gut muss Audioqualität sein? 20 Bit in der Dynamikabstufung bedeutet, dass man einen Umfang von 1 Million hat das sind etwa 60 db zwischen dem leisesten und lautesten Geräusch, ich habe meine Bedenken ob man das noch so wahrnimmt. Das gleiche bei den 48 KHz. Wenn das menschliche Gehör maximal 20 KHz wahrnehmen kann machen 48 KHz keinen Sinn.
Das ist so wie früher die vergoldeten Stecker wegen der besseren Klangqualität oder die Kabel aus sauerstoffreiem Kupfer (warum nicht gleich Kabel aus Gold – wenn es die Qualität so steigert 😉 ).
64 KBit/s entspricht übrigens schon UKW Radio, durchaus besser als Diktiergeräte die bei etwa 4 KHz dicht machen und bei denen der Datenstrom unkomprimiert schon bei 38 KBit/s liegt. (komprimiert dann etwa 4 KBit/s).
Bei Hörtests kommt es auf den Vergleich an – ich wage zu behaupten viele finden auch 64 Kbit/s als nicht schlecht, solange sie den Vergleich nicht haben zu höheren Bitraten.
Hallo Bernd,
solche Beitraege ueber die „notwendige“ Qualitaet habe ich auch schon oft in meinem Blog geschrieben, aber weil ich immer so einen schlechten Stil habe (siehst Du ja hier an meinen Kommentaren ;-)), habe ich den ganzen Blog nie veroeffentlicht.
Ich persoenlich finde auch, dass 44.1kHz (CD) schon mehr als genug sind, denn da liegt die maximal darstellbare Frequenz bei 22,05kHz und das ist schon mehr, als selbst das beste Ohr hoeren kann. Und 16 Bit (CD) sind 96 dB (16 * 6 dB) Dynamikumfang. Wenn man jetzt tatsaechlich Klassik aufnehmen will und das ganze nicht bearbeiten will, koennte man tatsaechlich Probleme kriegen, denn das Ohr hat einen Dynamikumfang von 140 dB und das ist nun tatsaechlich viel mehr. Wobei dieser Dynamikumfang natuerlich nur mit Eingewoehnungsphasen gilt (genau wie beim Auge, bei dem sich die Chemie der Netzhaut erst umstellen muss). Aber ich wuerde in Gottes Namen noch 44.1kHz / 20Bit gelten lassen. Bei 16Bit koennte es z.B. passieren, dass die sehr leisen Passagen einer Klassikaufnahme dann schon in den Bereich der Amplitudenquantisierung kommen und es „Treppenstufen“ gibt bei der Digitalisierung aufgrund der diskreten Werte, die „umschalten“, das hoert sich sehr unschoen an (der Klang wird verrauscht und es kommen durch die Flanken Obertoene hinzu).
Du hast mal einen sehr guten Artikel ueber die Aufloesung von Digitalkameras und TVs geschrieben. Da ist ja auch der Trend zu wahnwitzigen Aufloesungen, die kein Mensch mehr wahrnehmen kann.
Aber wie gesagt: Den Leuten scheint Qualitaet wirklich egal zu sein. Ich wuerde sagen, 90% der Musikbibliotheken auf Privatrechnern bestehen heute aus Youtube-Rips 😉
140dB ist aber auch schon die Schmerzschwelle, je nach Frequenz liegt sie sogar noch niedriger. Praktisch braucht man also nicht annähernd einen solchen Dynamikumfang.
Die Abtastfrequenz muss man auch im techischen Zusammenhang sehen. Zwar kann man mit 44.1kHz Signale bis 22.05kHz übertragen, was für das menschliche Ohr mehr als genug ist. Man muss aber bei der Wandlung zwischen Analog und Digital und u.U. auch bei interner Signalbearbeitung ab 22.05kHz möglichst perfekt alles ausfiltern. Man bräuchte also idealerweise ein Filter, das bei 20kHz noch alles durchlässt und schon bei 22kHz alles (fast) komplett sperrt. Das ist technisch kaum machbar, bei höheren Abtastfrequenzen ist das alles dann deutlich entspannter, weil die Filter einen größeren Frequenzbereich für den Übergang von Durchlassen zu Sperren zur Verfügung haben. Letztendlich ist 44.1kHz für den Hausgebrauch oder das heimische Hobbytonstudio aber immer noch locker ausreichend.
Meine Highlights des Hifi Placebo-Zubehörs sind übrigens das Entmagnetisiergerät für CDs und die Kabel mit aufgedruckter Richtung
( )
Zu Placebos: Hier ist mein Favorit das Wireless LAN Kabel
Zum Dynamikumfang: Da habe ich übersehen, dass man bei Feldgrößen mit dem Quadrat rechnet. Es sind also bei 20 bit noch mehr.
Im Prinzip wird Musik auch nicht für Babys gemacht und ich denke die meisten in unserem Alter dürfen froh sein, wenn sie noch 16 Khz hören.
Ich tippe übrigens bei den Musiksammlungen eher auf Rapidshare und Bittorrent…. (Würde ich natürlich nie machen ;-)) Heute ist es noch einfacher geworden: http://mp3flat.com/
Danke fuer den Tipp mit der CD-Entmagnetisierung, das ist ja GROSSARTIG!!!
Ich hab mal danach gegooglet und es ist wirklich unfassbar, wie sehr die Leute verarscht werden und wieviel Geld man anscheinend damit auch noch verdienen kann. Und ich versuche, Geld mit Web-Design zu verdienen. Ich hab sie echt nicht mehr alle!
Da kaufen auch Leute Entspiegelungen fuer CD-Player-Linsen, Spezialfarbe fuer die Raender von CDs und haben Daempfer aus Moosgummi und Kork an ihren CD-Playern.
Die Wirksamkeit von „CD-Entmagnetisierung“ wird wie folgt begruendet:
„Das CD-Material ist abgekühlte Flüssigkeit, deshalb spielen bei der Optik die Ausrichtung der Elementardipole in viskosen Stoffen und die lokalen elektrischen Felder eine entscheidende Rolle.
Ich bin Chemie-Student […]“
Ja… ich weiss schon, warum ich moeglichst wenig mit der Gesellschaft zu tun haben will… hoffe, meine Blog-Kommentare hier sind trotzdem noch im Rahmen 🙂
Wo studiert der Chemie? Der ist eine Schande für den Beruf… Die CD Beschichtung besteht aus Aluminium, das ist nicht magnetisierbar. Ich glaube es wird mal wieder Zeit für einen Chemie Blog.
Alexander, wer heute noch arbeitet ist blöd. Das vermittelt inzwischen schon das Fernsehen. Erinnert mich an ein Murphy Gesetz:
„Jeder hat ein System das nicht funktioniert
Jeder der nicht arbeitet hat ein System das Funktioniert“.
Auch mit Webdesign kannst Du reich werden. Du musst nur Abofallen programmieren….
Bernd: Ueber die Abofallen und diverse Online-Gewinnspiele habe ich auch schon diverse Blog-Eintraege verfasst; ich denke, ich werde demnaechst mich mal dazu genoetigt sehen, einen meiner Blogbeitraege zu „entschaerfen“ und Dir als Kandidat fuer einen Gastbeitrag zukommen zu lassen.
So ein CD-Entmagnetisierer (von „Furutech“) kostet uebrigens NUR laeppische 2.200 Euro… aber der ist ja nun auch viel besser als die Entmagnetisierdrossel von Conrad fuer 2 Euro 😉
Unglaublich…
wahhh, ich könnte gerade schreien!!
Wer ist denn bitte so doof, und gibt 2200â
Im High-End-Audio-Bereich werden praktisch nur Placebos verkauft, weil sich die Audio-Qualität kaum über den Bereich der CD steigern lässt: „Sauerstofffreie Kupferkabel“ (als ob normale, mit ausreichendem Querschnitt, das Signal nicht ebenso gut transportieren könnten), CD-Entmagnetisierer, sündteure Plattenspieler (die trotzdem hörbar knistern, knacken und rauschen) usw. usw.
Aber: Das sündteure Zeugs sieht schick aus, und wer sich zu Hause seine Kathedrale für den ungestörten Musik-Genuss bauen will, der soll das tun. Andere kaufen sich einen Porsche.
Bezüglich Sampling-Raten und Bit-Tiefen: Man sollte nicht unterschätzen, wie sich Fehler addieren. Beispiel Klassikaufnahme: Werden 32 Spuren, die jeweils mit 16 Bit vorliegen, zusammengemischt, versechsfacht sich das Rauschen der Einzelspur in etwa. Werden einzelne Spuren noch angehoben, steigt das Rauschen noch stärker. Weitere Filter – etwa gegen störende Echos des Aufnahmesaals, gegen Nebengeräusche wie Umblättern der Partitur etc. pp. – bringen zusätzliches Rauschen rein, insbesondere, wenn sie pro Spur geschaltet werden. Statt 16 Bit und 96 dB hat man dann schwupp-die-wupp nur noch 12 Bit und 72 dB.
Da Speicherplatz und Rechnerkapazität inzwischen nichts mehr kosten, spricht nichts dagegen, zunächst mit 96 kHz und 24 Bit zu samplen. Damit hat man natürlich mehr, als jeder Mensch je hören kann. Aber man hat dann einfach massenhaft Reserven für die spätere Verarbeitung. Und Runterrechnen auf CD (44,1 kHz und 16 Bit) kann man immer. Auch das zitierte Problem, zwischen 20 kHz (die sollen noch unvermindert durchkommen) und 22 kHz (da schneidet die CD ab) von 100% auf 0% runterregeln zu müssen, lösen digitale Filter mit Bravour.
Bezüglich Audio-Qualität: Ein bei youtube mitgeschnittenes und vom iPod wiedergegebenes Stück ist immer noch um Klassen besser, als ein damals vom UKW-Radio auf Kassette aufgezeichnetes und vom Walkman wiedergegebenes Lied. Nutzt man den iPod mit bei iTunes gekaufter oder selbst von CD gerippter Ware, übertrifft man in der Qualität ebenfalls locker die in den 70er Jahren im Massenmarkt verkauften Heimstereoanlagen (aus Plattenspieler, Tape Deck, Verstärker; die CD kam erst in den 80ern) um Längen.
Kai
Kai: Natuerlich, ich meinte mit 44.1kHz und 16 Bit auch das ENDformat, also den MASTER. Waehrend des Recordings, wo man die Audiodaten tausendmal hin- und her kopiert und filtert, sind hoehere Sampling-Raten und vor allem groessere Bit-Tiefen natuerlich sinnvoll. Ich benutz ja auch in einer Bildbearbeitungspipeline keine JPEGs…
Wobei ich selbst waehrend des Recordings (Vocal-Spuren etc.) mit 44.1/16 arbeite und mir das bisher noch nie negativ aufgefallen ist. Hab auch immer ein niedriges Budget und moechte deshalb Festplattenplatz und DSP-Power/CPU-Zeit sparen 😀
Also wenn mich meine Ohren nicht täuschen, so geben die 44,1 kHz bzw 96kHz
nicht die Maximal-Frequenz des aufgenommenen Tons an, sondern die „stufigkeit“ des digital Signals. Soll heißen wie oft das Analog-Signal in ein Digitales verwandelt wird.
die zwei- (oder drei-)stelligen Bit-Zahlen geben an, wieviele Stufen jedes der vorhergenannten Signale hat, soll heißen 8 Bit bedeutet ein Ton wird mit 256 Werten dargestellt (z.B. 20 Hz bis 276 Hz) das ist nicht mal Telefonqualität von
1896! bei 16 Bit sinds schon 32768 (z.b. 20 Hz bis 32788 Hz) das ist dann schon mehr was für Katzen und Hunde (Menschen dürfen auch noch). Bei 24 Hz können im Baß nur noch Elefanten und im Sopran die Fledermäuse noch was hören 😉
Die Bitangaben bei MP3 sind etwas anderes, da bedeutet die Zahl die Signalkomprimierung. Eine CD liefert z.B. 1378 kbit/s (44100*16*2)/1024.
Soweit mein Wissen über Audio-Signale. Korrekturen bitte erst ab 25 kHz, dann kann ich es nicht mehr hören ;-)))
Nach dem Sharonsche Abtasttheorem muss man mit mindestens der doppelten Frequenz abtasten um ein Signal zu digitalisieren. Mit 44 KHz kann man also maximal Signale bis 22 KHz erfassen.
(Hätte nie gedacht das ich die elektronikvorlesung in der Uni doch mal brauche) 🙂
Danke, da hab ich mich wohl etwas geirrt!
Wie man in Franken sagt: „Again whad lörnd!“
(Gottseidank komm ich nicht aus Franken)
Siehe
http://de.wikipedia.org/w/index.php?title=Nyquist-Shannon-Abtasttheorem
Da man das Signal noch Tiefpassfiltern muss wenn man genau 2.0 x die frequenz nimmt, geht man meist etwas höher auf Faktor 2,2 oder 2,4 was zwanglos zu den 44 und 48 KHz Abtastfrequenzen für maximal 20 khz Signale führt.
Bezüglich DA-Wandlern: Es geht hauptsächlich nicht um die Bittiefe, viemehr um das Verhalten des Digitalen Tiefpassfilter. Während der Bearbeitung von Aufnahmen hat eine Auflösung von 24Bit & mehr durchaus Sinn. Ebenso bei der Aufnahme… Das alles setzt natürlich eine korrekte Ausführung des analogen Signalverarbeitung voraus. Und selbst dort sind höherauflösende Wandler sinnvoll, selbst wenn die analoge Elektronik theoretisch nicht mehr als 20-Bit hergibt macht es Sinn 24Bit Wandler einzusetzen. Leider ist dieses Gebiet der Elektronik mindestens so kompliziert wie HF-Technik – dort gibt es zumindest keine „Ohren“ die Goldkontakte hören 😉