

Studiosofa by Sound&Recording-Magazin
Marc Bohn & Klaus Baetz
Auf unserem Studiosofa sprechen Marc Bohn und Klaus Baetz wöchentlich mit Profis aus der Studioszene über:
🎙️Recording
🎛️ Mixing
🔊 Mastering
🎶 Songwriting
⚙️ Sound Design
🆕 News der Audio-Branche
🎙️Recording
🎛️ Mixing
🔊 Mastering
🎶 Songwriting
⚙️ Sound Design
🆕 News der Audio-Branche
Episodes
Mentioned books

Sep 12, 2019 • 1h 7min
#07 - Monokompatibel - Arbeiten in Clip- und Loop-basierten DAWs
Funktionalität vs. Komplexität
monokompatibel.com

Jul 2, 2019 • 60min
#06 - Marc Bohn - Sound&Recording- und KEYBOARDS-Chefredakteur
Werdegang, Sozial-Kompetenz, Networking
Infos zur Studioszene gibt es unter www.studioszene.de

Jun 17, 2019 • 1h 13min
#05 - Toni Loitsch - Produzent, Studio- & FOH-Engineer
Live und im Studio, Studioplanung, -Ausbau und -Verkabelung
Die Nautilus ist das U-Boot aus den Romanen "Zwanzigtausend Meilen unter dem Meer" und "Die geheimnisvolle Insel" (1996 bis 70) von Jules Verne, das unter dem Kommando von Kapitän Nemo steht.
Link zum Studio:
https://www.nautilus-sound.net
Studio Referenzen von Toni Loitsch :
https://www.discogs.com/artist/1379839-Toni-Loitsch
https://www.discogs.com/search/?q=toni+meloni&type=all
Weitere Infos findest du unter www.soundandrecording.de/podcast
Weitere Interviews:
https://eventelevator.de/storys/alles-ueber-das-lichtdesign-und-den-sound-der-donots-lauter-als-bomben-tour/
https://www.sonible.com/blog/smarteq-live-high-resolution-deesser/
https://www.sonible.com/blog/smart-eq-live-guitar/

Jun 4, 2019 • 1h 27min
#04 - How-to: Sprachaufnahme für Podcast-Produktionen
Equipment, Recording, Editing, Mixing
Podcasts gibt es bereits seit über 15 Jahren. Aktuell feiert das Medienformat eine Art Renaissance bzw. erlebt seinen zweiten Frühling – oder sagen wir: den ersten! Denn so wirklich angekommen sind Podcasts nie … bis jetzt. Das hat wohl viele Gründe: weniger lesen, weniger Bildschirm-Starren, mehr berieseln lassen. Gedankenreisen! Ich persönlich bin auch gerade erst auf den Trichter gekommen und höre Podcasts zu den Themen Abenteuerreisen, Eishockey, Whisky und natürlich auch Musikproduktion. Da mich natürlich interessiert, wie die Podcaster ihre Folgen produzieren, bin ich der Sache mal auf den Grund gegangen.
Die Produktion von Podcasts
So entsteht der Sound&Recording-Podcast
Ich hatte es mir natürlich nicht nehmen lassen, endlich die Idee von einem eigenen SOUND&RECORDING-Podcast umzusetzen. Doch bevor man überhaupt den ersten Satz aufnimmt, stellt sich die Frage nach dem Konzept, um die Technik dementsprechend anpassen zu können: Wird es ein Monolog, oder gibt es Gäste, mit denen man über ein Thema spricht oder die man interviewt? Wenn ja, wie viele Gäste gibt es mindestens oder maximal? Findet die Aufnahme immer im gleichen Raum statt, oder möchte man auch mal flexibel von unterwegs mit dem Smartphone aufnehmen? Dann stellt sich natürlich die Frage: Brauche ich ein Tischmikrofon oder ein Handmikrofon, eher ein dynamisches oder vielleicht ein Kondensator-Mikrofon mit Großmembran? Oder doch vielleicht Lavaliers? Im Grunde gibt das Podcast-Konzept vor, was gebraucht wird!
Wir haben uns umgeschaut, und für verschiedene Varianten Lösungen rausgesucht, um in der Landschaft der Podcast-Mikrofone einen Überblick zu bekommen und gehen darauf ein, was bei der Aufnahme und der Nachbearbeitung von Sprachaufnahmen generell beachtet werden sollte.
DIREKT IM OHR ODER PLATZ FÜR RAUM?
Lauscht man den gängigen Podcasts in seiner Playlist, klaffen die Klangunterschiede weit auseinander. Die einen sind produziert wie eine professionelle Radiosendung, weil vielleicht sogar ein bekannter US-Sportsender dahintersteht, manche hören sich an, als wäre das Gespräch mit fünf Personen in einer Kneipe mit Hintergrundmusik, bei reichlich Bier und über lediglich ein Mikrofon aufgenommen worden. Hört sich nicht nur so an, ist auch so! Natürlich sollte man sich vorher Gedanken machen, wie man klingen möchte und wie hoch der eigene Qualitätsanspruch ist.
Um nach Radio zu klingen, solltet ihr den Nahbesprechungseffekt nutzen, um den Bassanteil in der Stimme anzuheben und so dem Hörer das Gefühl zu geben, man sei direkt „im Ohr“. Dabei sollte jeder Gesprächspartner ein Großmembran-Kondensatormikrofon vor der Nase stehen haben, am besten mit Pop-Schutz und einem Abstand zwischen 5 und 10 cm zur Membran. Ich persönlich mag diesen Effekt sehr gerne, platziere den Popschutz deshalb ca. 5 cm vor der Membran und versuche, so nah wie möglich in den Pop-Schutz zu sprechen. Kopfhörer natürlich voll aufgedreht – Sänger-Krankheit. Aber Achtung: Auf Übersprechen achten. Bei meinem halboffenen Beyerdynamic DT 990 Pro nicht gerade ideal, aber kenne ihn sehr gut, von ihm kann da schon mal was mit auf die Aufnahme kommen. Wenn ihr euch die Arbeit in der Nachbearbeitung erleichtern wollt, solltet ihr unbedingt mit geschlossenem Kopfhörer arbeiten.
Bei unseren Podcast-Aufnahmen nutze ich USB-Mikrofone, die ich an meinem MacBook anschließe. Häufig kommen dabei das Beyerdynamic FOX und das Apogee Hype Mic zum Einsatz. Beide sind Großmembran-Kondensatormikrofone, die ich unter den Audio- & MIDI-Einstellungen auf meinem MacBook als Hauptgerät einrichte, die Ein- und Ausgänge benenne, damit ich im I/O-Setting meiner DAW nicht durcheinanderkomme, und schon kann ich die beiden Mikros als In- und Outputs verwenden. Beide sind nämlich auch Interface und haben zusätzlich einen eigenen Kopfhörerausgang. In meiner DAW muss ich jetzt nur noch dieses Konstrukt als Interface angeben, und los geht’s.
Achtung: Jedes Mikrofon muss an einen eigenen USB-Port angeschlossen werden, mehrere Mikrofone über einen Adapter verbunden, funktioniert leider nicht. Mein MacBook Pro stammt aus 2017. Deshalb habe ich lediglich vier Ports mit jeweils Thunderbolt- bzw. USB-C-Anschluss. Bei zwei USB-Mikrofonen bräuchte ich also zwei Adapter. Deshalb nutze ich gerne das Apogee Hype Mic, da im Lieferumfang neben USB-A und Lightning- auch ein USB-C-Kabel dabei ist. Der Adaptierwahn hat ein Ende!
Wenn ihr eher einen etwas räumlicheren Sound haben und weniger nach Radio klingen möchtet, könnt ihr das Mikrofon auch in einem Abstand zwischen 20 und 40 cm vor euch auf den Tisch stellen. Bei vielen USB- oder Lightning-Mikrofone wird ein Tischstativ mitgeliefert. Ich rate euch, jedem Gesprächsteilnehmer ein Mikrofon hinzustellen, statt dass sich mehrere Sprecher ein Mikrofon teilen. Letzteres kann mal eine Notfall-Lösung sein, macht allerdings die Nachbearbeitung aufgrund des Übersprechens und der unterschiedlichen Lautstärke sehr schwierig bzw. zeitintensiv und lässt die Qualität stark leiden.
Egal ob Nahbesprechung oder eine Aufnahme mit mehr Raum, der Abstand zum Mikrofon sollte in einem gewissen Maße eingehalten werden, um den Pegel so konstant wie nur möglich zu halten, was bei einem dynamischen Instrument wie der Stimme sowieso schon schwierig genug ist.
Hintergrundgeräusche sind zu beachten. Auch wenn man in vielen Podcasts zwischendurch mal einen Hund bellen hört, die Bedienung nach der nächsten Bestellung fragt oder ACDC im Hintergrund laufen – was durchaus Atmosphäre schafft –, sollte man sie so gering wie möglich halten. Vor allem bei ACDC kann nach der Veröffentlichung auch mal die GEMA vor der Tür stehen.
AKUSTIK
Nein, ihr müsst jetzt nicht eure Küche akustisch optimieren, um dort „Omis-Koch-Podcast“ zu produzieren. Es reicht, wenn man darauf achtet, dass man nicht im verhallten Umfeld 3 Meter vom Mikrofon weg steht, sondern dann möglichst nah ins Mikrofon reinspricht. Dort eignen sich beispielsweise Ansteckmikrofone sehr gut, da man zum Kochen ja auch die Hände braucht. Für manche Umgebungen machen allerdings Reflexion-Filter Sinn. Die platziert man einfach hinter dem Mikrofon, wenn Platz da ist, um die Akustik des vielleicht nicht ganz so optimalen Raums, so gut es geht, auszublenden. Auch mit der Richtcharakteristik der Mikrofone kann man arbeiten. So lässt sich beispielsweise mit einer Niere der rückwärtige Schall ausblenden.
ICH HÖRE STIMMEN!
Bei der Aufnahme vermeide ich es, die Kompression direkt mit aufzunehmen. Das Apogee Hype Mic verfügt beispielsweise neben dem neutralen Modus ohne Kompression über drei Kompressor-Einstellungen: leicht, mittel und stark. Bei einer unserer ersten Podcast-Aufnahmen haben wir die Presets durchgesteppt und sind bei „stark“ hängengeblieben. „Boah, klingt das fett!“ War auch so! Allerdings haben wir damit den Raumanteil stark angehoben, und die Stimme des Gesprächspartners, der im gleichen Raum saß, war mehr als deutlich auf dem gleichen Signal zu hören. Was dazu führt, dass die beiden eigentlich getrennten Signale in der Lautstärke schwieriger regelbar sind, weil man den anderen immer über dasselbe Mikrofon mithört. Darauf sollte bei einer Aufnahme mit Kompression geachtet werden. Vielleicht versuchen wir es beim nächsten Mal mit „leicht“!
Die Aufnahme erfolgt bei unserem Podcast mit 16 Bit und einer Sampling-Rate von 44,1 kHz. Beim Pegeln achte ich darauf, dass die Peaks zwischen –9 und –6 dB liegen. Am besten bittet ihr den Sprecher, beim Soundcheck laut und deutlich zu reden, um für mögliche Spitzen genügend Headroom zu haben.
Kleiner Rat: Macht sicherheitshalber eine Testaufnahme von 30 Sekunden und kontrolliert, ob auch wirklich alles aufgenommen wird.
Und auch wenn ihr im gleichen Raum seid, klatscht zu Beginn der Aufnahme kurz in die Hände oder einem Anwesenden ins Gesicht, um in der DAW einen visuellen Bezugspunkt zu schaffen, an dem man eventuelle Latenzen durch Anpassen des Peaks auf beiden Audiospuren ausgleichen kann.
SPRACHE MUSS SEIN!
Da ich mittlerweile ein paar Podcasts produziert habe, kann ich euch sagen, dass es zeitintensiv ist, laute Schmatzer, Atmer, Ähms und sonstige Körpergeräusche rauszuschneiden. Deshalb am besten auf Schmatzer und Atmer ins Mikro achten und wenn möglich vermeiden. Man kann auch, während der andere gerade spricht, seitlich am Mikrofon vorbei atmen statt direkt auf die Membran zu. Ähms sind so eine Sache; natürlich soll die Aufnahme auch authentisch bleiben, deshalb gehören Ähms dazu, und man sollte nur selektiert im Nachgang diese akustischen Indikatoren dafür, dass das Gehirn gerade arbeitet, rausschneiden.
Pausen und Wartezeiten, während der Apparat läuft, können auch verkürzt und rausgeschnitten werden. „Moment, da muss ich mal ganz kurz überlegen …“ Wenn man es schafft, diese Pausen mit einer guten Moderation zu überbrücken, alles cool! Oft passiert in dieser Zeit allerdings nicht viel, und der Hörer fragt sich: „Ist der eingeschlafen?“ Und der Podcast-Host freut sich, da man nur ein gewisses Volumen an Upload-Minuten in seinem Account pro Monat besitzt. Da muss man einfach ein gesundes Mittelmaß finden.
Allerdings wirkt es auch unnatürlich, wenn gerade eine Frage gestellt wurde und der Gegenüber ohne zu überlegen wie aus der Pistole geschossen antwortet. Man sollte es mit dem Verkürzen also auch nicht übertreiben. Ein gesundes Mittelmaß ist hier, wie überall, eine gute Lösung.
Dann gibt’s ja mal Versprecher, die auch zum Charme der Veranstaltung beitragen und über die hin und wieder auch mal gelacht wird. Sehr wichtig! Manchmal verzettelt man sich allerdings und verliert sich in einem Wortgewirr, sodass es etwas dauert, bis man den Knoten entwirren kann. Hat man den Faden wiedergefunden, ist es am einfachsten, man beginnt den Satz, sofern man sich noch daran erinnert, einfach wieder von vorne. Das macht es beim Editieren einfacher, da man lediglich den Zwischenteil rausschneiden muss.
Langsam und deutlich reden ist genauso wichtig wie die eigentliche Selbstverständlichkeit, den anderen ausreden zu lassen und ihm nicht ins Wort zu fallen. Natürlich wird auch mal heiß diskutiert, es entstehen Wortgefechte, die einen Sieger brauchen. Das Reingrätschen stört allerdings oft den Fluss eines Gesprächs. Deshalb immer schön ausreden lassen, vielleicht einen kleinen Moment warten und dann erst reagieren.
Es macht auch Sinn, genau zu zuhören, was der andere sagt und sich Notizen zu machen, um Anschlussfragen später stellen zu können. Das hat sich bei mir durchgesetzt! Ich klicke dann vor der Membran die Miene aus dem Kuli, setzte mit der Spitze monumental auf meinem Blatt Papier auf, dass dabei noch raschelt … Hat alles seinen Charme!
EDITING LÄUFT SYNCHRON!
Zuerst editiere ich redaktionell, d. h., ich schneide Versprecher, Pausen, auffällige Schmatzer und Ähms raus. Dabei schneide ich im 0-Durchgang der Sinuswelle, da sonst Knackser entstehen können. Innerhalb von Wörtern lässt sich am besten vor plosiven Lauten wie beispielsweise P oder K schneiden.
Bevor ich jedoch mit dem Schneiden beginne, lege ich Edit-Gruppen an und füge alle Spuren hinzu, die ich aufgenommen habe. Dadurch bearbeite ich alle Spuren simultan an der gleichen Stelle, egal ob ich schneide, einfüge oder die Länge der Audioblöcke anpasse – Es passiert auf allen Spuren synchron.
Außerdem wechsle ich in Pro Tools in den Shuffle-Mode. Auch in der kostenlosen DAW Audacity steht diese Funktion zur Verfügung – einfach auf die Stoppuhr im Werkzeug-Bereich klicken. Diese Möglichkeit gibt es in anderen DAWs auch!
Der Shuffle-Mode ist ein sehr wichtiges Feature, mit dem man von Beginn an bei der Sprachaufnahme arbeiten sollte, auch bei nur einer Spur, weil, wenn man beispielsweise etwas rausschneidet, einfügt oder die Länge verändert, das nachfolgende Audiomaterial automatisch nachgerückt wird. Es entstehen also keine Lücken und man muss nichts von Hand hin und her schieben. Dann müssen lediglich Fades bzw. Cross-Fades nach jedem Schnitt gesetzt werden, und das war´s!
Ganz wichtig ist allerdings auch das Arbeiten in den bereits angesprochenen Edit-Gruppen, um wirklich in allen Spuren gleichzeitig zu schneiden. Sonst läuft man Gefahr, die Synchronität der Spuren zu verlieren. Das hört man spätestens dann, wenn der eine schon antwortet, obwohl der andere noch gar nicht die Frage gestellt hat. Übersprechen durch Kopfhörer sind hier zum Beispiel hilfreich! Falls sie auffallen, weiß man, dass irgendwas nicht stimmt. Am besten drückt man dann so lange Undo, bis alles wieder übereinander läuft. Dann ist vielleicht viel Arbeit dahin, allerdings spart man sich das mühselige Anpassen per Hand und Gehör, um den Ursprungszustand wiederherzustellen.
Wurde bei Aufnahme der Abstand zum Mikrofon mal nicht eingehalten, automatisiere ich die Lautstärke an wirklich extrem schwankenden Stellen auch gerne mal nach. Viele beginnen mit dem Sprechen und bewegen sich währenddessen erst zum Mikrofon hin. Dem kann man durch Automation der Lautstärke etwas entgegenwirken.
Aus diesem Grund und dem Fakt, dass viele einen nicht aussprechen lassen, ist es von Vorteil, nur ein Handmikrofon zu nutzen, was jeder dann bekommt, wenn er dran ist. Dann weiß jeder, dass er jetzt erst reden darf. Etwas Sarkasmus …
FEINTUNING
Sobald der grobe Schnitt stimmt, verlasse ich den Shuffle-Mode sowie die Gruppenbearbeitung und mache mich an Details. Hier scheiden sich die Geister, und man muss wirklich für sich selbst entscheiden, wie professionell man es haben will. Ich schneide tatsächlich alle Sprechpausen raus und die Audiospuren frei. D. h., wenn einer redet, schneide ich in diesem Teil die Audiospur des anderen heraus; „Mhms“, Zwischenfragen und zum Gespräch dazugehörige Laute werden drin gelassen. Danach setze ich an allen Audioblöcken jeweils einen Fade-In und einen Fade-Out. Diese Vorgehensweise ist zwar mit einem höheren Zeitaufwand verbunden, ist aber mein Qualitätsanspruch an unseren Podcast. Danach wird konsolidiert, damit alle Schnipsel wieder in einem Block sind, fertig!
Natürlich kann man solche Sachen auch über ein Noisegate regeln. Allerdings nervt mich diese ständige Fummelei, um eine Einstellung zu finden, die für die gesamte Sprachaufnahme passt. Dann mache ich es lieber pragmatisch.
Wichtig ist beim Schneiden: digitale Stille vermeiden! Das heißt, es sollte immer mindestens eine aufgenommene Spur laufen. Fehlt irgendwo ein Stück, lässt sich, um die Stille zu überbrücken, einfach ein Bereich mit Stille aus der gleichen Spur kopieren und einfügen. Fades setzen, läuft!
Bejahende „Mhms“ oder „Ahas“, die dem Sprechenden signalisieren, dass man noch zuhört, können auch zu laut sein. Deren Lautstärke passe ich dann per Automation an. Rausschneiden funktioniert leider nicht, da man sie meistens du

May 21, 2019 • 1h 17min
#03 – Die Produktion des sample-basierten Software-Instruments NOIRE
Native Instruments´ Konzertflügel von Nils Frahm
Native Instrument NOIRE wurde in Zusammenarbeit mit Galaxy Instruments und dem Pianisten Nils Frahm entwickelt. Zu Gast aus dem Team von Galaxy Instruments war in unserem Podcast Sounddesigner, Produzent und Sound&Recording-Autor Stephan Lembke.
Im Interview erzählt er, wie das Software-Piano entstand, das auf dem originalen Konzertflügel von Nils Frahm basiert, einem CFX Grandpiano von Yamaha, der in einem Preissegment von etwa 146.000 Euro liegt.
**Stephan, wie kam es zu der Idee, genau diesen Flügel zu sampeln? **
Wir haben bereits bei der Produktion von Una Chorda mit Nils zusammengearbeitet. Damals hatten wir große Freude daran, den Sound so zu shapen, wie Nils sein Upright aufgenommen hat, und den Sound, den man auch in seiner Musik wiederfindet, so in die Software zu integrieren. Und so kam es, dass wir uns mit Nils danach auch nochmal getroffen und überlegt haben, was man noch so machen könnte. Irgendwann rief Nils an und sagte: „Ich habe mir einen neuen Flügel gekauft, den müsst ihr unbedingt hören, der ist der absolute Wahnsinn“. Und so kam es, dass wir mit einer kleinen Delegation von Native Instruments, die ja auch in Berlin sitzen, zu ihm rüber ins Studio gefahren sind, um uns dann vor Ort anzuhören, wie Nils auf seinem wunderschönen CFX gespielt. Wir waren alle hin und weg und wussten, das ist das Ding, das wollen wir machen!‘
Welche Eigenschaften muss denn ein Instrument mitbringen, dass ihr sagt ‚Ja, den sampeln wir‘?
Das sind oft Charakter-Sachen, die man vielleicht gar nicht so richtig erwartet. Klar, wenn man einen Steinway D Konzertflügel sampeln will, dann ist es schon so, dass der eine bestimmte Charaktereigenschaft hat. Aber auch die gleichen Modelle unterscheiden sich aufgrund der Handarbeit, alle haben einen gewissen Grundcharakter. Wenn es das gleiche Modell ist, wird’s trotzdem anders klingen. Und so guckt man, welche Qualitäten hat der Flügel, wie ausgewogen ist ein Flügel, wie ist die dynamische Entwicklung eines Tons. Also wir gehen da wahrhaftig recht technisch ran, wenn wir Probe spielen, da wir auch keine ausgebildeten Pianisten sind. Wir kommen mit ein paar Akkorden klar, aber da hört es dann auch irgendwann auf. Deswegen hören wir dann auch, was passiert denn hier mit dem einzelnen Ton, wenn man ihn von ganz leise bis hin zu ganz laut spielt. Und was passiert auch chromatisch, wenn ich die Töne durchgehe? Sind die ausgewogen, wie klingt der Bass, wie klingt der mittlere Bereich, wie klingt der Diskant? Das sind die Grundlegenden Eigenschaften.
Instrumente sprechen einen aber auch direkt an. Der Maverick-Flügel zum Beispiel, den wir für die Definitive-Piano-Collection von Native Instruments gesampelt haben, war eher ein Ausrutscher. Wir haben in einem Klavierhaus nach einem anderen Flügel geschaut und zufällig bei dem in die Tasten gehauen. Den hätten wir uns sonst nie ausgesucht. Plötzlich haben wir da gesagt: „Was ist das denn, was da rauskommt?“ Ein schön surrender Oberton und ein ganz spezieller Charakter. Das war das Ding, das war ein Charakter-Piano.
Welche Rolle spielte Nils Frahm bei dieser Produktion?
Nils war in erster Linie beratend tätig. Er hat uns das Studio und das Piano zur Verfügung gestellt, sowie sein gesamtes Team, inklusive seinem Klaviertechniker, sein Studio-Team, sein ganzes Equipment, und sein Know-how aus unzähligen Flügel- und Upright-Piano-Aufnahmen die er gemacht hat. Wir waren somit direkt an der Quelle und konnten gucken, wie hört Nils seinen Flügel, wie würde er ihn aufnehmen, was würde er empfehlen, wie findet man einen Weg, das so abzubilden, dass es in seinen Stil und in sein Klangkonzept passt.
Ich stelle mir die Projektplanung von so einer Sampling-Session sehr umfangreich vor. Das ist doch bestimmt eine aufwendige Vorplanung, die man leisten muss. Wenigstens stand der Flügel schon mal da, dass ihr euch nicht um den Transport kümmern musstet. Aber wie sieht die Planung für eine solche Session aus? Welches Material, Mikrofone, Outboard wählt ihr?
In dieser speziellen Situation war das relativ komfortabel. Nils hat vor Ort im Saal 3 ein komplettes Studio mit Regie, das Instrument war da, das war soweit alles vorbereitet.
Bei uns fängt es üblicherweise so an, dass wir eine kurze Demoaufnahme machen, die bei uns tatsächlich in einem kleinen Sample-Instrument resultiert. Das nehmen wir dann mit in unser Studio, um es in gewohnter Abhörumgebung zu hören. Auf dieser Basis überlegen wir dann, welches Equipment wir womöglich brauchen. Und obwohl Nils da ein komplettes Studio hat, sind wir trotzdem mit einem Sprinter und einem Kombi hochgefahren, die beide vollgepackt mit Equipment für die Session waren, weil wir auch unser gewohntes Equipment dabeihatten, da es bei uns auch oft darum geht sehr Low-Noise zu arbeiten mit wenig Rauschen. Das bedeutet auch eine bestimmte Kombination aus Mikros und Preamps, die wir durch viel Ausprobieren so gefunden haben. Und da setzen wir einfach auf unser Zeug, da wir dort genau wissen, wie das funktioniert. Aber tatsächlich haben wir in diesem Fall alles mitgebracht, alles aufgenommen und haben es letztendlich dafür entscheiden, das Setup so zu benutzen, wie auch Nils seinen Flügel aufnimmt. Das sind zwei ganz alte Neumann M50 Röhrenmikrofone, die aus seinem Bestand waren. Das sind sündhaft teure Mikrofone, die man heute eigentlich so gut wie gar nicht mehr bekommen kann. Wir haben über sein Pult aufgenommen. Als weiteres Mikrofon haben wir lediglich ein – und auch das nutzt Nils für seine Aufnahmen – Coles Bändchenmikrofon über den Basssaiten als Stütze noch dazu gefahren. Das ist der Sound von Nils, und das ist auch der Sound von NOIRE.
Du hast es eben schon erwähnt: Low-noise ist bei Mikrofonen eine wichtige Sache, aber welche Anforderungen habt ihr noch an Mikrofone und Outboard?
Genau, Low-noise ist ein Thema, aber Klang ist das Thema, was über allem steht! Erst dann kommt das Thema Noise. Wenn ich beispielsweise die DPA 4006er nehme, mit denen gerne Klavier und Flügelaufnahmen gemacht werden, dann klingen die wunderbar. Wenn ich dann aber eine Alternative habe, wie beispielsweise die Sennheiser MKH; Mikrofone mit sehr geringem Rauschen, dann ist es komfortabler diese zu benutzen, auch wenn der Klang etwas unterschiedlich ist. Aber es kommt auch drauf an, in welcher Situation man sich befindet, und den Klang auch bewerten kann. Es ist auch ganz oft so, dass wir die Coles-Mikrofone benutzen und wir dann denken: „Ja, das ist der Sound, der klingt richtig gut!“ Dann schalten wir um auf andere Mikrofone, die deutlich weniger rauschen. Das ist dann auch eine Gewissensfrage: geht man jetzt mit den rauschigeren Mikrofonen; da sprechen wir von einem Unterschied von ca. 6 dB mehr Rauschen oder weniger, das ist kein Beinbruch. Aber wir wissen, was in der Kette bei der Nachbearbeitung passiert, und dann spart man sich da deutlich Zeit und Nerven, indem man vorher schon etwas weniger Rauschendes verwendet.
Kannst du uns nochmal eine Übersicht geben über die verwendeten Mikrofone? Ein paar hast du ja schon angesprochen…
Bei NOIRE waren es, abgesehen von Nils Setup, Lewitt LCT 540, die rauschärmsten Mikrofonen die es überhaupt gab, bis Lewitt selbst noch rauschärmere Mikrofone rausgebracht hat. Solche Mikrofone eignen sich z.B. um Hammer-Noises aufzunehmen. Also das Geräusch, wenn die Taste runter gedrückt wird, ohne dass die Saite angeschlagen wird, und das Zurückfallen. Würde man so etwas mit einem Raummikrofon aufnehmen, dann könnte das auch ein Cent-Stück sein, das irgendwo auf ein Kissen fällt oder ähnliches. Da muss man also schon sehr nah ran und hochpegeln. Dafür sind die Lewitts interessant.
Andere waren Gefell M930 Nierenmikrofone. Die funktionieren ganz gut. Schöps MKII Kugeln waren da, Sennheiser MKH 8040 und 8020, das sind Kugel und Nierenmikrofone mit sehr geringem Rauschen. Es gab ein paar speziellere Mikrofone, z.B. das einzige französische Bändchenmikrofon, das je gebaut wurde, das Melodium, das uns der frühere Techniker von Nils empfohlen und auch mitgebracht hatte. Klang auch gut, aber wie gesagt, am Ende waren es die beiden Neumann M50 und das Coles am Bass, und das war es in erster Linie.
Allerdings gab es noch etwas Spezielleres: Wir hatte einen NS10 Lautsprecher mitgenommen, den man ja auch gern bei Schlagzeugaufnahmen verwendet, indem man ihn mit einem XLR-Stecker verkabelt, um ihn als Mikrofon zu verwenden. Den stellt man als Woofer vor die Kickdrum, und sobald dort Luft bewegt wird, bewegt sich auch der Lautsprecher. Dadurch bekommt man entsprechend einen sehr tiefen vollen Bass. Allerdings haben wir ihn am Flügel unter den Basssaiten positioniert. Dazu mussten wir etwas suchen. Das war schon sehr speziell. Wir haben gemerkt, dass er nicht dafür gemacht war, horizontal zu höngen. Typischerweise stehen die ja vertikal, wie ein Lautsprecher – oder Mikro – eben steht. In der Session haben wir dann drei NS10 Lautsprecher zerstört, weil die einfach nicht durchgehalten haben. Die Aufnahmen gingen drei Wochen und irgendwann haben die durchgehangen oder es gab einen anderen Grund, dass die nach einer Zeit ausgefallen sind.
Die Basis für diese Idee lag übrigens darin, dass Nils einen elektronischen Pickup unter den Saiten hat, dessen Signal er über die PA schickt und ein wenig verstärkt, allerdings so, dass man das erstmal gar nicht so bewusst hört. Auch uns hat er den Flügel so vorgestellt und wir dachten: „Was ist das eigentlich für ein übernatürliches Erlebnis?“ Und dann haben wir eben überlegt, wie man das auch dem Nutzer von NOIRE mitgeben kann und sind eben beim NS10 gelandet.
Ihr habt drei (?!) Wochen aufgenommen?
Genau, wir waren drei Wochen in Nils‘ Studio im Funkhaus, weil es dort wirklich um absolute Details ging. Und es war nicht die normale Sampling-Aufnahme, wo man das nur einmal aufnimmt. Ähnlich wie schon beim Una Chorda damals, das wir dreimal aufgenommen haben. Einmal in der puren Version, wie es damals von David Klavins gebaut wurde, dann in einer Version mit einem Baumwollstreifen zwischen Hämmern und Saiten, damit man ein etwas stärkeres stoffiges Anschlagsgeräusch bekommt. Bei der dritten Variante gabs ein Filz zwischen Hämmern und Saite, was grundsätzlich den Ton, aber auch den Anschlag verändert. Allerdings hat das Una Chorda weniger Dynamik und weniger Sustain als der CFX. Den haben wir in zwei Varianten aufgenommen: einmal die Version wie der Flügel als Konzertflügel bearbeitet wurde, und dann gab es einen Filzmoderator, der speziell von Nils´ Klavierbauer angefertigt wurde. So ein Moderator hat in einem Flügel eine spezielle Funktion. Serienmäßig wurde das nur mal von einem Hersteller angeboten, allerdings war die Nachfrage sehr gering. In einem Upright hat man das ja sehr häufig – das ist ein Filzstreifen, der vertikal zwischen Hämmer und Saiten kommt, um die Saiten und den Anschlag zu dämpfen. Beim Flügel muss das natürlich horizontal geschehen, und ist der Filz zu dünn, bzw. hat er nicht die nötige Steifigkeit, würde er wegfallen. Ist er zu hart, funktioniert das ganze nicht richtig. Deswegen hat sich der Klavierbauer etwas überlegt, sodass wir unseren „Wunschfilz“ nutzen konnten. Das war dann auch schon die erste Frage. Wir haben quasi einen Tag dafür verwendet, verschiedene Filze auszuprobieren. Es war also viel Ausprobieren und Sound-finden, bevor dann das eigentliche Sampeln begann. So kam der recht hohe Zeitaufwand zustande.
Es gibt also viele Entscheidungen, die man treffen muss: Mikrofonauswahl, -position, Filz … so viele einzelne Details und Variablen. Wo hört man denn da auf?
Tja, richtig … man kennt das ja: Man nimmt etwas auf, sei es Musik, Sprache Soundeffekt, und dann ist man eigentlich nie fertig. Außer man sagt: Ich mach das Ding nun und dann ist es fertig! Wenn man dafür eine Stunde, einen Tag oder eine Woche Zeit hat, dann muss irgendwann eine Entscheidung gefällt werden. Das ist nicht immer leicht, aber das muss irgendwann passieren. Erfahrung hilft da natürlich, aber trotzdem kommt es immer wieder vor, dass man sich für Variante A entscheidet, über Nacht ins Grübeln gerät, und am nächsten Tag doch nochmal Variante B ausprobiert, nur um am Ende doch zu Variante A zurückzukehren.
Bei NOIRE fing das sogar damit an, dass wir den Flügel wahrhaftig erstmal durch gen Raum geschoben haben. Dabei ist Saal 3 eigentlich sehr ausgewogen. Dafür hatten wir ihn an vier Positionen im Raum mit jeweils zwei Mikrofonen aufgenommen, dann schoben wir ihn wieder dorthin, wo wir ihn hatten, und haben auch dort nochmal ausprobiert, was passiert, wenn wir ihn etwas mehr nach links, nach rechts, nach vorne, nach hinten schieben, wenn wir ihn drehen. Da ist es natürlich gut, wenn man einen Zeitplan hat in dem steht wann man was bis wann erledigt haben möchte.
Unterm Strich probiert man auch das alles einen ganzen Tag oder bis man einfach nicht mehr kann. Danach würde sowieso nichts mehr passieren, was es besser macht. Am nächsten Tag hören wir dann noch einmal mit frischen Ohren, und meistens wird auch dann nochmal korrigiert und ausprobiert. Aber lange darf das dann nicht mehr dauern. Dann muss bald eine Entscheidung fallen.
Wie würdest du denn den Zeitaufwand der Planung, Ausprobieren und dem tatsächlichen Ausprobieren definieren?
Planung ist ein sehr großer Zeitaufwand, der sich über mehrere Monate erstrecken kann, weil das auch alles umfasst. Termine festlegen, Teamfinden, etc.
Ausprobieren ist eher ein kleinerer Zeitaufwand, im Verhältnis zur Planung und auch im Verhältnis zur Aufnahme. Bei drei Wochen Aufnehmen, probieren wir vielleicht vier Tage aus und dann geht’s los.
Ich schätze 50% gehen etwas für die Vorbereitung drauf, 10 – 15% auf das Ausprobieren und der Rest für die Aufnahme.
Kannst du den Aufnahmeprozess nochmal kurz dokumentieren? Ihr arbeitet gerne 24 Stunden am Tag und gebt euch dann die Klinke in die Hand?
Richtig, bei Flügelaufnahmen, wo wir auch selbst die „Pianisten“ sind, da ist es dann etwas einfacher, da wir den gleichen Arbeitsansatz haben, um das lieber gut und detailliert durchzukriegen, und das lieber in drei Wochen als in drei Monaten. Da geben wir uns wirklich die Klinke in die Hand, essen noch zusammen – für den einen ist es das Frühstück, für den anderen das Abendessen. Wir versuchen aber schon auch ein Wochenende zu haben, allerdings organisiert man das in sinnvollen Zusammenhängen. Würde man in einer Woche den halben Flügel aufnehmen, würde die andere Hälfte die Woche drauf auch wieder anders klingen.
Wenn man selbst nicht der Musiker ist, wie bei Thrill z.B., da hat man ein viel größeres Team und außerdem die Musiker. Dann arbeitet man sechs Stunden am Tag konzentriert und hat den Abend frei – das ist manchmal etwas verwirrend – da sitzen wir dann im Biergarten und denken ‚Hä? Jetzt haben wir ja frei. Was machen wir denn jetzt?

May 13, 2019 • 48min
#02 - Die Superbooth 2019
Das Modular-Synthesizer-Event
Jörg Sunderkötter
Noch im Eingangsbereich treffe ich Freund, Mentor und langjährigen Chefredakteur von Keyboards und Sound&Recording Jörg Sunderkötter. Völlig überrascht frage ich ihn:
Jörg, was treibt dich zur Superbooth?
Die alte Liebe zu analogen und modularen Synthesizern. Außerdem kann man hier auch sehr gut alte Freunde und Kollegen aus der Branche treffen.
Was sind für dich die Highlights?
Mein persönliches Highlight ist die anstehende Version von Bitwig Studio 3.0 und der modularen Erweiterung The Grid. Das ist ein Modular-Synthesizer in der DAW. Ich durfte schon einen Blick darauf werfen und ich bin wirklich begeistert.
Was glaubst du, wo die Modular-Szene in fünf Jahren steht? Glaubst du, dass der Hype ins Stagnieren kommt, oder ist da sogar noch mehr Potenzial?
Das ist schwierig zu sagen. Das Wichtigste ist, dass die Leute schrauben, mit Sounds experimentieren, mal aus der Box rauskommen, irgendwas zusammenstöpseln und Spaß damit haben. Man muss ja nicht unbedingt professionell Musik damit machen.
Anatol Locker
Zwei Meter weiter treffe ich Modular-Künstler und den früheren Keyboards-Autoren Anatol Locker.
Blöde Frage: Was machst du denn hier?
Ich habe während der Superbooth in einem Club einen kleinen Gig zusammen mit Florian Anwander, da spielen wir als ambioSonics rein elektronische Musik. Außerdem spiele ich noch mit meiner lieben Kollegin Martha Bahr als Lucid Grain hier auf der Seebühne.
Ihr habt auch gerade ein gemeinsames Album rausgebracht …
Es gab jetzt ein Re-Release von unserem alten Album mit zwei neuen Tracks. Das kommt jetzt als Japan-Version bei unserem Label Modularfield heraus. Die zweite gemeinsame Platte erscheint im Herbst.
Welche Rolle spielten Modular-Synthesizer bei der Produktion?
Eine absolut zentrale Rolle. Wir machen es immer so, dass wir uns gegenseitig kleine Schnipsel zuwerfen, damit wir ungefähr wissen, was uns musikalisch erwartet. Dann jammen wir eine halbe bis dreiviertel Stunde mit unseren Kisten darüber, nehmen das als Live-Set auf und suchen uns dann die schönsten Passagen heraus. Die Auswahl wird dann noch ein kleines bisschen bearbeitet, ohne neue Sachen dazu aufzunehmen, und dann veröffentlicht.
Gibt es Sachen, die du dir hier unbedingt anschauen musst?
Absolut! Ich arbeite sehr gerne mit den Geräten von Elektron, die ich auch ganz früh für das Magazin getestet habe. Mich interessiert deshalb, was sie mit der neuen Digitone gemacht haben. Es gibt außerdem eine ganze Menge an Modulen, die ich mir anschauen möchte, zum Beispiel die neue Slime Line von Doepfer. Das ist hier ein bisschen wie Pokemon sammeln nur mit echtem Geld. (lacht)
Dieter Doepfer
Ich bin dein Vater. Nach der Empfehlung von Anatol dachte ich, schaue ich doch mal beim Vater des Eurorack-Systems Dieter Doepfer vorbei.
Dieter, ich habe gehört, du hast eine neue Kollektion, die Slim Line?
Wenn man so will, ja! (lacht) Im Endeffekt ist es nicht wirklich was Neues, sondern es gab alles schon vorher, jetzt aber in einem wesentlich kleineren Formfaktor. Wir haben vorwiegend Module mit 4 TE Breite, die vorher 8, 10 TE oder noch breiter waren. Dazu zählen Mixer, Filter, Hüllkurve, LFOs, und alles mit 4 TE Breite. Das war ein Wunsch der User, die live auf der Bühne mehr Platz in ihrem Rack brauchen.
Wo liegen wir da preislich?
Das ist unterschiedlich. Ein paar Module liegen bei ca. 80 Euro, der Mixer liegt beispielsweise bei 50 Euro. Wir haben auch noch ein Modul mit einer 10-TE-Front und einem kompletten kleinen Synthesizer inkl. VCO, VCF und VCA, einem Hüllkurven-Generator, Suboktave und vielem mehr. Der wird um die 160 Euro kosten.
Was sagst du dazu, dass Behringer in den Synth-Markt eingestiegen ist und vielleicht auch Module herstellt?
Ich glaube, dass der Markt groß genug ist. Es wird sicher so sein, dass Einsteiger auf Behringer zurückgreifen. Wenn man sich allerdings auf dem Eurorack-Markt umschaut, gibt es da mittlerweile tausende verschiedene Module. Behringer wird da sicher bei den Basics mitmischen. Es gibt aber auch so viele Exoten, wo Behringer sich aufgrund der geringen Stückzahlen bestimmt nicht einmischen wird.
Du giltst ja als Vater des Eurorack-Systems. Ist das eine Bezeichnung, die dich manchmal nervt oder bist du da einfach nur stolz drauf?
Da bin ich in erster Linie stolz drauf! Es ist für uns einfach gut gelaufen, das war reiner Zufall. Es war auch nicht geplant, dass es sich so entwickelt. Es ist nicht mein Verdienst, sondern der der Anwender. Ich danke ihnen, dass sie es zu dem gemacht haben, was es jetzt ist.
**Die Superbooth 2019 **
Zum Schluss spreche ich mit meinem Kollegen Lukas Bilz aus der Redaktion von Gitarre&Bass, der zum ersten Mal die Superbooth besucht hat.
Lukas, drei Tage Superbooth sind vorbei. Was ist dein Eindruck?
Es war super, aber auf jeden Fall krasser als gedacht. Das waren so viele Eindrücke durch die vielen Musiker, die vielen Aussteller und der riesigen Fläche. Ich glaube, ich muss das erst einmal verarbeiten. (lacht)
Das beginnt ja schon mit der Location. Das FEZ ist ein Freizeitzentrum, im Foyer steht eine riesige Kletterburg mit Bällebad und Rutsche. Ein Teil der Aussteller ist in einer Turnhalle untergebracht, wo man auf dem Weg hin an einer Schwimmhalle vorbeikommt und Leute auf dem Flur stehen und sich die Haare föhnen.
Ich war davon im ersten Moment etwas irritiert. Am letzten Tag liefen dann Erwachsene und Kinder im Anzug oder schicken Kleidern rum, weil dort wohl irgendwie eine Konfirmation war. Die Location ist total verwinkelt und weitläufig. Deshalb ab ich am zweiten Tag noch Sachen entdeckt, die ich vorher noch nicht gesehen hatte.
Konntest du auf der Seebühne oder in den Gesprächskonzerten irgendwelche spannende Acts sehen?
Ich habe einige Acts gesehen, bei denen ich zufällig vorbeigekommen bin. Deshalb kann ich jetzt gar nicht sagen, welche das waren. Mario Hammer und Richard Devine hätte ich gerne noch gesehen, aber da waren wir leider schon weg. Daniel Miller konnte ich allerdings noch sehen. Für Programm war also definitiv gesorgt.
Es liefen viele Artists einfach auf dem Flur rum. T.Raumschmiere hat man ständig gesehen und sogar Jean-Michel Jarre. Das war für mich wirklich ein Highlight, ihn dort als Besucher zu sehen. Was sagst du generell zum Besucheraufkommen und den Modular-Nerds?
Die Aussteller können definitiv zufrieden sein. Es war teilweise schon echt richtig voll. Ich habe viele YouTuber gesehen, die man kennt, wenn man sich mit der Materie beschäftigt.
Zu den Nerds würde ich mich auch zählen. (lacht) Aber klar, es liefen viele bunte Vögel herum, was aber zur Superbooth gehört und die Veranstaltung ausmacht. Und generell war die Stimmung schon sehr locker.
Bist du nächstes Jahr wieder dabei?
Auf jeden Fall!
Ich auch! [9052]
UDO Super6
Für viele ein Highlight: Der Super 6 der neuen Entwicklerbude UDO aus Bristol. Ein Synthesizer mit digitaler Klangerzeugung und analogen Filter, an dessen Entwicklung Axel Hartmann beteiligt war, der bereits mehrere Synths für Waldorf entwickelte.
Uno Drums
Ein Drumcomputer als Ergänzung zum UNO Synth: Der UNO Drum!
www.superbooth.com

May 2, 2019 • 57min
#01 - Die Anfänge der Musikproduktion in der DAW
Eine Zeitreise mit Marc Bohn und Hans-Martin Buff
Digitale Bandmaschinen gab es mit der Sony-PCM-Serie bereits Anfang der 80er mit 48 Spuren 44.1 kHz Sample Rate und 12
Bit. „Like a virgin" von Madonna wurde beispielsweise komplett digital aufgenommen.
Das Hauptproblem zu dieser Zeit waren Festplatten. So eine Festplatte war damals, als es noch keine SSD-Platten gab, ein mechanisches Gerät mit einem Schreib und Lese-Kopf, einer Datenplatte und einer Steuerelektronik für Motor und Kopfsteuerung. Die Zugriffszeiten waren also höher als heute, wo alles über SD auf einem Chip mit extrem
hohen Zugriffszeiten gespeichert wird und sehr hohe Datenvolumen verfügbar sind. Als gängige Anschlüsse kannte man IDE,SCSI, S-ATA und ATA.
Hier eine kleine Übersicht zur Entwicklung des Datenvolumens:
1990 - 100 MB,
2000er - 10 GB,
2005 - 100 GB
2015 - erste 10 TB
2018 - 14 TB
Im Vergleich: Ein aktueller Audio PC von DAX bringt folgende Leistung:
2 TB SSD
Rechenleistung: 8 x 3,6 GHz, Intel i7 oder i9
64 GB (4x16) DDR4
Knapp 2.700 Euro
Mein erster Rechner:
Ein PC mit einem Cyrix 486er Prozessor. Damals, ca. 1994, gab es einen Turbo-Taster, um von 33 auf 66 MHz zu schalten. Das Datenvolumen betrug maximal 400 MB. Als Betriebssysteme waren MS-Dos und Windows 3.11 installiert. Es wurde Minesweeper und Solitär gezockt ohne Ende. In MS-Dos musste man noch Win eingeben, um Windows zu starten.
Aldi-PC vom November 2000
Für 2.598 Mark (1.328 Euro) ging ein Aldi-PC am 23. November 2000 an den Start. Der Rechner war mit einem Pentium III ausgestattet, der Prozessor mit 900 Megahertz getaktet (FSB 100 Megahertz).
Aldi spendierte dem Rechner vom Hersteller Medion 128 Megabyte Hauptspeicher und eine Geforce-2-MX-Grafikkarte mit 32 Megabyte Speicher. Eine Festplatte mit 40 Gigabyte war ebenso im Rechner enthalten wie ein 12fach
DVD-Laufwerk und ein 4x4x32 CD-Brenner.
Entwicklung DAW
1984 – DigiDesign Sound Designer
Der DigiDesign Sound Designer war für 995$ zu haben. Er wurde hauptsächlich als Sample Editor für Synclavia oder Fairlight genutzt. Später wurde daraus Sound Tools und
dann das heutige Pro Tools. Der Sound Designer war nur für den Mac erhältlich und machte es zum ersten Mal visuelles Editieren möglich. Das Audiosignal wurde also zum ersten Mal auf einem Monitor dargestellt und man konnte durch einen optischen Bezugspunkt auch wirklich sehen, was und wie man editiert.
1989 - DAT I/0 - Digital I/O for the Sound Tools system 1989
Mit dem DAT I/0 - Digital I/O for the Sound Tools system mit dem Namen Audiomedia I, kam nun auch eine 2-channel DSP
Karte mit analogen Ein- und Ausgängen auf den Markt.
1989 - SoundTools - DigiDesign, MIDI und 2-Spur-Audio-Editor - 3995$ (DAT Tracks im SDII-Format. WAV wurde erst 10 Jahre
später Standard. Das System wurde hauptsächlich fürs Mastering verwendet.
Mehrere Eingänge konnten nicht unterstützt werden, da die Festplatten das nicht mitmachten. Schreib-,
Lese-Geschwindigkeit und Datenvolumen waren zu gering.
Randnotiz: Sound Tools damals
schon non-destruktiv.
1991 - Pro Tools 1.0
Mit Pro Tools 1.0 erschien 1991 die erste DAW mit der Möglichkeit, 4-Spur-Multitrack-Recordings durchzuführen und zu editieren. Damals war es Digidesign, die die einzige Hardware ohne Latenz lieferte.
Cubase und Logic waren bis dahin reine MIDI-Sequenzer.
Die Timeline
1989 - Cubase 1.0 für den Atari
1990 - Cubase 1.0 für Macintosh
**1996 - Cubase 1.6, Windows **
Mit Cubase 1.6 wurde auch das Hard-Disk-Recording mit 8 Spuren integriert, Automationen konnten erstellt werden und die DAW unterstützte ab sofort auch die Digidesign Audiomedia III PCI-Karte.
1996 - Cubase Audio 3.0 TDM for Macintosh
Ich gleichen Jahr erschien für die Mac-Version Cubase Audio 3.0 TDM, mit der es möglich war, 16 Spuren aufzunehmen.
1993 Emagic Notator Logic (699$)
Weitere Infos zur Historie der DAWs findet ihr unter folgenden Links:
https://www.soundandrecording.de/stories/daw-history-vom-midi-navigator-zum-audio-allrounder/
https://www.namm.org/library/oral-history/evan-brooks (Sound designer,
sound tools …)
https://www.pro-tools-expert.com/home-page/2018/2/19/the-history-of-pro-tools-1984-to-1993
https://www.pro-tools-expert.com/home-page/2018/2/22/the-history-of-pro-tools-1994-to-2000
**Musik auf Floppy –
Eine schöne Anekdote liefert der Studio-Magazin-Artikel aus Heft 7 von 1984: Damals gab es ein Aufnahme-System von CompuSonics, das auch einem digitalen Mixer und einem Recorder bestand - DSP-2000. Damit konnte man vier Stunden
in Stereo, 2 Stunden in 4-Spur und eine Stunde 8-Spur aufnehmen. Kostenpunkt: 30.000$. 40.000$ musste man für das Gesamtpaket mit 4-Spur-Mischer, Aufnahmegerät
und Disk-Laufwerken hinblättern. Es gab aber auch eine kleinere Variante für den Heimbereich - DSP-1000. Kostenpunkt: 1000 Dollar. Das System lieferte zusätzlich das Speichern von Musik auf einer Floppy-Disk im Kompressionsverhältnis von 5:1 bis 9:1. Außerdem war es möglich, sich per Modem Musik von einem Händler herunterzuladen.
Hier ein Zitat aus dem Artikel von damals:
"Musik auf Bestellung per Modem vom Händler direkt auf die Floppy-Disk bedeutet die Umstrukturierung des Handels mit Musik. Das würde Zwischenhändler trockenlegen, die Kosten für Schallplattenfirmen würden drastisch gesenkt,
Presskosten entfallen, es gibt keine Versandkosten, und die Umsätze würden steigen, weil der Konsument so
wunderbar einfach bestellen kann. Wer weiß! Aber wie gesagt, wenn es funktioniert!"
Den gesamten Artikel findet ihr hier:
https://view.publitas.com/echoschall-bibliothek/studio-magazin-1984-oktober-heft-77/page/26-27


