Wiedersehen macht Ah?! Podcast-Lieblingsgast Peter V. ist zurück, pünktlich zum Release seines neuen Software-Synthesizers, und gibt exklusive Einblicke in das, was einmal ein, Zitat “unkomplizierter, kleiner FM-Synthesizer” hätte werden sollen. Gemeinsam mit dem Erfinder watet man durch die Tiefen eines durchdachten Re-Synthese-Monsters, lernt unerwartetes, logisches und unerwartet logisches kennen, unterhält sich über gemeinschaft- und leidenschaftliches Developing, debattiert über die rasante Entwicklung von KI und philosophiert über neue Ansätze, noch nie dagewesene Musik zu machen. Zwei Stunden ausladender Nerdtalk, full on detailverliebt und latent größenwahnsinnig – und ein paar Takte MYTH gibts auch noch auf die Ohren. Viel Spaß damit.
Dawesome Myth gibt es ab dem 18.04. bei tracktion.com zu erwerben oder als 90-tägige Demoversion ohne Einschränkung zum ausgiebig testen. Dieser Link ist kein Affiliate-Link. Disclaimer: Die Podcaster haben Myth kostenlos zum Beta-Test und zur Nutzung erhalten, es ist aber kein zusätzliches Geld geflossen und at least der Schreiber dieser Zeilen hätte sich den Synth sowieso gekauft
Es funktioniert im Prinzip wie ein Resonator, nur ein Resonator hat normalerweise eine feste Stimmung.
Und bei diesem modalen Filter ist es so, der Key-Trackt automatisch.
Das heißt, ich kann diesen Resonator jetzt anregen mit irgendetwas.
Mit einem Knall oder mit etwas Rauschigem.
Field Recordings gehen total gut, Drum Loops gehen total gut.
Und dann kann ich das aber über dieses modale Filter oder diesen modalen Resonator tonal spielen.
Und das klingt dann halt so wie Physical Modeling.
Nur, dass ich diesen ganzen Scheiß von Einstellungen, das funktioniert nicht richtig und nervt irgendwie,
dass ich den nicht habe.
Und damit man jetzt direkt loslegen kann, sind so ein paar Voreinstellungen dabei.
Das sind die, die du gerade vorgelesen hattest. Das sind einfach Sample-Zieher-Nummern.
Aber der Clou ist eigentlich, ich kann jetzt jedes beliebige Sample nehmen, direkt einen Drop da drauf werfen
und dann wird dieses modale Filter trainiert und lernt aus dem Sample,
welche Resonanzen kommen denn jetzt eigentlich in diesem Sample vor.
Und also für alles, was so, sag ich mal, wie zum Beispiel Vibraphon, Marimba, Häng,
also alles, was so ein bisschen perkussiv ist an akustischen Instrumenten, funktioniert das ganz toll.
Und weil man was bekommt, was sich dann auch super organisch spielen lässt.
Ich bin gerade ein bisschen sprachlos.
Ich bin vor allem deswegen da, dass mir das entgangen ist.
Ja, und der Punkt ist, andere würden das entwickeln.
Dieses kleine Modulchen hier würden eine schöne Oberfläche drumherum bauen
und ihre Marketingfuzzis drei Monate lang darauf masturbieren lassen.
Du packst das irgendwo so in deine Filter-Sektion,
dass drei Leute, die sich das Ding willig anschauen, das komplett übersehen.
Hör zu, das Geile ist, du kannst das denn ja auch noch im Stereofeld,
also du kannst das entweder auf dem linken oder rechten Kanal oder halt aufs Stereofeld packen,
diese Modalfilter. Und wenn du die Root-Funktion benutzt,
unterschiedliche Modalfilter-Einstellungen benutzen für jeden Kanal eigen.
Und hast dadurch eine unglaubliche Sound-Design-Möglichkeit,
weil du damit dann noch organischere Klänge bauen kannst.
Ja, und du kannst zum Beispiel, klassisch würde ich es jetzt so machen,
ich würde Distortion davor packen, und das würde ich dann zum Beispiel
auf Velocity oder Pressure oder so legen, damit die Distortion sozusagen etwas krasser wird,
wenn ich stärker zulange. Dadurch wird dann der Resonator stärker ins Schwingen gebracht
und du kannst dann hinter dem Resonator dir dann zum Beispiel noch so ein Orbit-Modul
oder ähnliches hin tun, um das Ganze jetzt wieder so ein bisschen synthetischer klingen zu lassen.
Und damit kriegst du das Beste aus allen Welten, weil du im Prinzip jetzt etwas hast,
was sich einerseits so anfühlt wie so eine Hand-Drum oder wie ein Hang,
und was aber auf der anderen Seite dir auch in den Bereich synthetischer,
analog, warm klingender Wellenform irgendwie geht. Also das sind halt auch Sachen,
wo man noch viel ausprobieren kann und rumspielen.
Die ist so, sag ich jetzt mal, also bestimmt gibt es das wieder irgendwo und schon 1950
in der Sowjetunion im nächsten Heinbach-Video, aber es ist nicht so das Klassische,
was man jetzt immer überall schon tausendmal gehabt hat.
Also nochmal, liebe Zuhörer, wenn euch jetzt auch der Kopf explodiert ist
vor lauter Möglichkeiten, die sich dadurch eröffnen, dann könnt ihr mich vielleicht
jetzt ein bisschen verstehen.
Also ich spiele ja, mein eigentliches Instrument, was ich gelernt habe,
ist ja Fagott und Kontrafagott. Und natürlich hat so ein Instrument
einen relativ engen Spielraum, aber es ist trotzdem auch so, dass man sein Leben lang lernt
und neu dazulernt und neue Fähigkeiten entwickelt und so.
Und man baut halt über viele Jahre so eine Beziehung auf zu einem Instrument.
Und das ist auch so ein bisschen was, was ich vielleicht als so ein Ideal anstrebe,
dass so ein Synth nicht so was ist wie "Oh, es gibt einen neuen Synth, den probiere ich mal aus".
Zwei Wochen später "Oh, es gibt einen neuen anderen Synth" und dann geht man dahin.
Ich meine, das ist auch okay, aber und man kann "müß" auch gerne so benutzen,
aber "müß", das war jedenfalls mein Wunsch, soll auch schon die Tiefe haben,
dass man auch nach einem halben Jahr, das man sich damit beschäftigt, noch neue Sachen entdeckt.
Und zwar auf eine spielerische Art und Weise.
Und ich muss nicht alle diese Sachen verstanden haben, ausprobiert haben,
damit ich einen guten Klang machen kann. Ich kann von Anfang an tolle Klänge machen,
aber ich werde auch nach drei Monaten noch irgendetwas entdecken, was ich vorher noch nicht gesehen habe.
Also mir ist das Modal-Modul total an mir vorbei gegangen,
weil ich konnte mir da echt nichts darunter vorstellen, was das sein soll.
Und da habe ich es gar nicht ausprobiert. Ich habe mit dem Zufallsgenerator geschrumm gespielt.
Ja, Peter, da haben wir mal Negativpunkte gefunden.
Der Erklärungstext ist auch sehr sparsam, da steht einfach nur "Immodal Filter".
Ist das alles?
Ja, mehr steht da nicht. Okay, wir haben die Version 1.0.1.
Also ich habe ja auch das Handbuch bei ShedGBT reingetan und habe ein GBT gebastelt
und habe dann Fragen gestellt. Und selbst da wurde mir dann nicht erklärt, was das ist.
Du Fuchs, du hast ShedGBT trainiert, um dir Fragen zu beantworten.
Ja, ich habe das für einige Sachen schon gemacht.
Ich habe sämtliche Handbücher reingeschmissen, die ich so habe und andere Sachen.
Er hat sämtliche Kochbücher reingeschmissen, die er so hat.
Das stimmt zwar, ich habe das gerade mal ausprobiert,
er sagt tatsächlich nur "Immodal Filter", da könnte man vielleicht noch mal mehr dazu sagen,
aber bei jedem Knopf, über den man geht, erzählt er dann ja schon noch ein bisschen mehr.
Ja, aber das erschließt sich jetzt erstmal so nicht.
Man muss wirklich in die Anleitung schauen, um dann die Funktionen auch wirklich zu begreifen.
Ja, oder man macht das Tutorial.
Damit es auch erklärt.
Oder, also es wird halt auch noch eine ganze Menge, die sind jetzt gerade am Entstehen,
ganz kurze, knackige, zwei Minuten Videos, die so verschiedene Aspekte zeigen.
Wie kann ich jetzt zum Beispiel aus einem einfachen Klang, den ich jetzt auf der Mandoline geschirmt habe,
wie kann ich daraus jetzt zum Beispiel ein Pad machen.
Und die Videos sind so aufgebaut, dass sie einerseits jeweils dann so eine Sache erklären,
aber nebenbei lernt man dann immer auch eine bestimmte Sounddesign-Technik
oder etwas Spezielles irgendwie so kennen.
Das heißt, da hat man dann auch so kurzweilige Videos, die man sich dann einfach mal so nebenbei ein bisschen angucken kann,
um noch die Sachen einfacher zu verstehen.
Eine Sache, die mir auch ganz gut gefallen hat, die möchte ich hier auch nochmal herausstellen,
als ein leuchtendes Beispiel, liebe Entwicklergemeinde von Software Synthesizer,
da dürft ihr euch gerne eine ganz, ganz dicke Scheibe von abschneiden.
Und zwar ist das das Responsive Design.
Das heißt, du hast unten an dem Software Synthesizer ein Versteller, rechts unten,
wo du das Fenster groß und kleiner machen kannst.
Der gesamte Bildschirminhalt zoomt automatisch.
Ich muss nicht erst durch irgendwelche Menüs mich durchklicken, um die Zoom-Funktion zu finden.
Das ist gerade für solche Leuten mit schlechten Augen wie mich, aber guten Ohren,
dafür bin ich sehr dankbar, dass da mal ein Entwickler mitgedacht hat.
Dankeschön, Peter. Das ist eine Kleinigkeit, aber die ist so wichtig, wirklich.
Ich muss zu meiner Schande gestehen, dass zwar können diese Skalieren alle meine Plugins von Anfang an,
aber diese Problematik von Menschen, die in irgendeiner Form vom Sehen eingeschränkt sind,
die war mir bei meinem ersten Plugin auch noch nicht richtig bewusst.
Mittlerweile habe ich zwei Beta-Tester, die beide, also jeder eine sehr unterschiedliche,
aber sehr stark ausgeprägte Visual Impairment haben.
Und die geben mir dann auch ganz viele Rückmeldungen.
Das heißt diesmal bei der Auswahl des Zeichensatzes, bei der Auswahl der ganzen Kontraste
und wie groß die Elemente sein sollen usw., da haben die mir dann jeweils die Rückmeldungen gegeben,
damit sichergestellt ist, dass man das auch bei schlechter Beleuchtung,
wenn die Augen vielleicht schon ein bisschen müde sind oder dann nicht so gut gucken kann,
dass man da nicht in die Situation kommt, es ist jetzt irgendwie gar nicht mehr abzulesen oder ähnliches.
Das finde ich auch ganz toll.
Leute mit Rot-Grün-Schwäche werden auch immer gerne vergessen. Hallo Elektron!
[Lachen]
Das musste sein, das musste sein.
Mein Sohn ist elf Jahre alt, der ist jetzt noch nicht der perfekte Beta-Tester,
aber der hatte halt auch eine Rot-Grün-Schwäche und der guckt mir regelmäßig über die Schultern
und kommentiert dann auch irgendwie und deswegen habe ich zumindest das auch mit auf dem Schirm.
Ja, und ich sag mal so, ich bin stark kurzsichtig und ich komme jetzt in ein Alter,
wo auch die Weitsichtigkeit einsetzt, ich bin doppelt gehandicapt.
Das ist gemein, ne? Ich dachte auch immer, ich habe eine gewisse Kurzsichtigkeit.
Das ist sehr gemein.
Irgendwann werde ich alt, da wird man ja weitsichtig, das heißt zwischendurch muss ich mal
irgendwann normalsichtig sein und das war eine herbe Enttäuschung, als mir das erklärt wurde.
Vergiss es. Du kannst einfach dann ohne Brille besser gucken als mit Brille.
[Lachen]
Ja, also Tobi, hast du noch Fragen?
Also ich hätte noch einen größeren Kontext. Also falls wir noch irgendein Rumgenörde machen wollen
auf der Oberfläche von MIV, dann würde ich das vorher machen und dann…
Also mich würde nochmal die Engine interessieren, was tatsächlich bei der Re-Synthese…
Re-Synthese kenne ich von dem Hartmann Neuron. Das war ja auch ein Re-Synthesizer,
dem man halt auch Sample-Material…
Hat nur keiner verstanden, wie das Ding funktioniert.
Hat nur keiner verstanden, wie das funktioniert.
Ja, also es ist ein Re-Synthesizer und weil die Leute wie ein Re vor einem Auto davor gesessen haben…
[Lachen]
Hat sich auch nicht so gut verkauft. War aber eigentlich für die… wann war das?
Ende der 90er oder Anfang der 2000er?
Anfang der 2000er war es, glaube ich.
Ich glaube Anfang der 2000er, der Nullerjahre. War ziemlich innovativ für die damalige Zeit,
aber die Rechenpower war noch nicht da.
Ich habe als kleines Kind damals so Keyboard-Zeitschriften, die manchmal zur Musikmesse…
Achso, da noch der Musikmessebericht 20 Seiten lang war.
Da war halt immer so, ja, Hartmann Neuron, jetzt aber wirklich.
Jetzt aber wirklich. Er funktioniert sogar.
Oh, man hat ihn an- und ausgeschaltet und er ist nicht abgestürzt.
Großer Non-Lehrer.
Die Frage, die ich habe, Peter.
Ja.
Du hast es eben gesagt, in der Anleitung, und du hast es auch eben vorhin eingangs nochmal erklärt.
Grundlage ist für die Re-Synthese ein FM-Synthesizer, richtig?
Ne, ist nicht richtig. Das war mal die Ur-…
[Lachen]
Also die Ur-Idee war, einen FM-Synthesizer zu bauen.
Genau. Ein ganz kleinen, einfachen FM-Synthesizer, der aber die Möglichkeit hat,
sozusagen ein Sample zur Inspiration zu nehmen.
Und daraus ist dann irgendwann das hier geworden.
Und deswegen hat sich auch die Planung halt…
Also ursprünglich hatte ich, glaube ich, vier Monate oder so vorgesehen,
und jetzt sind es 18 geworden.
Wow, okay.
Also das…
So, und…
Was war jetzt eigentlich deine Frage? Sorry.
Meine Frage war, der Kern dieser Re-Synthese, wie funktioniert die?
Sind das jetzt…
Sind da Machine Learning Algorithmen, die einfach eine stumpfe Analyse machen
von dem Ausgangsmaterial anhand von Frequenz und, ich sag mal, Amplitude?
Und dann versucht das anhand der vorhandenen Synthese-Engine einfach abzubilden
auf vier Operatoren oder Oszillatoren?
Oder wie, wenn du es verraten möchtest, natürlich.
Ja, klar. Da mache ich keine Handelsfraß.
Also, tatsächlich, das funktioniert über Machine Learning.
Und die Klangerzeugung ist gewissermaßen…
Man hat vier spezielle Oszillatoren, die haben jeweils so in der Größenordnung 2000 Parameter.
Und die können jeden beliebigen statischen Ton machen.
Also, das heißt, die können einen Ton machen, der sich nicht über die Zeit verändert.
Aber von diesen Tonen, die es gibt auf der Welt, die jetzt wirklich statisch sind,
kann er jeden einzelnen Ton machen.
Wow, okay.
Und von diesen Oszillatoren gibt es vier.
Und die, wenn da jetzt also was abgespielt wird über die Zeit,
haben jeder eine Höhlkurve, nur für die Lautstärke, mit, jetzt nichts Falsches sagen,
ich glaube, bis zu 500 Punkten.
Also, nichts, was man per Hand editieren möchte.
So, und das Machine Learning nimmt jetzt das Sample und sagt,
okay, wie kann ich das Sample jetzt am allerbesten approximieren,
wenn ich vier statische Klänge habe, die im Laufe der Zeit in ihrer Lautstärke variieren können,
unabhängig voneinander.
Das heißt, das Synthesemodell gibt gewissermaßen die Einschränkung vor
und der Algorithmus ist speziell darauf hingebaut, dass er das dann entsprechend optimieren kann.
So, und weil jetzt natürlich kein Mensch Lust hat, tausende Parameter da drin rumzuschrauben
und das auch nicht sinnvoll wäre, gibt es dann so ein paar High-Level-Parameter,
wie man jetzt zum Beispiel zwischen diesen vier Oszillatoren hin und her blenden kann,
damit man andere Signalbestandteile bekommt.
Das ist jetzt auch wieder was, was man schwer in einem Podcast erklären kann,
was man aber relativ einfach versteht, wenn man zum Beispiel ein Drumloop
oder das Wort Probe-Pop, ich kann es nicht aussprechen, Probe-Podcast,
wenn man dieses Wort zum Beispiel aufnimmt und dann einfach da reinwirft und dann da dran dreht,
dann versteht man sofort, was passiert.
So, jetzt haben wir ganz viel geredet.
Eigentlich wäre es doch jetzt mal Zeit, so ein Klangebeispiel,
so eine kurze Demo hier mal reinzuwerfen, damit dann die Zuhörer einfach mal auch einen Eindruck kriegen,
wie sich das dann nachher im Endergebnis, sozusagen im Mix anhört.
Ich habe schon gedacht, ihr fragt gar nicht mehr.
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
[Musik]
Ja.
Ja, dazu sind vielleicht zwei Sachen zu sagen.
Das eine ist, dass alles, was man jetzt gerade gehört hat, ist halt mit Mist gemacht.
Also jedes Instrument, auch die Snare, die Geräusche, da ist jetzt nicht irgendein anderes Drumloop oder irgendwas.
Und alles sind Presets, die da mitgekommen sind.
Also da hat jetzt auch nicht einer noch 150 Stunden dran getüftelt, jetzt da noch die tollsten anderen Klänge zu machen.
Das ist das eine. Und das andere ist, man kann jetzt schlecht in einem 90-Sekunden-Demo
die Klangvielfalt, die möglich ist, gut abbilden.
Da muss man ein bisschen aufpassen, dass man nicht denkt, ach so, das ist so ein Synthesizer,
mit dem kann man jetzt also solche Lead-Sounds machen, die sich so ein bisschen gitarrig anmachen.
Das wäre so ein bisschen ungerecht.
Das kann man, man kann aber auch noch tausend andere Sachen machen.
Also zum Beispiel Abyss ist ja ein Synthesizer, den ich schon speziell gemacht habe im Hinblick auf Drones und Pads und solche Sounds.
Da kann man auch andere Sachen machen, aber es ist schon ein bisschen darauf spezialisiert.
Müss hingegen, hat diese Spezialisierung nicht, Müss ist dafür gedacht, damit nach belieben Instrumente machen zu können.
Ich hatte eigentlich gehofft, wir haben ja sehr viel über Module gesprochen,
und dass man halt die auch beliebig verschalten kann, dass die Zuhörer dann auch den Eindruck gewonnen hatten,
dass das natürlich, wenn wir jetzt so ein Klangbeispiel bringen,
dass das natürlich dann nur ein einziges von unendlich vielen Möglichkeiten ist,
wie man mit Müss Klänge gestalten kann und Sounddesign machen kann.
Also für mich ist das wirklich ein Modulbaukasten, mit dem man wirklich sehr interessante Klänge machen kann.
Und man kann einfach, wie du schon sagtest, auch in zwei Jahren, drei Jahren, vier Jahren immer noch wieder neue Sachen entdecken.
Und ich glaube, du wirst ja sicherlich auch nicht nur bei dieser Version 1.01 bleiben,
wird es da sicherlich auch noch neue Module irgendwann geben,
was die Community vielleicht auch so an Ideen vielleicht auch nochmal vorschlägt?
Ja, also da gibt es eine lange Liste, was es so an Ideen gibt dafür.
Und da habe ich mir auch so überlegt, dass es ja vielleicht cool wäre, gelegentlich ein Update zu machen,
wo man dann ein oder zwei neue Module, mit diesen ein oder zwei Modulen,
dann vielleicht auch, was weiß ich, 20, 30 Presets, die zeigen, wie man diese Module jetzt mit den anderen kombinieren kann,
was man daraus machen kann, plus so ein kleines Minitutorial,
was einem auch einmal zeigt, wie man das am geschicktesten verwenden kann.
Weil so hat man dann einen Synthesizer, den man einmal kauft,
wo man dann aber doch immer wieder was Neues geboten bekommt,
wo man die Palette dann wieder erweitern kann,
oder wo man vielleicht auch seine alten Klänge nimmt und sagt,
okay, da packe ich jetzt nochmal dieses Modul da mit rein
und bekomme wieder noch einen anderen Klang aus dem Preset, den ich vor drei Monaten gemacht habe.
Hast du das MÜV deswegen auch auf der Webseite so prominent platziert?
War es eine Entscheidung nach dem Motto, ja, das ist halt das Aktuellste?
Oder hast du das gemacht im Sinne dessen, dass das jetzt so ein bisschen,
wenn ich es jetzt mal mit den Heckmann-Sachen vergleiche,
da gibt es halt auch Zebra, das ist das absolute Monster,
und dann gibt es halt die normalen Synthies, sag ich mal.
Siehst du das jetzt so ein bisschen in diesem Vergleich, das quasi MÜV,
jetzt will ich so ein bisschen, das Überplugin ist, und der Rest so rumfliegt?
Das Flaggschiff.
Das Flaggschiff, genau. Oder ist es einfach so,
das ist jetzt halt mal das, was mir gerade aus dem Kopf gefallen ist,
und ich betrachte das jetzt als gleichwertig.
Oder würdest du sagen, es ist ein Schritt weiter wohin,
in eine andere Richtung mit einer anderen Mission?
Alle Sachen, die du gefragt hast, treffen zu.
Es ist aus meiner Sicht schon ein Flaggschiff-Synthesizer.
Von dem, was ich bisher gemacht habe, ist es das Aufwendigste.
Und auch das, was ich sage, in dem Spektrum, was man damit machen kann,
wie das Allerweiteste.
Nichtsdestotrotz sind die Synthesizer, die ich vorher gemacht habe,
dadurch nicht obsolet.
Ich kann mit KULT Sachen machen, die ich mit MÜV jedenfalls nicht so mühelos machen kann.
Oder auch mit NOVUM kann ich auf eine Art und Weise mit Samples arbeiten,
die funktioniert so in MÜS nicht.
Da habe ich nicht das Gefühl, das eine umfasst jetzt all die anderen Sachen,
sondern da steht es schon daneben.
Und dann ist es so, ich habe sehr viel Gedanken darüber gemacht,
wie dieses Modulationssystem funktioniert,
wie man das mit den Modulen machen kann,
oder mit diesem Pedalboard, damit man keine Kabel braucht,
und es übersichtlich ist und so weiter.
Auch sehr viele Gedanken darüber, wie das User-Interface funktioniert,
dass es einerseits unendlich viele Möglichkeiten gibt
und andererseits man nicht das Gefühl hat, man ist jetzt total lost,
weil man überhaupt nicht mehr versteht, wo oben, unten, rechts und links ist.
Und die Idee ist, der Synthesizer, der nach MÜS kommt,
wird im Prinzip dieses UI-Konzept beibehalten
und wird das Modulationskonzept beibehalten,
das Konzept mit dieser Expressivität.
Und das heißt, ganz viel von diesem Rahmen drumherum wird erhalten bleiben,
und nicht nur für den nächsten, sondern auch noch für den danach.
Das heißt, es wird irgendwann drei Synthesizer geben,
die von, sage ich mal, diesem User-Interface-Konzept,
wenn man einen kennt, findet man sich sofort in den beiden anderen zurecht.
Und dennoch werden die von dem, was sie klanglich machen
und wie man damit arbeitet, drei unterschiedliche Planeten.
Sagt der Mann, der einen kleinen niedlichen FM-Synthesizer hat.
Ich meine halt nur, weil ich mag eigentlich den Aspekt,
den du dir gerade als Indie-Entwickler, das hast du ja auch schon beim letzten Mal erzählt,
dass du es dir halt erlauben kannst, nicht zu sagen,
okay, das mache ich jetzt irgendwie so zusammengehörig, etc.
Weil als ich das gesehen habe, habe ich auch gedacht,
hm, FM-Synthesizer, so ein bisschen was von Abyss, hä?
Ja, nee, das ist so ein bisschen Ausgewachsenheit.
Ich habe halt drei Tage unter Thomas gebraucht,
um festzustellen, dass das ein Sampler ist.
Ja, ich habe es live...
Das ist kein Sampler, das ist ein Resynthesizer.
Ich habe es live mitgelesen und ich musste so schmunzeln.
Ja, das war witzig.
Ich habe ihm erzählt, du kannst einfach Samples reinladen.
Und er so, was?
In Caps Lock und Fettschrift.
Tobi ist halt, ich glaube, kein Sounddesign-Mensch,
aber du bist begnadet in der Anwendung von dem, was du denn da am Start hast.
Ich bin halt einfach Sounddesign-Mensch in dem Sinne,
dass ich alles veraufmache und wieder zumache,
um eine Effektkette zu bauen.
Das ist meine Art Sounddesign zu machen.
Oder ich habe irgendeinen Sampleschmeißer...
Dafür kannst du Schlagzeug spielen, Gitarre, Klavier
und ich glaube noch irgendwie so ein paar andere Instrumente.
Das kann ich zum Beispiel nicht.
Aber tatsächlich ist das ein bisschen auch die Zielgruppe.
Also eine Zielgruppe sind natürlich die Leute, die jetzt gerne rumtüften.
Aber die andere Zielgruppe sind tatsächlich die, die sagen,
eigentlich möchte ich nur Presets benutzen
und ich möchte vielleicht an den Presets noch ein bisschen rumschrauben.
Und für die, sozusagen, möchte ich es möglichst einfach machen.
Ich habe ja vorhin schon mal diesen Workflow beschrieben,
wo man dann dieses Freeze verwendet und sein eigenes Sample.
Und dann hat man diese Möglichkeiten.
Deswegen gibt es auch diesen Preset-Browser,
mit dem man sich so Selektion wählen kann nach verschiedenen Texten.
Und es gibt zum Beispiel dieses Breed, also Brüten,
dieses Küken-Feature. Ich weiß nicht, ob ihr euch das schon angeguckt habt.
Mit diesem niedlichen Ei-Logo da, ja.
Genau, und da ist halt die Idee...
Absolut großartig.
Man kann sich jetzt erstmal eine Auswahl von Klängen zusammenstellen
über diesen Preset-Browser, wo man sagt,
okay, ich möchte Pad-Sounds haben.
Meinetwegen dürfen die auch ein bisschen plucky sein,
also nehme ich mal auch solche mit dazu.
Sie sollen aber eher dark klingen und ein bisschen dreckig.
So, dann habe ich so eine Vorauswahl.
Dann sind da, was weiß ich, jetzt habe ich 74 Presets gefunden,
auf die das zutrifft.
Und dann kann ich Breed drücken, also auf dieses kleine Küken.
Und der tut jetzt so, als wäre jedes Preset quasi ein Gen
und fängt jetzt an, die miteinander zu rekombinieren.
Und erstellt jetzt aus dieser Auswahl, die ich vorher getroffen habe,
jetzt gewissermaßen ein Zombie-Preset.
Das heißt, ich habe so eine Art Luxus-Zufallsgenerator,
weil der nicht irgendwelchen absurden Kram,
der nicht zusammenpasst, macht,
sondern der baut jetzt Bestandteile zusammen aus Klängen,
die schon in die Richtung gehen, was ich gerade irgendwie suche.
Das heißt, ich kann Zufall auch so ein bisschen gezielt einsetzen.
Und auf diese Art kann man dann halt sich sehr schnell,
also in fünf Minuten kriegt man 20 oder 30 Presets,
mit denen man brauchbar arbeiten kann und die es halt so noch nicht gegeben hat.
Die halt dann auch nicht der Nachbar in seinem Song auch verwendet.
Oder Christoph van Dalen.
Da kommt man wieder zum Anfang zurück zu kommen.
Haben wir das überhaupt on-stream schon gesagt?
Oder war das Copyright-Geschenk noch außerhalb?
Ich glaube, das war noch außerhalb.
Okay, anyway.
Aber es ist eine gute Überleitung zu meiner nächsten Frage,
weil die schweben mir jetzt schon eine ganze Weile im Kopf.
Du hast es gerade sehr schön angesprochen mit dem Machine Learning.
Die Entwicklungen im KI-Bereich.
Also ich weiß noch, wie wir letzten August darüber noch so ein bisschen,
also wir haben es schon ernster genommen.
Du wahrscheinlich noch mehr als wir, weil du einfach seit 20 Jahren im Bereich arbeitest.
Aber jetzt die letzten Tage, es ging recht gut ab,
als Thomas hier einen, wie hieß dieser,
Also wir haben, ich habe,
das ein Schnipsel nach dem anderen gepunstet.
Auf Gear News ging vor ein paar Tagen und auch auf Amazona und anderen Kanälen
ging halt Zuno AI über die Kanäle.
Ich habe mich da einfach mal spontan angemeldet und habe mir,
man kann ja fünf Songs kann man ja da kostenlos erstellen mit seinem Test-Account.
Und ich bin fassungslos.
Ich bin fassungslos und ich würde mal sagen, so Gebrauchsmusik,
so Fahrstuhlmusik oder Werbejingelmusik braucht man heutzutage nicht mehr komponieren.
Also da braucht man keine Musikproduzenten mehr für.
Das kann die KI ohne Probleme.
Oder so ein Standard-Rap-Song oder so.
Den Standard-Kram in der Hitparade, das macht hier die KI mittlerweile.
In handwerklich anspruchsvoller Qualität.
Ist es wirklich? Ja, und das ist jetzt der Wendepunkt.
Ja genau.
Weil bisher war es so, dass alles, was da rauskam von der Klangqualität,
von der handwerklichen Qualität einfach echt zu wünschen übrig ließ.
Und jetzt ist es so auf dieser Qualität von 128 Kb/s MP3.
Man hört es noch so ein bisschen hier und da.
Der Sänger lispelt vielleicht ein bisschen.
Ja, oder die Texte sind manchmal ein bisschen komisch und so.
Aber zum Beispiel die Texte kannst du ja selber vorgeben.
Die musst du nicht autogenerieren lassen.
Und was ich erstaunlich fand bei den Texten,
auch wenn die inhaltlich vielleicht ein bisschen komisch sind,
wie gut er das mit dem Versmaß hinbekommt.
Absolut.
Und mit der Phrasierung und so.
Da merkt man schon, die Sachen greifen jetzt.
An den richtigen Stellen auch ein Chor einzusetzen.
Und die Dynamik von dem Ganzen.
Also ich habe damals auch gespielt.
Und das ist erst V3?
Das ist V3.
Wer weiß, was die mit V3.5 machen.
Genau.
Das heißt, wir sind jetzt an einem Punkt,
wo es sehr schwer wird zu unterscheiden,
wenn es sich in den Grenzen eines bestimmten Genres bewegt,
wo es Vorbilder gibt.
Kann man jetzt halt Musik erstellen innerhalb weniger Minuten,
wo es dem durchschnittlichen Hörer
und ich würde mal sagen in einem halben Jahr
auch dem Expertenhörer sehr, sehr schwer fallen wird,
zu unterscheiden, hat das jetzt jemand gemacht,
der sich auskennt?
Oder hat das jetzt jemand in fünf Minuten
mit der AI zusammengestöpselt?
Ja, genau.
Ich denke jetzt, und Sascha wird gleich lachen,
ich denke jetzt, Kevin MacLeod ist arbeitslos.
Das hätten wir vor 15 Jahren gebraucht,
bevor absolut jeder das immer gleiche Gedudel
unter seine YouTube-Videos geklatscht hat.
Mit immer dem gleichen Text.
Hatte der überhaupt Text?
Nee, der hatte keinen Text,
aber du musstest in der Beschreibung
ihn immer namentlich nennen.
Ja, genau, weil es Creative Commons war.
Das hat damals alle vereint.
Später waren es ein paar Sachen aus der YouTube-Audiolibrary,
die mal angeboten haben,
das darf ich immer noch tun.
Aber das sind jetzt schon andere Zeiten.
Aber tatsächlich, da gebe ich dir recht,
die Fahrstuhlmusik, die ist über kurz oder lang.
Sind die Macher der Fahrstuhlmusik oder auch alles,
was Gebrauchsmusik ist, brauchst du nicht mehr produzieren.
Die Leute, die so etwas gemacht haben,
sind jetzt arbeitslos, auf den Schlag, wirklich.
Also die Leute, die Leute, die den Lo-Fi-to-Study-and-Relax gemacht haben,
die haben gut getan, wenn sie jetzt die letzten paar Jahre,
wo sie großen Erfolg damit hatten,
wo sie in etwas investiert haben,
wo der Finanzmarkt vielleicht noch ein Moment gnädiger sein wird.
Das ist ja auch alles super volatil inzwischen.
Aber was ich mir halt denke, ich sehe es...
Oder Ballermann-Hits, das kannst du auch vergessen.
Das ist vorbei.
Nee, da bin ich mir eben gerade wieder nicht sicher.
Doch, das Ding macht ja auch Ballermann-Hits.
Ja, natürlich macht es Ballermann-Hits.
Macht es, aber du brauchst einen Künstler dafür,
denn Ballermann-Musik lebt davon,
dass alle das gleiche Stück kennen.
Und das hat ja...
Wenn dieses Ding einen Ballermann-Song für dich macht
und einen Ballermann-Song für mich und einen für Tobi,
dann können wir drei das nicht zusammen besoffen schmettern.
Also die Zuhörer hören jetzt mal weg.
Ich habe eine ganz tolle Geschäftsidee.
Lass uns doch eine Webseite bauen,
wo wir die Suno AI als API anbinden
und einfach die Leute für den Einwurf von,
sagen wir mal, für drei Euro,
kriegen sie einen individuell für sie geschaffenen Geburtstags-Song.
Für die Oma oder so was.
Aber sie kriegen alle den gleichen vom Machwerk her.
Wir tauschen zwei Parts Text aus
und dann können sie ihn alle zusammen mitschmettern.
Richtig, das machst du über ein Formular,
dann können sie dann ihre Daten eingeben
und zack, schon, jeder kriegt dann denselben Geburtstagssong.
Du musst auch nur einmal den Song bauen
und jeder muss einfach nur glauben,
der wäre gerade exklusiv für ihn.
Vor allem, wir können das in 300 Sprachen machen,
in 196 Ländern anbieten.
Wie geil ist das denn?
Ja gut.
Ich stelle mir gerade vor,
"Happy Birthday to you" auf Serbo-Kroatisch.
Ja, aber viel Spaß mit der chinesischen Firewall.
Nein, aber weißt du,
"Happy Birthday" ist Copyright-geschützt.
Stimmt, du hast recht.
Da müsste man natürlich ein bisschen kreativer werden.
Ja.
Aber ihr versteht, was ich meine?
Ja, natürlich.
Du kannst das für neue Geschäftsmodelle,
könnte man das jetzt nutzen?
Also das wäre jetzt da,
ich bin mir sicher, dass sie das auch als API anbieten.
Man kann es auch für alte Geschäftsmodelle nutzen.
Also wie gesagt, ich glaube,
Max Martin kann sich jetzt theoretisch einkoden vor Angst.
Eine Taylor Swift im Prinzip auch,
aber jetzt kommt der Punkt.
Und ich sage das mit dem Hinblick eines 1975-Konzertes
vor ein paar Wochen im Hallenstadion.
Zuno AI hat nie ein Auto auf der Rückbank gefickt,
hat nie Heroin genommen,
hat all diese Sachen, die wir quasi popkulturell,
zumindest voraussetzen,
zu glauben, dass sie der Künstler irgendwo durchlebt hatten.
Du kannst diese Gefühle nicht an einen Algorithmus koppeln.
Ja, das fehlt.
Naja, und die Projektionsfläche fehlt.
Ein Künstler, also...
Ernsthaft, guckt euch mal um,
was da in der K-Pop-Szene los ist.
Da hat ja auch hier,
das ging doch auch vor ein paar Monaten durch die Kanäle,
oder vor ein paar Jahren sogar schon,
dass da virtuelle Stars,
da Plattenvertrag von Universal genommen wurde.
Mittlerweile haben sie den wieder rausgenommen,
war wahrscheinlich zu früh,
aber es bietet sich an, das jetzt wieder reinzunehmen.
Aber die virtuellen Stars,
die sind nicht entstanden, weil man Geld sparen wollte
oder weil man es sich einfacher machen wollte.
Es ist sogar sehr viel mehr Arbeit dahinter,
hinter den Kulissen, um diese virtuellen Stars,
um diesen Content zu produzieren.
Das Problem, was man hatte, war,
dass die realen Stars irgendwann älter werden,
dass die irgendwann anfangen,
vielleicht einen Partner haben zu wollen.
Und das macht die Fanbase nicht mit.
Oder komische Ansprüche stellen,
mehr Gage wollen oder sowas.
Genau.
Und das heißt, da war dann eine ganze Gruppe von Experten dahinter,
die genau daran gearbeitet haben,
dass diese virtuellen Stars diese Projektionsfläche bieten können.
Und das ist ja auch überhaupt nichts Neues.
Hatsune Miku, das ist doch irgendwie 15 Jahre alt, das Phänomen.
Und die Gorillas sind bald 30 Jahre alt.
Aber bei den Gorillas sind ja nur Avatare.
Dahinter stecken ja echte Menschen.
Bei Miku war ja der erste Versuch von Yamaha,
synthetische Gesang darzustellen.
Nee, nee, nee.
Vocaloid gab es ja vorher schon.
Das Problem war einfach, dass die damals,
das war einfach der schöne Umstand,
dass die sich plötzlich gecrushed haben auf eine Zeichnung,
auf eine Verpackung, einer bestimmten Expansion.
Genau, das war eine Extension.
Wie gesagt, meine Freundin hat ein Rap-Lied gemacht.
Und ich hab den Text genommen und hab den auch bei Subo reingeschmissen.
Und hab dazu halt einen Prompt geschrieben.
Und das Ding hat natürlich perfekt das Ding ausgespuckt.
Das war ein perfektes Rap-Ding.
Und dann hab ich gesagt, mach mal so einen anderen Stil.
Und dann hat er das Lied genommen und hat daraus eine Ballade gemacht
oder so einen schmusigen Kuschelsong.
Und erstaunlicherweise hat das jedes Mal funktioniert.
Mhm.
Das ist krass, ne?
Ja, aber du hast immer noch keine Projektionsfläche.
Und ich glaube halt, weil wir jetzt am Punkt sind,
wo wir, ich denke, wir waren mit der Playlistisierung,
mit Spotify und all den Entwicklungen im Internet und so,
in den letzten Jahren, waren wir durchaus mal für einen Moment an einem Punkt,
wo wir tatsächlich die Musik für sich sprechen lassen konnten.
Also ich kenne Leute, die feiern Songs ab, also Kids,
sie bezeichnen das halt ihre Lieblingssongs.
Und die kennen weder den Künstler noch das Album, die kennen das Cover.
Und die wissen halt, wo sie es gespeichert haben.
Die wissen vielleicht auch, wer der Songer ist, oder?
Und der Künstler ist völlig losgelöst vom Song.
Und der Song wird autark betrachtet.
Ich denke, in meiner Zeit hat das schon so ein bisschen angefangen,
weil ich direkt halt quasi so 10 wurde,
als das Web 2.0 gerade so am Starten war, so um 2.5 rum.
Aber ich denke, gerade bei euch, also Thomas, Sascha,
bei Peter will ich das Alter jetzt nicht mutmaßen,
aber gerade die, die halt noch aus einer sehr Rockstar-dominierten Zeit kommen,
wo du halt wirklich quasi das ganze Produkt
auch an eine Projektionsfläche, an einen Künstler gekoppelt hast.
Ich denke, das war eine Zeit lang, war das entkoppelt,
aber mit dieser AI-Geschichte,
ich glaube halt, das kommt jetzt mit voller Wucht zurück.
Und warum mache ich das fest?
Weil, The 1975, das ist eine britische, ich sag mal, Indie-Popband,
das sind so eigentlich die klassischen Kids,
die mit dem Internet aufgewachsen sind, die sind glaube ich Mitte 30 oder so.
Die waren, also das ist so ein Quartett,
das schon in der Highschool zusammen gespielt hat, etc.
Waren so 10 Jahre völlig unbekannt,
haben sich so eine kleine kultartige Fanbase aufgebaut.
Kein Label wollte die, dann hat ein Kumpel gesagt,
hier, ich habe 10.000 übrig, ich mache ein Label.
Debutalbum rausgelegt, zack, eine Million Verkäufe.
Was bei denen halt wirklich auffällt, ist,
die haben sich ihre, ich denke, die Musik spielt natürlich eine große Rolle,
aber die haben sich ihre Fanbase wirklich eigentlich komplett mit ihrem Frontman zusammen,
also gesammelt, weil der Kerl halt wirklich einfach schwer einander Waffel hat,
weil der Kerl die ideale Projektionsfläche für deine,
ich sag mal, popkulturell-jugendlich konnotierten Sorgen ist,
oder der Kerl hat auf der Rückbank gefickt,
der Kerl hatte ein Heroinproblem damals, war fast krepiert daran.
Also das Ganze ist so dermaßen personenzentriert,
es ist nicht nur der Frontman, auch so die anderen,
und ich glaube halt genau dieses Feeling,
dass du, ich weiß nicht, ob das so eine kleine Mädchenthematik ist,
weil mir wäre es eigentlich egal, also wenn mir eine AI diese Musik ausspuckt,
würde ich sagen, ja, die ist tatsächlich objektiv gut,
aber dass halt immer noch niemand, und da sind wir dann auch wieder bei den Gorillaz,
dass niemand, der sich die Idee zusammenbrütet,
dass niemand, auf den man die Idee zurückverfolgen kann und sagen,
ja, klar, geil, das triggert so ein bisschen den eigenen Künstler in einem,
da baut mir niemand eine Bühnenshow hin,
da trinkt niemand auf der Bühne irgendwie aus einer Blumenvase,
weil es zur Show gehört, oder?
Also diese ganze Randomness, und da sind wir wieder beim Punkt,
dass sich die AI immer noch nicht gegenseitig außerhalb ihrer erlernten Muster arbeiten kann.
Kommt vielleicht mal, oder?
Aber ich habe immer noch den Eindruck, du gibst dem Prompt ein,
und er rechnet sich perfekt zusammen, was der Prompt ist,
aber er denkt nicht darüber hinaus.
Und die Leute, die das wissen und die das wissen wollen,
die sind dann auch fähig, den Künstler vor sich haben zu wollen, oder?
Pass auf, ich will den ganzen noch eine Story aufsetzen, um das Ganze,
ich hatte das bei uns auch in einem internen Chat schon gepostet.
Es gibt einen Artikel auf backstagepro.de,
da in dem Artikel geht es darum, dass ein 53-jähriger Däne mit KI-generierten Liedern
Tantiemen von Streamingdiensten verdient hat.
Der ist jetzt von einem dänischen Gericht zu 18 Monaten Haft verurteilt worden.
Seine KI-generierten Lieder, und er hat also mindestens so 600, 700 Stück halt erzeugt,
er ist verurteilt worden, weil er außerdem KI-Tools eingesetzt hat,
um die Streamingzahlen zu erhöhen und höhere Tantiemen zu erhalten.
Ist natürlich Win-Win, oder? Auf die Idee musst du erstmal gucken.
Der Verurteilte verdiente mit diesem Betrug 2 Millionen dänische Kronen,
also ungefähr 270.000 Euro, und landete damit auf Platz 46
der bestverdienenden Musikrechte-Inhaber in Dänemark.
18 Monate Haft für 270.000 Euro.
Ja, aber das war ja nicht, weil er da KI-Musik gemacht hat, sondern weil er da Betrug verdient hat.
Die Streamingdienste da betrogen hat, genau.
Ich hab noch eine Frage, lieber Peter.
Ah, okay.
Du hattest vorhin ganz am Anfang darüber gesprochen, dass du halt auch gerne Klänge mit,
oder wir alle, mit verschiedenen Eigenschaften, also mit warm, kalt, rau, spitz, scharf, beschreiben.
Wenn ich mir so deine Plugins anschaue und das Konzept so,
dann kriege ich immer so die Idee von Synesthesie.
Also wenn halt mehrere Sinne miteinander verschmolzen sind.
Ist das bei dir irgendwie ein Thema, oder ist das halt so ein Gedankending bei dir?
Ne, das ist bei mir auf jeden Fall ein Thema.
Im Sinne von, ich hab so das Gefühl,
also als ich aufgewachsen bin, hatte ich erstmal so einen ganz engen Musikbegriff,
was die Eltern oder Lehrer einem erzählt haben, was jetzt Musik ist oder was nicht.
Im Laufe des, je älter ich wurde, umso mehr Sachen erfasse ich als Musik.
Erst in diesem ganzen akustischen Bereich, also dass man irgendwann hört,
wie der Wind durch die Bäume geht und denkt, da ist so eine musikalische Struktur plötzlich vorhanden.
Da ist so eine Dynamik, die schwellt auf, die schwellt ab, das hat eine räumliche Positionierung usw.
Und das ist für mich auch eine unendliche Inspirationsquelle,
wenn ich selber Musik mache, irgendwo so etwas zu nehmen und umzuwandeln.
Und je mehr ich das hatte, fiel es mir dann auf, dass ich so, ich sehe irgendwas,
was weiß ich, ein Aquarell irgendwie, also häufig sind das so abstrakte Sachen,
oder ich sehe so eine Textur von irgendwie etwas und ich denke, ich weiß genau, wie das klingt.
Ich habe eine genaue Vorstellung davon, welcher Klang dazu passen würde.
Als ob das zwei Seiten von einer Medaille sind.
Auf der einen Seite ist es der Klang und auf der anderen Seite, im Optischen, würde das irgendwie so aussehen.
Und das ist so ein bisschen auch so, ich habe eine sehr langfristige Vorstellung,
was ich für ein Tool schaffen möchte.
Vielleicht in zehn Jahren bin ich soweit.
Die Technologie dafür muss ich entwickeln.
Ich muss, glaube ich, auch den Markt dafür entwickeln.
Weil wenn das jetzt sich plötzlich manifestieren und aus dem Himmel fallen würde,
würde, glaube ich, kaum jemand was damit anfangen können.
Und wo ich aber halt glaube, man kann Sounddesign und Musik anders machen,
als dass man jetzt 20 Regler hat, so runde Regler, mit denen man jetzt irgendwie hin und her dreht.
Das hat auch seine Berechtigung. Und Ähnliches gilt für Noten.
Diese Idee, eine Note ein aus, jetzt die nächste Note ein aus, das ist alles irgendwie schön und gut.
Wenn man als Musiker mit einem richtigen Instrument jetzt Noten interpretiert,
dann dichtet man ja auch ganz viel dazu.
Man erkennt ja, man hat ein Gefühl dafür, was die Phrasierung ist.
Man bringt ja die Emotionen mit rein und so weiter. Das ist ja alles nicht notiert.
In der Notation ist es sehr binär.
Und genauso habe ich das Gefühl, die heutige Technologie, auch von Software-Synthesizern,
ist halt rudimentär. Und da ist ein Riesenbereich, der offen steht,
wie man ganz anders mit Klängen und mit Harmonien und so weiter arbeiten kann.
Dazu gehört auch, es gibt eine sehr interessante Arbeit von einem Musikwissenschaftler namens Setaris,
der ist allerdings ziemlich unbekannt. Der hat halt so eine Verbindung gefunden,
wo er sagt, dass Klangfarbe, was weiß ich, eine Violine anders anhört als eine Klaviernote,
selbst wenn es von der Frequenz das Gleiche ist.
Also diese Klangfarbe auf der einen Seite und auf der anderen Seite Harmonien
oder in welcher Skala ich spiele, ob ich jetzt in Duo spiele, ob ich in Moll spiele
oder vielleicht in einer Ganztonskala. Das sind eigentlich nur zwei Enden von einem Spektrum.
Und dazwischen ist ein Riesenbereich und das ist aber eigentlich ein Kontinuum.
Und das bedeutet auch, wir sind es so gewohnt, traditionell Musik zu machen,
weil wir halt in diesem binären Konzept denken. Aber so langsam hat man das Gefühl,
und die AI macht das ja auch vor, eigentlich hat sich das so ein bisschen erschöpft.
Deswegen fällt es der KI ja auch leicht.
Ja, weil es klare Regeln sind.
Es sind relativ klare Regeln, genau. Und ich glaube, dass da ein Riesenbereich ist,
der sich öffnen wird, wenn man die richtigen Werkzeuge hat.
Und Stand heute hat man sie noch nicht.
Frage. Also wenn ich Musik mache und sie aufnehme, ist meine Hoffnung immer,
dass sich das, was ich an Emotionen transportieren möchte, durch den Aufnahmeprozess am Ende
auch bei den Zuhörern ankommt und sie sozusagen dann mit meiner Musik, Achtung, in Resonanz gehen.
So als Idee wäre nicht zum Beispiel das Thema Elon Musk Neuralink auch so eine Geschichte,
um Klänge, Instrumente, Klangerzeugung zu steuern und vielleicht Emotionen sichtbarer zu machen.
Aber selbst dann brauchst du –
Oder hörbarer.
Ich behaupte, selbst dann brauchst du eine andere Musik.
Weil, nehmen wir jetzt mal dein emotionales Vokabular, da gibt es sehr, sehr fein ausdifferenzierte Stimmungen usw.
Nehmen wir jetzt, um es ein bisschen einfacher zu machen oder klarer zu machen,
nehmen wir jetzt mal Instrumentalmusik nur. Lassen wir mal Text für den Moment außen vor.
Das heißt, du hast jetzt dein komplexes Innenleben oder eine sehr spezielle Stimmung.
Die Stimmung, die du ausdrücken willst, ist ja nicht "Ich bin traurig",
sondern deine Stimmung ist vielleicht die "Ich möchte gerne die Traurigkeit, die ich neulich Abend hatte,
als mir bewusst wurde, dass es zwar schön ist, dass es warm ist,
dass aber andererseits das auch ein Zeichen des Klimawandels ist und ich hatte diesen leckeren Duft vom Grill in der Nase
und wurde irgendwie ein bisschen traurig und mir wurde bewusst, dass ich eines Tages sterben werde".
Eine total schräge Zusammenstellung, aber sie ist halt genau das Gefühl, was du in dieser Sekunde hattest.
Das hat dich vielleicht stark berührt und das möchtest du jetzt gerne in Musik fassen, damit das transportiert werden kann.
Aber die Musik, wie wir sie heute kennen, hat gar nicht das Vokabular, um das alles ausdrucken zu können.
Die Musiksprache, die wir haben, hat Duo und Moll und dann kannst du noch ein paar Tensions dazu packen.
So kriegst du mit der Harmonie schon mal eine ganze Menge hin.
Du kriegst ziemlich viel mit über das Tempo und die Dynamik,
aber bestimmte Sachen lassen sich leicht ausdrucken und bestimmte andere Sachen weniger oder weniger präzise.
Ich habe dieses Wort Resonanz deswegen so betont, weil ich glaube, dass du recht hast.
Ich glaube, es gibt ja Studien, es gibt Experimente, das Militär forscht da auch schon lange dran rum.
Sie haben, glaube ich, auch schon entsprechende Waffen entwickelt, mit denen man unterschwellig Massen,
zum Beispiel bei einer Demonstration, eine Menge an Menschen, eine Menge x an Menschen, in Unwohlsein versetzen kann durch Infraschall.
Die Scheiße, ey.
Ich könnte mir aber auch vorstellen, dass wenn man bestimmte Frequenzen, die eine Geige erzeugt oder die auch ein Klavier erzeugt,
wenn man die identifizieren könnte, dass bestimmte Frequenzanteile vielleicht bestimmte Emotionen auslösen können bei Menschen,
und zwar bei allen Menschen, egal welchen Alters, welches Geschlecht,
dass das vielleicht eine Ausdruckmöglichkeit wäre, sehr emotionale Musik zu kreieren.
Genau.
Das ist, glaube ich, das, was du meinst, oder?
Genau. So ein klassisches Beispiel haben wir dafür ja. Es gibt die Mollterz und die Durterz, oder den Mollakkord und den Durakkord.
Es gibt diese übereinstimmende Resonanz, dass man den Mollakkord eher traurig, bisschen gedämpft irgendwie,
jedenfalls im Vergleich zum Dur, der etwas optimistischer.
Jetzt ist das natürlich im Detail viel komplizierter, weil ich vielleicht eine Progression habe, bla bla bla.
Ja, aber im Endeffekt läuft das ja nur darauf hinaus, dass ich ja nur um einen Halbton verschiebe.
Genau.
So mache ich ja oft aus einem Dur halt einen Mollakkord.
Und alleine nur diese kleine Verschiebung der Frequenzen, der Schwingungen führt zu einem kompletten Umkehr der Stimmung.
Ja, aber das, da bewegen wir uns in einem westlichen Zwölftonsystem.
Was ist denn mit den anderen Tonleitern?
Was die, zum Beispiel die fernöstlichen Tonleitern oder…
Genau.
…klassisches Beispiel, FX Twin arbeitet auch mit mikrotonalen Skalen ganz viel in seiner Musik.
Genau. Und wenn man sich jetzt historisch das anguckt, dann gibt es Kulturen, die da eine ganz andere Sprache…
Also zum Beispiel, es gibt ja, sage ich mal, in der europäischen, deutschen klassischen Tradition, da haben wir nur Dur, Moll.
Und wir haben dann noch diese Kirchentonarten irgendwie.
Wenn wir alles in einen Sack werfen, kommen wir vielleicht irgendwie auf zehn.
Im indischen hat die Musik hunderte in vielen, vielen Variationen.
Und die haben sozusagen eine super fein ausdifferenzierte emotionale oder inhaltliche Bedeutung.
Und das heißt, da steht ein ganz anderes Vokabular zur Verfügung für diese Sachen.
Aber selbst da ist es so, dass es noch ein relativ fest vorgegebenes System gibt, was jetzt mal den Tonvorrat betrifft.
Jetzt gibt es diese Mikrotonalität und viele Leute haben so das Gefühl, ich habe Mikrotonalität, das hört sich dann immer so an wie ein Westernklavier, irgendwie verstimmt.
Irgendwie hört es sich nicht richtig an. Es hört sich so an, als spielt da jemand mit einem nicht richtig gestimmten Instrument.
Und das ist halt das, was dieser Setaris genauestens herausgefunden hat, wieso das so ist und was da eigentlich der Fehler liegt.
Denn es gibt diesen Zusammenhang, die Physik, die wir haben, die sagt, es gibt diese und diese Obertonreihe.
Wenn ich jetzt etwas anstoße, dann ergeben sich automatisch bestimmte Resonanzen.
Das bedeutet, ich habe meinen Grundton bei 100 Hertz, dann habe ich die nächste Schwingung bei 200 Hertz, die nächste bei 300 Hertz, die nächste bei 400 Hertz und so weiter.
Das ist die klassische Obertonreihe und die nimmt dann irgendwie ab.
Ob das jetzt ein bisschen mehr so klingt oder so, das sind dann halt die Feinheiten, wie stark das abnimmt, ob da noch ein paar Wellen, Berge und so weiter sind.
Und wenn man das jetzt vorgegeben sieht, dass die Physik diese Kämme mit gleichen Abständen macht,
dann guckt man sich, wie könnte ich denn jetzt verschiedene Noten finden, sodass ich Töne zusammenspielen kann,
dass Menschen zum Beispiel zusammen singen können, aber nicht nur unisono, sondern auch einen Akkord.
Bum, bum, bum, machst du ein bisschen Mathematik und stellst du fest,
ich habe eigentlich nur die Möglichkeit, entweder sieben Töne zu nehmen oder zwölf Töne und als nächstes ist 18, aber 18 funktioniert schon nicht mehr so richtig gut.
Pentatonisch gibts auch noch.
Wie bitte?
Pentatonisch.
Genau, pentatonisch. Entschuldigung, ich meinte, ich habe sieben gesagt, ich meinte fünf.
Aber das folgt ja festgelegten mathematischen Formeln.
Und dabei ist es ja egal, ob der Grundton dann 440 Kilohertz, 440 Hertz oder 432 Hertz ist.
Genau, aber es stammt halt aus der Physik und zwar liegt es daran, dass es einen Klang hat.
Man kann folgendes Experiment machen mit jedem Synthesizer.
Man nimmt nur Sinuston und spielt jetzt Akkorde mit Sinuston und wählt sich die wildesten Skalen aus.
Dann kann ich plötzlich Harmonien spielen, ohne dass es sich schräg anhört.
Und was der Citarus herausgefunden hat, ist, dass er sagt, ah, wann immer ich eine bestimmte Abfolge habe von Obertönen,
und die muss nicht zwangsweise jetzt so gleichmäßig sein wie in dem physikalischen,
dann ergibt sich daraus eindeutig mein Tonvorrat und der muss dann nicht mehr zwölf Töne wohltemperiert sein.
Ich kann auch umgekehrt vorgehen und sagen, ich möchte jetzt eine Skala haben, wie was weiß ich,
ich teile meine Oktave jetzt in sieben exakt gleiche Bestandteile, also wohltemperiert, nur statt zwölfstufig siebenstufig.
Wenn ich das jetzt mit einem normalen Klavier spiele, hört es sich gruselig an.
Ein Klavierstimme kann das so stimmen, aber es hört sich scheußlich an.
Wenn ich jetzt aber jeden einzelnen Klavierton, die Obertonreihe, so mache, wie sie für dieses Siebener-System machen muss,
dann kann ich plötzlich Melodien und Akkorde in diesem Kram spielen.
Ich habe dann Experimente damit gemacht und das Ausprobierte, das Verblüffende ist halt,
auf einmal kann man Emotionen, also du spielst eine Melodie, die eine Emotion ausdrückt, die sich einfach im Zwölftonsystem nicht ausdrücken lässt.
Du spürst diese emotionale Stimmung, die es in unserer Musik nicht geben kann, aber da geht es.
Dafür braucht man aber ein Instrument, das genau dieses Kunststück macht, das die Skal mit den zugehörigen Obertonreihen verschränkt.
Das geht ja aus der Theorie der Schwingungen heraus, dass im Endeffekt alles Schwingungen sind.
Es gab ja hier diese String-Theorie, das sind ja auch im Endeffekt nur schwingende Fäden.
Darauf baut sich unser gesamtes Universum auf, was sich gesamter Materie auf Schwingungen aufbaut.
Das fließt damit ein. Wir sind jetzt an einem Punkt, wo wir gerade hochphilosophisch und fast esoterisch sind.
Ja, an dieser Stelle ist es halt so, dass das stimmt. Das mag hochphilosophisch und esoterisch sein oder vielleicht auch eine tiefe Wahrheit über irgendetwas offenbaren.
Aber ich rede auch von etwas Handfestem, Praktischem, was ich hier im Labor, vielleicht noch nicht toller Qualität,
aber wo ich das bereits hören kann, wo ich weiß, dass da etwas ist, was es so nicht gegeben hat und was interessant ist.
Weil es ja klare Regeln gibt dafür.
Und weil es außerhalb der Regeln agiert.
Ich finde es total spannend. Ich bin sehr neugierig und sehr gespannt, was du da noch so machst, Peter.
Ja, ich auch. Es ist ja für mich auch eine Entdeckungsreise.
Ich weiß, in welche Richtung ich mich bewegen will, aber es ist auch jeder Tag ein Abenteuer, wo ich auch immer wieder Überraschungen erlebe.
Was ich mich frage, ist, hat Peter bei sich zu Hause eine Serverfarm voller Grafikarten oder ein stinknormaler Desktop-PC?
Ich habe mehrere stinknormale Desktop-PCs, aber nicht deswegen, weil ich Computer so toll finde oder weil die so viel rechnen,
sondern einfach, weil ich unterschiedliche… Ich brauche einen Apple mit einem Intel, einen Apple mit einem Silicon,
ich brauche einen Windows-Rechner und das ist eher so der Hintergrund.
Und sonst, wenn ich Berechnungen bräuchte, wo ich das Gefühl habe, da braucht man jetzt irgendwie ganz viele Grafikkarten oder so,
würde ich die ganz sicher nicht bei mir hier aufstellen, sondern das würde ich einfach online buchen, stundenweise.
Das lässt sich einfach viel besser skalieren.
Genau, es skaliert einfach besser.
Und das kannst du sogar bis auf die Funktionen runterbrechen, dass du sagst, ich brauche das jetzt mal für diese eine Funktion,
brauche ich mal eben hier 200 CPU-Kerne, zack, buchst du die mal eben für eine halbe Stunde und dann ist die Funktion durchgerechnet.
Ja, ist auch bei den Preisen ja gar kein Ding, so zu zerstören, weil sie so billig…
Ja, also mittlerweile… Ich erinnere mich noch, wie Future waren, das glaube ich, die mussten für irgendein älteres Musikvideo die Wasserwände haben.
Die haben halt alle ihre YouTube-Kumpels angerufen und denen Schnipsel geschickt und haben gesagt, hey, könnt ihr das bitte mal auf euren Gaming-Bühnen laufen lassen.
Und dann haben die sich quer durch die Bundesrepublik, die waren halt damals noch klein, die haben sich quer durch die Bundesrepublik von den Kollegen
irgendwie einen kurzen Wasserschnipsel zurückschicken lassen, der dann halt gerendert war.
Dann haben die das zusammengesetzt und fertig waren. Und das ist keine zehn Jahre her. Heute buchst du dir eine Cloud-Farm.
Genau, aber auch da ist es ja so, dass beispielsweise für diese Modelle von, was weiß ich, JetGPT oder Stable Diffusion oder auch jetzt dieses Sono,
das ist dann natürlich doch schon wieder, dass dann da mehrere Hochhäuser vollgestopft mit den Hochleistungstensorschips dann über Monate an sowas rechnen.
An die Modelle, an die LLMs, ne?
Ja, genau.
Da rechnen die wirklich verdammt lange dran. Aber später, das eigentliche Ding…
Die Inferenz, ja.
Das kannst du tatsächlich auf einer ordentlichen GPU laufen lassen.
Ja.
Das ist unglaublich, also.
Das ist natürlich die Frage, auch wieder in der Frage der Nachhaltigkeit, okay, willst du so viel Energie verpulvern für Entwicklung,
aber da beißt dich die Katze dann halt auch wieder in den Schwanz, oder? Du willst wohin kommen, also musst du diese Ressourcen auch aufwenden,
um irgendwo hinzukommen, damit es dann nachher auf dem Look eben laufen kann.
Ich finde, das ist eine wunderbare Frage, mit der wir die Zuhörer dann jetzt in das Ende dieser Sendung entlassen können.
Danke für diese Überleitung.
Sucht euch mal selber Beschett-GPT, das ist ganz witzig.
Sucht euch mal selber Beschett-GPT, das geht?
Ich bin echt fasziniert davon, wenn man sagt, wer ist der Podcaster Sascha Markmann?
Ich will gar nicht wissen, was Beschett-GPT über mich weiß oder nicht weiß.
Vielleicht deprimiert mich das, wenn Beschett-GPT sagt, Herr Notstrom, wer?
Seitdem ich das gemacht habe, bin ich jetzt mindestens 2,58 Meter groß und habe 100 Millionen auf dem Konto.
Nicht schlecht.
Respekt. Und dann redest du noch mit uns, finde ich gut.
Gab es nicht mal diese AI-Geschichte, wo ein früheres Stadium das Machine Learning gefragt hat,
was ist der normale Mensch? Und dann hat das Machine Learning gesagt, der normale Mensch ist sehr reich.
Die Geschichte geht ganz anders. Die haben einen neuen Ansatz gesucht für künstliche Intelligenz und haben gesagt,
wir müssen erst mal Wissen verknüpfen.
Also haben sie den Tagsüber mit Wissen gefüttert und nachts hat das Programm das Wissen neu verknüpft.
Und am nächsten Tag haben sie sich diese Verknüpfung angeschaut.
Und irgendwann mal hatte dieses Programm festgestellt, dass 99,99997% der Menschheit berühmt sind.
Und dann, warum kommt das Programm auf die Idee?
Weil das Programm nicht wusste, dass dort 6 Milliarden andere Menschen auf der Welt leben
und nur die ganzen berühmten Leute aus dem Wissen, aus den Datenbanken kannte.
Klassischer Fehler.
Wenn ich mir meinen Freundeskreis und Bekanntenkreis angucke, würde ich auch sagen,
alle Menschen oder fast alle Menschen machen selber Musik.
Ja, genau.
In diesem Sinne macht selber Musik.
Schaltet jetzt ab.
Wir hören uns dann wieder, spätestens wenn unser Werder-Podcast-Gast und mittlerweile guter Podcast-Freund
wieder seinen nächsten, sehr kleinen, unspektakulären FM-Synth gebaut hat.
Auf den warten wir noch.
Ja, der kommt auch noch irgendwann.
Falls es dir zwischendurch zu langweilig wird oder wieder drei Jahre vergehen,
bist du auch gerne zwischendurch wieder hier.
Dankeschön.
In diesem Sinne, schaltet auch beim nächsten Mal wieder ein.
Wenn ihr Tobi sagen hören wollt…
Wir gehen nach Ibiza, zurück auf die Insel.
Wir gehen zu einer Party.
Ich starre hier auf den Tab, der neben dem Studio-Link ist.
Und aus irgendeinem Grund sind da die Wenger-Boys.
Was ist hier passiert?
Die Wenger-Boys?
Tobi, du bist komisch.
Die sind doch auch KI-generiert, oder?
Peter, du hast das letzte Wort.
Tschüss.
Tschüss.
Tschüss.
Mach's gut.
Bis zum nächsten Mal.
Ja, ciao.
Ciao, ciao.
[Musik]
[Musik]
[Musik]
Unterstützen:
Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder über Patreon mit einem kleinen Mehrwert als Dankeschön.
Die spenden werden benötigt, um ein Teil der kosten für die Bereitstellung meiner werke, Podcast Blog texte sowie die Videos zu gewährleisten.
"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihren regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie vor und nach Gesprächen sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns so unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."
Anzal der Downloads: 247 /
Spieldauer: 2:19:57 /
Tag der Aufnahme: 08.04.24 /
Diese Folge stammt aus der Staffel 4, es gibt insgesam 4 Staffeln.
Eine LautFunk Publikationskartell Produktion
- Wo Geschichten unüberhörbar übermittelt werden.
Legastheniker am Werk (Mehrfaches lesen meiner Postings kann zu irreparable Schäden an den Augen führen z. B.. Pseudotumor-zerebral-Syndrom)
Leicht gestörter bis Mittel schwerer Fall von Überlebens Künstler, Maler, Blogger, Musiker, Podcaster und Video Produzenten "Audiovisueller STUMPFSINN mit keinem Nutzwert"
Alle Beiträge von Sascha Markmann anzeigen