Probe Podcast 58 Interview mit Peter von DAWESOME

Bitte hinterlasse ein Kommentar und ein Like

Beschreibung:

In der vorliegenden Folge des “Probe Podcasts”, dem gemütlichen Talk aus dem Proberaum, begrüßen wir unser Moderatorenteam und ihren Gast Peter. Peter ist ein Indie-Softwareentwickler von Synthesizer-Plug-ins. In dieser Folge erzählt er von seinem Werdegang, seinen Firmen und warum Farben, Strukturen und Klanggestaltung miteinander verschmelzen. Die Gesprächsrunde macht dabei einen ausführlichen Exkurs in die Welt der künstlichen Intelligenz, beleuchtet deren Bedeutung für Kreative und diskutiert, warum KI-Systeme lediglich wie Zaubertricks wirken. Schließlich endet dieser Exkurs in unterhaltsamen Anekdoten über Gleitgel und Schwangerschaftsprodukte. Anschließend erläutert Peter seine Philosophie und Vision für seine Produkte sowie die Leitplanken, die ihm bei der Produktentwicklung helfen. Er greift dabei Gedanken aus der Wahrnehmungspsychologie auf, um die Benutzeroberflächen seiner Plug-ins zu gestalten. Er verfolgt dabei einen ganzheitlichen Ansatz, der nicht nur technische Parameter benutzerfreundlich gestaltet, sondern auch Farben und Strukturen in die Benutzeroberfläche integriert, um die Bedienung von Synthesizern intuitiver zu machen. Die Proberaum-Besucher diskutieren im Anschluss über den Einsatz von MIDI-Controllern und tauschen ihre Ansichten über das Roli Seaboard, das Haken Continuum und das Expressivee Osmose aus. Zum Abschluss teilt Peter seine Pläne für zukünftige Produkte und Feature-Anfragen mit. Er verrät, dass er aus jedem Produkt dazulernt und diese Erkenntnisse in die Weiterentwicklung seiner vorherigen Produkte einfließen lässt. Die Runde diskutiert abschließend die Entwicklung einer einheitlichen Formsprache und erörtert, warum eine Favoritenfunktion sinnvoll sein kann.

Wir möchten Peter von DAWESOME herzlich für diesen äußerst interessanten und tiefen Einblick in seine Firma und seine Produkte danken. Es war eine Bereicherung, ihn kennenzulernen, und wir freuen uns bereits jetzt auf ein baldiges Wiederhören.

p.s. In der Postproduction wurden noch ein paar Sachen entzerrt, am Gespräch selbst nichts gekürzt, allenfalls das eine oder andere ähm rausgeschnitten, oder allzu überlagerndes Zustimmungsgebrumme, die eine oder andere geköpfte Dose oder Rumgehuste entfernt, zwei Gags beschleunigt und seriös im Interview geblieben, an wenigen Stellen noch das Pacing beschleunigt durch geschickte Anwendung von Kunstpausen.

Links zur Ausgabe:

▶ Hier Klicken für das Tanscript:
Transcript:

Hallo und willkommen zum Probe-Podcast.
Ich bin Sascha Markmann und sage Hallo. Ich bin auch bekannt als die Raumwelle und
begrüße euch zu dieser eloquenten kleinen Runde.
Hallo Tobi. Hallo. Kurz und knapp wie immer. Hallo Thomas. Moin aus Hamburg, hier aus dem
Herzen der Stadt, geografischer Mittelpunkt und wir haben heute einen
Ehrengast in unserer Runde auch noch mit eingeladen und zwar von,
nee nicht von, sondern Peter von Dorsam. Peter, herzlich willkommen.
Ja hallo, auch aus Hamburg übrigens. Ja genau. Danke schön. Aus welchem Stadtteil?
Norden, Süden? Norden, Barmbeck. Ach komm, das ist bei mir hier fast um die Ecke.
Hättest du auch hier bei mir vorbeiradeln können, dann hätten wir hier zusammen das
Koffünchen pusten können. Das machen wir das nächste Mal, genau.
Thomas, niemand hat Bock auf deine hallenden Räume.
Dann kommst du das nächste Mal zu mir. Genau.
Der Sascha hat das echt gut gerettet. Ich glaube, das war sogar die Ausgabe,
die du rumgeschickt hast, Thomas, oder? Das ist die Ausgabe mit Clemens,
die du eigentlich immer als unseren Einblick in den Podcast rumschickst.
Ja, das mache ich nicht immer. Ich wechsle immer, je nachdem,
welche Folge halt gerade aufgenommen wurde und die so ein bisschen repräsentabel ist.
Dabei fand ich jetzt, was ihr da rausgeholt habt, gar nicht so schlecht.
Nee, der Sascha hat das super gemacht, aber ich finde das schon gut, dass du da wechselst.
Ich finde es auch gut, dass du nicht jedem schreibst,
"Hey, ich hab dich vor einem Jahr auf YouTube gesehen."
Wobei, ich muss sagen, an der Stelle, es hat gepasst, weil ich hab den,
also die Plugins vor einem Jahr etwa auf YouTube gesehen und da hab ich gedacht, geil.
So hat das Ganze nämlich angefangen.
Wer von uns war zuerst auf den Dorsum Plugins unterwegs? Sascha?
Ich hatte sie erwähnt gerade.
Nee. Okay.
Nurwum.
Dann lass doch mal Peter erzählen, was er denn so macht mit Dorsum.
Und wir reden hier über Plugins, also man kann jetzt schon erkennen,
Peter ist unter anderem Softwareentwickler.
Peter.
Ja, genau. Also eigentlich trifft es das schon.
Ich mache Plugins und ich mache das selber eigentlich von bis.
Ich arbeite zwar auch manchmal mit anderen Leuten zusammen,
aber ich bezeichne mich gern als Indie-Developer sozusagen.
Das heißt, ich hab nicht vor, dass das hier irgendwann eine große Firma wird mit 30 Leuten,
sondern mir macht das gerade Spaß, dass ich die Sachen so in der Hand habe,
alles so gestalten zu können, wie mir das gerade in den Kram passt.
Oder ich glaube, dass es gut ist.
Ja, und bisher habe ich mich hauptsächlich spezialisiert auf Synthesizer-Plugins,
aber ich habe dieses Jahr auch einen ersten Audio-Effekt gemacht,
um mal zu gucken, ob es da auch Interesse gibt in dem Bereich.
Jetzt bist du aber nicht nur Softwareentwickler,
der Musik-Plugins für Dors entwickelt
und deswegen auch der Name Dorsum übrigens, glaube ich.
Du bist auch Fagott-Spieler.
Genau.
Und auch Bass-Fagott.
Kontrafagott, genau. Ich spiele Fagott und Kontrafagott.
Das ist aber, sag ich mal, hobbymäßig.
Hingegen als Softwareentwickler bin ich richtig ausgebildet.
Also habe ich studiert, mal Mathe und Informatik.
Ja, also richtig mit Diplom und allem.
Mit Doktortitel.
Wow.
Ja, mit Doktortitel.
Ja, ich hatte damals Angst,
so in dieses normale Berufsleben in irgendeiner großen Company oder so zu gehen.
Und dieses Leben als Student hatte mir so gut gefallen.
Und deswegen konnte ich mich von der Uni nicht so gut lösen.
Und als ich dann die Gelegenheit bot,
da noch ein paar Jahre länger zu bleiben, konnte ich nicht.
Zu dir schnell einen Doktor-Vater gesucht und hin los.
Genau.
Jetzt, ich gucke hier ja so ein bisschen mit einem Auge
auch so ein bisschen auf deiner About-Me-Seite auf dorsummusic.com.
Und da steht jetzt, schreibst du über dich selber,
dass du auch ein KI-Startup gegründet hast.
Das ist dann, ich vermute mal, weit vor der Dorsum-Zeit gewesen.
Ja, das war so.
Wo heutzutage KI in aller Munde ist,
das ist ja auch dann schon irgendwo wegweisen gewesen damals.
Ja, ich denke mal, das ist so 25 Jahre wahrscheinlich.
20, 25 Jahre, ich weiß gar nicht mehr so ganz genau.
Und die Idee war damals, und das hat auch gut funktioniert,
man hat ja auf der einen Seite Leute, die verstehen so ein bisschen ihre Daten.
Die arbeiten zum Beispiel im Unternehmen oder sind als Wissenschaftler
und kennen sich aus mit den Daten, die sie haben.
Aber die haben typischerweise keine Ahnung von Statistik
oder vielleicht nur sehr rudimentäres Wissen von Statistik
und tun sich dann schwer, aus diesen Daten irgendetwas rauszulesen.
Dafür bräuchten sie eigentlich einen Statistiker
oder jemanden, der dann auch mit Machine Learning oder ähnlichen Sachen das machen kann.
Und diese beiden Leute können aber nicht gut miteinander sprechen.
Und deswegen war die Idee, es wäre ja eigentlich viel schöner,
wenn man die Leute, die wirklich ihre Daten kennen, dazu befähigt,
dass die so eine Art Kompagnon haben oder dass sie eine Software haben,
die gewissermaßen die Leitplanken zur Verfügung stellt,
dass man mit den Daten spielen kann, dass man die visualisieren kann.
Und dass wenn man so eine Aussage macht wie "Oh, ich sehe in den Daten,
dass 80 Prozent bla bla bla", dass das dann auch fundiert ist
und dass das nicht so eine Scheinkorrelation oder etwas Ähnliches ist.
Das war damals so die Grundidee.
Das hat auch gut funktioniert. Wir haben das ein paar Jahre gemacht.
War ein kleines Unternehmen mit, weiß ich nicht, bis zu zehn Leuten waren wir, glaube ich.
Also acht, neun, zehn, elf, ich weiß nicht mehr ganz genau.
Und mir hat es Spaß gemacht, dieses Produkt zu entwickeln und diese Vision.
Und dann verschob sich aber diese Tätigkeit irgendwann in
"Oh, das wäre ja toll, wenn du jetzt jede Woche woanders hinreist in Deutschland,
wo jeweils ein Kunde ist und dann mit diesem Kunden ein Projekt zu machen
und dann die eine Woche bei Vodafone und die nächste Woche bei der großen Versicherung
und dann nicht hier und dann da."
Das war so gar nicht meins und deswegen habe ich mir dann wieder was anderes gesucht.
Ja, das ist so das typische Geschäft.
Man muss dann halt das, was man da entwickelt hat, entsprechend verkaufen.
Und das muss man natürlich auch mögen.
Ich habe gerade sehr große Flashbacks zu meinen Zeiten in der IT,
wo ich eigentlich nur reingerutscht bin, weil sie halt jemanden brauchen,
der so die Anschlüsse auseinanderhalten kann und nicht USB in Firewire steckt.
Das ist auch schon eine Weile her.
Und als ich dann eines Rollouts bei KPMG in der Chefetage unter den Tischen lag
und die Firma redundant genannt habe, da war es dann auch irgendwann zu Ende.
Ich habe gedacht, das kannst du nicht mehr steigern.
Wie willst du das noch toppen? Zum nächsten Kunden fahren? Nee.
Ja, genau. Irgendwann.
Und dieses Repetitive, dass das dann irgendwie immer das Gleiche ist,
das muss man mögen und das trifft auf mich einfach nicht zu.
Naja, aber das Thema KI, das fand ich schon auch über die ganzen Jahrzehnte interessant.
Und das habe ich auch weiterverfolgt.
Und das hatte ich auch in den anderen Tätigkeiten, die ich zwischendurch so hatte.
Also ich habe auch in dem Bereich Medizintechnik zum Beispiel gearbeitet.
Also das hat mich nie losgelassen.
Und die ursprüngliche Idee, als ich dann angefangen hatte zu denken,
oh, ich möchte gerne was machen in Richtung Plugins oder Software fürs Musikmachen,
war auch eigentlich erst, dass ich dachte, okay, KI ist jetzt auf einem Level,
dass man anfangen kann, damit vernünftige Sachen zu machen im Bereich Komposition.
Und da habe ich einige Prototypen gebaut und das hat eigentlich auch Spaß gemacht
und funktioniert gut. Also es ist schon toll, wenn man dann, was weiß ich,
man spielt irgendwie eine kleine Midi-Melodie ein und dann sagt man,
okay, und jetzt hätte ich das Ganze gerne mal so ein bisschen im Stil von 40% Chopin,
aber 20% noch Wagner und die restlichen 40% später sehr freier Jazz.
Und was dann da sozusagen so rauskommt, dann schiebt man so ein bisschen
an diesen Schieberegler und guckt, wie verändert sich das, wie macht man das.
Das heißt, man kann auf einem höheren Abstraktionslevel mit diesen Noten spielen und machen.
Und ich habe dann aber mich dagegen entschieden, daraus ein Produkt zu machen,
weil ich gedacht habe, weil ich selber auch die Erfahrung gemacht habe,
es macht Spaß, damit etwas zu tun, aber es fühlt sich am Ende nicht mehr an,
als ob man es selber gemacht hat. Dieses Gefühl von "ich habe hier etwas komponiert"
oder "ich habe hier etwas gemacht", das geht irgendwie dabei verloren.
Und ich habe gedacht, auch wenn man damit schöne Ergebnisse erzielen kann,
ich glaube nicht, dass das etwas ist, was die Menschen nachhaltig befriedigt,
weil einfach dieses Gefühl, dass man etwas selber gemacht hat, wenn das so verloren geht,
es kommt am Ende etwas raus, das klingt schön, aber man hat das Gefühl, das war gar nicht ich.
Ja, das ist unbefriedigend dann.
Ja, genau.
Ich habe ja jetzt seit "ChatGPT" in aller Munde ist, auch viel mit diesen Image-Kreatoren.
Die gibt es ja auch von Microsoft, Bing und auch von anderen großen Firmen.
Und da habe ich ein bisschen mit rumgespielt.
Und du hast zwar dann so ein sehr beeindruckendes Bild hinterher,
nachdem du da deine Keywords eingetackert hast, aber es ist nicht richtig befriedigend.
Da hast du zwar ein Ergebnis, aber du denkst, eigentlich hätte ich das doch gerne ein bisschen anders.
Und du kannst dann aber nicht mehr so richtig Hand anlegen, weil das ist ja auch alles irgendwie so,
ich weiß nicht, du hast keine direkte Kontrolle mehr.
Ja, das stimmt. Mit diesen Bildgeneratoren habe ich auch ein bisschen gespielt
und ich fand es faszinierend, also es ist schon beeindruckend.
Ja, total.
Auch wie kreativ diese Bildgeneratoren teilweise sind.
Also man gibt da irgendwie so ein bisschen was ein und was es dann irgendwie so draus macht.
Für die mit der Feinkontrolle habe ich dann festgestellt, gut, am Ende habe ich dann,
wenn ich einmal eine Idee hatte, wie hätte ich es denn gern,
dann habe ich oft 50 oder 100 Variationen davon erzeugt und hier noch mal ein bisschen getweakt
und da noch mal ein bisschen getweakt.
Am Ende spart man dann aber auch nicht mehr viel Zeit,
da gegenüber das mit Photoshop selber zu machen.
Richtig.
Und deswegen, ich kann mir schon vorstellen, dass das an der einen oder anderen Stelle
toll ist, um ein bisschen Inspiration zu bekommen.
Und dann wird man es aber etwas, sage ich mal, klassischer weiter bearbeiten
und natürlich toll ist mittlerweile in Photoshop beispielsweise diese ganzen KI-Funktionen,
die einem einfach das Retuschieren ergänzen und so.
Die sind der Hammer.
Ja, ja, das ist also für die ganzen, für Freunde von mir, die sind Profi-Fotografen,
die haben da tagtäglich mit zu tun.
Für die ist das, ich will nicht sagen ein Segen, aber es ist halt ein Werkzeug,
um noch effizienter und noch schneller zu werden.
Mal eben Hintergrund austauschen, kein Problem.
Und das kann ich mir halt auch vorstellen, dass das über kurz oder lang,
da wird es die eine oder andere Funktion geben, die sicherlich auch,
also wo KI wirklich helfen kann, um mit der DAW Musik zu machen.
Also zum Beispiel, was ich glaube, was eine super Anwendung wäre, ist,
man spielt etwas ein, sagen wir mal, was weiß ich, für Streicher
und ich spiele das jetzt über meinen Keyboard ein.
Aber das hört sich, egal welche Streicher-Library ich verwende,
das hört sich nicht an, als ob das Musiker gespielt haben,
weil dafür fängt man jetzt an, die Phrasierung irgendwie richtig zu machen und so weiter
und dann jede einzelne Stimme so zu gestalten, wie sie halt ein Musiker spielen würde.
Wo wird es intensiver, wo nimmt es sich zurück und so weiter.
Aber im Grunde folgt es ja relativ elementaren Regeln,
denn jeder Musiker weiß, wie er das interpretieren würde.
Und deswegen, das wäre zum Beispiel etwas, was ich glaube, was KI sehr gut kann,
wenn man jetzt einfach die Möglichkeit hätte, dass dieses, sage ich mal, musikalische Interpretieren
von so einem MIDI, was ja nur so on/off ist, das übernimmt,
so dass es sich hinterher anhört, als hätte es wirklich ein Musiker gespielt.
Das würde so viel Zeit sparen, wenn man jetzt irgendwelche orchestralen Mockups beispielsweise macht oder Ähnliches.
Also das wäre schon ein tolles Werkzeug.
Ja, warten wir mal ab, was da noch so alles passiert.
Also es ist ja gerade sehr, sehr viel Bewegung in dem Thema drin.
Ja, das stimmt.
Ich glaube, Tobi, du hattest, glaube ich, auch noch eine Frage zum Thema KI.
Also du hast es ja gesagt, Pflicht, also die Pflichtaufgaben, dieses ätzende Zeug,
eben der Fotograf, der da das Zeug ausschneidet und so, also eigentlich Dinge, wo die KI wirklich helfen kann.
Ich glaube halt, und das ist, glaube ich, auch der Punkt, auf den du schon so ein bisschen unterschwellig raus bist,
und das hat hier, deswegen habe ich es gerade vor mir, ein alter Bekannter von mir, Matthias Zehnder,
der schreibt einen Wochenkommentar, hat sich die letzten Zeiten etwas zur KI
beziehungsweise zur neuronalen Netzwerkfrage angenommen und hat gemeint,
schreibt hier in seinem Wochenkommentar Folgendes,
"Die KI wird dazu führen, dass die Anforderungen an Berufsleute, Autofahrer, Programmierer und Kreative nicht sinken, sondern steigen.
Denn mit allem, was eigentlich die Routinearbeit dir quasi weggenommen wird durch die künstliche Intelligenz,
desto wichtiger wird es eigentlich dann dich bei den Cure-Anwendungen sozusagen."
Also er schreibt hier vom Pflicht- und Cure. Wir können den Artikel noch verlinken.
Das ist dann eigentlich der Punkt. Du wirst die Meisterschaft, die du dir antrainierst in der Routine,
die du dann später in den außergewöhnlichen Fällen brauchst, wenn du dir die jetzt von der KI annehmen lässt,
dann wird es umso schwieriger. Wir haben auch hier im Podcast ein sehr gutes Beispiel.
Sascha wirft seine Texte bzw. sein Transkript in ChatGPT und dann macht er die Podcast-Beschreibung draus.
Indem man ChatGPT sagt, hier ist mein Transkript, das sind dann keine Ahnung, irgendwie 600 Zeilen.
Und machen wir mal eine Zusammenfassung. Das kann ChatGPT.
Nur das, was dann dabei rauskommt, ist natürlich nicht auf das letzte Quäntchen optimal.
Weswegen ich dann zu Sascha gesagt habe, gib mal her, ich mache jetzt eine Zusammenfassung.
Ich arbeite aber immer noch am Prompt. Das Prompt ist ja das Wichtige.
Wie man die Frage stellt, das ist das Entscheidende.
Ganz genau. Und es wird ein Shoot draus, in dem wir jetzt Peter nochmal fragen.
Peter, ich in meiner Tätigkeit, in meiner hauptberuflichen Tätigkeit, in meinem Brötchen-Erwerb,
habe auch viel mit Programmieren zu tun.
Und meine Kollegen benutzen teilweise schon ChatGPT-basierte Plugins für ihre Entwicklungsumgebung,
um sich Codeteile schreiben zu lassen. Machst du das auch schon?
Nein, das mache ich nicht. Ich habe das ausprobiert.
Und ich denke mal, wenn man das benutzt als eine Art etwas komplexeres Autovervollständigen,
dann kann es vielleicht was sein, was einer an der einen oder anderen Stelle…
Ja genau, dafür nutzen das meine Kollegen.
Und weil die Gefahr ist, wenn du dort komplexere Routinen oder komplexere Algorithmen hinterlegst,
das Ganze wird ja ins Internet übertragen.
Und das wird auch von den Firmen, die diese KI-Systeme betreiben, gespeichert.
Und dann wiederum lernt die KI daraus und gibt das dann natürlich auch unter Umständen an andere weiter.
Deswegen ist da meine Firma auch so ein bisschen aus datenschutztechnischen oder aus, man könnte sagen,
aus Copyright-technischen Gründen sehr zurückhaltend.
Und ich kann mir vorstellen, dass das in anderen Firmen genauso ist.
Ich habe es ausprobiert. Ich habe ausprobiert, wie gut sich ChatGBT zurückerinnert.
Und wenn ich diesen Fall, diese Erinnerung, diese History lösche, ist das weg.
Ich habe nämlich mein Wissen über meine Person gefüttert.
Und wenn ich in diesen Tab reingehe und frage, dann kann er mir sämtliche Fragen mit Klamotten,
die ich ihm zur Verfügung gestellt habe, beantworten.
Aber du kannst für dich sicher sein.
Lösch ich diesen Tab, findet der nichts mehr. Also ChatGBT findet nichts mehr.
Aber das heißt nicht, dass das nicht trotzdem irgendwo auf dem Cache zwischengespeichert wird.
Du weißt doch, das sind doch nur Bildschirmausgaben.
Und dann habe ich noch eine andere Sache ausprobiert.
Moderne Sprachen zum Programmieren kann das Ding wunderbar.
Aber ich habe mal gefragt, programmieren wir mal was in Pascal.
Also von zehn Dingen.
Ja, das liegt daran, mit welchen grundlegenden Basisdaten diese Machine Learning Systeme gefüttert haben.
Pascal ist eine Grundlage. Da habe ich ihn gefragt, mach mir mal eine Uhr die rückwärts und Countdown.
Und davon haben zehn Dinge nicht funktioniert.
Aber der Punkt ist ja auch der folgende.
Wenn man sich klar macht, wie so etwas wie ChatGBT funktioniert,
dann ist das eigentlich ein etwas glorifizierter, statistischer Ansatz, bei dem es sich einfach anguckt.
Wenn ich diese Buchstabenfolge jetzt sehe, die die letzten tausend Buchstaben sind,
was ist denn eigentlich der wahrscheinlich nächste Buchstabe?
Genau, richtig.
Und an manchen Stellen denkt man dann, da wäre jetzt irgendwie so etwas wie eine Intelligenz dahinter.
Ich denke, das ist einfach auch unsere menschliche Fähigkeit.
Wir vermuten gerne immer etwas Seelisches auch in allen anderen Sachen.
Mir ist als Kind mal eine heiße Teekanne auf den Fuß gefallen
und ich hatte wirklich das Gefühl, das Ding war einfach ein heimtückisches, fieses Ding,
was mir den Fuß gebissen hat.
Aber das führt uns hier, glaube ich, eher in die Irre,
weil wir dann ChatGBT etwas zutrauen, was es eigentlich gar nicht kann.
Wenn man sich anguckt, da gibt es diese tollen Videos, wo Leute sagen,
boah, ich habe hier ChatGBT und dann hat es mir das und das Tolles programmiert.
Dann sind das immer Sachen, für die es halt, wo genau das, worum es ging,
wie ein Counter oder dies oder das, schon 100 Beispiele irgendwo auf GitHub zu finden gibt.
Sobald man aber ChatGBT eine Aufgabe stellt, wo es vielleicht kreativ ein Problem lösen müsste,
versagt es halt völlig.
Das heißt, wenn es jetzt vielleicht…
Es ist nicht wirklich kreativ. Das ist das, was du sagen willst, ne?
Es ist vielleicht kreativ im Sinne von, es halluziniert sich irgendetwas,
was auf den ersten Blick für jemanden fachfremden so aussieht wie entwickelter Code.
Aber diese Verbindung, dass es ja auch dann noch irgendwie präzise sein soll,
oder das ist was, was ich, wenn es jetzt hier um Audioverarbeitung geht,
dass es halt auch die Mathematik richtig wiedergibt,
die man braucht, sozusagen Signalverarbeitung, Filtertheorie und ähnliche Sachen irgendwie.
Das ist dann halt hanebüchener Quatsch, was da rauskommt.
Und das ist auch nicht so, dass man denkt,
oh, ja, aber wenn die noch mal ein bisschen mehr Daten kriegen,
dann löst sich das von alleine.
Die Illusion haben vielleicht fachfremde Leute,
aber wer wirklich in diesem Bereich von KI arbeitet und,
also sag ich mal, forscht und sich damit wirklich auskennt,
dem ist klar, diese Technologie hat ganz klare Limits.
Und das sind Limits, die…
Also das kann diese Technologie nicht und wird sie prinzipiell auch nicht können.
Das heißt nicht, dass es nicht vielleicht irgendwann eine andere Technologie gibt,
die dann da irgendwie wieder weiterkommt,
aber an der Stelle, also das wird nicht passieren.
Du hast halt nur die sprachliche, also um jetzt bei Sprach-KIs zu bleiben,
du hast halt nur die sprachliche Oberfläche
und eigentlich wie etwas grammatikalisch, schriftlich oder semantisch zusammenhängt.
Der Inhalt, das ist völlig egal.
Du hattest doch mal diesen Fall von diesem Anwalt, glaube ich, in New York.
Ja, mit dem Video-Teil.
Der hat sich von Chatty Pity Präzedenzfälle auswerfen lassen
und dann hat er gedacht, ja gut, das nimmt mir jetzt die Google-Suche ab.
Das Problem war einfach, die Präzedenzfälle mit Namen, Gericht, Zeit, Datum und Ort,
die gab es alle nicht.
Die haben alle Sinn gemacht, aber das war halt einfach so,
du denkst ja eigentlich, okay, die Maschine kann vielleicht nicht
die Unberechenbarkeit des Menschen unterschätzen,
aber die kann nicht mal die Berechenbarkeit der Sprache unten, oder?
Die Maschine ist einfach ein Hochstapler.
Chatty Pity gibt zu jeder Zeit vor, also wisse über alles Bescheid
und ist gnadenlos da drin, irgendwelche Belege und so weiter anzugeben
oder eine Pseudologik, aber da gibt es halt nichts,
was da tatsächlich irgendwie hinter steckt.
Und nochmal, das ist prinzipbedingt.
Also das kann die Technologie, so wie sie jetzt gebaut ist, niemals erreichen.
Damit will ich nicht sagen, dass Chatty Pity nicht auch Anwendungen haben kann,
wie zum Beispiel einen Text zusammenzufassen
oder ich tue mich zum Beispiel immer schwer damit,
wenn ich einen Klang habe, dafür einen vernünftigen Namen zu finden.
Dafür ist Chatty Pity total super.
Ich gebe da zehn Stichworte rein und sage, ich habe einen Klang,
der klingt so wie diese zehn Dinger, wie könnte ich den nennen?
Ich mache mir mal 20 Vorschläge und da ist oft was dabei, wo ich denke,
wow, ja, das ist wirklich ein toller Name für einen Klang.
Also ich kann mir da schon Anwendungen vorstellen,
aber überall, wo es dann um echte Semantik geht, wird es versagen.
Ich glaube, dass KI ein wunderbares Werkzeug ist,
was sehr flexibel für die verschiedensten Themengebiete eingesetzt werden kann,
um Arbeitsabläufe, wie wir schon festgestellt haben,
um Routineaufgaben vielleicht effizienter zu machen.
Aber ich glaube nicht, dass man da in irgendeiner Art und Weise Angst vorhaben muss,
weil das, was du sagst, Chatty Pity und auch andere KI-Systeme sind Taschenspieler.
Sie täuschen uns eine Intelligenz vor, die aber gar nicht vorhanden ist.
Das sind einfach nur dumme Statistiksysteme.
Ich habe zum Beispiel mal eine Frage gestellt,
ich möchte gerne ein Ambient-Stück machen und hätte gerne ein paar Akkordfolgen.
Das hat mir natürlich einen Haufen Variationen rausgeschmissen, die genau dazu passen.
Dann hätte ich gerne das und das noch dazu, eine Melodie oder finde mir eine schöne Basslinie zu.
Natürlich kann er das machen, weil das ja alles Regeln der Harmonielehre sind,
wie man dann die Akkorde in Melodien auflöst und so weiter.
Dafür ist das wunderbar, das ist brillant, das macht Spaß,
weil ich da nicht hingehen muss, gegebenenfalls doch in meinem Harmonielehrebuch nachschlagen,
wie ich das und das auflöse.
Dazu gibt es etwas ganz Interessantes, ich weiß nicht, ob ihr das kennt,
es gibt diese Software Synfire, das funktioniert wie eine DAW,
nur dass man dort die Noten nicht so chromatisch eingibt,
sondern dort gibt man im Prinzip so eine Melodielinie ein.
Das heißt also, erst mal unabhängig von dem Notensystem, von der Skala, in der ich mich bewege.
In dieses Programm eingebaut ist halt musikalische Intelligenz im Sinne von Harmonielehre
und im Sinne von Voice Leading und Ähnlichem.
Das heißt, ich kann meine Melodie, ich kann sie auch ganz normal über den Keyboard einspielen,
aber solche Aufgaben wie das Harmonisieren oder dann einen tollen vierstimmigen Satz draus machen,
das macht das Ding alles ganz von alleine und ganz toll.
Das Interessante ist, das tut es alles ohne künstliche Intelligenz und das auch schon seit,
weiß ich nicht, zehn Jahren, zwölf Jahren, also die Software gibt es schon relativ lange.
Der Entwickler, der kommt ja auch aus Hamburg, der hat auch eine Zeit lang,
als das jetzt vor ein paar Jahren aufkam, dann angefangen mit künstlicher Intelligenz
und diesem Verfahren irgendwie rumzuexperimentieren, weil er dachte,
vielleicht kann man damit ja noch irgendwas Tolles machen, was so darüber hinausgeht.
Also sein Fazit war dann relativ ernüchternd, weil er festgestellt hat,
dass bei diesen Regeln der Harmonielehre, wenn ich dann an einer Stelle was richtig Schräges mache,
dann hört sich das meistens wirklich nicht gut an.
Und diese Präzision, das kann die KI halt nicht, aber sie schafft es nicht,
da sozusagen noch irgendetwas drüber hinaus sozusagen beizutragen,
was nicht ohnehin bereits durch die seit Jahrhunderten im Wesentlichen bekannten Regeln sozusagen bereits erfasst ist.
Wenn wir jetzt mal komplett nerdig sind, kann sie es nur aktuell nicht?
Denkst du, dass das technisch irgendwie geht oder wirst du dich da immer im Punkt der eines,
also immer nur noch einen Randomizer und dann wieder eine Korrektur
und dann wieder einen Randomizer und dann wieder eine Korrektur, ist das systembedingt?
Nein. Also ich glaube schon, dass man da was machen kann.
Ähnlich auch wie jetzt, was weiß ich, bei diesen Reparaturfunktionen und kreativen Funktionen in Photoshop,
kann man sowas natürlich auch für Musik machen.
Und das bedeutet aber, das macht man dann nicht mit so einer generischen Software wie ChatGPT,
sondern das muss dann schon etwas sein, was ein bisschen spezifischer darauf zugestrickt ist.
Und da kann man dem System dann einfach auch noch ein paar Leitplanken setzen.
Und wie gesagt, das, wo ich glaube, wo es sozusagen wirklich eine Anwendung hat,
ist, dass man dann Musik auf einem anderen Abstraktionsniveau machen kann,
wo man sich dann vielleicht, was weiß ich, wenn ich zum Beispiel eine Filmmusik mache,
ich gebe vielleicht vier oder fünf Themen vor, die ich, sage ich mal, leitmotivisch verwenden will,
aber ich kann diese Themen dann unterschiedlich verflechten und denen unterschiedliche Prägungen geben.
Was weiß ich, dass eigentlich das euphorische Thema an irgendeiner Stelle wieder auftaucht,
des Helden, aber dann vielleicht gerade in einer sehr ernüchternden Form,
weil es gerade einen Rückschlag für den Protagonisten gegeben hat oder ähnliches.
Und das dann halt nicht per Hand einzeln ausformulieren zu können,
sondern, ich sage mal, auch auf so einem Abstraktionslevel von Emotionen, Stimmung und so weiter zu arbeiten,
ich denke, das wäre wirklich ein faszinierendes und interessantes Werkzeug,
was man mit der bestehenden Technologie jetzt machen könnte.
Also das könnte ich mir schon vorstellen, dass das Spaß macht.
Sorry, jetzt wissen wir alle, warum Hans Zimmer so einen unglaublichen Output hat.
Ja, da muss man, finde ich, fairerweise sagen, dass Hans Zimmer …
Er hat ein ganzes Team, die für ihn Stücke schreibt.
Ja, das ist das eine, nein, aber das, was ich eigentlich sagen will, ist,
es ist schon beeindruckend, dass er es mehrfach in der Geschichte geschafft hat,
was so ein Soundtrack sein kann, auf einen ganz anderen Level zu bringen,
was dann hinterher auch tausend Leute irgendwie gruppieren.
Also man kann jetzt sagen, manche Leute, was weiß ich sagen,
"Nein, Hans Zimmer, wenn ich mir das vergleiche mit John Williams, der kann das ja viel besser."
Ja, klar, John Williams kann toll Musik schreiben, Filmmusik im Stil von Wagner.
Aber Hans Zimmer hat diese Fähigkeit mehrfach unter Beweis gestellt,
eine Filmmusik zu machen, die emotional ansprechend ist,
die aber klanglich, innovativ eine neue Sprache für etwas findet.
Da kann ich wirklich auch nur den Hut ziehen.
Also das finde ich schon toll.
Muss ich mal in den Land sind brechen für den.
Absolut. Hans Zimmer ist da wirklich ganz vorn mit dabei,
was den Einsatz von modernen Software-Synthesizern und so weiter angeht.
Da die Zusammenarbeit mit dem Heckmann, das ist ja schon wegweisend,
auch für andere in dem Genre.
Aber auch Hans Zimmer, und du hast es ja vorhin gesagt, Thomas, wegen dem Team,
auch Hans Zimmer ist ja immer noch auf diese Komponente angewiesen,
dass da Menschen sind und dass da einfach die Idee zwischen den Leuten
und den unterschiedlichen Ansätzen hinbounct.
Und ich glaube, das kannst du vielleicht technisch irgendwie hinkriegen,
dass du einfach sagst, hier hab ich eine KI, hier hab ich unterschiedliche KIs,
hier hab ich Leitplanken gegeben.
Aber dass die dann untereinander, die reden ja trotzdem untereinander
nur in ihren entsprechenden Gegebenheiten.
Du kannst ja nicht etwas Technisches, zumindest nicht Stand jetzt,
kannst du es nicht technisch so hard randomisen wie ein Mensch,
der einfach spontan in eine Idee kommt, weil ihm beim Döner holen mittags
irgendwie ein Blumenkübel vor die Füße fällt.
Ich sag mal so, wenn du Produzent von Werbe-Jingles bist,
ich glaube, da wirst du mit so KI-Systemen, glaube ich schon,
sehr effizient sein, wenn du die entsprechend vorbereitest und trainierst.
Und da für dich sozusagen ein Toolset zusammenbaust.
Dann kriegst du halt eine Werbeanfrage rein für eine Musik,
dann sagst du hier, ich hab eine Werbung für, keine Ahnung, Milch,
für eine neue Milchpackung, mach mir da mal eben hier so einen 20-Sekunden-Jingle.
Dann setzen die sich hin, gucken sich da vielleicht nochmal den Werbespot an
und dann geht's los.
Dann sagen sie, hier sind die Elemente, die ich brauche, hier Bass,
ich brauche, keine Ahnung, irgendwelche schmissigen Drums
und das Ganze soll vielleicht so ein bisschen karibisch angehaucht sein
und dann geht das los.
Also das, was Peter vorhin erzählte, mit einem Schieberegler in so einem …
Ja, Dienst nach Vorschrift halt.
Ja, aber du bist damit halt super schnell,
denn produziert er diesen Jingle vielleicht an einem Tag,
anstatt dafür irgendwie drei Tage zu brauchen?
Das ist für den bares Geld, was er dann einsparen kann.
Also ich denke, es gibt viele Bereiche, in denen das tatsächlich so sein wird.
Also, was weiß ich, wenn man jetzt normale Filmmusik macht
für, sag ich mal, ganz normale, eher alltägliche Produktionen,
da wird man ja oft einfach nicht nach Zeit bezahlt,
sondern man bekommt das Honorar dafür,
dass man so und so viele Minuten Musik dafür produziert.
Das heißt, wenn man es schneller tun kann und dabei die gleiche Qualität hat,
dann ist es am Ende sozusagen für einen besseren Schnitt.
Deswegen spielt das schon eine Rolle, wie schnell man auch arbeiten kann.
Bei den großen Hollywood-Produktionen ist es ähnlich,
weil einfach überhaupt gar nicht genug Zeit ist,
da jetzt noch jahrelang irgendwie an einem Soundtrack rumzutüfteln.
Ich denke aber, dass solche Leute wie Hans Zimmer auch deswegen so nachgefragt sind,
weil er zum Beispiel die Fähigkeit hat, mit dem Regisseur zu sprechen
und zu verstehen, worum es dem Regisseur eigentlich geht
und das dann entsprechend in Musik umzusetzen.
Und das ist halt etwas, der Regisseur wird sich nicht selber anfangen,
zum Spezialisten für ein, sag ich mal, Music-GPT-Programm zu machen,
mit dem er dann, also weil selbst Chet-GPT über diese Prompts,
das ist ja eigentlich eher wie ein autistisches Programm.
Der Regisseur wird keine Lust haben, seine Vision jetzt monatelang in irgendwelche Prompts zu füttern,
bis diese Maschine vielleicht langsam mal so eine Ahnung davon hat, in welche Richtung das geht.
Weil es für den Regisseur natürlich auch viel effizienter ist,
mit Hans Zimmer zu sprechen und zu sagen, darum geht es mir in diesem Film.
Richtig.
Weil halt Hans Zimmer, der Regisseur, sagt, das hier ist tiefe Trauer
und Hans Zimmer denkt, okay, tiefe Trauer, das kann ich irgendwo abrufen in meiner Gefühlswelt.
Und die KI denkt sich halt einfach, okay, tiefe Trauer, Geigen, Molltonaten,
langsam, historisches, als traurig bewertetes Stück.
Systeme nehmen sich, die denken gar nicht weiter.
Also wenn ich dem System sage "Baum", dann denkt der, okay, vier Buchstaben, B-A-U-M,
oder der denkt nicht an grüne Blätter.
Und jemand wie Hans Zimmer wird dann denken, naja, Trauer, das ist ein weites Feld irgendwie
und wird nochmal fünf weitere Fragen stellen.
Was für eine Art von Trauer ist das denn?
Ist das eher eine stille Trauer oder ist das eine laute Trauer?
Mischt sich da Wut rein oder Verzweiflung?
Richtig.
Und wo kommt das irgendwie her?
Und das sind dann gerade diese Nuancen, wo er dann vielleicht am Ende dazu greift,
dass er eigentlich ein Stück macht, was sogar Mollakkorde verwendet,
weil es in den Gesamtkontext des Filmes irgendwie gut passt.
Was dann aber vielleicht durch die spezielle Art, wie die Instrumente gespielt, gestimmt sind,
wie die Phrasierung ist, wie die Rhythmik ist und so weiter,
dann doch irgendwie das langsam, sozusagen diese Traurigkeit,
die sich dann so ganz langsam in einen reinfrisst irgendwie.
Also da fängt es dann ja an, sozusagen der Unterschied zwischen,
man macht jetzt irgendetwas nach Lehrbuch und kopiert etwas
oder man hat halt, sag ich mal, wirklich dieses Künstlerische.
Und ich glaube, davon ist Chet GPT oder ein, wie auch immer geartet ist,
Musik GPT halt noch weit entfernt.
Und das ist toll ja auch für uns alle, dass der Mensch da weiter drin ist.
Also ja.
Ich hätte auch noch einen Gedanken, den ich vielleicht gerade mal noch ansprechen will,
zu dem Thema KI.
Und zwar, man muss sich ja immer klarmachen,
diese Systeme sind gefüttert mit den Daten aus der Vergangenheit.
Und ich finde, man kann sich da ein ganz schönes Gedankenexperiment machen.
Wenn man sich mal die Musik anguckt, so vor 100 Jahren,
dann war Musik sehr viel klassische Musik.
Es gab ja noch gar nicht die Möglichkeit, Sachen aufzuzeichnen und so weiter.
Das heißt, man würde jetzt ein System füttern mit dieser ganzen Musik von vor 100 Jahren.
Und jetzt würde man sagen, so jetzt mach mal was Tolles.
Dann würde dieses System bestimmt dazu in der Lage sein, kreativ zu sein.
Und es würde so etwas machen wie, was weiß ich, dann Wagner oder vielleicht Richard Strauss
am Anfang des 20. Jahrhunderts irgendwie, wo die so unterwegs waren.
Aber es würde nicht darüber hinausgehen können.
Dieses Programm würde niemals den Jazz erfinden.
Es würde niemals den Rock'n'Roll erfinden.
Es würde niemals auf die Idee kommen, ein neues Instrument wie ein Theremin zu verwenden.
Weil diese Idee, neue Instrumente zu verwenden, das passierte ja nur alle paar hundert Jahre mal.
Bei Mozart kam die Klarinette irgendwie neu dazu.
Stravinsky hat gedacht, man kann das Fagott vielleicht auch mal für eine Melodie nehmen und so.
Aber das war eine ganz seltene Erfindung.
Und diese Art von Kreativität, wo dann etwas wirklich Neues passiert,
wie Jazz oder Techno oder irgendetwas, das kann man von so einem KI-System gar nicht erwarten.
Denn das Grundprinzip ist immer, es ist gefüttert mit dem, was es schon kennt
und kann dann Sachen machen, die so ähnlich sind.
Das heißt, es hat eine sehr, sehr begrenzte Kreativität.
Innerhalb dieses Raums kann es dann vielleicht noch was Schönes sich ausdenken.
Darüber hinaus wird es schwierig.
Es ist halt eine Kreativität ohne äußere Einflüsse.
Das Umfeld kann die Kreativität nie bestätigen.
Und das ist ja auch bei absolut unkreativen Dingen der Fall.
Das beste Beispiel, und ich bringe es immer wieder in der KI-Frage,
es war doch vor ein paar Jahren da, so haben wir ja Pandemie gespielt oder Pandemie gehabt.
Wir haben auf jeden Fall Pandemie.
Ende 2020 ergab es sich, dass im Betrieb das Desinfektionsmittel immer billiger wurde,
immer schlechter wurde.
Es hatte irgendwann die Konsistenz von Gleitgel und die Witze wurden gerissen.
Anyway, Gleitgel bestellt, nächsten Tag eingehängt,
hat einen halben Tag gedauert, bis es ungefähr durchgesickert ist.
Und seither unterstellt mich dieser Shop, dieses Shop meines Vertrauens,
den ganzen Tag ein Sexleben, schickt mir jeden Erotik-Newsletter, den es gibt.
Es hört nicht auf.
Und das ist die logische Konsequenz.
Oder er hat einen Sexartikel bestellt, er dürfte Sex haben.
Liebe Zuhörer von künstlicher Intelligenz zu Gleitgel,
diesen Bogen schafft nur unser Moderator Tobi.
Es gibt in der USA einen Fall, wo ein Vater einen großen Konzern,
Walmart, verklagt hat, weil deren Tochter per E-Mail Produkte für Schwangere
und beziehungsweise für Menschen, die gerade ein Kind geboren haben, angeboten hat.
Jetzt stellt sich die Frage, wie kommt der Laden da drauf?
Der hat einen Haufen Daten gehabt und die künstliche Intelligenz,
die dahinter steckte, hat das halt verglichen und hat festgestellt,
wenn die Leute im Vorfeld das und das kaufen, sind sie höchstwahrscheinlich schwanger,
weil danach kaufen sie das und das, weil sie haben ein Kind.
Und die Tochter hat das und das gekauft.
Es stellte sich später heraus, die Tochter war schwanger gewesen,
hat ein Kind bekommen und der Laden wusste es quasi vor allen anderen,
dass sie schwanger war.
Das waren Daten und das war eine Auswertung einer künstlichen Intelligenz,
die sich halt tonnenweise Daten ausgewertet hat.
Hat nicht Amazon mal, ich weiß nicht, ob sie das immer noch aktiv haben,
aber hatten sie nicht mal so eine KI-Routine aktiv auf ihrem Shop,
dass Amazon vorher wusste, wenn du was bestellen willst
und hat dir dann entsprechende Angebote angezeigt?
Das ist immer noch so.
Wenn ich bei Facebook auf irgendetwas klicke, kriege ich später ein Angebot von Amazon dazu.
Von den Dingen, die du schon gekauft hast?
Dein Algorithmus ist völliger Blödsinn.
Das meine ich ja nicht.
Du hast gerade einen Klo-Deckel gekauft.
Was möchtest du kaufen? Einen Klo-Deckel?
Nee, nee, nee. Das geht darum, ich hab mir etwas angeguckt.
Bei Facebook zum Beispiel, ich hab mich informiert über,
irgendwie kam da mit einer Werbung rein, sag ich mal, Gitarren-Seiten.
Ja klar.
Und dann bietet mir später Amazon Gitarren-Seiten an, aber schon in der Richtung, in der ich es...
Ja, aber das ist was anderes, als was Thomas gerade gemacht hat.
Nein, er bietet mir Gitarren-Seiten an in der Richtung, wie ich mir kaufen würde.
Genau, aber ich glaube, das, was Thomas meinte, war folgendes.
Es gibt in den USA bei Amazon eine Funktion, das ist für die Leute, die sagen,
Mensch, Amazon, das ist immer so umständlich, weil ich muss mir ja vorher überlegen, was ich haben will.
Und für diese Leute gibt es halt eine spezielle Funktion, da ruft man einfach nur Amazon auf
und dann sind da nach den eigenen Vorlieben schon mal alles aufgelistet, was Amazon denkt,
was man jetzt wahrscheinlich als nächstes irgendwie kauft.
Und das ist erschreckenderweise sehr, sehr erfolgreich, weil offenbar es viele Leute gibt,
die gar nicht Amazon ansteuern, weil sie sagen, ich brauche hier neue Knopfzellen für mein Stimmgerät,
sondern die sagen, ich habe irgendwie Lust, ein bisschen Geld auszugeben, ich gucke mal.
Ja gut, aber da gibt es doch Plug-in-Boutique dafür.
Ja, wir sind da in einer privilegierten Situation, das stimmt.
Das ist eine elegante Überleitung zu einer weiteren Frage, die dann wiederum in das Thema mündet.
Setzt du denn für deine Produkte jetzt aktuell in der Entwicklung KI ein?
Nein.
Oder Machine Learning?
Machine Learning, ja.
In Novum, was eins meiner Synthesizer-Plug-ins ist, da funktioniert es so,
man hat die Möglichkeit, ein Sample zu importieren und dann läuft da drin ein spezieller Machine Learning Algorithmus,
der im Prinzip das Umgekehrte macht eines Mischgerätes.
In einem Mischer kann ich ja verschiedene Quellen zusammenpacken
und dieser Machine Learning Algorithmus, der macht genau das Umgekehrte.
Man gibt ein einziges Sample rein und es versucht dann, daraus sechs unterschiedliche Layers zu generieren,
wenn man sie alle gleichzeitig abspielt, bekommt man das ursprüngliche Sample.
Aber jetzt hat man plötzlich die Möglichkeit, dadurch, dass man diese sechs unterschiedlichen Layer hat,
damit rumzuspielen.
Erst habe ich ein Sample, das ist etwas sehr statisches,
und dadurch, dass ich jetzt die verschiedenen Layer habe, die kann ich lauter und leiser machen,
ich kann die in jeglicher Art anders machen oder austauschen oder sonst was,
dadurch kann ich jetzt dieses Sample sozusagen verflüssigen,
von etwas Statischem in etwas Bewegliches.
Das ist natürlich gerade für ein Instrument gut, weil man möchte ja nicht,
dass es sich bei jeder Taste wie ein Maschinengewehr immer genau das Gleiche wiederholt,
sondern man hat jetzt die Möglichkeit, dass es dann auch nuanciert auf das reagiert, was man einspielt.
Also das ist zum Beispiel eine Sache, wo ich das selber verwende,
aber jetzt für die Programmierung beispielsweise verwende ich keinen KI-Schnickschnack.
Es ist auch eh so, dass die reine Zeit, die man damit zubringt, etwas jetzt einzutippen,
die ist relativ überschaubar im Verhältnis zu wie viel man damit verbringt, Sachen auszuprobieren,
die ich damit verbringe, mir über Konzepte im Klaren zu werden und Ähnliches.
Also ich denke, das macht auch sehr viel mehr den Unterschied,
ob es am Ende ein gutes Produkt ist oder nicht.
Das ist natürlich das Handwerkliche, man muss es dann auch sauber programmieren,
aber wie gesagt, das ist eigentlich nur ein relativ kleiner Teil der Arbeit.
Aber gehen wir es jetzt noch mal ganz kurz etwas biografischer an.
Wo war denn, jetzt mal den ganzen KI-Kram zur Seite,
wo war denn eigentlich von deiner KI-Musikmaschine, die halt künstlerisch ein bisschen ernüchternd war,
wie kam es dann eigentlich zur Gründung Dorsum und dem ersten Produkt, dem Abyss?
Also was lag da dazwischen?
Wo hast du gesagt, okay, KI habe ich ausprobiert, jetzt will ich mal Synthesizer.
Genau, also der Punkt war, dass ich, ich war viele Jahre unzufrieden.
Und zwar ist es so, ich habe einerseits wirklich Spaß daran, Sachen zu machen mit Technik,
mit Programmieren und auch mit Mathematik.
Ich habe ja Mathematik und Informatik studiert und Mathematik ist schon auch eine Leidenschaft von mir.
Und auf der anderen Seite habe ich eine ganz starke Leidenschaft für alles, was Musik und Synthesizer ist.
Und ich habe dann immer in dem einen Bereich gearbeitet und dann hat mir der andere gefehlt.
Und dann habe ich gedacht, Mensch, vielleicht sollte ich mich ganz auf die Musik stürzen.
Und dann war mir aber auch klar, dann würde mir der mathematisch-technische Aspekt wieder erfüllen.
Und eigentlich ist es total bekloppt, wenn ich das jetzt erzähle, denke ich.
Aber es ist doch dann so naheliegend, so etwas zu machen wie Plugins.
Und eigentlich sogar noch viel mehr, weil ich solche Sachen schon vor wirklich sehr langer Zeit,
also da gab es noch keine Software Synthesizer, da habe ich auch mal schon angefangen, solche Prototypen zu programmieren.
Damals hatte ich so einen Yamaha TX-16W Sampler und habe dann halt Klänge berechnet
und dann über so ein SysEx-Format in diesen Sampler reingebracht, damit ich sie dann hören kann.
Also gewissermaßen diese Idee, Klänge zu berechnen auf einem Computer, um sie dann abspielen zu können,
die hatte ich schon ewig lange.
Aber die Idee, dass ich das zu meinem Beruf machen könnte, das hat einfach ewig gedauert.
Und ich hatte dann irgendwann die Idee, Mensch, künstliche Intelligenz, das ist jetzt so weit,
damit könnte man was für Musik machen.
Und da habe ich dann mental den Schritt gemacht, okay, ich schmeiße meine ganze Karriere irgendwie hin,
weil das finde ich so reizvoll, das will ich irgendwie machen.
Und dann habe ich mir halt angeguckt, habe ich diese Prototypen gemacht und dachte,
nee, das ist irgendwie nicht das Richtige.
Und eigentlich ist es viel faszinierender, Sachen mit Klängen zu machen.
Und da hatte ich dann eine ganze Menge Ideen und hatte auch viel darüber gelesen und hatte so gedacht,
es gibt so viele Konzepte, die noch gar nicht ausprobiert worden sind.
Und ich hatte auch das Gefühl, es gibt zwar diesen unendlichen Strom von neuen Synthesizers,
neuen Plug-ins, aber oft ist es so dasselbe in grün irgendwie.
Es ist dann die 25. Emulation eines analogen Synthesizers.
Damit will ich nicht sagen, dass diese Sachen schlecht sind, aber ich hatte das Gefühl,
da geht noch mehr und da ist noch so ein ganzer Bereich von Innovationen,
wo man sich austoben kann, wo man so seine eigene Nische finden kann.
Und so kam dann halt die Idee, einen Synthesizer zu machen.
Und ich hatte zwischendurch ein Konzept verfolgt, wo es darum ging,
dieser Zusammenhang von Farben und Klängen.
Und folgendes sieht man in der Wahrnehmungspsychologie,
wenn wir Klänge beschreiben, verwenden wir das gleiche Vokabular,
mit dem wir Oberflächen beschreiben.
Und das ist nicht nur in unserer Kultur so, sondern es ist kulturübergreifend.
Also wir sagen zum Beispiel, dass ein Klang warm ist oder kalt,
dass er rau ist oder dass er schneidend ist.
Weich.
Weich, genau.
Samtig.
Also die ganze Liste, wie wir Klänge beschreiben, kann man im Prinzip eins zu eins benutzen,
um damit dann auch Oberflächen zu beschreiben und umgekehrt.
Und dann dachte ich, wie toll wäre das, wenn man mit Klängen malen kann.
Also das heißt, wenn ich mich sozusagen lösen kann von diesem binären Korsett,
Ton an, Ton aus, oder von diesem ganz leichten,
okay, ich habe hier noch einen Drehregler und jetzt habe ich sozusagen noch eine Zahl mehr.
Malen nach Zahlen, Klang nach Zahlen.
Wenn man sich davon lösen könnte und das Ganze viel freier machen,
dass ich damit malen kann wie mit einem Aquarell.
Das heißt, ich tupfe hier und da ein bisschen Farbe irgendwie drauf
und dann lasse ich die Aquarellfarbe für mich arbeiten.
Das heißt, das verschwimmt dann hier so ein bisschen.
Und das ist so ein Prozess.
Das war so, sage ich mal, meine ferne Zielvorstellung.
Und da habe ich mir das etwas genauer angeguckt, wie man das realisieren kann
und habe gedacht, gut, das kann man machen, das kriege ich auch hin.
Aber das dauert ungefähr acht bis zehn Jahre.
Und ich habe gedacht, gut, das kann ich mir aber nicht leisten,
jetzt zehn Jahre lang zu warten, um das dann fertig zu haben.
Und dann würde ich es auf den Markt bringen und alle Leute würden wahrscheinlich verdutzt dastehen
und denken, was soll denn der Scheiß? Das ist ja total schräger Nerdkram.
Und es gäbe bestimmt drei oder vier Leute, die das toll fänden,
aber ich glaube, für die meisten wäre das ein zu krasser gedanklicher Sprung,
sodass man denken würde, das ist was Interessantes, aber das nicht für mich.
Und so kam dann die Idee zu sagen, okay, dann mache ich das einfach in Schritten.
Ich entwickle Schritt für Schritt die Technologie
und zwar immer anhand eines konkreten Instrumentes.
Und so kann ich jetzt diese Vision weiterverfolgen,
indem ich Schritt für Schritt baue ich diese Technik auf,
sodass ich irgendwann an dem ankomme, an dieser Aquarell-Klangmalereivorstellung.
Und ich mache das aber auch mit Produkten,
mit denen ich sozusagen dann auch jeweils das nächste Jahr finanzieren kann,
weil irgendwovon muss ich dann ja auch sozusagen leben.
Und ich kann gleichzeitig auf diese Art die Menschen langsam an den Gedanken gewöhnen,
dass es vielleicht tatsächlich Sinn macht.
Also zum Beispiel bei Abyss, so die ersten Kommentare auf KVR und so,
waren von den Leuten, ja, aber mit Farben, das ist doch nur ein Gimmick,
was ist denn das für eine Spielerei?
Und das hat sich jetzt aber im Laufe der Zeit schon geändert
und jetzt sagen die Leute, nee, ich finde das ganz toll in meinem Prozess,
dass ich hier Farben mit reinbringen kann,
weil ich merke, dass ich beim Klang ganz anders darüber nachdenke.
Wenn ich dann hier was sehr warmes Oranges verwendet habe,
dann sehe ich das richtig mit meinen Augen.
Und wenn ich dann Kontrast haben will,
dann gucke ich halt an der blauen oder pinken Seite irgendwie,
was ich da machen kann.
Und empfinde das halt als eine Bereicherung auf der einen Seite
und auf der anderen Seite auch etwas, was ihren Workflow beschleunigt.
Weil man sieht auf den ersten Blick,
weil unser Gehirn so toll da drin ist, Bilder zu erfassen,
sieht man, was da passiert,
wenn man diese Zusatzinformationen von den Farben hat.
Wohingegen, wenn da einfach 20 Drehregler sind,
dann muss ich sehr kognitiv vorgehen, um zu sehen,
ah ja, okay, hier ist der Filter so und da ist der Wert hier,
ja, das wird wohl so und so klingen.
Und na ja, jetzt habe ich den Faden verloren,
aber ich glaube, die Frage habe ich trotzdem beantwortet.
Nicht nur eine, du hast gleich mehrere Fragen beantwortet,
die wir eigentlich stellen wollten.
Nämlich zum Beispiel nach dem Benutzerinterface,
aber das hast du ja eigentlich auch schon ganz klar dargelegt.
Und auch meine Frage wäre gewesen,
was so die Philosophie hinter deinen Plugins ist,
das hast du auch beantwortet.
Das ist ja ganz klar geworden.
Ja, das war ein wunderschöner Abriss.
Das war ein guter Monolog, Leute.
Sorry.
Nein, das ist super, weil du hast mich an diese Threads erinnert,
ich habe ein paar von denen gelesen bei VE-Control oder eben auch KVR,
wo du wirklich merkst, die Leute sind am Anfang total skeptisch
und gegen so, keine Ahnung, Seite 5, 6, 7, je nach Produkt,
also je nachdem, wo das Produkt kommt, wird es immer euphorischer.
Und jetzt, glaube ich, zum Kult-Release
waren alle schon komplett hyped,
als nur schon der erste Teaser durch die Gegend ging.
Weil du einfach, wie gesagt, hast ja gesagt,
ich möchte das den Leuten Step-by-Step vermitteln.
Ich glaube, das hast du wirklich geschafft.
Und das hast du auch damit geschafft,
wahrscheinlich in dem Moment, in all diesen Foren,
dann den Erklärbären machst
und das nicht nur extrem aufs Plastische runterbrichst,
was eigentlich auch für Laien total verständlich ist,
sondern auch noch auf eine Art und Weise,
dass es halt wirklich auch nicht belehrend wird.
Also ein sehr vielfreundlicher Urs Heckmann.
Ja, ich denke, also ich versuche mir halt auch Mühe zu geben,
zu verstehen, worum es den Leuten jeweils geht irgendwie.
Und ich kriege oft so Fragen oder Vorschläge auch,
kannst du nicht das und das Feature machen?
Und ich meine, ich antworte eigentlich fast immer,
könnte ich im Prinzip, aber erklär mir doch noch mal,
wie würdest du das denn verwenden?
Was ist denn das eigentliche Problem,
was du in deinem Workflow hast?
Und ich versuche sehr genau zuzuhören,
was mir die Leute sagen und versuche auch in jedem Produkt,
jeweils mit diesem, sag ich mal, verbesserten Verständnis,
das in die Produkte einfließen zu lassen.
Weil so ein bisschen ist meine Idee auch,
ich möchte es den Leuten leicht machen, wenn sie,
ich kann das verstehen, wenn man da so etwas sieht,
was man noch nicht kennt, dass man dann,
man hat ja begrenzte Zeit, dann überlegt man sich ja,
ist das jetzt wirklich was für mich oder nicht?
Aber ich möchte schon oder ich gebe mir Mühe,
dass, wenn man sich dann die Mühe macht,
es einmal auszuprobieren, dann habe ich die Hoffnung,
dass die Leute dann halt auch kleben bleiben
und es wirklich toll finden.
Und wenn das nicht der Fall ist,
versuche ich immer zu verstehen, woran es liegt,
damit ich mich verbessern kann,
damit ich es beim nächsten Mal anders machen kann.
Und da ist es, denke ich, auch ein Vorteil,
das ist vielleicht Teil von meiner Dorsum-Philosophie.
Ich sage ja, ich will gar nicht eine Company sein,
ich möchte ein Independent bleiben.
Und der Vorteil, den ich habe, ist,
das passiert immer wieder,
ich habe am Anfang eine Vorstellung von,
ich möchte gerne, was weiß ich, ein Plugin machen
und das soll so und so aussehen.
Und dann, in einer, sage ich immer,
wäre ich Teil einer Firma,
dann würden wir einen Plan machen,
dann würden wir sagen, gut,
dann ist das in sieben Monaten fertig und so weiter.
Und wenn dann aber nach vier Wochen ich feststelle,
oh, jetzt habe ich aber eine neue Idee,
ich möchte gerne die Hälfte über den Haufen schmeißen
und das ganz anders machen,
das ginge in einem solchen Unternehmen gar nicht,
weil schon parallel Leute an dem Marketing gearbeitet haben
und so weiter.
Und als Independent habe ich die Möglichkeit,
es gibt ja niemanden, der mir Vorschriften macht,
und das heißt, wenn mir entlang des Weges
eine neue Idee kommt,
oder ich, während ich an einem neuen Plugin arbeite,
mir jemand über ein altes Plugin sagt,
ja, für seinen Workflow,
da gibt es noch diese und diese Schwierigkeit
und das wäre ja toll, wenn man da was machen könnte.
Ja, und dann denke ich, naja, cool, das ist eine gute Idee,
die kann ich jetzt nicht einfach in das alte einbauen,
aber die kann ich ganz einfach in das neue einbauen
und diese Freiheit habe ich dann halt.
Und ich glaube,
ich hoffe, dass ich durch dieses genaue Zuhören und Verstehen
im Laufe der Zeit da immer besser werden kann,
auch Produkte zu machen, die halt wirklich Spaß machen
und die intuitiv zu bedienen sind, zu benutzen sind.
Also ich glaube, das hast du bereits erreicht.
Und vor allem die Sachen klingen super,
es sieht fantastisch aus
und es macht auch Spaß, einfach damit zu spielen
und es sind wirklich Instrumente, die du da kreiert hast.
Ja, nicht nur die Instrumente, auch das Effektgerät,
also Love, das ist geil.
Wobei ich ganz ehrlich, ich hätte gerne die Effektsektion aus dem Abyss
nochmal in so eine Love-Variante.
Also als ich Love gesehen habe, war es natürlich instant gekauft,
aber dann habe ich mir gedacht,
den Tintenfisch und die Qualle, die vermisse ich jetzt schon ein bisschen.
In einer ersten Version hatte ich tatsächlich
Tintenfisch und Qualle irgendwie mit da drin
und ich habe dann die Version an Traction,
also Traction ist der Vertrieb über den...
Also das ist wie ein Plattenlabel für einen Musiker.
Wobei ich sozusagen gleichzeitig
völlige künstlerische Freiheit habe.
Ich kann machen, im Prinzip, was ich will.
Aber nichtsdestotrotz schicke ich es denen natürlich rüber
und frage die auch nach ihrer Meinung.
Und da kam von Traction das Feedback, ist super,
aber es wird ganz viele User geben, die das gar nicht verstehen,
weil es auf den ersten Blick so ähnlich aussieht wie Abyss.
Weil man sieht, hier ist die Qualle, da ist die Qualle.
Und die Qualle ist einfach schon damit verbunden mit, das ist Abyss.
Und dass das die Leute durcheinander bringt,
und dann verstehen sie nicht, dass das jetzt eine zweite Version ist,
löst das jetzt das andere ab,
so und da kommen die total durcheinander.
Und deswegen habe ich es dann nochmal
ein bisschen anders dargestellt, also ein bisschen umgearbeitet.
Ja, ja.
Macht auch Sinn.
Trotzdem kurz eine Feature-Request.
Kriegt der Abyss irgendwann noch eine Favorifunktion?
Weil die vermisse ich. - Eine was für eine Funktion?
Favoriten. - Ja. Ja, gerne.
Oder ich sehe einfach keine, aber ich vermisse welche.
Ja, das stimmt.
Also, als ich Abyss rausgebracht habe,
zu dem Zeitpunkt wusste ich nicht,
ob es überhaupt mehr als drei Leute gibt,
die so ein Plug-in daran Interesse haben oder nicht.
Das heißt, da war einerseits,
wollte ich gerne auch einen Synthesizer haben,
der minimalistisch ist,
damit ist alles schön auf einer Seite,
alles leicht zu bedienen, man findet sich da leicht rein.
Auf der anderen Seite war es auch so ein bisschen der Punkt,
dass ich gedacht habe, okay, ich werde jetzt nicht
das mega krasse, gigantische Preset-Verwaltungssystem machen,
weil wer weiß, ob es jemals so viele Presets gibt,
dass das überhaupt notwendig wäre.
Deswegen ist das beim Abyss sehr, sehr rudimentär.
Und die Idee ist,
also für mein nächstes Produkt mache ich jetzt wirklich ein,
also alles, was ich jetzt gelernt habe über warum
und wie Leute mit Presets arbeiten,
das soll da in das Preset-System einfließen.
Und dieses Preset-System würde ich hinterher dann
in die älteren Produkte dann auch entsprechend mit einpflegen.
Oh, das wäre schön.
Und da gehört selbstverständlich eine Favoritenfunktion mit dazu.
Weil das war nämlich die Frage,
auf die ich daraus ausgehend noch arbeiten wollte.
Weil ich habe den Eindruck, du hast mit Novum,
dann über Kult und jetzt zu Love,
du hast so etwas wie eine Formensprache gefunden.
Vielleicht auch aus dem Feedback und der ganzen Sache.
Also ich denke, man kann es in der Ethics-Sektion sehen
oder der Clouds-Algorithmus.
Und wo ist er hier jetzt?
Ich habe die Programme nebenbei auf,
aber ich habe natürlich wieder vergessen,
in was ich da gerade rumklicke.
Also was ist so von der Formensprache?
Also Novum auf Kult, auf Love, das hat irgendwie so eine Richtung.
Aber entwickelt man anders, wenn man so ein bisschen weiß,
wenn man so ein bisschen das Feedback von außen von den Leuten kriegt?
Weil Abyss ist ja doch noch so ein bisschen sein eigenes Ding.
Ist ein super Gerät, ich liebe den.
Aber die anderen drei gehören irgendwie so ein bisschen zusammen,
habe ich den Eindruck.
Ja, Love finde ich ist ein bisschen dazwischen.
Aber Kult und Novum haben eine gewisse Gemeinsamkeit.
Und also die, im Grunde wird es drei Linien geben.
Das hat sich jetzt so ein bisschen herauskristallisiert.
Bei Abyss habe ich geguckt, gibt es einen Bedarf oder...
Also ich selber mag es für manche Sachen, wenn ich ein Plugin habe,
was eine Sache sehr, sehr gut macht.
Das muss dann nicht die eierlegende Wollmilchsau sein,
mit der ich alles machen kann.
Es macht eine Sache gut,
aber die soll es mir dann auch sehr, sehr einfach machen und übersichtlich.
Da will ich nicht noch 100 Menüs durchtauchen und immer denken,
scheiße, wo war denn jetzt diese Funktion?
Und bei Abyss hat sich gezeigt,
es gibt doch eine ganze Menge Leute,
die genau so etwas auch wertschätzen können.
Und das heißt, es wird ein weiteres Plugin geben,
was in diese Richtung auf jeden Fall auch geht.
Ich entwickle das noch ein ganz bisschen weiter,
wie man auf einer Seite die Sachen unterbringen kann,
auch mit dem, was ich bei Abyss gelernt habe.
Also zum Beispiel eine Sache, die ich bei Abyss gelernt habe,
ist, es gibt eine ganze Menge Leute, die verwenden ein Touchscreen und keine Maus.
Und da ist diese ganze Funktion bei Abyss,
ich gehe mit der Maus irgendwo rüber und dann poppen da die Details auf.
Ich gehe zum Beispiel auf die ADSR und dann,
ja, das funktioniert nicht mehr, wenn ich auf dem Touchscreen unterwegs bin.
Also jedenfalls nicht so einfach.
Und da gab es halt so ein paar Kleinigkeiten, die ich gelernt habe.
Und ich hatte auch noch ein, zwei Ideen,
wie man Sachen vielleicht noch ein bisschen geschickter machen kann.
Da ist meine Vorstellung, dass es da halt mindestens einen weiteren Synthesizer geben wird.
Und zwar einen Synthesizer, wo es um FM-Synthese geht,
aber nicht wie beim DX7, wo man dann eine Excel-Tabelle mit 700 Werten befüllen muss,
sondern eine FM-Synthese, wo man diese Klänge zur Verfügung hat,
die man toll findet, aber mit so einem intuitiven, farbigen Interface wie bei Abyss.
Und ich werde dann auch für Abyss ein Upgrade machen,
um es von dieser, sozusagen, um den beiden eine sehr ähnliche Aufmachung zu geben.
Damit, wenn man den einen kennt,
findet man sich automatisch in dem anderen zurecht.
Die andere Linie sind dann die, also jetzt Novum und Kult,
wo ich sage, das sind Synthesizer, die jeweils in dem Bereich, was sie machen,
schon ein sehr breites Spektrum anbieten.
Und die auch die eine, also, sag ich mal, Synthesizer,
mit denen man auch ein bisschen mitwachsen kann.
Man kann intuitiv loslegen, und das macht Spaß.
Man kann aber auch noch nach ein paar Wochen immer noch was entdecken,
wo man sieht, oh ja, cool, hier gibt's ja noch eine Funktion,
die ich noch gar nicht gesehen hatte.
Wie so ein gutes Nintendo-Spiel.
Ja, genau.
Das Konzept habe ich auch noch ein bisschen erweitert,
und das wird dann in meinem nächsten Plug-in,
das kommt im Januar nächsten Jahres raus,
also es wird wieder ein Synthesizer sein.
Da habe ich das ganze Konzept jetzt auch weiterentwickelt,
hab dir das ganze Feedback, was ich so aufgenommen habe über Novum und Kult,
seien es jetzt, was weiß ich, wie man Presets verwaltet,
aber auch viele andere Sachen, habe ich da alle mit aufgenommen,
habe da noch ein paar andere Ideen mit reingebracht,
es bekommt auch eine ganz andere Synthese, Engine und so weiter.
Aber auch da ist dann die Idee, diese drei Produkte,
die werden so ein bisschen eine Einheit bilden,
in dem dann die älteren Produkte auch ein entsprechendes Upgrade bekommen.
Und ja, mit Love, das ist ja mein erstes Effektgerät, sozusagen, gewesen,
und da wird es dann auch noch mindestens zwei weitere Produkte geben,
die ein ähnliches Prinzip haben.
Das heißt, man kann es visuell sehr leicht erfassen,
man hat ein relativ breites Spektrum zwar von Möglichkeiten,
aber es hat trotzdem noch vielleicht ein ganz bisschen was Ungewöhnliches,
so die Idee.
Also ich glaube, man kann sagen, wir alle drei sind in Love.
Definitiv.
Ich hätte da noch eine Frage.
Du hast ja auf deiner Website auch noch mal betont,
dass dir dieser Instrumentenaspekt sehr wichtig ist.
Ganz platte Frage, welchen MIDI-Controller würdest du denn empfehlen,
für deine Synthesizer zu benutzen?
Was benutzt du?
Also ich benutze zurzeit zwei.
Vor wenigen Monaten habe ich meistens ein ROLI Seaboard verwendet,
diese MPE-Controller.
Und dazu habe ich noch so ein Native Instrument, so ein Komplete 88,
weil ich einfach auch irgendwie so eine, sag ich mal, Klavier-ähnliche…
Fürs Taktile und für die Piano-Geschichten.
Ja, genau.
Wenn mich jetzt jemand fragen würde, dann würde ich sagen,
Leute, es mag auf den ersten Blick so aussehen, als ob es teuer wäre,
aber kauft euch ein Osmose.
Das ist einfach… dieses Instrument ist so gut.
Und ich bin einfach wirklich total beeindruckt von diesem Instrument.
Und ich würde alle anderen Sachen, also jetzt nicht meine Fagotte irgendwie,
aber alles andere würde ich sofort hergeben,
weil das Osmose lässt eigentlich kaum noch Wünsche übrig.
Also gut, es hat nur vier Oktaven,
also das heißt, also jetzt Chopin ist dann vielleicht auf dem Ding irgendwie ein bisschen schwierig,
dafür ist es schon auch toll, 88 zu haben,
aber alles, was nicht Klavier ist, also jedes andere Instrument sozusagen irgendwie,
das ist toll.
Also es ist ein wirklich großer Fortschritt aus meiner Sicht für, wie ein Controller sein kann.
Muss man unseren Zuhörern, vielleicht die das nicht kennen, nochmal kurz erklären.
Osmose ist ein Synthesizer und auch MIDI-fähiges, MPE-fähiges Controller und Synthesizer-Keyboard,
was auf den ersten Blick normale Tasten hat,
aber jede einzelne Taste kann auch nochmal in sehr nuancenreich gespielt werden und bewegt werden.
Genau, und zwar lässt sich, also normal beim Klavier ist es ja so,
ich schlage die Taste an und dann war es das.
Dann habe ich noch die Kontrolle, wann lasse ich sie wieder los
und gut, ich habe noch die Fußpedale für alles gleichzeitig.
Bei dem Osmose ist es so, dass man so eine Art wie Polyphonen-Aftertouch hat, nur dass es funktioniert.
Also es gibt ja viele Keyboards, die sagen, sie haben Polyphonen-Aftertouch,
aber ich weiß nicht, vielleicht bin ich auch einfach nicht stark genug oder sonst was.
Also entweder ist es nicht Polyphon oder es ist halt so, dass man sagt, so kann ich nicht spielen,
weil wenn ich mich mit meinem ganzen Gewicht auf die Taste drücken, sozusagen kippen muss
und dann habe ich so einen On-Off-Effekt.
Es ist jetzt Pressure 0 und jetzt ist Pressure voll.
Aber bei dem Osmose ist es so, jede einzelne Taste lässt sich einfach noch so ein bisschen weiter reindrücken
und hat aber so einen genau angemessenen Widerstand,
wie man den von einem richtigen Instrument einfach erwarten würde.
Also man legt damit los und man hat das sofort drin.
Und für Synthesizer ist das halt toll, weil man kann da jetzt irgendein Parameter drauflegen.
Ich sage mal zum Beispiel, wie stark das Filter aufmacht oder nicht.
Das heißt, ich kann jetzt normal spielen, wie auf einem normalen Keyboard
und habe meine Velocity und spiele hier irgendwie so eine Line.
Aber dadurch, dass ich jetzt graduell oder bei einzelnen Noten oder für die Akzente
einfach noch die Taste ein bisschen tiefer reindrücke irgendwie,
habe ich halt die Möglichkeit, den Klang dann noch zu gestalten.
Oder ich habe vielleicht irgendwie ein Pad.
Aber dadurch, dass ich es dann langsam immer ein bisschen stärker den Druck da drauf mache,
kann ich ganz nuanciert und das halt auch, was weiß ich, im Bassbereich
oder für die Mitteltöne anders als für die Randtöne,
dieses Pad ansteuern irgendwie.
Und das ist so intuitiv und macht so großen Spaß.
Wenn man das einmal ausprobiert hat, das will man nie wieder loswerden.
Im Prinzip macht das Roli Seaboard das auch.
Das sind diese schwarzen Controller, die diese Silikonmatte haben,
die so ein bisschen wellig ist.
Der Grund, warum das Osmose einfach noch mal ein Riesenschritt nach vorne ist, ist ...
Dass mal die Firma nicht pleite ist.
* Gelächter *
Ich weiß nicht, die sind ja erst mal wieder gerettet da, Roli.
Nee, aber der Punkt ist ...
Schon wieder.
Sie sind schon wieder neu pleite und ich weiß noch nichts von.
Keine Ahnung.
Das Roli ist toll, wenn ich etwas Langsames spiele,
weil dieses so langsam da reindrücken, das kann es toll.
Ich bin nie richtig damit warm geworden, wenn ich irgendwas Perkussives damit spielen möchte.
Also alles, was so in die Richtung zum Beispiel Mellots, Vibraphone oder so derartige Klingen,
oder Klavier, ich sehe, es gibt YouTube-Videos von Leuten, die das können.
Die haben offensichtlich wahnsinnig bessere Fähigkeiten als ich.
Das ist auch kein Wunder.
Aber, sag ich mal, für mich als 08/15 Hobby-Keyboarder,
ich komm damit nicht klar für so etwas.
Auf dem Osmose bekomme ich das Beste, was man von so einem Seaboard haben kann,
dieses nuancierte Spielen und das nachträgliche Beeinflussen von Tönen.
Aber gleichzeitig mit dieser Tastatur, die es mir so gut erlaubt,
auch halt...
Klavier zu spielen.
Genau, Klavier zu spielen, beziehungsweise halt auch perkussive Sachen zu machen.
Und dann kann man übrigens diese Tasten auch noch rechts-links bewegen,
also die reagieren ganz feinfühlig.
Wenn ich mit dem Finger kann ich zum Beispiel ein Vibrato machen.
Das muss man im Synthesizer nicht automatisch auf ein Vibrato mappen.
Das wäre jetzt eine Möglichkeit, aber dann hat man schön die Möglichkeit.
Ich kann es auch auf alle anderen Sachen mappen.
Und das bedeutet einfach, ich hab noch eine weitere Dimension,
die ich dann halt durch das rechts-links-Verschieben irgendwie machen kann.
Und also, es ist einfach toll.
Ich glaube, die größte Hürde bei solchen Controllern wie dem Roly Seaboard
oder meinetwegen auch dem Haken Continuum ist halt,
dass das halt nicht so eine Standard-Tastatur ist.
Bei dem Osmose haben sie wirklich so eine Standard-Klaviertastatur,
okay, nur 49 Tasten, aber immerhin,
haben sie kombiniert mit der Expressivität,
die man halt bei diesen anderen Controller-Keyboards hat.
Das finde ich schon, wie du schon sagst, das ist schon was Besonderes.
Das Problem ist halt, dass so eine Gummitastatur...
Du zuerst.
Ja, also das, was ich noch sagen wollte, ist,
und es hat halt dieses haptische Feedback,
das hab ich bei dem Haken Continuum halt nicht.
Dafür ist es mir auch schwer,
da zum Beispiel per Kassiv irgendwie was gut zu spielen.
Und hier ist es so, man fühlt sich sofort zu Hause,
weil es ist halt eine normale Synthesizer-Klaviatur,
nur sie spricht halt einfach ganz anders an
und bietet einem noch diese zusätzlichen Möglichkeiten.
Und das ist einfach, es fühlt sich einfach toll an.
Genau, das ist genau das, worauf ich vorher rauswollte.
Ich wollte eigentlich sagen, die Dinger verzeihen dir nix,
weil sie halt extrem präzise sind.
Aber es kommt noch dazu, du hast keine Haptik,
das hast du auch auf dem iPad nicht.
Das macht brutal Bock, mit diesen ganzen quasi hexagonalen Apps zu spielen,
so das Geo-Shreds-Zeug.
Das ist auch toll, weil ich mir die 30 Franken
immer irgendwie sparen wollte für den Nachfolger.
Aber das ist total toll.
Aber dann guckst du weg, haust blind drauf und ...
Das kannst du vergessen.
Und das ist halt, wenn du das Muscle Memory fürs Piano hast,
ich hatte jetzt noch keine Osmose unter den Händen,
aber ich glaube, das ist der Unterschied,
das haben mir auch ganz viele gesagt,
du kannst in Pianotastatur blind denken
und hast diese ganze Expressivität.
Und ich war auch skeptisch, weil ich mir auch nicht sicher war,
wie gut ist es denn tatsächlich umgesetzt?
Wie gut reagiert es jetzt wirklich?
Und wie fühlt sich das an?
Und ich hab's dann angeschlossen
und es hat ungefähr, ich würde mal sagen,
keine 30 Sekunden gedauert und ich war hin und weg.
Also es ist wirklich toll.
Jetzt von mir noch ein Hinweis,
also wenn man jetzt nicht unbedingt 1800 Euro ausgeben möchte,
die Herstellerfirma von Osmose,
ich weiß gar nicht, wie man es ausspricht,
das ist ja eine französische Firma,
Expressive, vielleicht?
Die haben auch noch einen anderen Controller,
und zwar den Touché.
Das ist quasi, Osmose geschrumpft auf eine einzige große Taste ist,
aber wenn man sich mal so,
die haben extra so ein Foto, wo sie diesen Touché auseinandergenommen haben
und man sieht wirklich die Bauteile,
das ist auch ähnlich expressiv zu spielen
und man kann das wunderbar mit einem Standard-Keyboard kombinieren
und kostet auch nicht die Welt.
Genau, das ist auch wirklich toll,
weil es ist halt wirklich ein Instrument,
im Sinne von es reagiert feinfühlig und intuitiv.
Man kann sich das vielleicht vorstellen,
wie das super-duper-haptische-Luxus-Modwheel,
wobei es ja mehr als eine Dimension hat,
also sagen wir mal, wie eine Kombination von drei Fadern,
sozusagen alles in einem.
Das heißt also, gerade für Leute, die es so gewohnt sind,
dass sie zum Beispiel mit rechts spielen
und mit links dann irgendwie an ihrem Modwheel
oder auf so einem XY-Pad irgendwie rumschweifen,
dafür ist es perfekt,
weil diese Feinfühligkeit, mit der man das steuern kann
und das Intuitive, mit dem man das machen kann,
das ist auch unerreicht.
Also das ist ein guter Hinweis von dir.
Also ich habe an meinem PolyBrute,
die haben ja auch so etwas Touché-artiges implementiert,
ist allerdings nicht ganz so technologisch einfach.
Du hast zwar diese Touch-Oberfläche mit links, rechts
bzw. XY und dann auch noch mal runterdrücken,
aber das ist dann nur die Z-Achse.
Also das ist dann nicht so nuanciert spielbar wie der Touché.
Und ich bin schon immer wieder mal am gucken,
ob ich mir nicht so ein Touché einfach zu dem PolyBrute dazu hole,
weil der ist halt auch eigentlich
wo nur ein wahres Instrument dafür wäre.
Ja.
Ich muss mal auf unser Board gucken mit den Fragen.
Peter, die Firma Korg bietet ein SDK an
für seine Synthesizer für die Logue-Serie.
Jetzt auch seit neuestem haben sie einen Drum-Computer,
den Drum-Logue, der kann das auch, der hat auch einen SDK.
Es gibt jetzt eine ganze Reihe von Entwicklern,
die sozusagen dafür entwickeln
und quasi ihre Plugins, die sie so haben,
dann auch in diese Synthesizer als Plug-outs,
könnte man sagen, laufen lassen.
Wäre das für dich zukünftig auch noch mal irgendwie interessant,
dass du sagst, ich habe hier meinen, keine Ahnung,
so einen Effekt-Plug-in, sowas wie Love,
das programmiere ich mal so,
dass es auch auf dem Korg Minilogue läuft.
Ist das für dich attraktiv?
Also, ja, nein.
Habe ich mich ganz ehrlich noch nicht wirklich mit auseinandergesetzt.
Müsste ich dann halt gucken, wie weit ist das,
also wie funktioniert das technisch und so weiter,
wie viele Aufwände sind damit verbunden.
Für so etwas wie ein Multi-Effekt-Rit
kann ich mir das relativ gut vorstellen.
Für die Synthesizer und für das, was ich da auch in der Zukunft vorhabe,
wahrscheinlich eher weniger.
Denn die Grundrichtung, in der ich ja langfristig unterwegs bin,
ist ein bisschen weg von diesem klassischen Ansatz,
dass man einfach irgendwie zwölf Regler hat,
an denen man irgendwie was ein bisschen hin und her schreibt,
schraubt hinzu, immer mehr darauf verlagern,
dass man Sachen grafisch machen kann.
Weil, also, ich schraube selber total gerne
an meinem Modularsynthesizer und so weiter.
Da finde ich das toll, das irgendwie so an der Hardware zu machen.
Aber wenn ich am Computer arbeite,
da dann mit der Maus irgendwelche Regler zu bewegen,
das finde ich blöd.
Und deswegen war die Idee ja sozusagen gerade viel stärker,
diese grafischen Möglichkeiten noch auszunutzen.
Auf der anderen Seite, wenn ich mich jetzt gerade selber so reden höre,
dann denke ich, ja, aber das wäre doch eigentlich ein gutes Argument,
so etwas wie Kult auf so einen Synthesizer zu bringen.
Weil man da dann, also wenn ich mir vorstelle,
so etwas wie Kult und gleichzeitig da dann aber die Möglichkeit zu haben,
an diesen Reglern direkt so rumhaptisch schrauben zu können.
Ich glaube doch, das sollte ich mir mal angucken.
Das klingt interessant.
Ich mache mir hier eine Notiz.
Und schon haben wir wieder gerade eine neue Produktidee gezündet.
Hurra!
Wir sind auch Synthfluencer, nur im anderen Sinne.
Ja.
Für Novum würde es nicht so gut passen,
aber für Kult wäre das wahrscheinlich wirklich schon cool.
Also bei Kult hatte ich auch, gab es eine Menge User-Feedback von Leuten,
die es halt live verwenden wollen.
Und da ging es darum, um die Automatisierung.
Und wenn Leute das nicht innerhalb von einer DAW verwenden,
sondern von Sachen, die halt speziell für den Live-Betrieb irgendwie zugeschnitten sind.
Und das leuchtet mir auch ein, weil tatsächlich,
also das kann ich mir gut vorstellen,
so ein Instrument, dass das live sozusagen irgendwie auch wirklich Spaß macht.
Und da wäre es natürlich toll,
wenn man dann den ganzen Umweg über den Computer irgendwie rausnehmen kann
und es halt direkt in dem Synth zur Verfügung hat.
Weniger anfällig, man will auf der Bühne keine Panne haben.
Intuitiver, keine Latenz.
Hast du die Entwicklung denn mitverfolgt?
Das ist ja, Ableton hat vor kurzem hier Push 3 vorgestellt.
Ist das für dich, wäre das vielleicht vielleicht ja auch eine Möglichkeit,
wenn du sagst, Mensch, ich baue das Ganze so,
dass es als Plug-in auf der Push-Hardware läuft?
Das ist so, die benutzen so einen Standard-Intel-Sock.
Ja, nee, da brauchst du aktuell Max dazu.
Ich bezweifle, ob das funktioniert.
Also im Moment funktionieren ja nicht mal User-Samples in Drum Racks.
Es geht ja einfach nur um die Frage, ob Peter sich vorstellen könnte,
dass er einfach für Hardware entwickelt
und nicht nur als Plug-ins.
Das hat er ja eigentlich schon beantwortet.
Aber er sagt ja auch, dass er die Idee charmant findet.
Genau, und um deine konkrete Frage zu beantworten über Ableton Push 3,
habe ich jetzt noch nicht konkret nachgedacht.
Und es ist immer auch ein bisschen ein Problem.
Ich sozusagen, mit dem, was ich mache,
bin ich ja auch schon in meiner eigenen speziellen Nische unterwegs.
Sobald man sich auf eine Hardware-Plattform eingrenzt,
wird diese Nische sehr schnell sehr klein.
Und es trifft nur noch auf sehr wenige Leute,
die sich dafür interessieren.
Und dann ist es immer so ein bisschen ...
Weil am Ende bin ich zwar independent,
im Sinne von niemand sagt mir, was ich zu tun habe.
Aber ich muss schon auch irgendwo sehen,
dass ich über die Runden komme.
Das muss ja auch irgendwo laufen, oder?
Exakt. Aber für Hardware habe ich folgende ...
Also eine Sache, die ich schon länger im Kopf habe, ist die folgende.
Ich habe ja ein paar, sag ich mal, innovative Verfahren.
Zum Beispiel eins ist dieses Synthify-Novum,
wo man im Prinzip jeden Klang reintun kann
und verwandelt ihn dann so langsam in etwas,
was sich so ein bisschen anhört,
als käme es aus einem Sägezahnwerk, sag ich mal.
Und das ist beispielsweise etwas,
was ich mir hervorragend vorstellen kann als ein Modul für JuroVec.
Und das hätte dazu noch den Charme,
ich habe die Mathematik dahinter jetzt mal auch umgesetzt.
Das ließe sich auch als eine analoge
oder lässt sich auch als eine analoge Schaltung realisieren
und klingt dann sogar noch ein bisschen besser.
Das heißt, da gäbe es sozusagen die Möglichkeit.
Ich selber werde aber nicht anfangen,
selber Hardware zu entwickeln oder sonst was.
Das heißt, an der Stelle habe ich so ein bisschen überlegt,
was denn so mein Traumpartner irgendwie wären.
Mutable Instruments, wenn es die noch geben würde,
wären da wahrscheinlich ungefähr mit auf der Top 3.
Und so ein Traumhersteller, wo ich denken würde,
das wäre toll, mit denen zusammenzuarbeiten, wäre Make Noise,
weil ich einfach auch ungefähr alles, was die machen, toll finde.
Und ich hatte eigentlich vor,
dann den Toni Rolando von Make Noise bei der Superbooth
einfach mal anzusprechen, mich da vorzustellen und zu gucken,
ob er sich das grundsätzlich vorstellen kann,
dass man da überhaupt mal drüber spricht.
Und ich war dann aber dieses Jahr verhindert
und deswegen konnte ich das gar nicht machen.
Jetzt hoffe ich, dass ich ihn vielleicht,
ich werde auf der Namm-Show sein im kommenden Januar
und vielleicht treffe ich ihn da.
Oder es ergibt sich sonst mal die Gelegenheit,
nächstes Jahr auf der Superbooth.
Also so für Juroreq Sachen zu machen,
da hätte ich ein paar Ideen und da hätte ich auch Lust zu.
Da ist, glaube ich, auch noch viel Luft nach oben.
Also wenn ich mir so die Entwicklung anschaue,
da ist jetzt zum Beispiel Intelligel mit einem neuen Delay-Modul
auf den Markt gekommen.
Und das ist auch schon sehr interessant und sehr spannend,
was die da so in ihre Produkte reingepackt haben.
Ich weiß nicht, ob du das verfolgt hast.
Ja, ich finde das ohnehin toll mit diesem ganzen Juroreq,
weil es da halt auch so viele, ich sag mal, Boutique-Hersteller gibt,
die, das Ganze wird nicht so dominiert von,
es gibt fünf große Konzerne und die machen einfach alles.
Ja, ganz genau, das sind viele kleine.
Ja, viele kleine und dann halt, die sich auch wirklich
auf exotische Sachen spezialisieren, was weiß ich.
Auch ein Urs Heckmann hat ja auch schon ein Modul entworfen.
Und ja, warum nicht? Das klingt auf jeden Fall spannend.
Und den Audio-Damage auch.
Genau, den Audio-Damage auch, ganz genau.
Aber ich würde halt nicht selber ein Modul entwickeln,
sondern also lieber mit jemandem, der es kann,
da dann sozusagen meinen Teil dazu beitragen.
Lieber das machen, was man kann, als sich überstrapazieren.
Ja.
Peter, wir sind eigentlich schon weit über der Zeit,
aber es hat so viel Spaß gemacht, mit dir zu sprechen.
Meine letzte Frage sozusagen zum Abschluss.
Was macht Peter zur Entspannung, wenn er keine Plugins entwickelt?
Ich spiele Fagott.
Also das ist tatsächlich etwas, bei dem ich extrem gut
und gerne entspannen kann.
Ich bin ja einmal in so einem etwas größeren Orchester
und ich bin in so einem kleinen, ganz kleinen Ensemble,
wo wir so ein bisschen eher kammermusikalisch unterwegs sind
und ich übe aber auch täglich.
Und ansonsten gehe ich gerne spazieren.
Das klingt jetzt wahrscheinlich totenöde irgendwie,
aber ich mache das wirklich gerne.
Und auch sowohl zum Abschalten, aber teilweise auch zum Arbeiten.
Also wenn ich über irgendwas nachdenke,
dann mache ich gerne weitschweifige Spaziergänge
und gar nicht die ganze Zeit darauf rumkauen,
sondern ich gehe einfach los.
Und dann ist es so, dass irgendwo entlang des Weges
mir plötzlich irgendwie die zündende Idee kommt.
Das kenne ich.
Das heißt, man kann dich dann gelegentlich im Stadtpark treffen.
Ja, im Stadtpark und auch sonst überall.
In Barmbeck ist ja direkt der große Stadtpark.
Ja, das ist fünf Minuten von hier.
Ganz genau.
Ach, schön. So klein ist die Welt.
Wir hatten schon einige Gäste hier aus Hamburg.
Und irgendwie ist Hamburg dann doch nicht so gefühlt so groß,
wie man immer denkt.
Warum haben wir eigentlich keine Berliner Gäste?
Bisher noch nicht, oder?
Die haben abgesagt.
Der einzige Berliner Gast, den wir hatten,
das war unser Kistenmacher.
Ach, Bernd Kistenmacher. Stimmt.
Berliner Schule.
Stimmt.
Das war der einzige Berliner.
So, und wer sagt jetzt die Schlussworte?
Thomas.
Ich schon wieder.
Ja, du leitest immer ein.
Ich leite immer ein, den Abschluss.
Dann, liebe Zuhörer, schaltet auch beim nächsten Mal wieder ein,
wenn ihr den Sascha-Sagen hören wollt.
Der Probe-Podcast, bei einem gemütlichen Talk im Proberaum.
Ich sage.
Und schaltet spätestens im Januar wieder ein,
wenn wir dann das neue Plugin von Dawson besprechen.
Richtig. Vielleicht dann sogar mit Peter.
Cool, ja, freue ich mich.
Ich hoffe, es hat einen Leitmod.
Chaos-Ende.
Peter, vielen, vielen Dank.
Ja, danke euch. War toll.
Tschüss.
Unterstützer erhalten Vorabzugang zum Ruhschnitt der Podcastfolgen
vor der eigentlichen Veröffentlichung.
Weitere exklusive Inhalte wie Vor- oder Nachgespräche
oder eine Art Tagebuch.
Alle Informationen, wie man Unterstützer wird,
findet ihr in den Show Notes.
[Musik]
Unterstützen:

Ihr könnt uns über Paypal direkt unterstützen oder über Steady oder Patreon mit einem kleinen Mehrwert als Dankeschön.

Die Spenden werden benötigt, um ein Teil der Kosten für die Bereitstellung meiner Werke, Podcast, Blogtexte sowie die Videos zu gewährleisten.

"Unterstützer erhalten vorab Zugriff auf die neusten Veröffentlichungen noch vor ihrem regulären Erscheinen im Rohschnitt. Darüber hinaus gibt es exklusive Inhalte nur für die Unterstützer wie Vor- und Nachgespräche sowie eine Art Tagebuch. Über folgende Dienste könnt ihr uns unterstützen: Steady, Patreon und erhaltet Zugang zu den extra Inhalten."

Patreon Feed auf Spotify oder Steady Feed auf Spotify

Zugehörige Episoden:
Feedback zur Ausgabe hinterlassen?

Dann schreib doch ein Kommentar

Audio Feedback zur Sendung?

Der Anrufbeantworter ist geschaltet. ☎ 0231 53075818

Sprecher:
avatar
Sascha
avatar
Notstrom
avatar
Tobi
avatar
Peter
Anzahl der Downloads: 169
Spieldauer: 1:28:06
Tag der Aufnahme: 22.08.23
Diese Folge stammt aus der Staffel 3, es gibt insgesamt 4 Staffeln.


Eine LautFunk Publikationskartell Produktion - Wo Geschichten unüberhörbar übermittelt werden.

Podcast Lizenz:

Autor: Sascha Markmann

Legastheniker am Werk (Mehrfaches lesen meiner Postings kann zu irreparable Schäden an den Augen führen z. B.. Pseudotumor-zerebral-Syndrom) Leicht gestörter bis Mittel schwerer Fall von Überlebens Künstler, Maler, Blogger, Musiker, Podcaster und Video Produzenten "Audiovisueller STUMPFSINN mit keinem Nutzwert"

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.