Bei alle dem, was du schreibst, was genau willst du denn eigentlich machen? Irgendwie kapiere ich das nicht. Ein Video nachvertonen, das im Browser läuft? Kapiere ich nicht irgendwie. Was soll das bringen? Wäre da nicht die einfachere Lösung von einem Video die Audio-Spur zu nehmen, zu bearbeiten und danach das Ganze wieder zusammenzufügen? Und wenn du nur Audio von einem Video bearbeiten willst, weshalb steckst du dann nicht einfach ein Handy an das Interface?
Echtzeit-Audio und Entertainment System (RME MultifaceII, Bitwig3)
![]() Anmeldungsdatum: Beiträge: 1192 |
|
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
In Windoof auto-startet beim Hochfahren ein Cubase Projekt, wo u.A. eine Windows Spur (welche auf monitoring=on geschalten ist, damit der Ton durch geht) drinnen ist. Diese Dient:
außerdem kann man z.B. während man bei einen ComputerSpiel in der Lobby wartet, Keyboard spielen... In Windows kommt einfach der WDM Ton raus (nicht echtzeit), welcher mittels DSP-mixer loopbacked wird. Und via ASIO in Echtzeit ins Cubase rein und raus (mit 32 Samples). Man braucht nur genug In/outs, LoopBack, Multiclient fähig sprich WDM und ASIO gleichzeitg, Soundkarte. Meine Soundkarte (RME Multiface2) ist sogar multi-ASIO-client-fähig... |
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
Leute riesen Dank für Eure Hilfe, ihr habt mir sehr geholfen!!! Werde noch anderwertig weiter um Hilfe bitten (rme forum, alsa community ...) und die Erkentnisse (sobald ich meine sie verstanden zu haben und “damit sinnvolle setze bilden kann”) hier teilen. Mir liegt wirklich sehr viel daran... Mein größtes Problem ist wohl, dass ich im Grunde keine Ahnung habe, wie eine Soundkarte funktioniert, abgesehen was dazu nötig ist um sie in win/mac zu konfigurieren. Aber in Wirklichkeit ist anscheinend Alles anders, als ich es mir vorgestellt habe... Was ich für die Pflicht der Linix Community halte, ist ein echtzeit LTS Ubuntu. (im ideal Fall ein 2tes AudioSystem f. "nicht Echtzeit" siehe "nicht Echtzeit Audio" in diesen Post) Windows und Mac sind keine echtzeit Betriebssysteme, deshalb allein ist Linux schon sehr attraktiv... Der Musik Software-markt für Linux wird auch immer attraktiver: Bitwig (pattern u timeline sequenzer) und Reaper (timeline sequenzer) gibt es bereits für Linux. VST3 (quasi DER DAW-Plugin standart) gibts ach schon länger für Linux. Alles von u-He (sehr, sehr geile Pluginschmiede), u.v.A.m. siehe z.B.: https://www.kvraudio.com/plugins/linux/instruments/effects/hosts/soundware/newest, läuft auch schon auf Linux... Ich hab leider das Problem das ich “sehr” viel win/mac only Lizenzen habe, und daher noch länger an win/mac gebunden sein werde... Aber da M$ es mittlerweile unmöglich gemacht hat, mit einen für mich funktionierenden windows (alles durch cubase mit 32 sampels durch), ohne Zusatzsoftware b.z.w. extremer Tweakerei, ins Internet zu gehen: Weil es dann oft irgendwas im Hintergrund zum werkeln anfängt, was man merkt wenn durch Cubase der "gesammte OS-Ton" Output durchgeht weil dann die realtime performance nicht mehr gegeben ist, und es daher zu x-runs kommt (bei „normalen Anwendungen“ ist mir aber nix negatives dabei aufgefallen), wird mein win10 Musiksystem auf ewig offline bleieben... Nicht Echtzeit System: Der Nutzer ist prinzipiell gefragt, was er mit diesen "nicht Echtzeit Ton" anstellen will, b.z.w. kommen beide Audios (rt und "nicht rt") sowieso auf Out 1/2 raus... In Windoff dank multi-Client (ASIO/WDM gleichzeitig) kein Problem, dass muss doch bei uns auch machbar sein... Falls was schief geht mit der DAW (Ardour, Bitwig, Reaper), wo grad der ganze Ton durch muss (wegen: DAW Neustart, DAW Projekt laden, DAW werkelt irgendwas herum): Ist im Totalmix (für RME Soundkarten-Mixer-DSP), ein Doppelklick, und der "nicht Echtzeit Ton" kommt auf den Ausgang raus wo er soll... Schätze die meisten ">500€ Soundkarten" die in diesen Anwendungsbereich üblich sind, verfügen über einen DSP Mischer, Multiclient fähig (ASIO = Echtzeit und WDM = "nicht Echtzeit", gleichzeitig [sogar am gleichen i/o]) sind diese sicher... Aber ich will das gewohnte nicht aufgeben, wo ich ein paar Punkte in meinen vorherigen Post genannt habe, und auf Linux umsteigen. Darum dieser Thread. Und ich will eben nicht ein reines Echtzeitsystem (wie es für die Bühne bzw als Instrument oder DAW perfekt wäre) sonder echtzeit für DAW (in meinen Fall BitWig), und für den Rest „normale Latenzen“... Lg |
Anmeldungsdatum: Beiträge: 1392 |
In diesem Sinne enthält die Auflistung im UU-Wiki drei aktuelle Alternativen (wobei ich jetzt nur für LibraZiK studio definitiv weiß, daß es Echtzeitkernel gibt, bei KXStudio und AVLinux müßte ich gucken). Da man bei der Systembasis Debian inzwischen auch LTS-ähnliche Systeme baut, kann man's dort ähnlich entspannt angehen. Ubuntu selbst würde ich für Audio-Zwecke als ein mit Hilfstexten (UU-Wiki) gut unterfüttertes Einsteigersystem (speziell mit UbuntuStudio) betrachten. Michael |
![]() Anmeldungsdatum: Beiträge: 1192 |
Also irgendwie denke ich ja, dass du von den ganzen Informationen einfach überfordert bist bzw. wirst. Man darf da nicht so kompliziert denken. Ich kenne jetzt kein Asio, aber ich nehme mal stark an, dass das einfach eine Anwendung wie Jack/Alsa ist. Du musst da auch nicht irgendwie über das Interface routen, das geht auch nur im Rechner. Die Sache mit der Lautstärke und dem Midi-Controller kriegt man eventuell sogar nur mit Alsa hin (frage bitte nicht wie und ganz sicher ist das nicht); Midi läuft aber wirklich super unter Linux, ich spreche da aus Erfahrung hatte mindestens schon zehn verschiedene Controller zu Hause, alle ohne Probleme und auch Synthesizer mit USB; mit Midi noch nie ein Problem gehabt. Als erstes würde ich damit beginnen, sicherzustellen, dass dein RME-Interface tatsächlich mit Linux funktioniert (es gibt auch andere hochwertige und weniger hochwertige Interfaces, die gut mit Linux funktionieren, etwa von Nativ Instruments, günstiger, bzw. SPL, etwas teurer, oder sowas wie das Behringer UCA 222 zum Testen, quasi Spotpreis (+/- 20 Euro). Und wenn das mit dem Interface dann läuft, würde ich mich nochmal mit JackAudio beschäftigen. Eigentlich sollte alles, was du schreibst, damit machbar sein. Für einen Film, den man mit Effekten bearbeitet, braucht man ja im Grunde nur einen Jack-fähigen Medienabspieler, das können einige, Musik kannst du einfach direkt mit Bitwig abspielen oder eben auch mit einem Jack-fähigem Medienabspieler. Effekte, einigermaßen nutzbare finden sich ja in Bitwig, zumindest die Equalizer etc. sind voll in Ordnung. Und dann mal wegdenken von diesem "mein Interface kann Asio, heißt das dann, dass es das unter Linux auch kann..." Im Grunde ist es recht unkompliziert, wenn man JackAudio einigermaßen verstanden und ein funktionierendes Interface hat. |
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
Danke! Ja mit Jack geht das Alles und sogar noch besser. Zurzeit ist meine PCIe Soundkarte zum MIDI interface degradiert und benutze das interne usb-interface meines Wandlers, weil die Digitale-Schnittstelle von meiner PCIe Soundkarte was hat. Da somit der DSP-Mixer und Multi-Asio-client unterstützung weg ist, will ich mich der Sache zurzeit nicht mehr widmen... Und machs zurzeit so wie von euch geschrieben. Aber wenn ich wieder Schotter habe, leg ich mir wahrsch. eine rme-raydat zu, und dann gehts hier weiter (nachdem ich mich zumindest via RME forum schlauer gemcht habe) Lg |
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
Hi. Kleines Update wie's bei mir gerade ausschaut: Die Digitale-Schnittstelle meiner Soundkarte wo mein Wandler drauf hängt, funktioniert wieder einwandfrei (Fehler dürften 2 Fehlerhafte Toslink Kabel gewesen sein). Mein neues Windows zum Musikmachen ist fast fertig eingerichtet, und kann mich daher bald meinen neuen Entertainment-System mit Internet (Linux) widmen. Werde als 1ten Schritt mich an meinen Soundkarten Hersteller wenden, und Falls ich Kontakt Richtung "ALSA Entwicklung" bekomme dort auch, und hier berichten. Zur Erklärung warum mir das so wichtig ist: Ich ab die Hoffnung die Soundkarte wie unter Windows auch mit Linux 2x unterschiedlich anzusprechen, so dass quasi die DAW (Musikprogramm) mit niedrigen Puffer arbeitet und parallel dazu der Rest mit hohen Puffer, und ich die Prozesse auf meinen 8Kerner so verteilen kann, dass es kaum zu dropouts/x-runs kommt. (idR. soll der "normale Ton" via SoundkartenMischerDSP in die DAW laufen, und von dort, dann erst weiter zu den Boxen, um den "normale Ton" in der DAW bearbeiten/aufnehmen... zu können. Lg und Danke für Eure Hilfe! |
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
Hi. @ pepre: ich werde es genau so machen, wie du's von Anfang an geschrieben hast: Also: Jack verwenden, für Bitwig, und den "normalen Ton" via puls-Audio mit Jack verbinden. Hab dank eurer Hilfe, und von Anderorts (ALSA und RME Team hab ich noch nicht bemüht), endlich folgendes gerafft: Die Soundkarte kann alle Ein-/Aus-gänge mit einer Buffersize befüllen und auslesen. Der ganze Multiclient-Kram, wird vom Treiber erledigt, und somit hatte ich die falsche Annahme, dass die Soundkarte an sich Multiclient sei (wobei ich in einen Artikel gelesen habe, dass man Multiclient in ALSA aktivieren kann, wenn die Soundkarte dies unterstützen sollte...). Rein Prinzip-Technisch verstehe ich das jetzt so, dass Jack quasi die Multiclient-Funktion für HDSP-ALSA (HDSP ist eine Soundkarten-Serie von RME) darstellt. Jetzt verstehe ich das so: Hardware > ALSA > Jack > Bitwig (DAW) > Jack > pulseAudio > "normale Anwendungen". Und die Threads sinnvoll auf die CPU-Kerne verteilen. Was mich derzeit beschäftigt: Kann man bei pulseAudio einen hohen Puffer einstellen? Dachte mir, dass ich von meinen 8 Kernen, 4 fix Bitwig und Jack zuweise, und die anderen 4 Kerne für den Rest verwende, damit ein "normale Anwendung" nicht Jack und Bitweig reinpfuscht (x-runs). Hab auch Erfahren, das HDSP-ALSA nur min. 64Sampels kann, ich hätte aber gerne 32, ist jetzt nicht die Welt, aber kann ich das irgendwie umändern, damit man 32Sampels einstellen kann? (Hab die Hoffnung, ein 2.tes Linux-System rein zum Musikmachen aufzuziehen, welches, dank Minimalismus und realtime Kernel, bessere Performance als Windows liefert. Was aber nix wird, wenn ich nicht mal den niedrigsten Puffer einstellen kann // ich verwende den Computer u.A. als Keyboard und Effektgerät) |
Supporter
![]() Anmeldungsdatum: Beiträge: 6450 |
Die Pfeile verwirren mich. jack ist immer die Zentrale; der Knotenpunkt, der alles vernetzt. Auf der einen Seite zur Hardware hin (wobei die ALSA-Treiber "unsichtbar" bleiben): jack → ALSA-Treiber → HW Auf der anderen Seite zu den Anwendungen: jack → Bitwig jack → PulseAudio jack → beliebiges Programm mit jack-Schnittstelle Und via qjackctl vernetzt du dann alles nach belieben.
Kann man sicher. Ich weiß aber nicht wie 😉 Ich verwende dieses Routing: PulseAudio → snd-aloop → jack
Ja? Wo steht das? Teste halt einfach mal: in qjackctl kannst du "Frames/Period" und "Periods/Buffer" (letzteres steht idR auf "2", ggf bei USB oder Firewire auf "3") einstellen. "Frames/Period" schraubst du so lange nach unten, bis die xruns einsetzen. Beachte: wenn du dann mehr und mehr Zeug einklinkst (Effekte in Bitwig zB) ist nicht jack der Flaschenhals sondern Bitwig. Zwar meldet dann jack die xruns, aber nur, weil Bitwig nicht schnell genug liefern kann. Zudem: bei 48kHz, 64 Frames/Period und 2 Periods/Buffer landest du bei 2,6ms, mit 96kHz gar die Hälfte. Das reicht aus. Und bei Aufnahmen spielt die Latenz eh keine Rolle, die wird weggerechnet. Zur Verhältnismäßigkeit: bei 2,6ms Latenz stehst du quasi einen Meter neben der Box. Oder: deine Einsätze kommen (bei 120bpm) eine Tausendvierundzwanzigstel zu spät. 😉 |
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
Danke pepre!!! Ja, Jack ist quasi die "Zentrale": Da Jack aber genutzt wird, den PulseAudio Ton ins Bitwig zu schicken, und von Bitwig zur ALSA>Hardware: jetzt mal von "normalen Programm Seite" aus betrachtet: Firefox > PulseAudio > Jack > Bitwig > Jack > ALSA > Hardware. Das mit den "beim HDSP-ALSA kann man nur min. 64 Samples einstellen" hab ich aus einen anderen Forum, konnte es aber noch nicht überprüfen. Für einen ottonormal User, ist es wohl irrelevant ob man 32 oder 64 Samples @ 44,1khz eingestellt hat, wie du ja sehr schön geschrieben hast, aber beim schnellen Keyboardspielen merkt man doch ein bisschen einen Unterschied, gerade beim improvisieren und so. Und bin's halt von meinen jetztigen Musik-System gewöhnt, und hätte unter Linux gerne die gleichen Bedingungen... Hoffe das ich diese (oder nächste) Woche dazu komme mir ein neues Ubuntu einzurichten (von den ich mir diese mal, dann gleich ein Image ziehen werden), sollte dank eurer Hilfe kein großes Problem sein, dass der Ton tut, so wie ich es mir Wünsche... Riesen Danke für eure Hilfe und Geduld!!! Mein Denkfehler, bis vor ein paar Post's von mir in diesen Thread, war: dass ich dachte, die Soundkarte an sich sei Multiclient-fähig, das stimmt aber (anscheinend) nicht, der Windows-Treiber macht sie erst Multiclient-fähig, wie's aussieht... |
Supporter
![]() Anmeldungsdatum: Beiträge: 6450 |
Also, mal wieder generell: idR können bessere Soundkarten Monitoring, d.h. du bekommst das Original-Signal des Inputs als (nahezu) latenzfreies Signal auf einen Output. Wenn du jetzt in Bitwig Effekte dazu mischst, dann haben diese eine Latenz, klar. Aber idR hörst du das nicht, weil das Signal des Monitors dominant ist. Erst wenn zu zB Leslie einsetzt (mit Effekt = 100%, Original = 0%), und den Monitor auf Null stellst, dann hörst du die Latenz wieder. Die Frage ist nun: kannst du mit Monitoring umgehen oder nicht? 😉 Zur Latenz: für wirklich kleine Latenzen musst du das System genau anpassen. D.h.: Realtimekernel, den Interrupt zur Soundkarte hoch priorisieren (s. rtirq.sh), jack priorisieren (s. chrt). Mehr ist das eigentlich nicht. Warum? Weil jack "anfordert". Jede Anwendung mit jack-Schnittstelle nimmt jack als "Taktgeber" und versucht jack zeitgerecht zu bedienen. Schafft die Anwendung das nicht, so teilt uns jack das via xrun-Meldung mit. Wenn nun ein Haufen anderes Zeug läuft (Browser etc), so werden die Zeitscheiben für jack und seine Clienten immer kleiner. Man tut also gut daran ein schlankes System zu verwenden, wenn man die Latenzen wirklich klein haben will. Ein Browser zB ist per se nicht schlank. Es ist also eine Abwägungssache. Je mehr Prozesse laufen, die nichts mit der Musiksache zu tun haben, desto mehr ist das System beschäftigt, und desto höher muss man die Latenz wählen. Es bringt nur wenig, wenn man via nice oder chrt alle Clienten priorisiert, die mit jack sprechen (s.o.: jack fordert sowieso an). Die Prozess-Anzahl ist da viel entscheidender. Ergo: je weniger nicht-Musik-Zeugs läuft, desto besser. Ein sowohl-als-auch System muss immer ein Kompromiss sein. Ergänzung zum besseren Verständnis: Semi-professionelle Digital-Pulte tun genau das o.g.: sie verzichten auf Schnickschnack und beschränken sich auf die Kernaufgabe. Sogar das Userinterface ist idR völlig abgespeckt, um mehr Rechenzeit für die Tonverarbeitung übrig zu haben. Professionelle Pulte gehen noch weiter: die Tonverarbeitung ist in HW parallelisiert, und auch das Userinterface läuft auf eigener HW. Es gibt nur eine Zentralinstanz, die nichts anderes tut als die Daten für die Interkommunikation bereit zu stellen. Das erklärt den Preis 😉 |
(Themenstarter)
Anmeldungsdatum: Beiträge: 36 |
Danke pepre (deine Posts hier helfen mir enorm weiter...)!!! Ich will den best möglichen Kompromiss, und wenn das in Ubuntu mit 32Sampels Jack Puffer, an den PulseAudio mit rießen Puffer andockt, funktioniert, bin ich voll zufrieden... Ich spiele hauptsächlich mit virtuellen Klangerzeugern (VSTi) und Effekten (VST), deshalb verwende ich sehr selten "direct Monitoring". (und ich kann blind sagen, ob 32, 64, oder 128 Sampels puffer eingestellt sind...) So ein Standard Szenario wird z.B. sein: Webbrowser offen wo Film rennt (der Ton rennt ja durch Bitwig durch und wird dort mit FabFilter Plugins optimiert // sprache zu leise, explosionen zu laut), und im Hintergrund wird was runtergeladen, und GIMP, was weiß ich, ist noch offen. Sollte mit meinen Rechner(8x4GHZ) genug Leistung vorhanden sein, wenn ich die Einrichtung hinkriege... Werde zuerst mal dieses Ubuntu-EntertainmentSystem (wo der Ton durch eine DAW durch geht) einrichten, und wenn das einmal läuft, ein 2tes Linux-System total auf Echtzeit ausgelegt, nur zum Musikmachen (wahrsch. wird's ein Arch Linux werden)... Dann kann ich berichten wie's performance technisch zwischen:
aussieht. Freu mich schon wenn ich berichten kann... Zum Musikmachen bin ich leider eh gezwungen (durch gekaufte Software) Win10 zu verwenden, aber da ich mittlerweile (aus guten Gründen) M$ misstraue, gehe ich mit dieser Installation nicht ins Internet. Und will mir so als "Entertainment-System" (wo ich den Anspruch habe das der Ton durch Bitwig durchgeht...), das hier thematisierte, Ubuntu einrichten. Das realtime-Linux-System ist dann die Draufgabe, weil ich's einfach wissen will, aber wahrsch. werd ich auch Versuchen in meinen Ubuntu-EntertainmentSystem den Realtime-Kernel zu installieren... (werd ab jetzt auch von Ubuntu brav inkrementelle Images ziehen) Lg |
![]() Anmeldungsdatum: Beiträge: 472 |
Browser-Film mit zu leiser Sprache und zu lauten Explosionen: kann man das korrigieren lassen mit Jack und einem bestimmten Werkzeug (aus dem Ubuntu-Repositorium), oder braucht man da so komplexe, teils kommerzielle, Programme und -Erweiterungen, wie Ihr hier im Thema besprecht? (Ich las dieses Thema interessiert durch, um etwas zu lernen, verstehe aber nichtmal die Hälfte. Dennoch informatives Thema.) |
Supporter
![]() Anmeldungsdatum: Beiträge: 6450 |
Die eierlegende Wollmilchsau wird nicht funktionieren. Ich hab hier ein Debian Buster auf einem Ryzen 8 Kern und eine FCA1616 via Firewire. Ein all-in-one-Rechner, der das von dir o.g. tut, nämlich alles. Das Teil läuft ohne xrun bei 96kHz, 128 Frames/Periode, 3 Periods/Buffer. Und zwar so lange, bis ich PulseAudio anwerfe, egal ob an jack angedockt oder nicht. Dann kommen sporadisch und ohne erkennbaren Anlaß xruns. Keine Ahnung, wie man das in den Griff bekommt. Noch keine Ahnung, hoffe ich ☺ Wenn ich auf 256 Frames/Periode wechsle tritt das nicht mehr auf. Der Vorteil der FCA1616: sie hat ein Poti, mit dem man stufenlos von "Nur Monitor" zu "Nur DAW" regeln kann. Super Sache, das! 😉 |
Supporter
![]() Anmeldungsdatum: Beiträge: 6450 |
Kompressor, gibt's auch als Plugin, zB der hier. Ist in den Repos enthalten. |