synthefreak
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
Liebe Ubuntu Community. Danke das es euch gibt! In diesen Thread würde ich gern folgende Themen behandeln:
Mache selber privat Musik, und wollte immer „einen“ fetten Synthesizer haben,
was darauf raus gelaufen ist, dass ich mir quasi um das Geld
von einen großen Synth, viele VST-Plugins e.t.c. gekauft habe… Früher hatte ich meist Linux (hauptsächlich SUSE) am laufen bis ca. bevor „Unity“ die Standart Desktop-Umgebung von Ubuntu geworden war.
Da ich dann leider „nur mehr“ Windows verwendete habe, weil ich ITB (in the Box // also im Blechtrottel) Musik zu machen begann (Cubase, Ableton, e.t.c.),
bin ich nicht mehr wirklich am laufenden… Derzeit habe ich auf den gleichen Rechner ein win7 System, (produktiv System ohne Internet, ausschließlich für Cubase und Co),
und ein win10 System für Entertainment und Cubase, welches ich vorhabe durch Ubuntu zu ersetzen wenn BitWig3 rauskommt. Ich habe den Anspruch an mein EntertainmentSystem, dass der Ton von „allen Anwendungen“ (WebBrowser, Computerspiele e.t.c.),
durch meine DAW (Bitwig) durch geht, um diesen aufnehmen/editieren/prozessen zu können, in Echtzeit.
z.B. einen EQ oder ganze Masteringchain über ein YouTube-Video u.s.w. drüberlegen,
oder einen Film, wo die Sprache so leise und die Explosionen so laut sind,
an die akuten Bedingungen anzupassen…
Unter Windows kann man das mit einer RME-Soundkarte so lösen, dass man im Windows aus Hauptausgang einen unbenutzten Ausgang einstellt,
diesen spiegelt man mit den interenen Soundkartenmischpult (Totalmix), mittels „Loopback“ Funktion, auf den jeweiligen Eingang,
welchen man als Eingang bei der DAW seiner Wahl einstellt und diese DAW den Ton dann am richtigen Ausgang ausgibt. Jetzt stell ich mir als Leihe vor, den PulseAudio-Ausgang von Ubuntu auf einen ungenutzten Ausgang meiner RME-Multiface2 Soundkarte einzustellen.
Dieser Ausgang wird per „Loopback“ Funktion vom SoundkartenMischer (Totalmix) auf den jeweiligen Eingang gespiegelt.
Diesen Eingang stelle ich in Bitwig (ALSA Anwendung) ein, … und in Bitwig stelle ich den Ausgang ein wo der Ton rauskommen soll. Erwähnenswert ist vl.: das Multiface2 kann auf jeden Ausgang (und da hat es Einige) eine eigene ASIO Anwendung laufen lassen,
und prinzipielle Alles überall hinschicken/mischen. Was nicht unbedingt Standard ist. Kann man PulseAudio dazu verwenden, um nicht Echtzeitkritische Programme,
mit einen höheren Audio-Puffer laufen zu lassen, als seine DAW (Bitwig) welche direkt die Soundkarte über ALSA anspricht? Dann hab ich gelesen, dass man für den Betrieb von EchtzeitAudioAnwendungen, Desktop Effekte e.t.c. deaktivieren „muss“:
Kann man eine standart Ubuntu Installation, einfach „Grafisch abspecken“? („Taskleiste“ und FensterManager riechen vollkommen für mich) Wenn Bitwig3 draussen ist, und ich es erworben habe, kann der Spaß beginnen… Lg
|
pepre
Supporter
Anmeldungsdatum: 31. Oktober 2005
Beiträge: 6450
|
Die Basics: du sprichst die RME via jack an. Was du dann alles an jack andockst bliebt dir überlassen. Ich verwende Ardour für's Routing und allerhand mehr. Um die "normalen" Computerklänge über die RME zu leiten schickst du die PulseAudio-Ausgabe(n) in jack, s. hier. Ggf musst du PulseAudio auch Realtime-Prio verpassen. Falls dir die Routing-Matrix von Ardour ausreicht hast du damit schon einen Ersatz für Totalmix. Ich habe noch qjackctl dazu, damit externe Kanäle ebenfalls automatisch an jack andocken. Ardour spricht mit VST. Soweit mal. Inwiefern und wie einfach du in diesem Szenario Ardour gegen BitWig ersetzen kannst weiß ich nicht. 😉
minimalistische GUI
XFCE (aka Xubuntu) läuft hier einwandfrei (Ryzen 8-Kerner). Noch minimalistischer ist Lubuntu.
|
synthefreak
(Themenstarter)
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
Herzlichen Dank pepre!!! Hab jetzt Dank deiner Links, auch einige tolle Artikel gefunden, zu Dingen die ich mich gefragt habe... (ubuntuusers.de kann was 👍 ) pepre schrieb: Die Basics: du sprichst die RME via jack an. Was du dann alles an jack andockst bliebt dir überlassen. Ich verwende Ardour für's Routing und allerhand mehr.
Würde gerne den DSP Mischer meiner RME (beansprucht keine Resourcen, 1Sample zusätzliche Latenz, ...) anstelle von Jack verwenden.
Das von dir vorhin geschriebene gibt mir Hoffnung, da es so ausschaut als würde es vl. wirklich so einfach gehen wie ich es mir vorstelle: 1)
Man stelle einfach beim UbuntuFlavour der Wahl, beim jeweiligen Dialog, den Haupt-Audio-Ausgang auf, sagen wir mal, ADAT7/8 (welchen ich meist nie brauche), was bedeutet, dass
der Ton von allen "normalen Andwenudngen" > PulsAudio > ALSA > ADAT7/8 Out rauskkommt. soweit so gut. 2)
Jetzt nehme ich mal an, dass ich einen "TotalMix Ersatz" (Software zur Steuerung des DSP-Mischers meiner Soundkarte) habe,
und diesen "ADAT7/8 Out" auf "ADAT7/9 IN", via LoopBack-Funktion, geroutet habe. 3) Dann stellt man in Bitwig (schätze verhält sich Analog zu Ardour), beim Eingang diesen "ADAT7/8 In" ein ("ADAT7/8 In" > ALSA > BitWig (bzw Ardour).
Und hab den Ton mal in meiner DAW drinnen, wo man damit anstellen kann was man will.
Und dann stelle ich bei meiner DAW (z.B. BitWig o. Ardour) den Ausgang auf, sagen wir mal, "ANALOG1/2 Out" ( Bitwig b.t.w. Ardour > ALSA > "Analog1/2 Out" // wo meine Lautsprecher dranhängen). Wenn das funktioniert, wär ich schon voll zufrieden ☺ pepre schrieb: Um die "normalen" Computerklänge über die RME zu leiten schickst du die PulseAudio-Ausgabe(n) in jack, s. hier. Ggf musst du PulseAudio auch Realtime-Prio verpassen.
Ich gedenke PulseAudio zu verwenden, um dort Alle "normalen Anwendungen" einfach, auf ein bestimmten ALSA Ausgang zu schicken, und brauch mich bei "normalen Anwendungen" (wo keine "Echtzeit" erforderlich ist) um nicht's kümmern... pepre schrieb: Falls dir die Routing-Matrix von Ardour ausreicht hast du damit schon einen Ersatz für Totalmix. Ich habe noch qjackctl dazu, damit externe Kanäle ebenfalls automatisch an jack andocken. Ardour spricht mit VST. Soweit mal. Inwiefern und wie einfach du in diesem Szenario Ardour gegen BitWig ersetzen kannst weiß ich nicht. 😉
Jetzt ohne Ardour ernsthaft je verwendet zu haben, schätze ich, dass beiden Programme (Ardour und Bitwig), von den Ein/Aus-gängen (ALSA, Jack), und Mischermöglichkeiten (beides Ausgewachsene DAWs) ähnlich sind, und sich die Thematiken in diesen Thread (zumindest großteils) auf beide DAWs anwenden lassen... Mit VST-Plugin Unterstützung, geht es mir speziell, um Windows VSTs unter Linux nutzen zu können, was in Fall von FabFilter Plugins (welche zum Glück keinen Hardware-Dongle-Kopierschutz haben), kein Problem darstellen sollte, was ich in einen anderen Forum gelesen habe. (Man braucht ein Plugin für Linux, und in diesen öffnet man das Windows-VST-Plugin, und soll mit FabFilter ganz gut funktionieren...) pepre schrieb: minimalistische GUI
XFCE (aka Xubuntu) läuft hier einwandfrei (Ryzen 8-Kerner). Noch minimalistischer ist Lubuntu.
Werd mir jetzt im Bitwig Forum einen Account aufmachen, und nachfragen, ob sie einen Ubuntu-Flavour mit minimalistischer GUI empfehlen.
Auf deren Seite steht nur: "Ubuntu 16 irgendwas" sonst nichts... Wenn man Ubuntu (Gnome) von den Einstellungen so runterdreht, was ohne größere Eingriffe geht, ist man dann fast so flott als wenn man gleich ein Xu- o. Lubuntu verwendet, b.z.w. zahlt es sich aus, nicht Ubuntu zu verwenden? (Ram verbraucht und bootZeiten spielen, bei mir, KEINE rolle) Mir ist die Grfische Obefläche Mittlerweile schon egal, es geht wirklich nur um störungsfreien Echtzeitbetrieb (inkl. WebBrowser...), und die Tatsache das Bitwig anscheinend nur auf Ubuntu getesteted wird, und deshlab "Angst" habe einen Anderen Ubuntu-Flavour zu verwenden... Danke!
Lg
|
synthefreak
(Themenstarter)
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
ALSA verglichen mit ASIO (Audio Stream In Out // Steinberg). Unter Windows benötigt man einen ASIO-Treiber, welcher es ermöglicht, dass ein Musikprogramm direkt mit der Soundkarte kommuniziert, und so niedrige Latenzen unter Windows möglich werden. Der Einzige Nachteil, welchen ASIO hat, ist, dass (normalerweise) nur eine Anwendung auf eine ASIO-Soundkarte gleichzeitig zugreifen kann.
Bei meinen MultifaceII z.B. ist das aber nicht der Fall, dort kann auf jeden Ausgang (SoftwarePlayback) eine eigene ASIO-Anwendung zugreifen, und können dann nach belieben z.B. auf einen gemeinsamen "HardwareOut" (mit den eingebauten DSP-Mischer) geroutet werden... Wie ist das unter Linux mit ALSA:
Können da anscheinend immer mehrer Anwendungen gleichzeitig auf einen Ausgang zugreifen,
können diese ALSA-Anwendungen wenn sie auf den gleichen Ausgang wiedergeben, verschiedene "ALSA-Puffer" verwenden? Könnt ihr mir vl. das erklären? (was hat es mit den Hardwarepufer auf sich?) Lg
|
pepre
Supporter
Anmeldungsdatum: 31. Oktober 2005
Beiträge: 6450
|
Sieh dir einfach mal jack, bzw qjackctl an. Das ist schon (nach dem Einrichten) relativ intuitiv bedienbar. Und lies mal Soundsystem, damit dir die Zusammenhänge klar werden. Du bekommst mit einem Realtime-Kernel und jack schon eine ziemlich niedrige Latenz hin, vllt so 2ms. Zum Routing: jack sollte dir alle verfügbaren HW-Kanäle der Multiface anzeigen. Ob du die dann in der Patchbay von Ardour (whatever) oder qjackctl routest bleibt dir überlassen. Bevor Verwirrung aufkommt noch ein Wort zu ALSA: die dient bei der Verwendung von jack wirklich nur noch dazu die Audio-Datenpakete zwischen der HW und jack hin- und her zu schieben. Um einen Bild aus der Win-Welt zu verwenden: idF ist ALSA ein absolut minimalistischer Treiber, - nicht viel mehr als ein (sehr schneller) FIFO-Puffer zwischen den Kanälen. jack wird ebenfalls die Soundkarte für sich "reservieren". Aber das ist ja kein Problem: jack (bzw Ardour) mischt diese ja, bevor sie bei der HW aufschlagen. Die HW sieht nur jack.
Ich gedenke PulseAudio zu verwenden, um dort Alle "normalen Anwendungen" einfach, auf ein bestimmten ALSA Ausgang zu schicken, und brauch mich bei "normalen Anwendungen" (wo keine "Echtzeit" erforderlich ist) um nicht's kümmern...
Fast richtig 😉 PulseAudio sammelt die Sounds aller "normalen Anwendungen" (fungiert als Softwaremixer und -router) und reicht sie (bei entsprechender Konfig) direkt an jack weiter. ALSA ist hierbei außen vor.
|
mk1967
Anmeldungsdatum: 24. April 2011
Beiträge: 1392
|
Alternativ könnte man PulseAudio außen vor lassen und JACK nur mit ALSA zusammenlaufen lassen. (Es sei denn, Du brauchst z.B. das Ausgangssignal einer unter PulseAudio laufenden Anwendung wie Firefox.) Ich könnte mir vorstellen, daß das kurzen Latenzen zugutekommt. synthefreak schrieb: Kann man eine standart Ubuntu Installation, einfach „Grafisch abspecken“? („Taskleiste“ und FensterManager riechen vollkommen für mich)
Das machen z.B. spezielle Multimedia-Distributionen wie UbuntuStudio. Allerdings würde ich - da Du Linux ja schon kennst - eher eine der Alternativen ausprobieren. (Denn jede UbuntuStudio-Version wird nur noch 9 Monate gepflegt, und vor allem läuft es auf meinen Rechnern zu hakelig.) Von den dort genannten läuft LibraZiK bei mir am besten 👍 , gefolgt von AVLinux. synthefreak schrieb: Nach Angaben des LibraZiK-Entwicklers lassen sich die meisten Aufgaben mit einem Niedriglatenz-Kernel erledigen. synthefreak schrieb: Im Falle meiner RME HDSP 9632 gibt's eine Art Linuxversion von Totalmix namens HDSPmixer. synthefreak schrieb: Sofern Du Windows-VSTs meinst, lassen die sich unter AVLinux und LibraZiK gut über das Hilfsprogramm Carla einbinden. (Wie gut das unter KXStudio funktioniert, weiß ich nicht.) synthefreak schrieb: welches ich vorhabe durch Ubuntu zu ersetzen wenn BitWig3 rauskommt.
Ganz von der Platte runterschmeißen würde ich Windows nicht - zum einen hast Du die Lizenz bezahlt, und zum anderen würde ich für den äußersten Notfall immer eine Reserve vorhalten. synthefreak schrieb: Unter Windows kann man das mit einer RME-Soundkarte so lösen, dass man im Windows aus Hauptausgang einen unbenutzten Ausgang einstellt,
diesen spiegelt man mit den interenen Soundkartenmischpult (Totalmix), mittels „Loopback“ Funktion, auf den jeweiligen Eingang,
welchen man als Eingang bei der DAW seiner Wahl einstellt und diese DAW den Ton dann am richtigen Ausgang ausgibt.
Wie pepre angedeutet hat, würde ich das am ehesten auf der JACK-Ebene machen. Es gibt als Alternative zu QJackCtl die komfortableren Programme Patchage und Catia auf der Basis von Cadence. (Cadence läuft bei mir zumeist besser als QJackCtl.) Michael
|
synthefreak
(Themenstarter)
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
1000nd Dank Leute!!! Jetzt verstehe ich so einigermaßen... Hab gestern bereits ein wenig mit Ubuntu auf meinen System probiert,
hab aber keinen Ton aus meinen gewünschten Ausgang, am Multiface II rausbekommen... Werde, wenn ich dazu komme, den HDSPmixer probieren...
(Mein Ubuntu hab ich leider vorhin gerade gelöscht, bin gerade am Umbauen...) Da die Multiface II mehrere ASIO Anwendungen gleichzeitig laufen lassen kann,
kann man dann vl, verschiedene ALSA Anwendungen gleichzeitig verwenden? z.B.: 1) "normale Anwendungen" > PulseAudio > ALSA1 > SoftwarePlayback 1/2 (LoopBack f. BitWig ...) 2) BitWig > ALSA2 > SoftwarePlayback 3/4 (Lautsprecher) (SoftwarePlayback heißen die Ausgänge bei RME-Soundkarten, wo die Programme ihren Ton rausschicken) Kann OSS auch so gute Latenzen wie ALSA? Dann könnte man vl.: 2) BitWig > OSS > SoftwarePlayback 3/4 Und den Teil von Jack erledige ich mit HDSPmixer? (bin 32Samples @ 44,1kHz ASIO-Puffer gewohnt...) Lg
|
pepre
Supporter
Anmeldungsdatum: 31. Oktober 2005
Beiträge: 6450
|
Viel zu kompliziert! 😉 Standardmäßig verwenden alle Programme mittlerweile und seit geraumer Zeit PulseAudio (PA). Das heißt: du musst nur PA dementsprechend konfigurieren, damit alle Soundausgaben (Systemsounds, Firefox, whatever) an jack weiter gegeben werden. PA kannst du auch so konfigurieren, dass es mehrere unabhängige Schnittstellen zu jack hat. PA arbeitet Programm-orientiert, d.h. du kannst einstellen, dass Firefox auf pa_out_12, Systemsounds auf pa_out_34 usw landen. Höchst flexibel also, und punktgenau in jack einfütterbar. PA sollte idF so konfiguriert werden, dass es Echtzeitrechte hat. Dennoch wirst du x-runs (kurze Unterbrechungen des Audiostreams) bekommen, schlicht deshalb, weil die "normalen Programme" nicht schnell genug liefern. Ein Firefox ist halt nicht dafür gestrickt echtzeitfähig zu sein. Ich habe diese x-runs zB oft, wenn ein (neues) Video im Browser startet. Damit kann ich aber leben, zumal jack davon unbeeindruckt weiter läuft. Er gibt mir nur den Hinweis, dass ein Stream eine Unterbrechung hat. Erst wenn jack gestört wird ist der Einsatz eines loopback-devices sinnig. Die x-runs sind dann zwar keine x-runs mehr, aber der Audiostream wird dennoch die Lücken haben.
|
mk1967
Anmeldungsdatum: 24. April 2011
Beiträge: 1392
|
Ergänzend zu dem, was pepre schreibt, würde ich... synthefreak schrieb: (Mein Ubuntu hab ich leider vorhin gerade gelöscht, bin gerade am Umbauen...)
... das direkt zum Anlaß nehmen, (siehe oben) mindestens auf UbuntuStudio (praktische Audio-Einstiegs-Lösung, weil man auf ubuntuusers zurückgreifen kann 😀 ) umzusteigen. Ernsthafte Audiogeschichten mit einem Standard-*buntu würde ich meinem Nervenkostüm und Zeitbudget nicht zumuten wollen 😊 . synthefreak schrieb: Und den Teil von Jack erledige ich mit HDSPmixer?
*Grübel* Würde ich evtl. eher umgekehrt machen: JACK ist nämlich (solange man nicht mit QJackCtl steuert, sondern auf die oben angepriesenen Alternativen zurückgreift - nä, wat bin ich wieder fies 😉 ) um einiges komfortionöser und flexibler als der HDSPmixer. Michael
|
Yanneck
Anmeldungsdatum: 25. September 2009
Beiträge: 1192
|
Also ich benutze hier ein Standard-Ubuntu mit Standard-Kernel und Jack, DWM und Bitwig und komme damit sehr gut zurecht, benutze oft mehrere Eingänge meines Interfaces und auch externe Effektgeräte beim Recording, alles gleichzeitig auf einer alten Möhre mit i5. Ich komme damit zu durchaus anhörbaren Ergebnissen, auch ohne Ubuntu-Studio.
|
synthefreak
(Themenstarter)
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
Hi. Vielen Dank für Eure Antworten!!! Kleines Statusupdate meinerseits:
Hab auf den besagten Rechner (in dem es in diesen Thread geht) jetzt endlich, ein funktionierendes Windows (hatte Probleme bei der Installation auf einer M.2 Platte) für meine gekaufte Musiksoftware.
Wenn ich das "total fertig" eingerichtet habe, werde ich mich den Linux-System widmen...
Da der Thread schon so lange ist, möchte ich nochmal zusammenfassen was ich vor habe:
Der Springende Punkt: ich will 2x ALSA Anwendungen laufen lassen (was ich hoffe das geht, weil meine Soundkarte "ASIO-Multiclient" fähig ist).
ALSA1: Bitwig (wo auch der Ton von ALSA 2 durchgeht // via loopback funktion von Soundkarte)
ALSA2: Pulse-Audio (wird via Loopback Funktion auf einen Eingang gespiegelt, welchen Bitwig (ALSA1) verwendet). Der Grund ist, weil ich ein Echtzeit und nicht Echtzeitsystem gleichzeitig haben will. So ein Standartszenario wäre:
ALSA1 (echtzeit) : Klavier... (Bitwig), so echtzeit wie nur geht.
ALSA2 (NICHT echtzeit): der Rest (PulseAudio) latenz ist mir schnuppe, solange das Bild von Ton nicht im Sekunden-bereich abweicht. Jack will, ich nur für ALSA2 benutzen, da es ja einen Puffer hat, und dadurch die Latenz erhöht.
Das MultifaceII dagegen, braucht für den DSP-Mischer nur 1Sample Puffer und "KEINE CPU-Belastung". Meine Kernfrage zurzeit ist:
Kann Bitwig und PulseAudio GLEICHZEITIG jeweils über die ALSA Schnittstelle (nicht am gleichen Ausgang) auf einen RME-MultifaceII Ton ausgeben (mit ASIO geht das // nur nicht am gleichen Ausgang)? Werde wenn ich endlich dazu Zeit habe, mal mit einen Standart-Ubuntu (denke das macht am wenigsten Schwierigkeiten) versuchen dies zu realisieren.
Sollte das hinhauen, werde ich mir genauere Gedanken über die Linux Distro machen. (Bitwig3 gibt nur Ubuntu an) Jack will ich halt nur verwenden wenn es nicht Anderes geht (b.z.w. nicht in Kombination mit Echtzeit-Pfad [ALSA1]).
Normalerweise muss ich gar nichts drücken, weil ich es so einstellen werde, das Bitwig automatisch startet, und ein Projekt lädt, wo der PulseAudio-Ton (ALSA2>Loopback>Bitwig[Alsa1])durchgeht.
In den Fall das Bitwig gerade nicht kann, (lädt gerade ein anderes Projekt, oder ist anderweiltig beschäftigt oder ausser Gefecht) muss ich nur einen doppelklick im Totalmix/HDSPeMixer machen,
und der PulseAudio-Ton [Alsa2] wird auf den Ausgang gespiegtel wo der Ton rauskommen sollte.
Sprich ein doppelklick ist nötig (bei einer RME-Soundkarte) damit der Ton von ALSA2 bei ALSA1 rauskommt... Abgesehen, davon arbeite ich schon Jahre mit Totalmix, und fühl mich dort Zuhause (und der HDSP-Mixer schaut genau so aus wie das alte Totalmix),
braucht praktisch keine Rechenleistung, und 1 Sample Latenz, außerdem ist es auch mein Mischpult, wenn ich z.B. den Ton von einen Keyboard, direkt auf den Boxen hören will. Hoffe ich konnte in diesen Post ein wenig nahe legen warum mir, diese Sache so am Herzen liegt. Wenn ich daran scheitere, kann ich mich ja zurücklehnen, und alles "normal über Jack" machen, und muss dann halt mit der zusätzlichen Jack Latenz leben... Kennt ihr zufällig, einen ALSA Experten, welcher mir sagen könnte, ob ASIO-Multiclient fähige (als mehrere !ASIO!-Anendungen gelichzeitig) Soundkarte,
auch ALSA-Multicleint fähig ist?
(um Alle Klarheiten zu beseitigen, normalerweise meint man mit Multiclient fähigkeit bei einer Soundkarte nur, dass es möglich ist, ASIO und Windows-Ton gleichzeitig zu verwenden,
diese Soundkarte kann das natürlich auch, ist aber ZUSÄTZLICH noch ASIO-Mluticlient fähig) Falls ihr noch ein paar gute Links zu den Themen: Echtzeit-Audio, ALSA oder so habt, würde ich mich sehr freuen, wenn ihr sie hier teilt... Danke Leute, für eure Hilfe und Geduld! ☺ gLg
|
synthefreak
(Themenstarter)
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
Hi. Hab jetzt erst gecheckt (dank anderen Forum) warum mein wunsch total sinnlos ist(/scheint). Da Jack ja nicht die Latenz erhöht. Können verschiedene Anwendungen mit unterschiedlichene Puffer laufen?
Folgendes beschäftigt mich sehr:
Wer schon viel mit EchtzeitAudio am Computer (Klavierspielen, e-gitarren-amp, e-drums, midi-gedöhns, DJ/DAW, vocal-channelstrip...)
auf verschiedenen (eher nicht professionellen) Setups
welche auch “office/youtube”-mäßig genutzt wurden gemacht hat,
wird sehr wahrscheinlich berichten können: Im Falle von windows und meiner jetztigen Ubuntu (18 LTS) installation:
Bei normalen Ton (webbrwoser): “keine” Störgeräusche.
Echtzeitaudio: typische Störgeräusche. Ich vermute es könnte etwas mit den Hardware-Puffer zu tun haben...
|
pepre
Supporter
Anmeldungsdatum: 31. Oktober 2005
Beiträge: 6450
|
Probiers doch einfach mal aus. Endloses theoretisieren macht keinen Sinn. Bei mir gibt es keine Störgeräusche. Ich habe in Ardour so einiges eingeklinkt (Synthies, Effekte, Filter). Es gilt: je mehr ich in jack/Ardour einklinke, desto mehr Rechenzeit wird angefordert. Sieht man schön an der CPU-Auslastung; das ist auch logisch, denn es wird immer mehr für die Echtzeit reserviert. Irgendwann wird es zuviel, es gibt xruns, und dann hilft nur die Latenz hoch zu setzen. Und: wenn du PulseAudio in ein ALSA-Loopback-Device leitest, und dieses dann in jack einklinkst, dann verursacht dieser Kanal keine xruns. Das Loopback-Device ist schnell genug.
cat /etc/pulse/default.pa
...
load-module module-alsa-sink device=hw:Loopback,0
load-module module-alsa-source device=hw:Loopback,1
...
|
synthefreak
(Themenstarter)
Anmeldungsdatum: 6. März 2019
Beiträge: 36
|
Super Danke!!! Werde berichten... Edit:
Da die Froumsoftware nicht viel von meinen Absätzen hält, sieht es jetzt so as, als würde ich das Problem mit Störgeräuschen, bei Echtzeit-Audio unter Linux kennen, das ist aber nicht der Fall.
Was ich meinte war: Standart Windows Ton, und Standart Ubuntu Ton, fabrizieren KEINE extra (typischen) Störgeräusche.
Echtzeit Ton, welcher die Störgeräusche auslöst, kenne ich nur unter Windows, sobald man eine ASIO-Anwendung betreibt.
|
mk1967
Anmeldungsdatum: 24. April 2011
Beiträge: 1392
|
synthefreak schrieb: Wer schon viel mit EchtzeitAudio am Computer (Klavierspielen, e-gitarren-amp, e-drums, midi-gedöhns, DJ/DAW, vocal-channelstrip...)
auf verschiedenen (eher nicht professionellen) Setups
welche auch “office/youtube”-mäßig genutzt wurden gemacht hat,
wird sehr wahrscheinlich berichten können:
Jep, und in dem Sinne würde ich auch sagen: pepre schrieb: Probiers doch einfach mal aus.
❗ Der Dreh- und Angelpunkt: Probieren geht (finde ich) gerade bei Linux-Audio über Studieren. Wie pepre schon andeutet, würde ich dabei zumindest versuchsweise 🤓 mal JACK so konsequent wie möglich zur "Steuerzentrale" machen. Auch mit einem Häkchen bei Echtzeit. Über separate Latenzen oder teilweisen Echtzeitstatus braucht man sich dann für meine Begriffe nicht mehr den Kopf zu zerbrechen. Könnte mir auch vorstellen, daß es die übersichtlichere Lösung ist, als aufwendig eine Kombination aus ALSA, PulseAudio und HDSP-Mischer zusammenzufrickeln. 😮 Die zu konstruieren, wäre mir zu zeit- und denkintensiv... Michael
|