staging.inyokaproject.org

Download-Manager

Status: Gelöst | Ubuntu-Version: Nicht spezifiziert
Antworten |
Dieses Thema ist die Diskussion des Artikels Download-Manager.

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

gwget ist bis Natty in den Quellen: gwget.

ulib ist auch bei Oneiric und später drin uget.

Wobei es IMHO zwei verschiedene Projekte sind. Wenn du magst, kannst du im Artikel ja einen kurzen Abschnitt zu uget hinzufügen.

Gruß, noisefloor

Antiqua Team-Icon

Avatar von Antiqua

Anmeldungsdatum:
30. Dezember 2008

Beiträge: 4538

gwget und d4x könnten aus dem Artikel raus. Beide nur bis Lucid in den Quellen

linux_joy

Anmeldungsdatum:
6. Februar 2008

Beiträge: 803

Hallo,

irgendwie vermisse ich cURL im Artikel. Oder liegt das daran, dass er kein reiner Download-Manager mehr ist bzw. vllt. auch niemals war? Erwähnen könnte man ihn aber trotzdem und dabei auch auf seine erweiterte Funktionalität (zusätzlich Uploads möglich) hinweisen.

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

cURL ist ja in der Tat viel mehr... Downloads sind ja nur der "Seiteneffekt" 😉 Kann cURL eigentlich abgebrochene DL wieder aufnehmen?

Gruß, noisefloor

linux_joy

Anmeldungsdatum:
6. Februar 2008

Beiträge: 803

Hallo,

ich kenne mich mit cURL so gut wie gar nicht aus.

Deine Frage kann ich nicht beantworten, tut mir leid..

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

der Hintergrund der Frage war ja, ob cURL diese Funktionalität - wie andere DL-Manager - auch hat. Wenn ja spräche IMHO nichts gegen die Aufnahme von cURL in den Artikel.

Gruß, noisefloor

linux_joy

Anmeldungsdatum:
6. Februar 2008

Beiträge: 803

Hallo,

Ich habe gegoogelt nach

curl resume download

(https://www.google.com/search?q=curl+resume+download) und u.a. die folgenden Links gefunden:

http://www.commandlinefu.com/commands/view/2876/use-curl-to-resume-a-failed-download
http://curl.haxx.se/mail/archive-2010-10/0001.html
http://stackoverflow.com/questions/19728930/resume-interrupted-download-automatically-linux
http://foobartel.com/2013/07/resuming-curl-downloads/
http://apple.stackexchange.com/questions/94281/how-can-i-get-curl-to-resume-download-after-waking-from-sleep-mode
http://www.thegeekstuff.com/2012/04/curl-examples/

Vor allem aber A Few cURL Tips for Daily Use:

Resume failed downloads

cURL has this handy option (-C or --continue-at) to set a transfer offset, which helps to resume failed downloads. On most cases, setting the offset as a single dash, will let cURL to decide how to resume the download.

curl -C - -L -O http://download.microsoft.com/download/B/7/2/B72085AE-0F04-4C6F-9182-BF1EE90F5273/Windows_7_IE9.part03.rar 


Ergänzend dazu aus der cURL-Manpage:

-L, --location
(HTTP/HTTPS) If the server reports that the requested page has moved to a different location (indicated with a Location: header and a 3XX
response code), this option will make curl redo the request on the new place.

(...), sowie:

-O, --remote-name
Write output to a local file named like the remote file we get. (Only the file part of the remote file is used, the path is cut off.)
The remote file name to use for saving is extracted from the given URL, nothing else.
Consequentially, the file will be saved in the current working directory. If you want the file saved in a different directory, make sure
you change current working directory before you invoke curl with the -O, --remote-name flag!
You may use this option as many times as the number of URLs you have.

sowie "partial download of a file", aus http://stackoverflow.com/questions/19728930/resume-interrupted-download-automatically-linux :
(Zitat dazu aus der cURL-Manpage:)

-r, --range <range>
(HTTP/FTP/SFTP/FILE) Retrieve a byte range (i.e a partial document) from a HTTP/1.1, FTP or SFTP server or a local FILE. Ranges can be
specified in a number of ways.


noisefloor schrieb:

Kann cURL eigentlich abgebrochene DL wieder aufnehmen?

Fazit nach meinen Recherchen: Er kann, allerdings sollte man cURL wohl v.a. bei Downloads mit der --range-Option nehmen, bei einfacheren reicht IMHO wohl wget aus.

noisefloor schrieb:

der Hintergrund der Frage war ja, ob cURL diese Funktionalität - wie andere DL-Manager - auch hat. Wenn ja spräche IMHO nichts gegen die Aufnahme von cURL in den Artikel.

Also kann wohl cURL in den Artikel aufgenommen werden.

(Siehe bitte ergänzend auch den cURL-Abschnitt Dateidownload.)

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

wenn du dann im cURL Artikel noch das mit der Wiederaufnahme abgebrochener Downloads ergänzt steht einer Aufnahme nichts entgegen ☺

Gruß, noisefloor

linux_joy

Anmeldungsdatum:
6. Februar 2008

Beiträge: 803

Hallo,

Melde hiermit Vollzug!

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

ich melde auch Verzug ☺ cURL ist im Artikel drin.

Gruß, noisefloor

cptechnik

Avatar von cptechnik

Anmeldungsdatum:
28. Dezember 2007

Beiträge: 320

Bitte prüfen ob Steadyflow noch in besagten Paketquelle vorhanden ist,... (und evt Wikibeitrag verändern) Ich habe es versucht, ... ohne Erfolg.

noisefloor Team-Icon

Anmeldungsdatum:
6. Juni 2006

Beiträge: 29567

Hallo,

für Trusty ja, für neuer nein. Hab's im Artikel vermerkt.

Gruß, noisefloor

trollsportverein

Avatar von trollsportverein

Anmeldungsdatum:
21. Oktober 2010

Beiträge: 5232

FlashGot, Durchsage vom Entwickler Giorgio Maone vor Jahren bereits:

[...] FlashGot is currently not maintained and incompatible with "modern" browsers.

Quelle:

Die englischsprachige Wikipedia spricht auch von:

FlashGot was an add-on for Firefox [...]

Die deutsche Wikipedia hat es noch nicht gerafft.
FlashGot raus aus der Liste der Download-Manger im Wiki? Raus, oder raus damit? ¯\_(ツ)_/¯

von.wert

Anmeldungsdatum:
23. Dezember 2020

Beiträge: 12281

Du traust Dich wohl nicht? Man muß doch nicht bei jedem Punkt nachfragen, zumal der klar ist. Beides, FlashGet und FlashGot, ist seit etlichen Jahren tot, da inkompatibel.

trollsportverein

Avatar von trollsportverein

Anmeldungsdatum:
21. Oktober 2010

Beiträge: 5232

Genau das. Ich hatte keinen Bock auf Mecker. ☺