Files größer ~1,5GB lassen sich nicht mehr herunterladen

Hi,

ich habe verschiedene Iso’s die ich öfters benötige auf mein Seafile hochgeladen. Alle so zwischen 300M - 5GB groß. Das hat geklappt :wink:

Nun bekomme ich die Files > ~1,5GB nicht mehr heruntergeladen. Weder über einen Freigabelink noch direkt über das Webinterface :confused:

Das ganze läuft hinter einem Nginx. Dort habe ich die max_body_size schon angepasst genauso wie die Uploadlimits bzw. Folder Download Limits in der seahub config

Ich habe schon aller möglichen Logs durchgesehen aber offensichtlich nicht das richtige gefunden…

Nach ein paar Sekunden kommt

# Internal Server Error
The server encountered an internal error or misconfiguration and was unable to complete your request.
Please contact the server administrator at [no address given] to inform them of the time this error occurred, and the actions you performed just before this error.
More information about this error may be available in the server error log.

Kann mir jemand helfen?
Ich verstehe auch nicht warum ich die Files hoch aber nicht mehr runter bekomme :slight_smile:

Besten Dank im Voraus

Mal in die Logs gucken (nginx, Seafile). Möglicherweise timeouts

Naja, wie ich schon schrieb habe ich das bereits getan. Egal, ich habe gerade nochmals versucht eine Datei herunterzuladen und habe dann nochmals alle Logs in

/seafile/logs
und
/var/log/nginx

durchgesehen. Hier ist nichts auffälliges.
Gibt es vielleicht noch eine Einstellung die hier dazwischen funkt?

Edit: Hat auch nichts mit dem RAM zu tun, hatte das gelesen. Ich habe der VM mal 5GB Ram gegeben, gleiches Verhalten.
Alle Iso’s bis 1,3 GB lassen sich downloaden, die nächst größere 3,3 und alles darüber generiert einen 500 Internal Server Error :thinking:

Edit2: Habe nun den Server auf die aktuelle Version 7.0.11 angehoben vorher 7.0.9
Leider führt auch das nicht zum Erfolg…

Angesichts der späten Stunde schmeisse ich dies einfach mal ohne weitere Kommentierung rein: Das hast alles gemacht? https://www.datamate.org/upload-limit-in-seafile-erhoehen-unter-apache-nginx/

Wie gesagt, wenn nicht hilfreich, dann entschuldigt meinen Einwurf.
Ralf

Naja, bei nem 500 müsste bei nginx ja eigentlich was im log stehen.

@rdb
Hi, kein Grund sich zu entschuldigen. Ich bin über jeden Hinweis dankbar.
Aber ja, das hatte ich schon versucht, wobei das ja eher den Upload betrifft und mein Problem der Download ist. Leider hilft das auch nicht. In dem Artikel steht aber auch Timeout und Buffer. Ich werde mal versuchen hier anzusetzen.

@shoeper
Ja, das sollte so sein. Du kannst es mir aber glauben dass nichts im Log erscheint. Deshalb bin auch eher ratlos …

Edit: Ich habe nun mal über Chrome den Wortlaut der Fehlermeldung herausgefunden, eventuell bringt das ja was
Failed to load resource: the server responded with a status of 500 (Internal Server Error)
Die Tests mit Buffer und Timeout waren bisher leider auch erfolglos

Edit2:
Ich habe das noch ein weing getestet.
Bei einer 300MB Datei startet der Download nach ca. ~4,5 Sekunden
Bei einer 600MB Datei startet der Download nach ca. ~9 Sekunden
Bei einer 1200MB Datei startet der Download nach ca. ~18 Sekunden

Bei einer 4000MB Datei bekomme ich nach 25 Sekunden einen 500 ISE

Irgendwo muss also ein Wert sein den man anpassen kann damit er nicht nach ~25 Sekunden abbricht

NUR WO :laughing:

Du kannst probieren die beiden Einstellungen in nginx einzufügen:

location /seafhttp
        proxy_connect_timeout  36000s;
        proxy_read_timeout  36000s;

Und sonst vll sowas probieren. https://serverfault.com/a/333059

Hi,

die beiden proxy werte hatte ich schon gesetzt.
Das mit dem logging probiere ich mal.

Danke.

Edit: Ich glaube ich gebe auf! Es werden, egal was ich mache keine Logs generiert. Der Test Seafile in unserer Firma zu nutzen ist somit erst mal auf Eis…
Ich habe mir aus einer alten Installation, wo der Download 100% funktioniert die Nginx Konfig kopiert.
Aber auch mit dieser das gleiche Problem. So langsam glaube ich, dass es überhaupt nicht an Nginx liegt. Aber auch in der gunicorn.conf ist ein Timeout von 12000s gesetzt

Fallls noch jemand einen schlauen Tipp hat, gerne her damit. Ich habe keine Lösungsansätze mehr.

Wo ist der Server? Kann es sein, dass irgendeine andere Partei rein funkt? Das würde Deine Theorie stützen, dass es wohl gar nicht der Nginx ist. Ich denke da an Firewall in einem Rechenzentrum, Hypervisor, …

Hi,

dann versuche ich mal weiter auszuholen.

Der Server steht hier bei uns im Gebäude. Davor ist eine Sophos XG Firewall. Ich sitze intern, also hinter der Firewall im gleichen Netz wie der Server. Der Zugriff von außen ist über eine Subdomain geregelt, da auf dem Server mehrere Sachen als VM’s laufen.

Das Problem tritt sowohl intern als auch extern, über den Hostname als auch über die IP auf. Auch mit allen Clients und das Webinterface.
Deshalb habe ich die Firewall bisher ausgeschlossen…

Aber dein Tipp war goldrichtig!
Es war die Sophos. Ich habe zum Test einfach mal die WAF Regel deaktiviert und siehe da, der Timeout ist verschwunden.

Vielen lieben Dank! Da wäre ich echt nicht drauf gekommen :confused:

Grüße

1 Like

Cool! Freut mich zu hören, dass Dein Problem verschwunden ist!