Ich habe eine 200mbit Leitung (Pi kann aber nur 100).
Ordner ist ein NFS mount meines NAS.
Das müsste aber doch trotzdem schneller gehen oder?
Oder werden hier jedesmal auch die bereits vorhandenen Updates nochmal runtergeladen?
Wenn die Dateien auf einem lokalen Fileserver liegen, und wenn sie mit hashdeep überprüft werden sollen, dann müssen alle Dateien
zweimal heruntergeladen werden – nicht aus dem Internet, aber eben vom lokalen Fileserver. Das kann dann schon dauern...
hashdeep berechnet dann für jede Datei drei Hashsummen: MD5, SHA-1 und SHA-256. Das ist auch aufwendig, und ich weiß nicht, wie gut ein Raspberry Pi sich dabei schlägt.
Das Ganze ist aber sowieso etwas "over-engineered", wie es im Englischen heißt:
Die Überprüfung der vorhandenen Dateien
vor dem Download ist eigentlich überflüssig. Wenn es dabei, unter Windows, zu einem "File Integrity Verification Error" kommt, dann ist die Universallösung, einfach alle vorhandenen hashdeep-Dateien aus dem Ordner wsusoffline/client/md zu löschen. Diese Dateien werden nach dem Download aber sowieso gelöscht und neu angelegt.
Die Überprüfung
nach dem Download hat schon seinen Zweck: Bei den meisten Sicherheits-Updates ist die SHA-1-Prüfsumme in den Dateinamen eingebettet, als eine Hexadezimalzahl von 40 Ziffern Länge. hashdeep berechnet den SHA-1-Hash neu, und dann kann man den berechneten Wert mit dem erwarteten Wert vergleichen. Das ist ein Integritätstest, der auch unter Linux funktioniert.
Ob man
zusätzlich MD5- und SHA-256-Hashsummen braucht, ist wiederum eine andere Frage...
Der eigentliche Zweck dieser Prüfsummendateien ist aber, dass man die Updates vor der Installation noch einmal überprüfen kann, wenn man sie auf CDs oder DVDs gebrannt hat. Denn diese Medien sind notorisch unzuverlässig.
Überspringen lassen sich diese Berechnungen, indem man die Datei "preferences-template.bash" in "preferences.bash" umbenennt und dann eine Option ändert:
- Code: Select all
# The creation and verification of an own integrity database with hashdeep
# can be skipped to make the script run faster.
use_integrity_database="disabled"
Irgendwann muss mich das wohl auch gestört haben.
Eine reine Überprüfung der Links mit wget oder aria2 dauert dagegen nur Sekunden.
Du kannst ja versuchen, den Netzwerkverkehr mit iftop zu überwachen:
atop zeigt an, welche Ressourcen auf dem Rechner gerade ausgelastet sind und das System bremsen können. Das kann die CPU sein, aber auch eine langsame USB-Schnittstelle oder das Netzwerk.
Grüße,
hbuhrmester