Umzug via Synologys Migrations Assistant

Seit meinem letzten Eintrag 4 Monate vergangen. Wie doch die Zeit vergeht.
Kurzum: Seit 3 Wochen wohnt eine DS1019+ bei mir. Diese ersetzt die DS415+ welches zukünftig mit bereits verbauten 2 x 14TB als Backup-Storage dient. Ich habe lange mit mir gehadert, wie ich die Migration machen sollte. Festplatten umstecken, manuell von A nach B kopieren, oder den neuen Migrations Assistant von Synology ausprobieren. Die HDDs wollte ich nicht umstecken weil diese ja weitehin für das Backup gebraucht werden. Der manuelle Umzug von rund 13 TB und der Aufwand diverse Apps wieder erneut zu konfigurieren war mir diesmal zu viel Arbeit. Klar hätte man die Konfig wieder einspielen können, aber das ersetzt trotzdem nicht die langwierigen Nacharbeiten. Zu der Zeit hatte ich privat viel um die Ohren und wenig Ressourcen übrig. Also habe ich mich entschlossen den Migrationassistant zu probieren. Ein valides und tragfähiges Backup der Daten vom Quellsystem (DS415+) war vorhanden. Der Assistant wird am Zielsystem (DS1019+) installiert, für das Quellsystem die IP-Adresse sowie das Passwort für einen User welcher Mitglied der Administratorengruppe ist eingetragen. Nach einer kurzen Überprüfung beginnt auch schon das kopieren. Der gesamte Vorgang wird über SSH durchgeführt.

Die Übertragunsrate schwanke stark zwischen 30 und 100MB/s. In meinem Fall hat das Kopieren rund 4 Tage gedauert. Es war während der gesamten Zeit keinerlei Interaktion notwendig. Auf das Quell,- sowie Zielsystem konnte weiterhin zugegriffen werden. Nach der Migration manuell den VMM installiert, das System hat die VMs der “alten” Maschine nahtlos importiert. Einzig die Netzwerkverbindung für die VMs musste händisch nachgezogen werden. Das steht aber auch so in der oben verlinkten Anleitung. Auf Wunsch werden die Dienste und Anwendungen auf dem Quellsystem gestoppt. Ich habe der DS1019+ die ursprüngliche IP der DS415+ gegeben. Nach einem obligatorischen Neustart waren sämtliche Freigaben, Benutzer, Dienste, Anwendungen, Daten, Mails, Kalender, Datenbanken und die Homepage vollständig migriert. Sogar die eingerichteten Jobs von HyperBackup waren vorhanden und funktionierten auf Anhieb. Einzig den Job zu Google Drive musste ich erneut verknüpfen. Mein innig geliebtes OSCM greift problemlos auf die Datenbank welche nun auf der DS1019+ liegt zu.

Um die Integrität und Konsistenz der Daten zu wahren, habe ich vor der Migration sämtliche Zugriffe auf das Quellsystem unterbunden. Nach Abschluß der Migration die Zugänge in der Sophos UTM auf das neue Ziel gelegt und aktiviert. So macht eine Migration echt Spaß. Ich wurde positiv überrascht, werde das Konzept weiterverfolgen und bei Bedarf vermutlich wieder so durchführen.

Nextcloud 17.0.2

Ich habe die freien Tage zwischen Weihnachten und Silvester genutzt um meinen Nextcloud-Container auf 17.0.2 zu bringen. Mit dem integrierten Updater eine runde Sache ohne Komplikationen. Bin hier vermutlich immer noch von diversen Update-Orgien von ownCloud vorbelastet.

Nach dem Login wurde ich aber von einer Einrichtungswarnung begrüßt.

Das ganze kann man aber schnell bereinigen. Unbedingt vorher die Instanz in den Wartungmodus versetzen.
Nun können wir weitermachen und die Konvertiertung auf big int ausführen:

php occ db:convert-filecache-bigint

Je nach Umgebung und Datenmenge kann dies lange dauern.
Wenn die Konvertierung abgeschlossen ist, den Wartungmodus abschalten und erneut anmelden.

Das Changelog liefert wie übliche weitergehende Informationen über das Update.

Nextcloud als Container

In meinem letzten Beitrag habe ich ja die Hardware welche zur Virtualisierung eingesetzt wird kurz vorgestellt. Das darauf laufende Proxmox kann ja auch Container virtualisieren. Ein gänzlich neues Themengebiet für mich. Erste kurze und schnelle Ergebnise wollten sich leider nicht einstellen. Der Versuch den heruntergeladenen Container (Turnkey-Nextcloud) scheiterte bereits beim Einschalten mit:

 extracting archive  '/mnt/ssd2/template/cache/debian-9-turnkey-nextcloud_15.2-1_amd64.tar.gz'  tar: ./var/spool/postfix/dev/urandom: Cannot mknod: Operation not  permitted tar: ./var/spool/postfix/dev/random: Cannot mknod: Operation  not permitted Total bytes read: 1378150400 (1.3GiB, 158MiB/s) tar:  Exiting with failure status due to previous errors TASK ERROR: unable to  create CT 1200 - command 'lxc-usernsexec -m u:0:100000:65536 -m  g:0:100000:65536 -- tar xpf - -z --totals --one-file-system -p --sparse  --numeric-owner --acls --xattrs '--xattrs-include=user.*'  '--xattrs-include=security.capability' '--warning=no-file-ignored'  '--warning=no-xattr-write' -C /var/lib/lxc/1200/rootfs --skip-old-files  --anchored --exclude './dev/*'' failed: exit code 2</ 

Das Häckchen bei der Checkbox beim erstellen des Containers “Unprivilegierter Container” muß rausgenommen werden. Damit ließ sich der Container auch starten. Der Container bringt Webmin als auch Adminer bereits mit. Auf dem Container muß man sich anschließend als “root” anmelden. Hier wird die weitere Einrichtung durchgeführt, wie z. B. setzen der Passwörter für Webmin und Adminer und die Domäne unter welcher der Container erreichbar ist. Im Prinzip ist man danach auch schon fertig. Nicht so bei mir….

Der Container soll ja unter einer sub.domain.de mit einem Zertifikat von Let’s Encrypt erreichbar sein. Ein wenig tricky, da hier mittlerweile sämtlicher Traffic über eine Sophos UTM läuft.
Der logische Aufbau ist
WAN -> Domain -> DynDNS -> Router -> Sophos -> DMZ

Einige Zeit und Wutausbrüche später hab ich das doch noch erreicht.
In der Sophos ist ein “Virtueller Webserver”, sowie ein “Echter Webserver” angelegt worden. In dem “Virtuellen Webserver” wird die Subdomain angegeben, in dem “Echten” der Host mit IP. Sophos hat auch für die Subdomain ein Zertifikat von Let’s Encrypt bezogen. Im Gegensatz zu einer VM mit Debian wo Nextloud installiert wurde, gibt es bei dem Aufruf der Subdomain des Containers nur eine Einrichtungswarnung – sehr positiv.

Da ich meiner Sophos welche auch Proxy spielt traue, nehme ich die als “Vertrauenswürdig” in die config.php von Nextcloud auf.

'trusted_proxies' => array (0 => '10.1.1.1',),
 'forwarded_for_headers' => array (0 => 'HTTP_X_FORWARDED_FOR',),

Zum Schluß den Webserver neu starten, und sich an einem Container erfreuen.

Zum Vergleich: Eine DebianVM mit Nextloud verbraucht von 1GB RAM im Mittel rund 75%. Der Container beansprucht von zugewiesenen 512MB rund 50%.

VM
Container

Virtualisierung auf einer NAS oder doch Vernünftig

Zugegeben, ich habe das Thema “Virtualisierung” etwas vernachlässigt, bzw. bin erst spät damit in Berührung gekommen. Erst waren es zaghafte Versuche mit PHPVirtualBox auf der DS415+. Später wurde es dann der VMM direkt von Synology. Ich hab damit auch relativ viele Sachen ausprobiert und getestet. So richtig glücklich wurde ich aber aufgrund der limitierenden Hardware des Hosts nicht. Auch nicht mit aufgerüsteten 8GB RAM. So ein kleines Win7 oder Debian war ja noch möglich, aber jeder Klick hat eben seine Zeit gebraucht. Als ich mich dann intensiv mit AD, GPO, DNS und so Zeugs beschäftigen wollte, musste ein Windows Server her. Also eine VM mit 4GB RAM und 50GB HDD angelegt. Die Installation von Server 2016 hat rund eine Stunde gedauert. Und da ein AD-DC ohne weitere Clients wenig Sinn macht parallel noch Win7 mit 2GB RAM und 50 GB HDD in einer VM installiert. Bei zwei laufenden VMs ist die Performance so richtig in die Knie gegangen. Es hat einfach keinen Spaß mehr gemacht. Ob man das ganze optimieren könnte, indem man die VMs auf SSD auslagert habe ich nicht probiert. Es wäre damit vermutlich aber auch kein Performance-Rekord aufgestellt worden.

Nach etwa 3 Monaten langen hin und her, überlegen, abwägen, und intensiven Überredungskünsten eines befreundeten Admins die Entscheidung zu einer für Virtualisierung ausgelegten Hardware* gefallen.
Nun verrichtet die neue Hardware unauffällig ihren Dienst, läuft unter Proxmox 6.0-5, beherbergt 4 produktiv genutzte VMs und ich muß mich nicht mehr mit der Performance rumärgern. 🙂

Ich mochte die Möglichkeit zur Virtualisierung auf den NASen von Synology und QNAP. Beide Hersteller bieten dafür ein eigenes Paket dafür an. Aber in erster Linie bleiben es Geräte für die erweiterte Dateiablage und keine Hypervisoren.

  • (Intel Xeon E3-1260LV5 (2,90 GHz, 4 Cores, 8 Threads, 8 MB); 32 GB DDR4-2400 RAM (2x DIMM 16 GB PC4-19200 ECC); Server-Mainboard mit Intel C236 Chipsatz (Mini-ITX), on Board: VGA, 2x Gbit-LAN (Intel i210, Intel i219), 6x S-ATA 6Gb/s, RAID; Remote Management (IPMI 2.0 over LAN), Grundkonfiguration DHCP; 1x 240 GB Intel SSD D3-S4510 Series (90.000 IOPS, 900 TBW, S-ATA 6Gb/s); 1x 960 GB Intel SSD D3-S4610 Series (96.000 IOPS, 6000 TBW, S-ATA 6Gb/s)
  • http://www.rect.coreto.de/de/tower-server-systeme/tower-server-systeme.html

Der Hersteller liefert leider nicht an Privatpersonen. Ich habe über oben genannten Kontakt bestellt.