mastodon.world is one of the many independent Mastodon servers you can use to participate in the fediverse.
Generic Mastodon server for anyone to use.

Server stats:

8.1K
active users

#unraid

0 posts0 participants0 posts today

Now some 1st world danger. I have 6 x 2TB SSD ZFS pool. One of the SSDs is older than others, and SMART data shows it has endurance percentage dropped to zero. Let's see how long it lasts.

The pool is actively written to, containing e.g. dozen virtual disks. Being RaidZ3 it should be able to handle up to three failing disks. So, I think I'll let it fail and see what happens. I have a replacement SSD waiting already, and plenty of backups.
#zfs #linux #homelab #unraid #backup

Jemand ne Idee, warum VMs in Unraid eher schlechte Performance haben, also bei Aufschaltung alles verzögert ist etc.?

Egal ob VNC, Spice oder einfach per RustDesk.

Egal ob per quemu emuliert oder direkter Passthrough der CPU.

Es läuft auf NVME SSD.

Getestet mit Linux Mint, CachyOS und Windows11 als VM.

Windows hat die beste Performance aber nicht optimal.

Der Server langweilt sich dabei, nichts hat hohe Auslastung.

Mit Proxmox statt Unraid das gleiche. 🤔

Migration from #Syncthing v1 to v2 went a step further. #Linux containers for #Unraid got updated to v2. I have now three #Windows and four Linux machines running on v2.

All is smooth except one possible issue. My desktop backups data has grown to 250k files, 10k folders, and 6.5TiB. Scanning time for the folder jumped to over a day. I tried to set Advanced/Folders/<folder>/Hashers to 20 (the server has plenty of cores), and scanning estimation dropped to about 8 hours. Debug log showed total hashing speed improved from about 18MiB/s to 80.

I see #Android #SyncthingFork has also v2 release in Github, but it probably takes some time before it gets to #fdroid .

Some more exotic devices like #opnsense firewall and #homeassistant are still in v1, but sync just fine.
#homelab

Rebuilt off-site #backup server is now up and running. It has a new #ZFS pool, upgrade from 30TB to 70TB. The server was about five years old and should now be good for another five.

After upgrade all i needed to do is wait. #Syncthing would automatically reseed the empty server.

Sadly it failed first. Old disks were slow SMR disks, and i had SSD cache in front of the pool to compensate (not ZIL/SLOG but a separate SSD pool). The cache receives incoming files and #Unraid moves files periodically over to ZFS.

Syncthing -> cache -> ZFS.

This worked in daily operation where transfers were limited. But reseed resends *everything*, and there were too many incoming virtual disk backups, each several hundred GB, and they flooded the cache with half-transferred files. There were random transfer failures when the cache ran completely out of space, but Syncthing resent them later.

It turned out that the new disks were pretty fast and the cache was no longer needed at all.
#homelab

Once again, I’ve been pursuing my hobbies: programming and self-hosting.

For my new LincStation N1, I’ve written a program in the Rust language that allows you to control the LincStation’s LEDs.

The program can either be used as a command-line tool or run as a service for monitoring drive activity. Any activity on the drives is then shown on the corresponding LEDs.

This is particularly interesting for people who don’t run their LincStation with Unraid, but instead have Linux installed on it.

By the way, this is my very first program in Rust, and I’m quite proud that I managed to pull it off. I’m really enthusiastic about this programming language.

You can check out the result on Codeberg:
codeberg.org/wertarbyte/lncstn

Summary card of repository wertarbyte/lncstn-leds
Codeberg.orglncstn-ledsLincStation LED control tool and service.

Ich bin wieder einmal meinen Hobbys nachgegangen: Programmieren und Selber Hosten.

Für meine neue LincStation N1 habe ich nun ein Programm in der Sprache Rust erstellt, das es erlaubt, die LEDs der LincStation zu steuern.

Dabei kann das Programm entweder als Kommandozeilentool arbeiten, oder auch als Service für das Monitoring von Laufwerkszugriffen. Aktivitäten auf den Laufwerken werden dann auf den entsprechenden LEDs angezeigt.

Interessant ist das Ganze für Menschen, die ihre LincStation nicht mit Unraid betreiben, sondern Linux darauf installiert haben.

Das ist übrigens mein erstes Programm in Rust, und ich bin ziemlich stolz darauf, dass ich das gemeistert habe. Ich bin ganz begeistert von dieser Programmiersprache.

Das Ergebnis könnt ihr auf Codeberg bewundern:
codeberg.org/wertarbyte/lncstn

Summary card of repository wertarbyte/lncstn-leds
Codeberg.orglncstn-ledsLincStation LED control tool and service.

Ich bin wieder einmal meinen Hobbys nachgegangen: Programmieren und Selber Hosten.

Für meine neue LincStation N1 habe ich nun ein Programm in der Sprache Rust erstellt, das es erlaubt, die LEDs der LincStation zu steuern.

Dabei kann das Programm entweder als Kommandozeilentool arbeiten, oder auch als Service für das Monitoring von Laufwerkszugriffen. Aktivitäten auf den Laufwerken werden dann auf den entsprechenden LEDs angezeigt.

Interessant ist das Ganze für Menschen, die ihre LincStation nicht mit Unraid betreiben, sondern Linux darauf installiert haben.

Das ist übrigens mein erstes Programm in Rust, und ich bin ziemlich stolz darauf, dass ich das gemeistert habe. Ich bin ganz begeistert von dieser Programmiersprache.

Das Ergebnis könnt ihr auf Codeberg bewundern:
https://codeberg.org/wertarbyte/lncstn-leds

#programming #selfhosting #lincstation #rust #unraid #linux #codeberg

Summary card of repository wertarbyte/lncstn-leds
Codeberg.orglncstn-ledsLincStation LED control tool and service.

Hard disk recycling in a #backup #server: Clearing new 24 TB hard disks took 29 hours. Then another day will go to proof-read same disks before creating a new ZFS pool. 5 x 24TB as raidz2 should give about 70TB usable space.
Old pool 7 x 8TB as raidz3 was about 30TB. I used raidz3 in old because the disks were then already five years old.
The old disks - now ten years old - showed some new bad blocks in wipe, but still under 100 bad ones in SMART. They get third life as cold backup.
#homelab #harddisk #ZFS #unraid #linux #recycling

I like my "super professional" #homelab with #unraid. Today I added another data disk, so that I have the planned 7+ TB of storage. As the server I use a totally oversized Beelink SER5. But the Ryzen 7 and the 64GB of RAM let me run a lot of handy containers I need for our home network and for playing around with services.

Ich habe mir eine #LincStation N1 als Server für daheim besorgt. 😜

Das enthaltene
#Unraid habe ich mir gar nicht erst angeschaut, stattdessen habe ich #Debian 13 auf der internen eMMC installiert.

Zwei SSDs mit je 1 TB hatte ich noch, die jetzt ihren Dienst als gespiegelte Platten unter
#ZFS versehen.

Den ersten Tag habe ich damit verbracht einen Dämon für die Status-LEDs zu erstellen. Dafür alles mögliche im Internet gesucht und selbst reverse-engineered. Der tut jetzt schon seinen Dienst. Per default würden alle LEDs blinken
🤢 … und natürlich liefert LincPlus keinen Sourcecode. 😠

TODOs

- Nach und nach die Dienste auf meinem VPS im Netz auf die Box ziehen.
- Backup Strategien mit ZFS Snapshots erstellen. Evtl. zusammen mit einer 1 TB
#StorageBox von Hetzner.
- Meine
#Nextcloud-Daten (#StorageShare) auf eine eigene Nextcloud transferieren.
- Evtl. für Fotos einen eigenen … Server (jetzt fällt mir der Name nicht ein
🤔).

Also einiges zu tun, jetzt muss es nur noch regnen, damit ich nicht lieber nach draußen will.

#SelfHosting #HomeServer

I am replacing old hard disks in my backup server. The task will take about two weeks! Not because of much work, but disk wipes. Old 7x8TB take about two days to pre-read, wipe, and post-read . New 5x24TB disks take probably three times longer I presume.

The old disks are now about ten years old. They were recycled about four years ago from main server to backup. One of them has reported few bad blocks. I'll recycle them to cold backups by splitting each to two 50%/50% partitions, and then a mirrored ZFS pool on top. Assuming they last another five years, that's total 15 years life cycle.
#homelab #unraid #ZFS #backup #recycling

Vielleicht geht es anderen auch so:

Ich habe herausgefunden, dass sich die #UUID / #GUID eines #USB Sticks verändert, wenn ein Adapter oder Hub genutzt wird. Ich möchte den Stick für #Unraid tauschen, die Lizenz hängt an der GUID.
Mein Mac Mini M4 erkennt den Stick jedes Mal anders, je nach USB-A auf USB-C Adapter oder USB-A auf USB-C Hub.

Ich war bisher der Meinung, die UUID ist fix (der Unraid Support aber auch)

Continued thread

Unraid has been great so far. I only have a single 16TB drive in now while I setup a lot of applications and then I'll move over the other 4 drives and configure parity.

Unraid will be a main network NAS and the goal is to get traefik and cloudflare tunnels setup for full selfhosting capabilities. I'm thinking nextcloud and immich to start.
#selfhosted #nas #unraid

I ended up running #unraid on my home server to replace my ageing Synology DS918+. I didn’t fancy the hardware lock-in that they moving towards.

Picked up an AMD Ryzen 4560GE and paired that with ECC memory. Should be good. The docker function is a hit and a miss. Probably because my mind tends to wander off when reading up on the error codes.

Oh well, it stores my precious memories ☺️

Replied in thread

@glyph this stuff is complicated; had similar performance issues when trying file transfers across a great distance (220ms ping). IPerf3 showed significant bandwidth but file transfers speeds were rubbish. Broke out the packet analyzer and saw it was due to ACK packets not being received in time so lots of packets were sent multiple times as the server thought they did not reach their destination. Then I got to learn a lot about network buffer sizes…

Also I hate synology for their very aggressive vendor lock in policies… been an #unraid fanboi for well over a decade now.