Es reicht, dieses Winzigweich Fensters muss einfach weg, Shihatsu goes FOSS

Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
klar hab ich schon logs analysiert, rauf und runter

denke iHD und die Browser wollen einfach noch nicht und Willy hat recht

Warten.
Wenn Browser nicht so behindert wären, könnte man viel mehr Spass mit alternativen Betriebssystemen haben. Leider ist es offensichtlich schon schwer genug die unter Linux ans Laufen zu bringen, da muss man mit Plan9 gar nicht erst anfangen.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
So,mal ne Frage an die cracks - Umzug von einer SSD auf eine andere, größere - wie am Besten tun?
Instinktiv: Neue Disk einbauen, mit Clonezilla Disk Clonen, alte Disk ausbauen, booten, auf neuer Disk Partitionen erweitern, glücklich sein - right?
Auf der Disk sind /, /home und /boot/efi, falls das von Relevanz ist...
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Dafür müsste ich ja was von USB booten - dann kannsch auch gleich Clonezilla nehmen. Und müsste ich bei deinem Ansatz nicht danach noch die FSTAB anpassen?
 
Mitglied seit
02.09.2002
Beiträge
3.234
Reaktionen
72
Die fstab musst du wahrscheinlich eh anpassen.
BIOS (guckt in prio-liste nach boot-medium) -> bootloader (guckt in konfig nach root-partition) -> /sbin/init (guckt in /etc/fstab und startet system)
Edit:
Das sind so die 3 Stellen an denen der Linux-Bootprozess hauptsächlich beeinflusst wird. Also kannst du da nachgucken wie das konfiguriert ist: Über /dev/sdX, über UUIDs, Label oder sonst wie. Wenn du die Platte klonst, übernimmst du natürlich die (PART-)UUIDs und Label, wenn du kopierst musst du da ggf. Anpassungen machen.
 
Zuletzt bearbeitet:

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
warum muss ich die anpassen wenn ich mit clonezilla arbeite? das macht ja eine bitgenaue kopie wenn man "kopie disk" auswählt - daher auch meine idee das zu nehmen?

:confused:
 
Mitglied seit
02.09.2002
Beiträge
3.234
Reaktionen
72
Äh ja, richtig.
Ich bin nur immer etwas paranoid wenn es darum geht computern UUIDs vorzusetzen, die weder "U", noch "U" noch "ID" sind.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Das kann ich aus technoider Sicht sogar nachvollziehen, aber gibt es Gründe für die Paranoia, die ggf. gegen mein Vorgehen sprechen?
 
Mitglied seit
21.08.2010
Beiträge
7.582
Reaktionen
836
warum clonezilla?
das schöne an linux ist doch, dass man laufwerke einfach nur kopiert und es trotzdem funktioniert. höchstens nachher noch die partitionengrößen anpassen. gg.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Hast du Dr. Willys Beiträge gelesen? Clonezilla scheint mir deutlich einfacher (vVor allem da ich Clonezilla eh benutze für Komplett Backups meiner Boot/root Partitionen von 3 Systemen).
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Nein booten von USB musst du nicht dabei.
Und dd kopiert auch bitwise.

Aber generell spricht nix gegen deinen Ansatz

hmm hatte das in Erinnerung:

It is technically possible (as in "shooting-yourself-in-the-foot"), but highly unadvisable, especially if any of the disk's partitions are writable.

Picture this scenario:

  • dd starts reading the disk at the start, and merrily makes its way towards the end.
  • When it's halfway there, the OS writes a file to the disk. The file is somewhat fragmented though - one part of it is physically located towards the beginning of the disk, and another towards the end.
  • No problem for the OS - it writes the file just fine, and pushes it out of its write caches; it is now correctly written on the disk.
  • The problem is with your backup: dd has already gone past and copied the first part of the file, so it will capture an inconsistent state when it gets to the second part - each part will be from a different version!
If you're capable of remounting all the partitions on the USB disk as read-only, this problem shouldn't occur (emphasis on "should not"); this requires significant up-front install/offline preparation and boot-time setup for the / partition though - I don't think you can normally remount / r/o on-the-fly, there will be multiple things hanging off that requiring r/w access.

So, running the copy probably won't break the running system, but won't give you a workable backup, rendering the task moot. I highly recommend making the copy offline - which would require shutting down the machine.

ich denke ohne snapshot technologie kommt man um ein umount, r/o mount, nich herum
 
Mitglied seit
02.09.2002
Beiträge
3.234
Reaktionen
72
Nah, geht schon. Würde dann aber nicht dd sondern tatsächlich rsync/cp benutzen (und halt bootloader+fstab anpassen).
 

Das Schaf

Tippspielmeister WM 2018
Mitglied seit
27.06.2002
Beiträge
19.012
Reaktionen
3.964
Ort
Wo auf den Bergen Schlösser wachsen
hmm hatte das in Erinnerung:



ich denke ohne snapshot technologie kommt man um ein umount, r/o mount, nich herum
Ja denn Artikel kenn ich. Ich hab's allerdings schon erfolgreich gemacht.
Rsync von einer ganzen Platte dauert auch eine ganze Weile oder?

Und in kde gibt's dich eh eine keycombo um alle Laufwerke read only zu machen :troll:
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Sodele, neue "Festplatte" ist da, und meine Fresse das ist schon nochmal nen Step-Up - und das sag ich BEVOR ich den eigentliche Use-Case gemacht habe. Hätte ich nicht gedacht das ich das merke. Dürfte mit Sicherheit daran liegen das sie eben nicht oft an ihre Kapazitätsgrenze gefahren wird, aber huch ist die schnell.
Jetzt hab ich folgendes Luxusproblem, nachdem ich die alte Platte kopiert habe: Ich möchte nicht die letzte Partition vergrößern, sonder auch die vorletzte:
nvme0n1 1,8T
├─nvme0n1p1 / System 78,1G f8b3941a-e541-4f5d-b8d9-be01fa0cf445
├─nvme0n1p2 /home Home 387,5G 6e5bb07a-f0af-41f4-bab2-648a80faefe6
├─nvme0n1p3 /boot/efi 100M ABD5-EF9B
└─nvme0n1p4 test 1,2G 794ab352-4c30-46bf-ac3b-b124f922ae82
Test ist obv angelegt zum testen. System würde ich gerne auf 100GB vergrößern, leider kann ich home nur vergrößern, aber nicht verschieben mittels des KDE-Partitionmanagers. Warum ist dem so? Was tun? Möglichst aus laufendem System heraus, bin faul :elefant:
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Joa, Ext4. Lösung: Wollte eh mal mit Ventoy rumspielen, also mal Ubuntu LTS auf Ventoy geklatscht und von dort aus dann mit GParted resized, moved und feddsch. Vorher natyrlich Backup gemacht mit Clonezilla, nun ebenfalls von Ventoy.
Offtopic-Hardware-Empfehlung: Transcend JetFlash 780 MLC USB 3.1 Stick - schnell, bezahlbar und vermutlich haltbar.
Morgen mal so 4-10 Deployments machen :D
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
ich wiederhole mich ungern aber mit LVM, wozu ich jedem (und auch hier) von Anfang an raten würde, wäre das alles kein Problem ;)
neues Physical Volume der Volume Group hinzufügen, altes PV entfernen, Logical Volumes und Filesysteme nach belieben Vergrößern

 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Ääää jaaa. nein. Einfach nur nein, danke.
Kenne LVM zu genüge auf der Arbeit. BEvor ich LVM auf dem Client einsetze, setze ich ZFS ein. Danke, nein.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
zfs ist im Prinzip die gleiche Technologie, wenn es bei LVM Einschränkungen gibt liegt es am darüberliegenden Filesystem nicht am LVM.
 
Mitglied seit
21.08.2010
Beiträge
7.582
Reaktionen
836
lel, wie ich grad angefangen habe die letzten Postings zu lesen und mir dann dachte "warum nicht einfach mal LVM?" :rofl2:
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Weil LVM - genau wie ZFS - eine zusätzliche Schicht Komplexität mit rein bringt, die zwar - für solch seltene Fälle - halt ihre Vorzüge hat, aber eben eine zusätzliche Schicht ist. Mehr Komplexität für fast null Benefit = ultra no thx. Das ganze Thema hat mich jetzt 30 Minuten gekostet, plus vielleicht nochmal ne halbe Stunde suchen bzw. damit beschäftigen als Vorarbeit - inkl. dem Post hier. Nee, danke. Nicht auf dem "Spiele-PC". Könnte man machen, wäre dann aber kacke.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
ZFS ist auch Quatsch für Desktop/Spiele Systeme (COW Performance, Memory Bedarf bei eingeschalteter Dedublizierung) aber LVM kostet zero. Und viel wichtiger, du lernst noch was dabei, anstatt an Storage Designs aus der Steinzeit rumzufummeln. Nen LVM einrichten dauert weit weniger als 30 Minuten.
 
Zuletzt bearbeitet:

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
ZFS ist auch Quatsch für Desktop/Spiele Systeme (COW Performance, Memory Bedarf bei eingeschalteter Dedublizierung) aber LVM kostet zero. Und viel wichtiger, du lernst noch was dabei, anstatt an Storage Designs aus der Steinzeit rumzufummeln. Nen LVM einrichten dauert weit weniger als 30 Minuten.
Ich lerne null. Wir haben LVM auf ca. 10k Systemen im Einsatz. Und natürlich kostet LVM. Bringt nämlich ne weitere Ebene Komplexität.
 
Mitglied seit
28.07.2006
Beiträge
3.920
Reaktionen
306
Derail: kann ich direkt aus Windows eine LVM mounten oder geht das schief

hmm interessante Frage, vielleicht gibt es ein "LVM für Windows Projekt", aber ka.
Oder vielleicht über WSL?
Wenn es möglich wäre, kann Windows aber nativ immer noch nicht extX oder xfs mounten oder?

Um mit nem Linux/Unix Live System ran zu kommen muss man lvm installieren. Ist aber kein Akt und heutzutage meist dabei.
 
Zuletzt bearbeitet:

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
So, jetzt ne ganz neue Fragestellung: Shared Environment? Also 2 Geräte - Laptop und Workstation - die genau gleich sind umd Änderungen syncheon halten. Grobe Idee: /home via fstab auf ein nfs mounten und fertig, oder? ODER?
 

Das Schaf

Tippspielmeister WM 2018
Mitglied seit
27.06.2002
Beiträge
19.012
Reaktionen
3.964
Ort
Wo auf den Bergen Schlösser wachsen
Ja funktioniert quasi so.
Ich hab 100 Geräte auf Arbeit so konfiguriert.

Aber wenn es blöd läuft hast du zwei kaputte Desktops. Einfach weil :ugly:

Für mich ist es den Ärger nicht wert. Aber ich bin auch vorbelastet weil das ist etwas was auf Arbeit am meisten Ärger macht...

Geht gar nix mehr wenn der mount weg ist.
FF erlaubt nur eine Instanz. D.h. wenn dein Profil offen ist musst du es am anderen Rechner zumachen etc...
 
Mitglied seit
21.08.2010
Beiträge
7.582
Reaktionen
836
kommt drauf an ob die dinger parallel laufen sollen.
ich hab da lieber meine relevante config in git und die dateien über nextcloud synchronisiert.
alles andere ist zu viel pain in the ass.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Also, nach 4 Jahren muss Manjaro weg. Es funktioniert zwar alles wie es soll, aber ein paar Entscheidungen die dort gefällt werden nerven.
Also entweder vanilla Arch oder eben Garuda - hat jemand letzteres mal ausprobiert?
Bisher hat mir an Manjaro ja das slow rolling release gefallen, da macht mir Arch ein bisserl Angst - brickt das tatsächlich mal?
 
Mitglied seit
02.09.2002
Beiträge
3.234
Reaktionen
72
Ah dieser Thread. Bei mir gibt es tatsächlich auch Neuigkeiten. Ich bin über eine Distro gestolpert, die Gentoo zumindest potenziell den Rang ablaufen könnte: Guix
Deklarative Systemconfiguration, transaktionale Upgrades und Roll-Backs, user package management, ad-hoc Umgebungen und remote deploy sind schon ein paar schwergewichtige Argumente.
Hat als echtes Pioniersystem (zusammen mit Nix) natürlich noch mit Kinderkrankheiten und anderen scharfen Kanten zu kämpfen, aber sowas hat mich ja noch nie von irgendwas abgehalten.
Ah, zu deiner Frage habe ich nichts zu sagen, ich wollte nur kurz über Guix reden. Vielen Dank für Ihre Aufmerksamkeit.
 
Mitglied seit
21.08.2010
Beiträge
7.582
Reaktionen
836
@Shi: Nimm Garuda.

@willy: Ich möchte an dieser Stelle sagen, dass Nix ziemlich geil ist vom Konzept her. Da ich aber seit 2008 nonstop Arch nutze, habe ich es natürlich noch nicht ausprobiert weil ich den Arsch dazu nicht hochbekomme und ein bisschen Schiss vor yet another Rabbithole habe. Aber es ist schon echt cool. Zu Guix habe ich natürlich nichts zu sagen, fand die Erwähnung von NixOS aber wert ein Posting zu verfassen in dem im Wesentlichen stehen soll: NixOS find ich ganz cool.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Uhm jo.
Also das erste was mir schon ultra sauer aufgestossen hat war die Tatsache mit dem Treasurer und dem Notebook:
https://www.reddit.com/r/linux/comments/hwoev3 Hier gibt es nur einen reddit link, denn die zweite Geschichte die hart shit ist ist die Geschichte mit dem Forum - sie verkacken gleichzeitig Forum(szertifikat), Servermaintenance und Backup, was dazu führt das sie ein 10 Jahre gewachsenes Forum verlieren.
Diese beiden Sachen zusammen haben mich sehr stirnrunzelnd zurück gelassen, aber hey, solange es läuft...
Fass zum Überlaufen hat das hier gebracht:
Seit dem kämpfe ich - wann immer es meine Zeit zulässt, also viel zu selten - mit einer Full Disk Encryption ZFS Mirror Installation von Vanilla Arch. Habs fast soweit das ich einen gebrochenen Mirror wieder herstellen kann. Erst wenn das sauber läuft werde ich darauf wechseln.
 
Mitglied seit
18.08.2002
Beiträge
2.488
Reaktionen
145
Danke. Spiele gerade mit ArchBang rum, aber muss zugeben i3 ist gewöhnungsbedürftig
 
Mitglied seit
15.05.2003
Beiträge
11.306
Reaktionen
6
Ort
Fortuna 1895 Düsseldorf
Also, nach 4 Jahren muss Manjaro weg. Es funktioniert zwar alles wie es soll, aber ein paar Entscheidungen die dort gefällt werden nerven.
Also entweder vanilla Arch oder eben Garuda - hat jemand letzteres mal ausprobiert?
Bisher hat mir an Manjaro ja das slow rolling release gefallen, da macht mir Arch ein bisserl Angst - brickt das tatsächlich mal?
Arch brickt, wenn man es monatelang nicht updated. USB-Stick mit mit der arch-iso solltest du dann ( aber eigentlich immer ) zur Hand haben. Ansonsten kann man zB auf archlinux.de rausfinden, wenn da mal bei Updates bestimmter Packete Probleme auftreten. Mein arch ist 2008 installiert worden und läuft seit dem und hat diverseste Hardware gehen inzwischen. Von welchem OS kann man das sonst behaupten? Die ganzen Derivate kommen und gehen und arch steht wie ein Fels in der Brandung. Habs mit i3, kde, gnome, awesome, herbstluftwm usw laufen gehabt. Hab irgendwann keinen Bock mehr aufs Frickeln gehabt und bin bei Plasma geblieben. Das ist einfach stabil und inzwischen auch schlank und flott.
 

Shihatsu

Administrator
Mitglied seit
26.09.2001
Beiträge
44.865
Reaktionen
8.258
Mit Updates hab ich kein PRoblem, update oft und gerne, weil Rolling Release ftw. Und Plasma ist eh der Oberburner. Kaufe mir grad nen gebrauchtes Zweitsystem zum testen zusammen und werde berichten.
Hat irgendwer zufälliugerweise alten Krams für nen last Generation AMD System rumfliegen? :D
 
Mitglied seit
21.08.2010
Beiträge
7.582
Reaktionen
836
kommt drauf an … ich überlege gerade mein system generalzuüberholen.
könnte potentiell bieten:
  • msi x570 tomahawk am4
  • 2x 16gb crucial ballistix sport lt cl16/3200
  • gigabyte vega56 8gb
  • ryzen5 3600
 
Oben