Rozdíly
Zde můžete vidět rozdíly mezi vybranou verzí a aktuální verzí dané stránky.
Obě strany předchozí revize Předchozí verze Následující verze | Předchozí verze | ||
it:jednodeskove-pocitace:raspberry-pi-5-domaci-server [2025/02/15 13:25] – [Adresace disků] Petr Nosek | it:jednodeskove-pocitace:raspberry-pi-5-domaci-server [2025/08/23 19:33] (aktuální) – Petr Nosek | ||
---|---|---|---|
Řádek 49: | Řádek 49: | ||
</ | </ | ||
- | Uložte změny | + | Uložte změny, vložte disk do Raspberry |
- | + | ||
- | <code bash> | + | |
- | sudo reboot | + | |
- | </ | + | |
Řádek 91: | Řádek 87: | ||
Uložte změny a restartujte Raspberry Pi. | Uložte změny a restartujte Raspberry Pi. | ||
+ | |||
+ | |||
+ | ===== Raspberry Pi 5 s 4TB disk: převod MBR na GPT a oprava PARTUUID ===== | ||
+ | |||
+ | Raspberry Pi 5 je konečně dost výkonné na to, aby zvládlo velký disk a dělalo serverové úlohy. Ale pokud připojíte 4TB disk, narazíte na starý známý problém – **MBR tabulka oddílů**. Ta má strop **2 TiB**. Zbytek disku jako by neexistoval. Řešením je **GPT**. Jenže když jsem převedl disk z MBR na GPT, Raspberry Pi po restartu nenabootovalo. V tomhle článku popíšu krok za krokem, jak jsem to vyřešil. | ||
+ | |||
+ | Důležitá poznámka: samotný disk jsem měl připojený k jinému počítači přes USB redukci, abych mohl bezpečně provádět změny. Teprve po úpravách jsem ho vrátil zpět k Raspberry Pi. | ||
+ | |||
+ | ==== Co je MBR a GPT ==== | ||
+ | |||
+ | **MBR (Master Boot Record)** je historický způsob zápisu tabulky oddílů, používaný od počátků PC. Využívá 32bit adresy sektorů, a proto dokáže adresovat maximálně 2 TiB na disku se sektory 512 B. Je kompatibilní téměř se vším, ale omezený kapacitou. | ||
+ | |||
+ | **GPT (GUID Partition Table)** je modernější standard, součást specifikace UEFI. Umožňuje prakticky neomezenou velikost disků (v řádu zettabajtů), | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Problém: MBR limit ==== | ||
+ | |||
+ | MBR (msdos) tabulka oddílů používá 32bit adresy sektorů. Při velikosti sektoru 512 B umí oslovit maximálně **2 TiB** disku. Na mém 4TB disku jsem proto viděl jen polovinu kapacity. GPT (GUID Partition Table) žádný takový limit nemá. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Krok 1: převod na GPT pomocí gdisk ==== | ||
+ | |||
+ | Nechtěl jsem přijít o systém, takže jsem sáhl po nástroji **gdisk**, který umí převést MBR → GPT bez mazání dat. | ||
+ | |||
+ | <code bash> | ||
+ | sudo apt install gdisk | ||
+ | sudo gdisk /dev/sda | ||
+ | </ | ||
+ | |||
+ | Po spuštění `gdisk` hlásil, že našel MBR tabulku, a nabídl převod na GPT. Stačilo zkontrolovat oddíly příkazem `p` a uložit změny příkazem `w`. | ||
+ | |||
+ | Při potvrzení mě `gdisk` vystrašil hláškou: | ||
+ | |||
+ | < | ||
+ | Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING PARTITIONS!! | ||
+ | </ | ||
+ | |||
+ | Na první pohled to vypadá, že smaže všechno. Ve skutečnosti to znamená jen tolik, že se přepíše **tabulka oddílů** – data na samotných oddílech zůstanou. Přesto doporučuju mít zálohu. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Krok 2: první boot a chyba ==== | ||
+ | |||
+ | Po restartu Raspberry Pi 5 kernel nastartoval, | ||
+ | |||
+ | < | ||
+ | ALERT! PARTUUID=xxxx-02 does not exist. | ||
+ | </ | ||
+ | |||
+ | Co se stalo? Raspberry Pi OS používá k identifikaci oddílů **PARTUUID**. Jenže převodem na GPT se PARTUUID všech oddílů změnily. Konfigurační soubory pořád ukazovaly na staré hodnoty. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Krok 3: oprava cmdline.txt ==== | ||
+ | |||
+ | V adresáři `/ | ||
+ | Pomocí příkazu: | ||
+ | |||
+ | <code bash> | ||
+ | lsblk -o NAME, | ||
+ | </ | ||
+ | |||
+ | jsem zjistil nové PARTUUID oddílů. Ukázkový výpis: | ||
+ | |||
+ | < | ||
+ | NAME | ||
+ | sda | ||
+ | ├─sda1 vfat | ||
+ | └─sda2 ext4 | ||
+ | </ | ||
+ | |||
+ | * `/dev/sda1` je boot (FAT32 → / | ||
+ | * `/dev/sda2` je root (ext4 → /) | ||
+ | |||
+ | Do `cmdline.txt` jsem zapsal správnou hodnotu: | ||
+ | |||
+ | < | ||
+ | console=serial0, | ||
+ | </ | ||
+ | |||
+ | To posunulo boot dál – kernel už root oddíl našel. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Krok 4: oprava /etc/fstab ==== | ||
+ | |||
+ | Jenže boot stále padal do emergency módu. Důvod? `/ | ||
+ | |||
+ | Správně to má vypadat takto: | ||
+ | |||
+ | < | ||
+ | proc /proc | ||
+ | PARTUUID=1c9f7d17-01 | ||
+ | PARTUUID=1c9f7d17-02 | ||
+ | </ | ||
+ | |||
+ | Po úpravě `/ | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Výsledek ==== | ||
+ | |||
+ | Po opravě PARTUUID Raspberry Pi 5 nabootovalo z mého 4TB disku s tabulkou GPT. Celá kapacita disku je k dispozici a systém funguje, jako by se nic nestalo. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Shrnutí ==== | ||
+ | |||
+ | - Raspberry Pi OS standardně instaluje disk s **MBR**, takže na 4TB disku vidíte jen 2TB. | ||
+ | - Pomocí `gdisk` lze převést tabulku na **GPT** bez ztráty dat. | ||
+ | - Po převodu je nutné **opravit PARTUUID v `cmdline.txt` i `/ | ||
+ | - Pak Pi 5 bez problémů bootuje z GPT disku a využije celou kapacitu. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ✅ Pokud tedy narazíte na 2TB strop na Raspberry Pi, řešením je převést disk na GPT a opravit konfiguraci.\\ | ||
+ | 📌 Doporučení: | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== Jak číst výpis lsblk ==== | ||
+ | |||
+ | Ukázkový výpis: | ||
+ | |||
+ | < | ||
+ | NAME | ||
+ | sda | ||
+ | ├─sda1 vfat | ||
+ | └─sda2 ext4 | ||
+ | </ | ||
+ | |||
+ | Vysvětlení sloupců: | ||
+ | |||
+ | * **NAME** – název zařízení nebo oddílu (např. `sda1`) | ||
+ | * **FSTYPE** – typ souborového systému (např. `vfat`, `ext4`) | ||
+ | * **LABEL** – název oddílu, pokud je nastaven | ||
+ | * **UUID** – unikátní identifikátor souborového systému | ||
+ | * **PARTUUID** – unikátní identifikátor oddílu v tabulce oddílů (právě ten se změnil při převodu MBR → GPT) | ||
Řádek 440: | Řádek 576: | ||
[Service] | [Service] | ||
Type=simple | Type=simple | ||
- | ExecStart=/ | + | ExecStart=/ |
Restart=always | Restart=always | ||
User=root | User=root | ||
- | StandardOutput=append:/ | + | #StandardOutput=append:/ |
+ | StandardOutput=null | ||
StandardError=append:/ | StandardError=append:/ | ||
Řádek 719: | Řádek 856: | ||
===== Konfigurace softwarového RAIDu – zrcadlení ===== | ===== Konfigurace softwarového RAIDu – zrcadlení ===== | ||
+ | |||
+ | Při konfiguraci jsem vycházel z těchto návodů, přičemž ani jeden není dokonalý pro moji situaci a musel jsem si návody přízpůsobit. Uvádím je pro úplnost jako zdroj: | ||
+ | |||
+ | * https:// | ||
+ | * https:// | ||
+ | * https:// | ||
==== Adresace disků ==== | ==== Adresace disků ==== | ||
Řádek 756: | Řádek 899: | ||
Toto chování jsem nečekal, ale beru ho jako fakt a budu s ním dále pracovat obezřetně. | Toto chování jsem nečekal, ale beru ho jako fakt a budu s ním dále pracovat obezřetně. | ||
+ | |||
+ | Abych si ušetřil problémy a následné zmatky, tak jsem raději disky prohodil. Tedy disk s operačním systémem jsem dal do slotu SSD2 a nový disk do slotu SSD1. Po změně zapojení vypadá výpis takto: | ||
+ | |||
+ | <code bash> | ||
+ | NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS | ||
+ | nvme0n1 | ||
+ | ├─nvme0n1p1 259:1 0 512M 0 part / | ||
+ | └─nvme0n1p2 259:2 0 1,8T 0 part / | ||
+ | nvme1n1 | ||
+ | </ | ||
==== Vytvoření partition na novém disku před RAIDem ==== | ==== Vytvoření partition na novém disku před RAIDem ==== | ||
Řádek 771: | Řádek 924: | ||
<code bash> | <code bash> | ||
- | sudo sfdisk -d /dev/nvme1n1 | + | sudo sfdisk -d /dev/nvme0n1 |
</ | </ | ||
Řádek 781: | Řádek 934: | ||
<code bash> | <code bash> | ||
- | sudo sfdisk /dev/nvme0n1 | + | sudo sfdisk /dev/nvme1n1 |
</ | </ | ||
- | Tento příkaz vytvoří na **nvme0n1** stejnou strukturu jako na **nvme1n1**. | + | Tento příkaz vytvoří na **nvme1n1** stejnou strukturu jako na **nvme0n1**. |
=== Krok 3: Ověření správnosti nového rozdělení disku === | === Krok 3: Ověření správnosti nového rozdělení disku === | ||
Řádek 792: | Řádek 945: | ||
<code bash> | <code bash> | ||
lsblk | lsblk | ||
- | fdisk -l /dev/nvme0n1 | + | fdisk -l /dev/nvme1n1 |
</ | </ | ||
Pokud se vše shoduje, můžeme pokračovat v nastavování RAIDu. | Pokud se vše shoduje, můžeme pokračovat v nastavování RAIDu. | ||
+ | |||
+ | |||
+ | |||
+ | ==== Konfigurace RAID 1 pomocí mdadm ==== | ||
+ | |||
+ | Pro konfiguraci softwarového RAIDu pro zrcadlení (RAID 1) použijeme **mdadm**. | ||
+ | |||
+ | Nejprve nainstalujeme potřebný balíček: | ||
+ | |||
+ | <code bash> | ||
+ | sudo apt install mdadm | ||
+ | </ | ||
+ | |||
+ | Vzhledem k tomu, že RAID nastavujeme na běžícím systému, vytvoříme RAID **v degradovaném režimu**, tedy pouze s jedním diskem. Druhý disk přidáme později. | ||
+ | |||
+ | === Vytvoření RAID 1 v degradovaném režimu === | ||
+ | |||
+ | Místo dvou disků v RAIDu vytvoříme pole pouze s novým diskem (**nvme1n1p1** a **nvme1n1p2**). | ||
+ | Druhý disk zatím nebude připojen (`missing`), | ||
+ | |||
+ | <code bash> | ||
+ | sudo mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 / | ||
+ | sudo mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 / | ||
+ | </ | ||
+ | |||
+ | ✅ **Vysvětlení: | ||
+ | * `missing` znamená, že druhý disk zatím není připojen, RAID poběží pouze s jedním diskem. | ||
+ | * `--metadata=0.90` je doporučeno pro zaváděcí oddíly. | ||
+ | |||
+ | Následujícím krokem je vytvoření souborového systému na nově vytvořeném RAIDu. | ||
+ | |||
+ | === Vytvoření souborových systémů === | ||
+ | |||
+ | Na nových RAID oddílech vytvoříme souborový systém: | ||
+ | |||
+ | <code bash> | ||
+ | sudo mkfs.vfat /dev/md0 | ||
+ | sudo mkfs.ext4 /dev/md1 | ||
+ | </ | ||
+ | |||
+ | Nyní připojíme RAID a přeneseme systémové soubory. | ||
+ | |||
+ | === Přenos systémových souborů na RAID === | ||
+ | |||
+ | Nejprve připojíme bootovací oddíl RAID: | ||
+ | |||
+ | <code bash> | ||
+ | mkdir / | ||
+ | mount /dev/md0 / | ||
+ | rsync -axv / | ||
+ | </ | ||
+ | |||
+ | Poté připojíme hlavní oddíl a přeneseme systém: | ||
+ | |||
+ | <code bash> | ||
+ | mkdir / | ||
+ | mount /dev/md1 / | ||
+ | rsync -axv / / | ||
+ | </ | ||
+ | |||
+ | === Úprava fstab pro použití RAIDu === | ||
+ | |||
+ | Otevřeme soubor **fstab** na novém RAIDu: | ||
+ | |||
+ | <code bash> | ||
+ | nano / | ||
+ | </ | ||
+ | |||
+ | Najdeme řádky obsahující `/ | ||
+ | |||
+ | < | ||
+ | / | ||
+ | / | ||
+ | </ | ||
+ | |||
+ | Tím zajistíme, že systém při bootu použije RAID. | ||
+ | |||
+ | === Aktualizace konfigurace mdadm === | ||
+ | |||
+ | Zjistíme UUID RAID polí: | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail --scan | ||
+ | </ | ||
+ | |||
+ | Výstup bude podobný tomuto: | ||
+ | |||
+ | < | ||
+ | ARRAY /dev/md0 metadata=0.90 UUID=e11e72e6: | ||
+ | ARRAY /dev/md1 metadata=1.2 name=server: | ||
+ | </ | ||
+ | |||
+ | Tento výstup zapíšeme na konec souboru: | ||
+ | |||
+ | <code bash> | ||
+ | nano / | ||
+ | </ | ||
+ | |||
+ | === Úprava cmdline.txt pro bootování z RAIDu === | ||
+ | |||
+ | Otevřeme soubor bootovací konfigurace: | ||
+ | |||
+ | <code bash> | ||
+ | nano / | ||
+ | </ | ||
+ | |||
+ | Najdeme řádek obsahující: | ||
+ | |||
+ | < | ||
+ | root=PARTUUID=aa235387-02 | ||
+ | </ | ||
+ | |||
+ | A nahradíme jej: | ||
+ | |||
+ | < | ||
+ | root=/ | ||
+ | </ | ||
+ | |||
+ | ✅ **Vysvětlení: | ||
+ | * `root=/ | ||
+ | * `rootwait rootdelay=10` – umožňuje systému počkat na sestavení RAIDu. | ||
+ | * `fsck.repair=yes` – umožní automatickou opravu souborového systému při bootu. | ||
+ | |||
+ | === Přidání RAID modulů do initramfs === | ||
+ | |||
+ | Aby jádro vědělo, že používáme RAID již při bootu, přidáme moduly do **initramfs**: | ||
+ | |||
+ | <code bash> | ||
+ | nano / | ||
+ | </ | ||
+ | |||
+ | Přidáme tyto řádky: | ||
+ | |||
+ | < | ||
+ | raid1 | ||
+ | md_mod | ||
+ | ext4 | ||
+ | </ | ||
+ | |||
+ | Aktualizujeme initramfs: | ||
+ | |||
+ | <code bash> | ||
+ | umount / | ||
+ | mount /dev/md0 / | ||
+ | |||
+ | mkdir -p / | ||
+ | |||
+ | mount --bind /dev / | ||
+ | mount --bind /proc / | ||
+ | mount --bind /sys / | ||
+ | mount --bind /run / | ||
+ | |||
+ | chroot / | ||
+ | update-initramfs -u | ||
+ | </ | ||
+ | |||
+ | Tím jsme zajistili, že RAID bude dostupný již při startu systému. | ||
+ | |||
+ | **Nyní jsem mohl Raspberry restartovat. Důležitá věc, musel jsem primární disk - tedy disk s RAID přesunout do slotu SSD2 na desce. Dokud jsem to neudělal, boot se nepodařil, systém byl zmatený. Tento krok je klíčový - prohodit disky ve slotech.** | ||
+ | |||
+ | |||
+ | ==== Přidání disku do RAID ==== | ||
+ | |||
+ | Po prohození disků ve slotech (disk s nastaveným RAIDem musí být ve slotu **SSD2**) a nabootování systému je možné přidat druhý disk zpět do RAID pole. | ||
+ | Stejný postup se použije i v případě, že se nějaký disk odpojí a pole je **degradované**, | ||
+ | |||
+ | ✅ **Klíčové pravidlo: | ||
+ | **Primární disk musí být ve slotu SSD2, aby systém správně nabootoval.** | ||
+ | |||
+ | === Stav RAID pole po nabootování === | ||
+ | |||
+ | Z výpisu je vidět, že v RAID poli je zatím pouze jeden disk: | ||
+ | |||
+ | <code bash> | ||
+ | cat / | ||
+ | </ | ||
+ | |||
+ | **Výstup: | ||
+ | < | ||
+ | Personalities : [raid1] [linear] [raid0] [raid6] [raid5] [raid4] [raid10] | ||
+ | md0 : active raid1 nvme0n1p1[0] | ||
+ | 524224 blocks [2/1] [U_] | ||
+ | | ||
+ | md1 : active raid1 nvme0n1p2[0] | ||
+ | 1952854080 blocks super 1.2 [2/1] [U_] | ||
+ | bitmap: 4/4 pages [64KB], 65536KB chunk | ||
+ | </ | ||
+ | |||
+ | Nově připojený disk **nvme1n1** zatím není součástí RAID pole. | ||
+ | |||
+ | === Výpis připojených disků === | ||
+ | |||
+ | Podíváme se na aktuální stav připojených disků: | ||
+ | |||
+ | <code bash> | ||
+ | lsblk | ||
+ | </ | ||
+ | |||
+ | **Výstup: | ||
+ | < | ||
+ | NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS | ||
+ | nvme0n1 | ||
+ | ├─nvme0n1p1 259:1 0 | ||
+ | │ └─md0 | ||
+ | └─nvme0n1p2 259:2 0 | ||
+ | └─md1 | ||
+ | nvme1n1 | ||
+ | ├─nvme1n1p1 259:4 0 | ||
+ | └─nvme1n1p2 259:5 0 | ||
+ | </ | ||
+ | |||
+ | === Detaily RAID pole === | ||
+ | |||
+ | Zkontrolujeme aktuální stav RAID pole: | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail /dev/md0 | ||
+ | </ | ||
+ | |||
+ | < | ||
+ | /dev/md0: | ||
+ | | ||
+ | | ||
+ | Raid Level : raid1 | ||
+ | Array Size : 524224 (511.94 MiB 536.81 MB) | ||
+ | Used Dev Size : 524224 (511.94 MiB 536.81 MB) | ||
+ | Raid Devices : 2 | ||
+ | Total Devices : 1 | ||
+ | | ||
+ | |||
+ | | ||
+ | State : clean, degraded | ||
+ | Active Devices : 1 | ||
+ | | ||
+ | Failed Devices : 0 | ||
+ | Spare Devices : 0 | ||
+ | |||
+ | Consistency Policy : resync | ||
+ | |||
+ | Number | ||
+ | | ||
+ | | ||
+ | </ | ||
+ | |||
+ | Stejným způsobem můžeme zkontrolovat i hlavní RAID oddíl: | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --detail /dev/md1 | ||
+ | </ | ||
+ | |||
+ | **Výstup ukazuje, že RAID pole je degradované – chybí druhý disk.** | ||
+ | |||
+ | === Přidání nového disku do RAID pole === | ||
+ | |||
+ | Nyní přidáme nový disk **nvme1n1** do RAID pole: | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --add /dev/md0 / | ||
+ | mdadm --add /dev/md1 / | ||
+ | </ | ||
+ | |||
+ | Po přidání zkontrolujeme stav RAIDu: | ||
+ | |||
+ | <code bash> | ||
+ | cat / | ||
+ | </ | ||
+ | |||
+ | **Výstup ukazuje, že RAID začíná synchronizaci: | ||
+ | < | ||
+ | Personalities : [raid1] [linear] [raid0] [raid6] [raid5] [raid4] [raid10] | ||
+ | md0 : active raid1 nvme1n1p1[1] nvme0n1p1[0] | ||
+ | 524224 blocks [2/2] [UU] | ||
+ | | ||
+ | md1 : active raid1 nvme1n1p2[2] nvme0n1p2[0] | ||
+ | 1952854080 blocks super 1.2 [2/1] [U_] | ||
+ | [=> | ||
+ | bitmap: 4/4 pages [64KB], 65536KB chunk | ||
+ | </ | ||
+ | |||
+ | === Sledování průběhu synchronizace === | ||
+ | |||
+ | Pro sledování průběhu synchronizace RAID pole můžeme použít: | ||
+ | |||
+ | <code bash> | ||
+ | watch -n 1 cat / | ||
+ | </ | ||
+ | |||
+ | ✅ **RAID nyní probíhá synchronizace a disk bude plně zrcadlen po dokončení procesu.** | ||
+ | |||
+ | |||
+ | === Priorita disků po odpojení a opětovném připojení === | ||
+ | |||
+ | Pokud dojde k **odpojení jednoho disku** a následně jej znovu připojíme, | ||
+ | |||
+ | Nezáleží na tom, **že je disk ve slotu SSD2**, protože po připojení obou disků systém automaticky **vybere ten, který běžel jako poslední aktivní po rozpojení RAIDu**. | ||
+ | |||
+ | === Jak systém určuje, který disk bude upřednostněn? | ||
+ | |||
+ | Systém rozhoduje na základě **poslední aktualizace metadat RAIDu**. Každý disk v RAIDu obsahuje **metadata (superblock)**, | ||
+ | **Klíčový parametr je tzv. Event Count**, což je čítač změn. | ||
+ | |||
+ | ✅ **RAID vybere disk s nejvyšším Event Count jako platný.** | ||
+ | Pokud má jeden disk vyšší Event Count než druhý, systém považuje tento disk za aktuální a použije jej jako primární. | ||
+ | |||
+ | === Jak zjistit, který disk má vyšší Event Count? === | ||
+ | |||
+ | Můžeš si ověřit, který disk má aktuálnější metadata pomocí příkazu: | ||
+ | |||
+ | <code bash> | ||
+ | mdadm --examine / | ||
+ | </ | ||
+ | |||
+ | **Výstup bude obsahovat řádky podobné tomuto:** | ||
+ | |||
+ | < | ||
+ | / | ||
+ | | ||
+ | |||
+ | / | ||
+ | | ||
+ | </ | ||
+ | |||
+ | ✅ **Disk s vyšším číslem „Events“ je považován za aktuální.** | ||
+ | Pokud se **Event Count neshoduje**, | ||
+ | |||
+ | === Co se stane při neaktuálním disku? === | ||
+ | |||
+ | Pokud má jeden z disků nižší Event Count, systém jej při dalším spuštění považuje za **zastaralý** a označí jej jako neaktivní. | ||
+ | RAID pak při připojení tohoto disku provede **resynchronizaci** dat. | ||
+ | |||
+ | Proto je důležité po výpadku disku **zkontrolovat stav RAID** | ||
+ | |||
+ | |||
+ | ===== Nastavení NetworkManagera a statické IP adresy ===== | ||
+ | |||
+ | Nejprve jsem řešil přejmenování připojení v NetworkManageru: | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== 🟢 1. Ověř existující připojení ==== | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con show | ||
+ | </ | ||
+ | |||
+ | Výstup: | ||
+ | |||
+ | < | ||
+ | NAME | ||
+ | Drátové připojení 1 95b853d9-d49d-3af0-ac2e-38a74299292d | ||
+ | </ | ||
+ | |||
+ | ==== 🔑 2. Přejmenuj připojení ==== | ||
+ | |||
+ | Například pro nový název `eth0-static`: | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con modify " | ||
+ | </ | ||
+ | |||
+ | ---- | ||
+ | |||
+ | ==== 🛠️ 3. Ověř změnu ==== | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con show | ||
+ | </ | ||
+ | |||
+ | Výstup bude vypadat takto: | ||
+ | |||
+ | < | ||
+ | NAME UUID TYPE DEVICE | ||
+ | eth0-static | ||
+ | </ | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ==== 🔄 4. Restartuj připojení (volitelné): | ||
+ | |||
+ | Pro jistotu můžeš restartovat síťové připojení: | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con down " | ||
+ | </ | ||
+ | |||
+ | Nyní mohu pracovat s připojením pod vlastním názvem a upravit jeho parametry podle potřeby. | ||
+ | |||
+ | ---- | ||
+ | |||
+ | Pokud složka `/ | ||
+ | |||
+ | ---- | ||
+ | |||
+ | |||
+ | |||
+ | ==== 🟢 Jak zjistit současnou konfiguraci: | ||
+ | |||
+ | **Zobraz detaily aktuálního připojení: | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con show " | ||
+ | </ | ||
+ | |||
+ | To ukáže všechny parametry připojení, | ||
+ | |||
+ | |||
+ | ---- | ||
+ | |||
+ | **Vytvoř trvalý konfigurační soubor:** | ||
+ | |||
+ | Pokud chceš, aby bylo připojení trvalé a mělo statickou IP, můžeš ho upravit a uložit: | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con modify " | ||
+ | nmcli con up " | ||
+ | </ | ||
+ | |||
+ | Tím se vytvoří i soubor v `/ | ||
+ | |||
+ | ---- | ||
+ | |||
+ | **Zálohuj konfiguraci (volitelné): | ||
+ | |||
+ | Před změnami můžeš exportovat aktuální nastavení: | ||
+ | |||
+ | <code bash> | ||
+ | nmcli con export " | ||
+ | </ | ||
+ | |||
+ | ---- | ||
+ | |||
+ | **Ověř novou konfiguraci a soubor:** | ||
+ | |||
+ | Po úpravě by se měl v `/ | ||
+ | |||
+ | |||