PCIe-Lane Konflikt ASRock B760 Pro RS/D4

Moin,
ich habe bei mir im Homelab folgende Hardware in meinem Proxmox Host:

  • CPU: Intel Core i5-12400
  • Mainboard: ASRock B760 Pro RS/D4
  • SSD1(CPU): 2TB Western Digital WD_BLACK SN770 (PCIe Gen4x4)
  • SSD2(Chipset): 2TB Western Digital WD_BLACK SN770 (PCIe Gen4x4)
  • PCIe Gen3x1 NiC
  • 2x 4TB Seagate HDD

Die SSDs und die HDDs sind jeweils in einem ZFS Mirror. Mir ist bewusst, dass die unterschiedliche Anbindung der SSDs nicht ideal ist.
Ich habe mir eine ASRock Arc A380 (90-G46ZZ-00UANF) fürs Transcoding in Jellyfin zugelegt. Leider wird die PCIe-NIC nicht erkannt, wenn ich die GPU einbaue.

Rein theoretisch ‚verbraucht‘ die zweite SSD bereits die gesamte Bandbreite des DMI-Links. Umso mehr wundert es mich, dass der Fehler nur auftritt, wenn ich die GPU einbaue. Das ist insofern ein Problem, als die NIC mein WAN-Interface ist.

Weiß jemand eine Lösung, bei der ich nicht den gesamten Server neu bauen muss?

Die iGPU kann auch transcoding. Haben gerüchteweise einige zum Laufen bekommen.

Wahrscheinliche Ursache deines Problems ist aber dass sich durch einstecken der GPU die Topologie des PCIe-Busses ändert, sprich die NIC hat eine andere Busnummer.

Damit ändert sich die enpxxx Nummer und die config passt nicht mehr.

Bildschirm dran und Netzwerkconfig anpassen. Fertig.

„Ja, super! Funktioniert! Vielen Dank Thema gelöst“

Bitte, danke, tschau.

Ja, super! Funktioniert! Vielen Dank Thema gelöst!
Nein ehrlich vielen Dank!
Ich lese nur nicht jeden Tag meine E-Mails und habe von deiner Antwort nichts mitbekommen :slight_smile:

Schön, dass es geklappt hat!
:slightly_smiling_face: