ROCm 7: Dies könnte der Software-Zen-Moment für AMD sein

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.014
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn Lisa verspricht, dass ich die ganzen cuda-optimierten Spielereien mit LLMs usw. auch mit AMD-Karten machen kann, wird es eine 9xxx Karte dieses Jahr, versprochen :)
Aber gut, dass sie endlich damit anfangen.
 
Klingt sehr interessant, da könnte ich mir doch glatt überlegen eine AMD GPU zu holen für das Studium wenn PyTorch und TensorFlow darauf laufen.
8GB auf meiner 1080er werden langsam zu wenig für die Modelle!
 
Also wenn Lisa verspricht, dass ich die ganzen cuda-optimierten Spielereien mit LLMs usw. auch mit AMD-Karten machen kann
Meine zwei 7900XTX laufen mit ROCm 6.4 unter Linux sehr gut und die Installation war in wenigen Minuten erledigt.
Die 5090 bereitet mir dagegen noch ziemliche Probleme, aber der Vergleich ist nicht ganz fair, die ist ja erst ein halbes Jahr am Markt.
Wenn die 5090 läuft ist sie aber eine Rakete, dafür haben die beiden XTX zusammen 48GB RAM, kommt halt darauf an was man will.
 
Meine zwei 7900XTX laufen mit ROCm 6.4
Du meinst also unter den Karten läuft zB ComfyUI mit allen möglichen Zusatzgedöns genauso problemlos und schnell wie mit cuda-basierter Basis? "Problemlos" heisst hier dass ich nicht jedes zweitel Teil manuell anpassen muss weil es eigntlich für Nvidia-Karten gebaut war.
 
ComfyUI funktioniert bei mir im Moment nur mit der 7900XTX, bei der 5090 kommt bei allen Workflows die Fehlermeldung "Cuda blabla. kein Kernel Image gefunden", habe da gerade heute drangesessen.
Soweit ich gesehen habe, liegt das Problem daran, dass ich Cuda 12.9 installiert habe und eine Komponente in ComfyUI aber nur 12.8 supportet, werde das morgen mal genauer in Angriff nehmen.
Du kannst ComfyUI als Docker Container installieren, das ist nur ein Kommando und du bist fertig.
Es funktioniert aber nur eine Karte, die zweite Karte wird von ComfyUI nicht benutzt, aber Ollama benutzt beide Karten für LLM automatisch.
Stable Diffusion mit zwei GPUs geht aber anscheinend mit SwarmUI, muss ich aber selbst noch testen, schau hier mal nach.

Beitrag automatisch zusammengeführt:

"Problemlos" heisst hier dass ich nicht jedes zweitel Teil manuell
Ich mache das erst seit 4-5 Wochen, habe aber schon etwas über 1TB an Modellen für ComfyUI und Ollama heruntergeladen und an keiner Stelle musste ich irgendetwas für AMD anpassen.
Wenn ich mal alles ausblende was ich zu dem Thema gelesen habe und die Situation nur anhand der Installation von Cuda für 5090 und ROCm für die beiden XTX bewerte, dann würde ich sagen, dass AMD den besseren Support hat.
Was wie wir alles wissen, nicht stimmen kann.
Ich kann bei Nvidia z.B im Moment nicht Docker benutzen, weil es zumindest für Ubuntu mit Kernel >6.0 keinen Support gibt, bei AMD habe ich Kernel 6.14.
Ich kann dir nicht sagen wie das derzeit unter Windows aussieht, soweit ich weiß, kommt da aber dieses Jahr noch was.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh