Forum

Kombinerad R9 280X+ RX580 prestanda

startergo

Originalaffisch
20 september 2018
  • 3 februari 2019
Jag har R9 280X ansluten via DVI i kortplats 1 och RX 580 ansluten via DP till DVI-adapter i kortplats 2.
Jag kan se startskärmen genom min R9 280X, men den stängs av vid cirka 75 % framsteg av Apples startlogotyp.
När HS är laddad matas endast RX 580 ut till en skärm.
I Windows 10 fungerar exakt samma inställning bra, båda korten matas ut till sina skärmar. Jag kan till och med se crossfire aktiverat i Furmarks stresstest.
Har jag missat något här? Varför slutar R9 280X att mata ut i HS tillsammans med RX 580?

h9826790

3 april 2014


Hong Kong
  • 3 februari 2019
startergo sa: Jag har R9 280X ansluten via DVI i kortplats 1 och RX 580 ansluten via DP till DVI-adapter i kortplats 2.
Jag kan se startskärmen genom min R9 280X, men den stängs av vid cirka 75 % framsteg av Apples startlogotyp.
När HS är laddad matas endast RX 580 ut till en skärm.
I Windows 10 fungerar exakt samma inställning bra, båda korten matas ut till sina skärmar. Jag kan till och med se crossfire aktiverat i Furmarks stresstest.
Har jag missat något här? Varför slutar R9 280X att mata ut i HS tillsammans med RX 580?

Crossfire 280X med RX580? AFAIK, Crossfire-doser kräver inte 'matchade par' GPU, men båda GPU:erna MÅSTE tillhöra samma familj.

startergo

Originalaffisch
20 september 2018
  • 3 februari 2019
h9826790 sa: Crossfire 280X med RX580? AFAIK, Crossfire-doser kräver inte 'matchade par' GPU, men båda GPU:erna MÅSTE tillhöra samma familj.
Jag blev också förvånad, men det är vad Furmark sa: Crossfire aktiverat

startergo

Originalaffisch
20 september 2018
  • 3 februari 2019
Visa medieobjekt ' data-single-image='1'>
Reaktioner:h9826790

h9826790

3 april 2014
Hong Kong
  • 3 februari 2019
startergo sa: Visa bilaga 819716

Tack för att du delar med dig. Intressant info.

Crossfire aktiverat.

Båda GPU körs på ~100%. (Detta är normalt för Furmark)

Men 280X värms bara upp från 61C till 64C. (Den här delen är normal förutsatt att 280X har en bra kylare)

RX580 klockhastighet visar 639,8MHz, VDDC 0V, presterar sämre än 280X (definitivt väldigt fel).

Försökte du ta bort 280X och köra samma test med bara RX580?

startergo

Originalaffisch
20 september 2018
  • 4 februari 2019
h9826790 sa: Tack för att du delar med dig. Intressant info.

Crossfire aktiverat.

Båda GPU körs på ~100%. (Detta är normalt för Furmark)

Men 280X värms bara upp från 61C till 64C. (Den här delen är normal förutsatt att 280X har en bra kylare)

RX580 klockhastighet visar 639,8MHz, VDDC 0V, presterar sämre än 280X (definitivt väldigt fel).

Försökte du ta bort 280X och köra samma test med bara RX580?
Spänningen är 0VDC kanske för att jag driver den från SATA-strömmen och den mäter inte så exakt:

Visa medieobjekt ' data-single-image='1'>

h9826790

3 april 2014
Hong Kong
  • 4 februari 2019
startergo sa: Spänningen är 0VDC kanske för att jag driver den från SATA-strömmen och den mäter inte så exakt:

Se bilaga 819791

Den VDDC ska läsas från grafikkortet, inte från strömkällan. Så, något fel där (definitivt fel läsning, kan vara ett programvaruproblem, inte nödvändigt med hårdvara).

Det ser ut som att ditt kort var termisk/effektstrålande. Jag misstänker att det beror på att OEM-kortet har en lägre än normal TDP-gräns, vilket gör att kortet når effektbegränsningspunkten tidigare än normal RX580.

Hur som helst, genomsnittliga FPS 87 vs 54, crossfire verkar verkligen prestera som förväntat.

Kan vara alla GCN GPU nu kan korsskjutas. Jag har inte använt det på flera år nu. Inte helt säker på det mest uppdaterade kravet.

startergo

Originalaffisch
20 september 2018
  • 4 februari 2019
h9826790 sa: Att VDDC ska läsas från grafikkortet, inte från strömkällan. Så, något fel där (definitivt fel läsning, kan vara ett programvaruproblem, inte nödvändigt med hårdvara).

Det ser ut som att ditt kort var termisk/effektstrålande. Jag misstänker att det beror på att OEM-kortet har en lägre än normal TDP-gräns, vilket gör att kortet når effektbegränsningspunkten tidigare än normal RX580.

Hur som helst, genomsnittliga FPS 87 vs 54, crossfire verkar verkligen prestera som förväntat.

Kan vara alla GCN GPU nu kan korsskjutas. Jag har inte använt det på flera år nu. Inte helt säker på det mest uppdaterade kravet.
Kortets TDP är 130W. Kanske för att de använder samma drivrutin är crossfire aktiverad? Jag vet att om jag väljer den grundläggande videodrivrutinen på en av dem kommer de inte att fungera på samma sätt. Det som stör mig är att HS 280 stänger av utgången. Någon aning om varför?

h9826790

3 april 2014
Hong Kong
  • 4 februari 2019
startergo sa: Kortets TDP är 130W. Kanske för att de använder samma drivrutin är crossfire aktiverad? Jag vet att om jag väljer den grundläggande videodrivrutinen på en av dem kommer de inte att fungera på samma sätt. Det som stör mig är att HS 280 stänger av utgången. Någon aning om varför?

Men din skärmdump visar att TDP för RX580 är 185W. Var försiktig med det. Kortets TDP är 130W, men det betyder med största sannolikhet att kyllösningen är bra för upp till 130W. Och ditt kort kan dra upp till 185W från mjukvaruläsningen. Och det är definitivt inte ett bra tecken för ett enda 6pin-kort.

Hur som helst, jag sålde alla mina HD7950, R9 280, R9 380 redan, kan inte testa det med RX580. Men om din 280X kan fungera felfritt när den startar från den ursprungliga ROM, så orsakar tydligen Mac EFI vissa kompatibilitetsproblem.

startergo

Originalaffisch
20 september 2018
  • 4 februari 2019
h9826790 sa: Men din skärmdump visar att TDP för RX580 är 185W. Var försiktig med det. Kortets TDP är 130W, men det betyder med största sannolikhet att kyllösningen är bra för upp till 130W. Och ditt kort kan dra upp till 185W från mjukvaruläsningen. Och det är definitivt inte ett bra tecken för ett enda 6pin-kort.

Hur som helst, jag sålde alla mina HD7950, R9 280, R9 380 redan, kan inte testa det med RX580. Men om din 280X kan fungera felfritt när den startar från den ursprungliga ROM, så orsakar tydligen Mac EFI vissa kompatibilitetsproblem.
Det spelar ingen roll vilken ROM jag använder. Jag har inga problem med att använda ett enda kort bara när båda är installerade. När det gäller strömmen ger 2 SATA 108W ström så det finns gott om ström på 6-stiften. Jag vet inte hur den kan dra 185W om den är begränsad i ROM?

h9826790

3 april 2014
Hong Kong
  • 4 februari 2019
startergo sa: Det spelar ingen roll vilken ROM jag använder. Jag har inga problem med att använda ett enda kort bara när båda är installerade. När det gäller strömmen ger 2 SATA 108W ström så det finns gott om ström på 6-stiften. Jag vet inte hur den kan dra 185W om den är begränsad i ROM?

Standardinställningen för ROM är INTE begränsad till 130W för ditt kort. Det är ett fördefinierat antal med 50 % PowerTune, vilket betyder att om det är 130W med 150 % max, kommer det att kunna dra 195W.
Visa medieobjekt ' data-single-image='1'>
Som du kan se från din vunna skärmdump är 'Power max' 150 % (detta är PowerTune-gränsen). Och den registrerade TDP är 185W i det ögonblicket. Om vi ​​antar att 185W är +50% av den fördefinierade TDP. Då borde det vara ~123W. Och så länge PowerTune stannar på 150 % kan ditt kort dra upp till 185W (om inte termisk strypning etc).

I Windows låter AMD-drivrutinens kontrollpanel dig se och justera PowerTune-numret. Men i macOS kommer den bara att få det numret från ROM. I ditt fall, +50 % max.

Dessutom är problemet med ditt kort INTE att dra för mycket från 6pin, utan från kortplatsen.

cMP:n verkar ganska välbyggd. Så att dra mer än 75W från en kortplats verkar inte ha någon negativ effekt (åtminstone sant under kort tid). Hittills har jag inte hört ett enda fall som bränner logikkortet på grund av det. Men en hel del spel-PC moderkort var hårt på grund av det.

Kortet vet inte att det kan dra hur mycket på 6pin (t.ex. upp till 108W), utan vet bara hur man drar den efterfrågade effekten enligt det förprogrammerade mönstret. I ditt korts fall. Det verkar som att kortet i stort sett bara delar efterfrågan med 2. Därför, om man verkligen drar 180W, kan det betyda 90W från 6-stiftet och 90W från kortplatsen.

Hur som helst, om EFI inte gör någon skillnad, men multi GPU gör det, så låter det som drivrutinskonflikt.

startergo

Originalaffisch
20 september 2018
  • 10 februari 2019
h9826790 sa: ROM-standardinställningen är INTE begränsad till 130W för ditt kort. Det är ett fördefinierat antal med 50 % PowerTune, vilket betyder att om det är 130W med 150 % max, kommer det att kunna dra 195W.
Se bilaga 819863
Som du kan se från din vunna skärmdump är 'Power max' 150 % (detta är PowerTune-gränsen). Och den registrerade TDP är 185W i det ögonblicket. Om vi ​​antar att 185W är +50% av den fördefinierade TDP. Då borde det vara ~123W. Och så länge PowerTune stannar på 150 % kan ditt kort dra upp till 185W (om inte termisk strypning etc).

I Windows låter AMD-drivrutinens kontrollpanel dig se och justera PowerTune-numret. Men i macOS kommer den bara att få det numret från ROM. I ditt fall, +50 % max.

Dessutom är problemet med ditt kort INTE att dra för mycket från 6pin, utan från kortplatsen.

cMP:n verkar ganska välbyggd. Så att dra mer än 75W från en kortplats verkar inte ha någon negativ effekt (åtminstone sant under kort tid). Hittills har jag inte hört ett enda fall som bränner logikkortet på grund av det. Men en hel del spel-PC moderkort var hårt på grund av det.

Kortet vet inte att det kan dra hur mycket på 6pin (t.ex. upp till 108W), utan vet bara hur man drar den efterfrågade effekten enligt det förprogrammerade mönstret. I ditt korts fall. Det verkar som att kortet i stort sett bara delar efterfrågan med 2. Därför, om man verkligen drar 180W, kan det betyda 90W från 6-stiftet och 90W från kortplatsen.

Hur som helst, om EFI inte gör någon skillnad, men multi GPU gör det, så låter det som drivrutinskonflikt.

GPU-Z mätte endast 130-135W maximal användning på RX-580. Den visar också korrekt spänningen max 1,025VDC. Jag provade en annan testprogramvara och frekvensen hoppade till 1300ish
Jag lyckades också få båda korten att matas ut till skärmarna i HS genom att använda miniDP till VGA-omvandlare. Så båda bildskärmsportarna fungerar korrekt, men DVI stängs av i 2-kortskonfiguration.

h9826790

3 april 2014
Hong Kong
  • 12 februari 2019
startergo sa: GPU-Z mätte endast 130-135W maximal användning på RX-580. Den visar också korrekt spänningen max 1,025VDC. Jag provade en annan testprogramvara och frekvensen hoppade till 1300ish
Jag lyckades också få båda korten att matas ut till skärmarna i HS genom att använda miniDP till VGA-omvandlare. Så båda bildskärmsportarna fungerar korrekt, men DVI stängs av i 2-kortskonfiguration.

130-135W GPU-förbrukning eller grafikkortsförbrukning?

Kollade du i AMD-drivrutinpanelen om power tune är 50%.

Hur som helst, det verkar som att 6xx MHz beror på effektstrypning. AMD släppte fixen (som förhindrar att kortet drar för mycket från PCIe-kortplatsen) via drivrutinsuppdatering, det är möjligt att ditt korts strömförbrukning begränsas av drivrutinen på grund av det. Men i macOS kan dess beteende vara annorlunda på grund av att det inte längre finns någon extra begränsning av strömförbrukningen från drivrutinen. Hur som helst, så låg NG som ditt dagliga arbetsflöde inte kör Furmark, borde det inte vara ett problem.

startergo

Originalaffisch
20 september 2018
  • 12 februari 2019
h9826790 sa: 130-135W GPU-förbrukning eller grafikkortsförbrukning?

Kollade du i AMD-drivrutinpanelen om power tune är 50%.

Hur som helst, det verkar som att 6xx MHz beror på effektstrypning. AMD släppte fixen (som förhindrar att kortet drar för mycket från PCIe-kortplatsen) via drivrutinsuppdatering, det är möjligt att ditt korts strömförbrukning begränsas av drivrutinen på grund av det. Men i macOS kan dess beteende vara annorlunda på grund av att det inte längre finns någon extra begränsning av strömförbrukningen från drivrutinen. Hur som helst, så låg NG som ditt dagliga arbetsflöde inte kör Furmark, borde det inte vara ett problem.
Jag tror att det är något fel på Furmarken då jag testade med en annan mjukvara (glömde vilken) och kortet gick i full fart i ett stresstest. Plus att den inte ser ordentligt spänningsdrag. Men ja GPU-Z mätte 135W strömförbrukning, vilket motsvarar ROM-gränsen.

h9826790

3 april 2014
Hong Kong
  • 12 februari 2019
startergo sa: Jag tror att det är något fel på Furmark då jag testade med en annan mjukvara (glömde vilken) och kortet gick i full fart i ett stresstest. Plus att den inte ser ordentligt spänningsdrag. Men ja GPU-Z mätte 135W strömförbrukning, vilket motsvarar ROM-gränsen.

Förutom Furmark kan du prova OCCT.
Reaktioner:startergo

MIKX

16 december 2004
Japan
  • 25 juni 2019
startergo

Vad har du för GPU-strömkablar för båda korten? Senast redigerad: 25 juni 2019