AMD Radeon R9 Fury X / R9 Fury / R9 Nano

Litteratur d.  16. juni. 2015, skrevet af morra19
Vist: 5053 gange.

morra19
 
Moderator
Tilføjet:
16-06-2015 22:01:07
Svar/Indlæg:
2672/468
Så er der nyt fra AMD om de længe ventede grafikkort.

Læs mere her: http://hwt.dk/LiteratureDetail...
gammelgaard_mink
 
Elitebruger
Tilføjet:
16-06-2015 22:03:39
Svar/Indlæg:
979/49
Og lige den her sammen med, dual Fury GPU :P
http://wccftech.com/amd-offici...


Hr.
 
Elitebruger
Tilføjet:
16-06-2015 22:05:26
Svar/Indlæg:
1363/125
Ser frem til danske priser og specielt nogle rigtige test. :D


gandalf18
 
Ny Skribent
Tilføjet:
16-06-2015 22:14:46
Svar/Indlæg:
5678/460
Troede fury x var den hurtigere af dem ? . ville den så ikke slås med titan x ? istedet for den mindre udgave af den chip som sidder på 980ti ?


morra19
 
Moderator
Tilføjet:
16-06-2015 22:21:46
Svar/Indlæg:
2672/468
#3 Rettet. 😉


gandalf18
 
Ny Skribent
Tilføjet:
16-06-2015 22:45:47
Svar/Indlæg:
5678/460
men tror fury bliver dyrt når det kommer fordi den kommer i så få antal .. når de får gang i produktion af HBM ram så bliver det spændene og se hvad de havner i , men også spændene hvad nvidia kan lave af ballade med HBM2 om de kommer med højere bitrate eller samme som AMD og så med højere mhz .. kunne være spændene lad os nu se hvad fremtiden bringer når nvidia kommer med Pascal :)


ek91
 
Overclocker
Tilføjet:
16-06-2015 23:18:28
Svar/Indlæg:
255/14
er der nogen udsigter til hvornår nvidia smider Pascal ud Gandalf ?

tænker, om det er nu man skal sælge sit ellers nye Gtx 970 strix sli setup (den ene bliver først sat i i morgen tidlig) hvor det andet kort ellers har kørt lige over 2 uger i maskinen..

for at opgradere til et single kort (amd's self :D) eller om det kan betale sig at beholde kortene, for at afvente Nvidia's "Pascal", hvis den selvfølgelig kommer inden for rimelig tid. 🤣


kasperlarsen9670
 
Superbruger
Tilføjet:
16-06-2015 23:19:44
Svar/Indlæg:
55/9
#5
MRSP på 650$, præcis som 980 ti.

Jeg ingen forventninger om, at de bliver dyrere end det.

Få antal? Hvor få? Hvad er din kilde på dette?

Prøv så at tænk endnu længere ud i fremtiden! Hvor meget ballade kan AMD så lave med HBM2! NEJ HBM9!! NEJ!! NEEJ!! 😎

Lad os lige forholde os til first gen. HBO 😀


canny
 
Superbruger
Tilføjet:
16-06-2015 23:26:39
Svar/Indlæg:
1500/79
"Fury X bliver et vandkølet grafikkort, mens Fury kan erhverves med enten vand eller luftkøler. Nano må nøjes med luftkøler."

Så Fury X bliver så hjernedødt varmt at det ikke kan klares med luft ? :no:


ek91
 
Overclocker
Tilføjet:
16-06-2015 23:29:50
Svar/Indlæg:
255/14
det vel bedre at være på den sikre side, end at ende ud med noget lort som Nvidia gjorde med deres GTX 980ti (som brændte varm efter få minutters spil, og down clockkede) ?


kasperlarsen9670
 
Superbruger
Tilføjet:
16-06-2015 23:40:04
Svar/Indlæg:
55/9
#8
Jeg synes det er premium og det må åbne op for gode OC muligheder!

Man må gå ud fra at både ram og gpu er kølet af blokken! Det ville pakke ganske fint i mit mITX setup.


Anonym2021815192642
 
Elitebruger
Tilføjet:
16-06-2015 23:42:07
Svar/Indlæg:
2418/151
det nogen gode priser i forhold til Nvidia 😀 det vil vi se mere af...http://www.guru3d.com/news-sto...


Morpheuz1986
 
Elitebruger
Tilføjet:
16-06-2015 23:53:18
Svar/Indlæg:
486/37

Er jeg den eneste, der synes at Nano kortet lyder spændende ?
begrænset størrelse og langt lavere strømforbrug end vi længe har set fra AMD ?



#13
ek91
 
Overclocker
Tilføjet:
16-06-2015 23:58:23
Svar/Indlæg:
255/14
Nej #12
Er selv voldsomt spændt :D
Men glæder mig endnu mere til at se priser, performance og udseende

Tror det ligger fast.... Farvel igen Nvidia, Hello Amd :D


bobse48
 
Overclocker
Tilføjet:
17-06-2015 00:03:38
Svar/Indlæg:
210/18
Det var på tide og ja 980 ti reference clocker ned allerede ved 70c først efter jeg vandkølede mit stoppet det men jeg bakker fuldt op om amd nu og der ryger nogle fury kort i så snart de kommer endelig er de på fronten igen


#15
ek91
 
Overclocker
Tilføjet:
17-06-2015 00:11:42
Svar/Indlæg:
255/14
Nu spørger jeg nok dumt...
Men er de nye ram, med den højere overførsel rate, ikke langt bedre end et gddr5 kort med flere ram ?

Tænker eks fury x vs titan x
4 Hbm vs 12 gddr5


Kaffe
 
Superbruger
Tilføjet:
17-06-2015 00:12:29
Svar/Indlæg:
422/10
ser frem til nogen grundige test af kortene, er spændt på hvordan de klarer sig, og hvor meget smæk der er for skillingen


bobse48
 
Overclocker
Tilføjet:
17-06-2015 00:31:25
Svar/Indlæg:
210/18
#15

Hvis du fulgte med i aftenens udsendelse ville du se det kørte både 4k og 5k uden problemer

4k 60fps
5k 45fps


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 00:34:31
Svar/Indlæg:
15982/637
#9/14: Ehm hvad snakker i om ? Det hele er en del af GPU Boost 2.0 princippet. Target temp på 980Ti er 83*c hvor blandingen af volt til GPU, køling, ram giver den bedste ydelse med reference kølingen.
Et GTX 980Ti downclocker først ved 93*c og i hvertfald ikke 70*c. Om eet af mine kører 60*c eller 85*c så har det stadig en boost clock på 1454Mhz.

#15: Teoretisk set måske, men det er langt fra sikkert i praksis. Godt nok skulle HBM gøre således at teksturer kan streames hurtigere igennem rammene og derved behøves en større Vram buffer ikke. Men det skal tages med et gran salt. Du kan se at forskelling ml. DDR og DDR4 til PC'er trods den massive fremgang i ydelse ikke har givet anledning til mindre brug af kapacitet.
Nogle spil sammen med GFX driveren gør det, at de bevarer nogle teksturer fra det pågældende sceneri i Vram bufferen, således at teksturerne faktisk ligger klar i bufferen til at smide på skærmen uden forsinkelse (dvs lav latency). Jo mere der kan lagres af en scene i Vram uden at der skal ske en tekstur "fornyelse" des mere flydende kan en scene forekomme. Dvs at der faktisk caches på Vram fremadrettet.
HBM 1 er i sin form limiteret til 4GB og i en ideel verden vil 4GB samt den hurtigere datastrøm ml. GPU og Vram gøre at teksturer mere eller mindre kan streames direkte ind og ud af Vram uden forsinkelse (latency) - men om 4GB er nok til at kunne gøre det 100% effektivt er stadig spørgsmålet. Dertil kan kun de kommende reviews fortælle.

HBM 2 hvor der kan bruges langt større mængder end 4GB ligger klar til næste generation af nVidia og AMD kort.

#17: Jeps men desværre sagde hun aldrig hvilke settings. Kun "ultra high speed", hvilket jo ikke rigtig siger noget.


Svaret blev redigeret 2 gange, sidst af Gripen90 d. 17-06-2015 00:51:15.


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 00:38:53
Svar/Indlæg:
15982/637





Svaret blev redigeret 1 gang, sidst af Gripen90 d. 17-06-2015 00:40:04.


#20
ek91
 
Overclocker
Tilføjet:
17-06-2015 00:39:52
Svar/Indlæg:
255/14
#17
Har ikke fritid til at stene udsendelse... Har en ny opereret knægt at se til.

Der ud over svarede du egentlig ikke på spørgsmålet om hvorvidt at 4HBM ram med høj hastighed yder kontra gddr 5 med lav hastighed men med de flere ram.

Ved ikke om de har kørt et titan x på samme system og smidt det i 5k... Hvordan klarede det sig?

Og 45 fps?? Personligt ville jeg ikke acceptere under 60.. Men ok det jo i 5k

Men at påstå at 45fps bare køre,er som at påstå et integreret grafikkort køre bf4 flydende i 1080p.....


Svaret blev redigeret 1 gang, sidst af ek91 d. 17-06-2015 00:52:33.


#21
ek91
 
Overclocker
Tilføjet:
17-06-2015 00:47:28
Svar/Indlæg:
255/14
#18
TAK! Endelig et kvalificeret svar :)

Mht varme osv, har der været et par reviews, der har nævnt gtx 980ti havde problemer med varme ved spil, at det blev 8x grader og clokkede ned.

Hmm men næste gode spørgsmål, er man med HBM ram ikke ved at ramme Max overførsel til pci.ex16, eller ved xfire x8,x8?
Før eller senere må ens bundkort vel lave en flaskehals?


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 00:49:52
Svar/Indlæg:
15982/637
En opsummering på selve streaming er ca således:

AMD's main points so far

R7 360 - Entry level aimed at online games priced at $109 with 2 GB GDDR5
R7 370 - Offers more performance and comes with 4GB GDDR5 at $149
Both Cards DX12 compatible
R9 380 - $199
R9 390 - $329 with 8GB GDDR5
R9 390X - $429 also 8GB GDDR
All cards available above available on Thursday 18th June. No word on fury yet. Now they are talking about DX12
Footage of the new fable talking about the new features of Directx 12 with Lionhead.
Fable beta coming soon to windows 10. Can sign up on the fable website.
Stardock + Oxide studios talking about Ashes of the Singularity and about how DX12 allows bigger battles.
Talking about VR now.
Oculus and CCP guests on stage are now talking about the technical side of VR.
Multiple GPUs with LiquidVR doesn't add latency to rendering.
Specs req for VR is important. R9 290 and above is their recommendations.
Talking about EVE: Valkyrie and how it works with VR. Releasing Q1 2016.
GE guest on stage talking about non gaming implications of VR.
Chris Hook on stage about to announce something
Showing project Quantum which is a very small pc and has two Fiji processors.
Video showing development of Fiji and HBM. Talking about liquid cooling with high performance and memory bandwidth.
Dr. Lisa su on stage "to introduce the worlds fastest GPU"
R9 Fury X. Watercooled and showing it running sniper elite and tomb raider at 5k.
1.5x pref to watt of r9 290x.
R9 Fury none watercooled version in stores shortly.
R9 Nano just announced too. 6" GPU with fiji chip with 2 x preformance per watt of 290x. "double the power of r9 290x"
R9 Nano available this summer with other cards in the family.
Bringing AMD staff on stage to talk about the new GPUs
Fury x - 4096 stream processors, 8.6 Tflops and 8.9 billion transistors
Talking about how they offer they will offer the best 4k Experience
Now talking about HBM and making the card more power efficient. 3x the performance per watt of GDDR5. 94% less PCB surface.
Talking about how the future of VR and the massive power requirements it has. 16k resolution per eye, 120-240hz refresh rate and GPU engine requires 1 Peta flop.
Talking about fury series again and about the build quality.
VU meter showing GPU load in real time.
24th June fury X $649. July 14th Fury $549 and R9 nano later in summer and dual fiji gpu in the fall.


#23
ek91
 
Overclocker
Tilføjet:
17-06-2015 00:55:36
Svar/Indlæg:
255/14
Sweet tak gripen


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 01:02:52
Svar/Indlæg:
15982/637

#18
TAK! Endelig et kvalificeret svar :)

Mht varme osv, har der været et par reviews, der har nævnt gtx 980ti havde problemer med varme ved spil, at det blev 8x grader og clokkede ned.

Hmm men næste gode spørgsmål, er man med HBM ram ikke ved at ramme Max overførsel til pci.ex16, eller ved xfire x8,x8?
Før eller senere må ens bundkort vel lave en flaskehals?

ek91 skrev d. 17-06-2015 00:47:28


Det er også "korrekt", men jeg vil vove den påstand at de er fordi de aldrig helt har forstået GPU Boost 1.0 eller 2.0, for det samme gjorde sig gældende med hele Kepler serien.
GPU Boost er en balance mellem strømforbruget på kortet på GPU, Vram, Aktiv køling - til hver af tingene afstås en vis mængde watt. Det sted hvor alle 3 elementer samlet giver den bedste ydelse er med en dedikeret target temp. som er forud defineret i GPU'en.
F.eks hvis man tillader at GPU'en bliver lidt varmere så kan GPU boost på MHz faktisk forøges, men hvis man vil have max køling så RPM hastigheden er i top så booster kortet faktisk lidt mindre men er køligere, det er fordi watt forbruget tildeles kølingen istedet istedet for watt til højere GPU boost clock.

Så jo hvis et GTX 980Ti når 83*c og f.eks clocker ned fra 1240MHz til 1220MHz, så skyldes det for ikke at høje RPM niveauet til at køle GPU'en og så faktisk måske opnå en lavere boost clock end oprindeligt. Så derfor clocker GPU'en blot let ned så den kan opretholde den optimale ydelse i forhold til GPU temperatur.
Det er derfor når firmaer laver custom PCB og med andre kølere, så kan de smide nogle voldsommere kølere på der kan køle bedre med stadig holder sig inden for rammerne hvor hvad køleren kan bruge i watt. Des bedre køler des mindre wattforbrug til kølingen tildeles og bruges derfor på højere GPU boost.
Håber det gav lidt mening 🙂


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 17-06-2015 01:04:37.


#25
ek91
 
Overclocker
Tilføjet:
17-06-2015 01:07:25
Svar/Indlæg:
255/14
Det gav enormt meget mening.

Bukker og takker, :)
Men, er bare sikker på kortet er blevet hakket ned i de 2 tests jeg læste, og der efter mistede jeg al interesse for det.


bobse48
 
Overclocker
Tilføjet:
17-06-2015 01:09:41
Svar/Indlæg:
210/18
Gripen

Lad os se når der kommer reviews på bordet... Jeg syntes bare det er synd at folk som dig og Kvist køber 3stk Gtx 980 ti uden i aner hvad amd kommer med og alle de 970 du havde før.. Når amd virkelig har brug for støtten og de har haft 295x2 som køre genialt jeg fatter bare ikke i er så ligeglad med konkurrencen når amd virkelig har brug for noget omsætning. Jeg har købt 5stk 290x samt 1stk 295x2 og mere til på under 1 år... Hvis vi skal holde amd kørende må vi sku hjælpes ad.. Jeg er selvstændig og sælger udelukkende amd maskiner da jeg virkelig kæmper for deres sag for ellers ender vi sku med nvidia tager 10000kr for deres næste flagskib. Førhen hed det sku maks 5000kr for det største higend vi kunne købe.

Det tyder jo på uanset hastighed på det nye fury kort køber du åbenlyst flere 980 ti med glæde så der er da ingen tvivl om du følge den grønne vej uanset hvad.


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 01:42:23
Svar/Indlæg:
15982/637

Gripen

Lad os se når der kommer reviews på bordet... Jeg syntes bare det er synd at folk som dig og Kvist køber 3stk Gtx 980 ti uden i aner hvad amd kommer med og alle de 970 du havde før.. Når amd virkelig har brug for støtten og de har haft 295x2 som køre genialt jeg fatter bare ikke i er så ligeglad med konkurrencen når amd virkelig har brug for noget omsætning. Jeg har købt 5stk 290x samt 1stk 295x2 og mere til på under 1 år... Hvis vi skal holde amd kørende må vi sku hjælpes ad.. Jeg er selvstændig og sælger udelukkende amd maskiner da jeg virkelig kæmper for deres sag for ellers ender vi sku med nvidia tager 10000kr for deres næste flagskib. Førhen hed det sku maks 5000kr for det største higend vi kunne købe.

Det tyder jo på uanset hastighed på det nye fury kort køber du åbenlyst flere 980 ti med glæde så der er da ingen tvivl om du følge den grønne vej uanset hvad.

bobse48 skrev d. 17-06-2015 01:09:41


Grunden til jeg i de senere par år har fulgt den grønne vej har faktisk været meget lige til på et par vigtige punkter. Det er fordi, at det jeg bruger min primære PC til, der har der fra AMD side ikke været noget alternativ til.
1) Jeg har brug for CUDA cores til min redigering, også selv om det ikke er så meget som tidligere.
2) SLi profiler som jeg har mulighed for selv at lave i Nvidia Inspector. AMD har desværre ikke tilbudt dette i nogen tools til deres CrossFire løsninger. ATi Tray Tools havde tilbød en gang muligheden, men efter ATi HD5800 serien stoppede det med AMD navnets officielle overtagelse.
3) Jeg er enormt glad for at spille Falcon 4.0 fra 1998 som stadig holdes i live af et stort fan community, men desværre kører spillet ikke ret godt på AMD kortene.
4) R9 290X var ellers ved at overtale mig, men den ringe reference løsning som jeg vidste jeg ville bruge til 3 kort ville blive et varme orgie uden lige. Så fokus faldt tilbage på the green team.
5) Jeg er altså bidt at PhysX når det er muligt at bruge. Det må jeg indrømme.

Og allersidst, nu hvor alle mine resterende nVidia 970 kort bliver afsat så har jeg en maskine uden grafikkort... der kunne meget vel blive plads til enten R9 Nano, Fury eller Fury X.

Faktisk så har jeg indtil 2011 altid haft to PC'er med ben i hvert hold. En maskine med AMD GPU og en anden med NVidia GPU.

Jeg har absolut intet imod AMD og ønsker, at det går dem godt... men jeg kan altså bare ikke smide de ting ud af vinduet jeg efterspørger til eget brug blot for at støtte dem.


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 17-06-2015 01:45:47.


bobse48
 
Overclocker
Tilføjet:
17-06-2015 01:48:02
Svar/Indlæg:
210/18
#27

Det syntes jeg sku er fair nok du har nogle grunde jeg kan bruge til noget dog ikke lige det med kølingen på 290x der kunne du bare vælge en med aftenstjernen køler


#29
Ebo
 
Superbruger
Tilføjet:
17-06-2015 05:27:05
Svar/Indlæg:
709/10
Jeg har bestemt mig, enten bliver det Fury X eller osse "bare" Fury.

Prisen er underordnet, det handler helt for mig om hvilket kort der kommer først i butikkerne herhjemme.


gammelgaard_mink
 
Elitebruger
Tilføjet:
17-06-2015 08:06:36
Svar/Indlæg:
979/49


kasperlarsen9670
 
Superbruger
Tilføjet:
17-06-2015 08:15:05
Svar/Indlæg:
55/9
#30
rumored
Posted: 5 days, 12 hours ago

Det er desuden afkræftet af mindst ligeså mange rygte-børser. Dog ikke noget officielt på nogen sider af den sag.

Lad os tolke det som om der ikke er hold i noget af det.

Hvis AMD kun solgte 30.000 eksemplarer af Fiji ville de gå konkurs på stedet. Det svarer til et samlet MRSP på lige under 20.000.000$, og da AMD tjener langt under MRSP, er det ulogisk med et oplag på kun 30.000 😎


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 09:47:10
Svar/Indlæg:
8947/160
Hhhmmmm, jeg er sku lidt skuffet over den "launch" jeg var helt oppe at ringe da jeg så den, og ingen tvivl om at de har et rigtig stærkt gfx lineup denne gang, og til rigtig gode priser. Ydelse pr krone, ydelse pr watt osv er alt sammen super. Det jeg savner er nogle rigtige tal/benchmarks af kortene. Men igen, hvis så testerne så har andre resultater vil AMD se dumme ud.


KleitusIV
 
Redaktør
Tilføjet:
17-06-2015 09:52:44
Svar/Indlæg:
4295/306
Nu må der snart komme et 290x Tri-X kort til salg brugt så jeg kan lege med noget CF. 😛


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 10:21:56
Svar/Indlæg:
8947/160
33# Det bliver ikke mit, jeg er SÅ glad for det (mit er dog kun et 290 tri-x (non X) 😛 Men den forskel der er i ydelsen er jo så lidt at det er ligegyldigt. Men der er vist et som mit på dba, det står til 1700 , bud er oppe på 1450kr og det er næsten ubrugt med restgaranti. Du kan jo prøve at byde lidt mere, hvis ellers du vil nedlade dig til at køre crossfire med et non-x. :yes: . Jeg tror nu dit eget tri-x vil blive glad for at lege med sin lillebror..

Svaret blev redigeret 1 gang, sidst af Shutdown d. 17-06-2015 10:24:02.


matt??
 
Elitebruger
Tilføjet:
17-06-2015 10:57:55
Svar/Indlæg:
5600/32
#33, Sidder jeg også og venter på. 😛
Men føler mig nu også ret fristet af Fury. Glæder mig til at se hvad det kan.


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 11:30:34
Svar/Indlæg:
15982/637
#32: Enig. Jeg havde forventet nogle forløbige benchmarks, hvor de viste Fury & Fury X vs R9 290/290X og evt R9 295X2, så man havde noget konkret at gå ud fra.
Deres video med 5K i Sniper Elite 3 med 45FPS sagde de intet om i hvilken kvalitet de kørte, men over på forums.overclockers.co.uk er der flere der selvfølgelig ville prøve at emulere resultatet på GTX Titan X og 980Ti. Der blev testet ved stock clocks i 4K + DSR 1 = 5K i Ultra details med 4xMSAA og der lå FPS i average på 47FPS. Så hvis det er de samme indstillinger AMD har brugt, så kan Fury X meget vel være lig Titan X/980Ti i ydelse 🙂
Så vidt jeg ved er/var der op til release i går ikke engang sendt Fury kort ud til anmeldere til tests... Så der bliver da virkeligt travlt d.24 i næste uge hvis alt skal falde i hak 🙂


Jacobth
 
Superbruger
Tilføjet:
17-06-2015 12:00:24
Svar/Indlæg:
63/16
Jeg syntes personligt det ser ud til AMD kommer lidt på banen igen.

såfremt de kan få deres FIJI release ordenligt ud.

desuden er et rebrand af sidste års modeller heller ikke helt tosset, da de jo kommer til at være super billige med latterlig performance :)


KleitusIV
 
Redaktør
Tilføjet:
17-06-2015 12:29:44
Svar/Indlæg:
4295/306
#34 Jeg har set det, men jeg vil ikke byde mit X kort at skulle lege sammen med lillebror. 😛


canny
 
Superbruger
Tilføjet:
17-06-2015 12:58:15
Svar/Indlæg:
1500/79

Jeg syntes personligt det ser ud til AMD kommer lidt på banen igen.

såfremt de kan få deres FIJI release ordenligt ud.

desuden er et rebrand af sidste års modeller heller ikke helt tosset, da de jo kommer til at være super billige med latterlig performance :)

Jacobth skrev d. 17-06-2015 12:00:24


Ja de 8gb ram lokker også lidt. Mit 780 TI kommer fx til kort i GTA V :)


Anonym2021815192642
 
Elitebruger
Tilføjet:
17-06-2015 13:36:04
Svar/Indlæg:
2418/151


Anonym2021815192642
 
Elitebruger
Tilføjet:
17-06-2015 13:42:35
Svar/Indlæg:
2418/151
jeg vil godt se hvad 390x kan overclockes til


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 14:06:40
Svar/Indlæg:
8947/160
36# Nu ved jeg ikke om du så hele deres "launch" men han sagde flere gange at de havde verdens hurtigste grafikkort (Det tror jeg simpelthen ikke de ville gøre hvis ikke der var en smule sandhed i det, det ville da være at grave sin egen grav). Om det så er 2-5% er imo ligemeget, bare de er "med igen", og deres ydelse pr watt ser jo også ganske fornuftigt ud, ligesom de har flere interessante kort (mini itx, vandkølede modeller osv, "billige" finpudsede 8gb 390-390x kort osv) Nu skal vi bare se hvor meget de har tænkt sig at presse Nvidia med pris/ydelse som egentlig er det jeg syntes er interessant, altså de har jo allerede en vinder med deres 295x2 som til prisen vel stadig er det kort der pumper flest fps ud i til prisen i de helt høje opløsninger.


bobse48
 
Overclocker
Tilføjet:
17-06-2015 14:33:11
Svar/Indlæg:
210/18
#40

det ser rigtig godt ud så kan man godt sætte sit 980 ti i sin secundær maskine.

jeg har pengepungen klar amd så bare smid dem på gaden


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 14:59:32
Svar/Indlæg:
15982/637

36# Nu ved jeg ikke om du så hele deres "launch" men han sagde flere gange at de havde verdens hurtigste grafikkort (Det tror jeg simpelthen ikke de ville gøre hvis ikke der var en smule sandhed i det, det ville da være at grave sin egen grav). Om det så er 2-5% er imo ligemeget, bare de er "med igen", og deres ydelse pr watt ser jo også ganske fornuftigt ud, ligesom de har flere interessante kort (mini itx, vandkølede modeller osv, "billige" finpudsede 8gb 390-390x kort osv) Nu skal vi bare se hvor meget de har tænkt sig at presse Nvidia med pris/ydelse som egentlig er det jeg syntes er interessant, altså de har jo allerede en vinder med deres 295x2 som til prisen vel stadig er det kort der pumper flest fps ud i til prisen i de helt høje opløsninger.

Shutdown skrev d. 17-06-2015 14:06:40

Jeg det bed jeg mærke i og det gjorde de også på overclockers.co.uk og der er en hæftige debat.
Det er muligt at de har det hurtigste grafikkort netop da de jo annoncerede at have et Dual GPU kort med 2x Fury X, og det vil naturligt blive det hurtigste grafikkort der er pt, men spørgsmålet er så på single GPU plan om de også har det hurtigste der ?. Det vil reviews'ne vise og jeg er sikker på at d.24/6 der har nVidia smidt en ny WHQL driver på banen til at presse alt det de kan ud af deres seneste line up 🙂 Men spændende det er det i hvert fald.


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 17-06-2015 15:05:06.


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 15:04:35
Svar/Indlæg:
15982/637

http://www.guru3d.com/news-sto...

Anonym2021815192642 skrev d. 17-06-2015 13:36:04

Interessant - hvis det holder så kommer Fury X med 4GB HBM til kort overfor sin R9 390X 8GB bror i 8K... selv om det alligevel ikke er spilbart, men det giver da en mulig prognose for HBM 1 vram.


kasperlarsen9670
 
Superbruger
Tilføjet:
17-06-2015 15:50:35
Svar/Indlæg:
55/9
#45
Ja, prognosen må være at Fury X ser ud til at være kongen til og med 4k gaming.

I 5k taber den pusten, til de kort der har flere GDDR5 ram.

Så er pøblen også ligesom skåret væk 😲


KleitusIV
 
Redaktør
Tilføjet:
17-06-2015 16:03:48
Svar/Indlæg:
4295/306
Jeg ser pøblen for mig sidde med deres 1080p skærme og brokke sig over at de nye grafikkort ikke har ram nok til 8k gaming.... 🤣

Tror sgu der går mange år før 4k bliver mainstream. Indtil nu er der ikke rigtig DEN fede skærm der gør man har lyst til at skifte, uden det koster spidsen af en jetjager. HDMI 2.0 er ikke engang ordentligt på plads endnu og grafikkort understøtter det ikke.

På sigt kan jeg godt se et 40" 4K TV være sjovt at smide på skrivebordet til PC'en. Det må da være noget af en opgradering. 😲


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 16:47:34
Svar/Indlæg:
15982/637
#47: Jeg må indrømme at jeg spiller i 2560x1440 med DSR 1 upscaling til 4K og det er godt nok lækkert - men jo det trækker da også lidt tænder når man så lige smider lidt SMAA anti aliasing oven i, men for fa'en så har man et 99% jaggies frit kvalitets billede ❤


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 16:50:44
Svar/Indlæg:
8947/160
Ja , jeg er også langt fra 4k . Kan faktisk ikke rigtig se noget pixelering ved alm hd . Så jeg kan slet ikke forstå folk er så vilde for at få det . Om ikke andet burde en 2560x 1440 ihvertfald være rigeligt . Det er nok noget "fordi man kan" og min er større end din vi er ude i . Skærmen skal ihvertfald være mindst 27" før 2560x 1440 bliver overvejet det mindste .


kasperlarsen9670
 
Superbruger
Tilføjet:
17-06-2015 17:34:37
Svar/Indlæg:
55/9
#49
Jeg er fornyligt skiftet fra 24'' 1080p til 25'' 1440p, og kan se en tydelig forskel.

Indrømmet, den er ikke stor, og under heftig gaming er det glemt.

Købte tilgengæld heller ikke skærmen udelukkende på grund af opløsningen, men også for at få et nyere IPS panel.


KleitusIV
 
Redaktør
Tilføjet:
17-06-2015 19:00:39
Svar/Indlæg:
4295/306
Ja enig da jeg gik til 27" IPS 1440p var også et fantastisk skift, og de fleste "eksperter" er også enige i det er noget nær det optimale ifht ppi. Samtidig er 4k i samme skærmstørrelse alt for småt, og man skal op i 40" 4k for at få samme ppi. Philips 40" monitor ser faktisk ret så lækker ud. Selvfølgelig vil gaming have glæde af høj opløsning og ikke blive påvirket på samme måde, men det er jo ikke det eneste man laver på en PC. 🙂

Bliver spændende at se hvordan win10 håndterer super opløsninger. Og også Dx12 skalering af gfx ram på CF og SLI setups.


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 19:14:42
Svar/Indlæg:
8947/160
Men stadig, hvis Fiji med sine 4gb hbm er rigeligt til 4k er der jo ingen problemer. Og måske forsvinder problemet af sig selv hvis man kommer til at udnytte ALLE sine grafikram i dx12. Hvad koster en fornuftig 27/30" 2560x1440 skærm i dag.?


kasperlarsen9670
 
Superbruger
Tilføjet:
17-06-2015 19:27:39
Svar/Indlæg:
55/9
#52
CDON har for nyligt haft en anmelderrost BenQ 27'' IPS på tilbud til 2600. 😎

Så man kan være heldig

Jeg har selv lige købt en 25'' 1440p skærm og er godt tilfreds med en rigtig fed ppi og flot ips panel 😲 . En U2515H til ca 2400, hvis det skulle have interesse.



Svaret blev redigeret 1 gang, sidst af kasperlarsen9670 d. 17-06-2015 19:28:00.


Gripen90
 
Senior Skribent
Tilføjet:
17-06-2015 19:29:34
Svar/Indlæg:
15982/637

Men stadig, hvis Fiji med sine 4gb hbm er rigeligt til 4k er der jo ingen problemer. Og måske forsvinder problemet af sig selv hvis man kommer til at udnytte ALLE sine grafikram i dx12. Hvad koster en fornuftig 27/30" 2560x1440 skærm i dag.?

Shutdown skrev d. 17-06-2015 19:14:42

Ml. 2500-3000kr hvis det skal være en rimelig en også til spilbrug 🙂


#55
ek91
 
Overclocker
Tilføjet:
17-06-2015 19:31:04
Svar/Indlæg:
255/14
Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5


Biostud
 
Elitebruger
Tilføjet:
17-06-2015 19:45:19
Svar/Indlæg:
2897/83

Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5

ek91 skrev d. 17-06-2015 19:31:04


Du får stadigt kun 4Gb pr. GPU

Man har aldrig fordoblet den effektive ram mængde i SLI/CF


#57
ek91
 
Overclocker
Tilføjet:
17-06-2015 19:48:02
Svar/Indlæg:
255/14

Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5

ek91 skrev d. 17-06-2015 19:31:04


Du får stadigt kun 4Gb pr. GPU

Man har aldrig fordoblet den effektive ram mængde i SLI/CF

Biostud skrev d. 17-06-2015 19:45:19


Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 20:05:14
Svar/Indlæg:
8947/160
57# Det er ikke sikkert at det kommer til at virke, det kræver vist også at spiludviklerne skal kode rigtigt til det. Og det koster jo penge , såååeee. Men lad os nu se, det kunne være virkelig fedt, og pludselig ville kort med 2-3-4gb ram være rigtig gode til større multi gpu setups. Feks 3 "gamle" 780ti i sli, 9gb ram og rigeligt med råstyrke til 4k. Så ingen tvivl om at det ville være super godt for alle os der er glade for multi gpu setups.


#59
las
 
Elitebruger
Tilføjet:
17-06-2015 20:14:10
Svar/Indlæg:
2151/51
Jeg glæder mig meget til at se de luftkølede Fury kort, jeg håber ikke kun det bliver den vandkølede udgave der får den fulde chip, for jeg gider ikke unødig støj i mit kabinet i form af en billig pumpe. Når man kører med ren SSD, Noctua PWM fans på ~500 rpm og en semi-passiv PSU skal der ikke meget til at ødelægge stilheden.

Ser frem til at se rigtige spil benchmarks istedet for 3dmark..



#60
ek91
 
Overclocker
Tilføjet:
17-06-2015 20:35:37
Svar/Indlæg:
255/14
#58
Det sandt, men dx12 ville jo samtidig gavne 3d redigering mv. Så tror bestemt det bliver en succes

#59
er det en smule had og fordomme omkring amd's komponent valg ;)?

Kan da være den rent faktisk er helt ok, og ikke siger synderlig meget :)?


Svaret blev redigeret 1 gang, sidst af ek91 d. 17-06-2015 20:36:52.


morra19
 
Moderator
Tilføjet:
17-06-2015 20:56:09
Svar/Indlæg:
2672/468
#60 Corsairs AIO vandkølere er i manges øjne også stille, men jeg kan tydeligt høre pumpen, så hælder også til luftkølere.


#62
ek91
 
Overclocker
Tilføjet:
17-06-2015 21:17:50
Svar/Indlæg:
255/14
#61 sandt.
Men det var nu alligevel noget af en beskyldning nu når ingen faktisk kender til pumpen på kortet :)?


Biostud
 
Elitebruger
Tilføjet:
17-06-2015 21:24:02
Svar/Indlæg:
2897/83

Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5

ek91 skrev d. 17-06-2015 19:31:04


Du får stadigt kun 4Gb pr. GPU

Man har aldrig fordoblet den effektive ram mængde i SLI/CF

Biostud skrev d. 17-06-2015 19:45:19


Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"

ek91 skrev d. 17-06-2015 19:48:02


Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.


Svaret blev redigeret 1 gang, sidst af Biostud d. 17-06-2015 21:27:37.


#64
ek91
 
Overclocker
Tilføjet:
17-06-2015 21:38:50
Svar/Indlæg:
255/14

Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5

ek91 skrev d. 17-06-2015 19:31:04


Du får stadigt kun 4Gb pr. GPU

Man har aldrig fordoblet den effektive ram mængde i SLI/CF

Biostud skrev d. 17-06-2015 19:45:19


Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"

ek91 skrev d. 17-06-2015 19:48:02


Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.

Biostud skrev d. 17-06-2015 21:24:02


Så tror jeg desværre vi er mange som kommer til at føle os dumme, og ikke mindst "snydt"

Eks se #58.

Syntes bare alle siger at dx12 vil kunne ligge vrm sammen når de kommer i sli/cf


#65
las
 
Elitebruger
Tilføjet:
17-06-2015 22:06:40
Svar/Indlæg:
2151/51
#60 Fordomme, tja vil nok mere sige fakta baseret på utallige erfaringer med AIO løsninger, også de dyreste af slagsen. Ingen af dem er hvad jeg betegner som støjsvage. Da en high end pumpe koster det samme som de fleste AIO kits, ved man jo på forhånd der ikke er tale om high end.

Så det er vist mere alm. sund fornuft end fordomme..


#64 Snydt? Nej, man har muligheden i DX12, hvis udviklerne koder spillene decideret til det, det gør de næsten med garanti bare ikke, da spil i dag bliver udviklet med kæmpe fokus på konsollerne, som ikke har multi GPU. Derfor er det en utroligt lille del af gamere der vil få nytte af den feature, så de fleste udviklere vil bare spilde deres tid og tid er penge.


Biostud
 
Elitebruger
Tilføjet:
17-06-2015 22:16:37
Svar/Indlæg:
2897/83

Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5

ek91 skrev d. 17-06-2015 19:31:04


Du får stadigt kun 4Gb pr. GPU

Man har aldrig fordoblet den effektive ram mængde i SLI/CF

Biostud skrev d. 17-06-2015 19:45:19


Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"

ek91 skrev d. 17-06-2015 19:48:02


Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.

Biostud skrev d. 17-06-2015 21:24:02


Så tror jeg desværre vi er mange som kommer til at føle os dumme, og ikke mindst "snydt"

Eks se #58.

Syntes bare alle siger at dx12 vil kunne ligge vrm sammen når de kommer i sli/cf

ek91 skrev d. 17-06-2015 21:38:50


Tjho, men hvordan skulle en GPU kunne hente med andet end PCIe hastighed på tværs af kortene, det er jo en 20-30 GBps mod 512Gbps....


Shutdown
 
Elitebruger
Tilføjet:
17-06-2015 22:21:36
Svar/Indlæg:
8947/160
Ja , bare synd de ikke har mere fokus på pc gamere . Fakta er at selv en ældre mellemklasse pc er kraftigere end selv den bedste konsol . Så hvis man ville kunne spillene blive både langt flottere og mere realistiske, og køre med meget bedre fps end det er tilfældet idag . Men det koster jo at kode ordentligt fremfor at lave en hurtig portning fra en møgkonsol . ØV

Svaret blev redigeret 1 gang, sidst af Shutdown d. 17-06-2015 22:24:21.


jonas-ktm
 
Superbruger
Tilføjet:
17-06-2015 22:54:21
Svar/Indlæg:
420/72
er der mon nogen chancer for at vi vil se benchmarks i morgen??


kasperlarsen9670
 
Superbruger
Tilføjet:
17-06-2015 23:41:45
Svar/Indlæg:
55/9
#68
Nej, reviews/benchmarks bliver frigivet d. 24 når kortet har officiel launch. 😎


Gripen90
 
Senior Skribent
Tilføjet:
18-06-2015 01:15:43
Svar/Indlæg:
15982/637

Noget helt andet slår mig...
Kan man med dx12 køre crossfire med eks 2x furyx kort?
I det tilfælde må den da gå ind og udnytte 8 Gb ram??
Også har man vel noget nær verdens videste grafik,?
Ved dog ikke om HBM ram vil scale på samme måde som Gddr5

ek91 skrev d. 17-06-2015 19:31:04


Du får stadigt kun 4Gb pr. GPU

Man har aldrig fordoblet den effektive ram mængde i SLI/CF

Biostud skrev d. 17-06-2015 19:45:19


Dx12 skulle da netop lade dig lægge dine ram sammen i sli/cf kontra dx11/11.1 hvor kun gpu power bliver lagt sammen, og ram forbliver "passiv"

ek91 skrev d. 17-06-2015 19:48:02


Nej, indholdet af rammen behøves bare ikke være spejlede ved de to GPU'er (som det gør ved DX11), men det betyder ikke at GPU'erne kan bruge hinandens ram.

Biostud skrev d. 17-06-2015 21:24:02


Så tror jeg desværre vi er mange som kommer til at føle os dumme, og ikke mindst "snydt"

Eks se #58.

Syntes bare alle siger at dx12 vil kunne ligge vrm sammen når de kommer i sli/cf

ek91 skrev d. 17-06-2015 21:38:50


Tjho, men hvordan skulle en GPU kunne hente med andet end PCIe hastighed på tværs af kortene, det er jo en 20-30 GBps mod 512Gbps....

Biostud skrev d. 17-06-2015 22:16:37


Det behøver de heller ikke. Hvis det beregnede billede deles op imellem kortene f.eks således at 1 kort tager øverste halvdel og nr 2 tager nederste halvdel (eller hvordan man vælger det f.eks også checkerboard metoden, der findes en del i AFR 1/2 mv)) og de samtidig lagre hver de tegnede teksturer i hver deres rambuffer, så det sådan set at "problemet" er løst for så sker der ikke parallel lagring mere. Dvs at hver korts ram bliver brugt til forskellige teksturer og selv om Vrammene som så ikke "lægges" sammen, så betyder det dog at den samlede Vram mængde bliver brugt fuldt ud på forskellige teksturer. Så effektivt vil 2+2GB vram blive 4GB samlet buffer til teksturlagrig.
Problemet har i og for sig været hvordan man får to eller flere GPU'er til effektivt at lagre forskellige teksturer og hvordan man API mæssigt kommanderer dem til at gøre det på effektiv vis.
Jeg håber i hvert fald at dette snart 17år gamle "problem" bliver løst med DX12 API'env 🙂


Svaret blev redigeret 2 gange, sidst af Gripen90 d. 18-06-2015 01:20:00.


#71
ek91
 
Overclocker
Tilføjet:
18-06-2015 01:22:20
Svar/Indlæg:
255/14
Tak #70
Så fik vi dx12 på plads

Tror ikke der skal meget kodning til, for at fortælle gpu 2 eks klare bund, imens gpu1 klare top.
Og muligvis er det slet ikke nødvendigt at gøre "pr spil" men simpelthen lave det i en driver?


Gripen90
 
Senior Skribent
Tilføjet:
18-06-2015 01:29:39
Svar/Indlæg:
15982/637

Tak #70
Så fik vi dx12 på plads

Tror ikke der skal meget kodning til, for at fortælle gpu 2 eks klare bund, imens gpu1 klare top.
Og muligvis er det slet ikke nødvendigt at gøre "pr spil" men simpelthen lave det i en driver?

ek91 skrev d. 18-06-2015 01:22:20


Det er sådan set også sådan det fungerer i dag med multi GPU'er, men det er igen kun på selve GPU plan, hvor det handler om det at beregne og tegne et billede ligeligt mellem GPU'erne til maksimal udnyttelse, men det at kunne gøre det sammen med teksturlagringen til Vram er en helt anden problematik hvor det ikke blot er at lagre men også pre-fetche mv. Det har været hovedbrud i som sagt knap 17år.
3Dfx havde dog i sin tid med deres planlagte Rampage og Spectre grafikprocessorer en teknologi oppe omkring shadow memory som på software plan skulle lave en bro mellem to korts Vram mængde. Men inden de kom så langt bankede konkursen på døren.

Lige i forhold til AMD så har jeg lidt en ambivalent forhold til hvordan de lige pludselig "embracer" DX12 og forhøjer det til "gudestatus" i deres promotions.
Tænker vi blot tilbage til R9 200 lanceringen så var Mantle jo the thing for AMD og de gik direkte i API kamp mod Microsoft... men nu hvor de mere eller mindre har ladt Mantle dø i stilhed, så løber man over i anden grøft og prøver at ophøje det til next level når man for blot 2år siden var i direkte konkurrence mod det.... altså den ko-vending har jeg lidt svært ved at sluge.


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 18-06-2015 02:23:47.


Gripen90
 
Senior Skribent
Tilføjet:
18-06-2015 01:38:42
Svar/Indlæg:
15982/637
Forresten skulle nogen have lyst til at se hele AMD præsentationen igen eller som ikke nåede det, så kan man gense det hele her 🙂 :
https://www.youtube.com/watch?...


Svaret blev redigeret 1 gang, sidst af Gripen90 d. 18-06-2015 01:39:01.


Mekanikeren
 
Superbruger
Tilføjet:
18-06-2015 02:39:53
Svar/Indlæg:
258/57
Måske er det mig, men det AMD President Lisa siger ml. 49:10 og 49:30 giver da absolut ingen mening eller indikation på hvor gode de to kort er :no: "running 45FPS high speeds" & "running 60FPS Ultra high speeds". 😐


#75
ek91
 
Overclocker
Tilføjet:
18-06-2015 08:17:47
Svar/Indlæg:
255/14
#72
Det tror jeg undre os alle lidt.
Men de så vel hvor hårdt det var, når nu de skulle stå på egne ben, og samtidig kæmpe en kamp mod 2større penge magter.

Så tror måske, at de bare har valgt at følge med, for at bidrage lidt, men i særdeleshed høste goderne ved at kunne se præcis hvad der sker på tegne bordet :)

Og det er det, de vinder penge på nu


KleitusIV
 
Redaktør
Tilføjet:
18-06-2015 09:28:14
Svar/Indlæg:
4295/306
Det er vel også fordi AMD "tabte" kampen om Mantle og ikke kunne få spiludviklerne til at udvikle til Mantle. I teorien så det hele fantastisk ud for 2-3 år siden hvor AMD havde vundet både PS4 og XBox så fordelen var der virkelig hvis spiludviklerne ville udvikle til mantle og dermed lave en cross-platform API. MEN de glemte bare at nVidia sidder på 75% af PC grafikkort markedet og ingen spil-udvikler vil udvikle alene til Mantle. Derimod ser vi mange spiludviklere udvikle optimeret til nVidia (ubisoft er en af dem).

En anden ting er at det Mantle gjorde så fantastisk godt (udnyttelse af flere CPU kerner) er nu blevet en del af DirectX 12, så på en måde kan man sige at kernen i Mantle tankegangen er blevet indopereret i Dx12. Dette vil specielt give sig udslag i forskellen mellem Intel og AMD CPU'er som vi så med Mantle hvor AMD CPU'er pludselig kom meget tæt på Intel. Så på den måde er kampen jo ikke tabt, og AMD kan også se fordelen ved at få spiludviklere til at udnytte Dx12.


KleitusIV
 
Redaktør
Tilføjet:
18-06-2015 09:30:45
Svar/Indlæg:
4295/306
Jeg ved iøvrigt ikke hvordan AMD kunne tro at de kunne monopolisere API markedet når de kun sad på 25% af markedet. Det havde været noget andet hvis de sad på hele markedet som 3DFx gjorde dengang de havde GLide, og selv GLide tabte kampen til DirectX. 🙂


kasperlarsen9670
 
Superbruger
Tilføjet:
18-06-2015 09:42:41
Svar/Indlæg:
55/9
Mantle var vel ligeså meget for at presse udviklerne og bl.a microsoft til at tage sig sammen og få lavere kobling mellem hardware og software!

Tror nu vi skal prise os lykkelige for at Mantle satte en standard , som de "store" drenge ikke kunne kigge hen over.


slate_dk
 
Superbruger
Tilføjet:
18-06-2015 10:23:52
Svar/Indlæg:
651/11
#77 #76 Nu hvor Mantle er adopteret/overtaget af Kronos og kommer til at være en del af næste version af OpenGL (Vulkan).... så kommer understøttelsen til alle platforme og diverse operativsystemer.
Og uanset om dit spil bruger DX12 eller OpenGL Vulkan så er vi som brugere bedre stillet; efter så mange år har spil nu muligheden for at udnytte den hardware vi har stående.


Micks
 
Elitebruger
Tilføjet:
18-06-2015 10:38:47
Svar/Indlæg:
1145/40
Ingen HDMI 2.0 på Fury kortene:

http://www.guru3d.com/news-sto...


#81
ek91
 
Overclocker
Tilføjet:
18-06-2015 10:47:12
Svar/Indlæg:
255/14
Hmm så kan man vidst lige så godt vente til aftermarket kommer, og håbe på de finder ud af at smide hdmi 2.0 i...
På den anden side, bruger kun div-d til min skærm, men hdmi til hjemmebio


keld43
 
Overclocker
Tilføjet:
18-06-2015 11:00:54
Svar/Indlæg:
833/39
Jeg mindes nu heller ikke og have set et 4k fjernsyn uden dp stik.

Er hdmi ikke ved at blive skubbet af banen af dp port?

:)


Micks
 
Elitebruger
Tilføjet:
18-06-2015 12:53:25
Svar/Indlæg:
1145/40
Synes bare at de piller ved for mange ting - ingen hdmi 2.0, ingen DVI stik... hvad bliver det næste ?


keld43
 
Overclocker
Tilføjet:
18-06-2015 13:00:46
Svar/Indlæg:
833/39
Jeg kan nemt undvære hdmi og dvi.
Bare der der er skrald på grafikken.
Man kan få adaptere til mange ting.

Det er i hvertfald i småtings afdelingen af brok ;)


Micks
 
Elitebruger
Tilføjet:
18-06-2015 13:07:04
Svar/Indlæg:
1145/40
Joooh, men hvad så hvis man har en 120Hz monitor eller derover ?

Så skal man jo ud og have fat i en aktiv adapter og den er jo ikke helt billig.


KleitusIV
 
Redaktør
Tilføjet:
18-06-2015 13:59:22
Svar/Indlæg:
4295/306
HDMI 2.0 er et kæmpe miss. Nej TV har ikke DP de har alle HDMI 2.0 og det er utroligt det skal tage så lang tid for grafikkort producenterne at få det med. nVidia har ikke engang fuld HDMI 2.0 i deres 9xx serie.

Så er vi sat tilbage til monitors som har DP. Ikke noget med at bygge 4k HTPC eller smide computeren til et UHD TV.... 😐


#87
ek91
 
Overclocker
Tilføjet:
18-06-2015 14:10:04
Svar/Indlæg:
255/14
#86
Hvad med dp til hdmi 2.0?
Det må kunne skaffes


Shutdown
 
Elitebruger
Tilføjet:
18-06-2015 14:10:49
Svar/Indlæg:
8947/160
Jeg mener faktisk er der er en form for afgift på HDMI standarden , således at fabrikanterne skal betale omkring 100kr for at benytte det på feks et gfx . Hvis det er rigtigt bliver det alligevel til en pæn sjat for et firma som feks Nvidia


Ferns
 
Korrekturlæser
Tilføjet:
18-06-2015 14:43:17
Svar/Indlæg:
1442/81
MSI r9 390x gaming review:

http://www.overclock3d.net/rev...


Cani83
 
Elitebruger
Tilføjet:
18-06-2015 14:48:53
Svar/Indlæg:
2185/186
Det er virkelig nogle lækre AMD produkter :)


bobse48
 
Overclocker
Tilføjet:
18-06-2015 15:22:53
Svar/Indlæg:
210/18
det må man sige det har fået en rigtig god ydelse nu !


KleitusIV
 
Redaktør
Tilføjet:
18-06-2015 15:48:21
Svar/Indlæg:
4295/306
#87 Man kan ikke konvertere DP til HDMI 2.0. DVI kan heller ikke håndtere 4k opløsning i 60hz.

Hvis man vil smide sin computer til et UHD TV og køre 4k 60hz skal det gøres med HDMI 2.0 og det er pt. kun 9xx serien fra nVidia der kan det nogenlunde (men vist ikke i fuld spec har jeg læst).

Jeg sidder også og venter meget utålmodigt på at Intel og AMD får opdateret deres CPU/APU til at håndtere HDMI 2.0 så jeg kan få skiftet mit mediecenter med et der kan køre 4k. Men ak... ingen HDMI 2.0 endnu. Måske når Skylake kommer...


#93
ek91
 
Overclocker
Tilføjet:
18-06-2015 16:47:45
Svar/Indlæg:
255/14
#92
Læste bare et forum hvor folk talte om dp til hdmi
Nogle mente man kunne skaffe til 2.0 andre mente dog kun til 1.4 MEN at ved at gå fra dp, til hdmi burde det kunne køre som 2.0
Da 2.0 eftersigende kun skulle være ændret i transfer rate, og umiddelbart intet i selve kablet.

Se det er faktisk lidt spændende, nåede dog ikke at få læst hele forummet igennem før jeg igen skulle smide alt jeg havde i hænderne.... Kids wohoo


Jaller
 
Elitebruger
Tilføjet:
25-06-2015 14:35:57
Svar/Indlæg:
657/18