Nvidia Ada (RTX 4000)

La series 4000 n'est pas une bonne. Quand on compare la performance clock per clock et du nombre de cores.

4090:
16384 cores * 2520 MHz

3090:
10752 cores * 1860 MHz
----------------------------
En theorie, sans DLSS le 4090 devrais être au moins 2 fois plus vite qu'un 3090. Ce n'est vraiment pas le cas pour les benchmarks. Ça va probablement suivre pour les autres modeles qui vont sortir.

Aussi DLSS3 c'est de marde pour gamer oublie si c'est en bas de 120hz incluant le trick imageries.

C'est ok si tu veux le top comme la 4090. Pour le reste de la series qui s'en vient, trop cher pour le peu de gain au dessus de l'ancienne generation.
 
La series 4000 n'est pas une bonne. Quand on compare la performance clock per clock et du nombre de cores.

4090:
16384 cores * 2520 MHz

3090:
10752 cores * 1860 MHz
----------------------------
En theorie, sans DLSS le 4090 devrais être au moins 2 fois plus vite qu'un 3090. Ce n'est vraiment pas le cas pour les benchmarks. Ça va probablement suivre pour les autres modeles qui vont sortir.

Aussi DLSS3 c'est de marde pour gamer oublie si c'est en bas de 120hz incluant le trick imageries.
https://www.youtube.com/watch?v=GkUAGMYg5Lw

C'est ok si tu veux le top comme la 4090. Pour le reste de la series qui s'en vient, trop cher pour le peu de gain au dessus de l'ancienne generation.

C,est exactement pour ça que j'ai backer pour une RTX4090..
 
La series 4000 n'est pas une bonne. Quand on compare la performance clock per clock et du nombre de cores.

4090:
16384 cores * 2520 MHz

3090:
10752 cores * 1860 MHz
----------------------------
En theorie, sans DLSS le 4090 devrais être au moins 2 fois plus vite qu'un 3090. Ce n'est vraiment pas le cas pour les benchmarks. Ça va probablement suivre pour les autres modeles qui vont sortir.

Aussi DLSS3 c'est de marde pour gamer oublie si c'est en bas de 120hz incluant le trick imageries.
https://www.youtube.com/watch?v=GkUAGMYg5Lw

C'est ok si tu veux le top comme la 4090. Pour le reste de la series qui s'en vient, trop cher pour le peu de gain au dessus de l'ancienne generation.

Ça scale jamais parfaitement les avancements en core counts ou en clock speed parce que y'a d'autres bottlenecks dans la vrai vie. Y'a des limites a ce qui peux être parralelisé parfaitement dans des applications aussi complexes.

En terme de generational improvement c'est quand même remarkable comme amélioration.

Le plus gros problème de l'industrie (vue d'une perspective de PC gamer high end) c'est qu'on va encore targeter du hardware tellement inférieur qu'au final c'est juste overkill de plusieurs manières une carte comme ça pour gamer parce que les jeux n'en tirent pas profit.

Tu va jouer au même jeux qui target 16gb de RAM/VRAM unifié (consoles current gen - best case scenario) sur un GPU qui en as 24. Le nouveau Plague's tale en 4k ça besoin de 6gb de VRAM. Le reste il dort.

Le nombre de personnes qui game a plus que 120hz en 4k dois pas être énorme non plus.

Les "avancements" sur les PC dernièrement autant en terme de CPU et GPU sont un peu problématique quand on considère que le monde jouent de plus en plus sur des laptops et des consoles qui ne peuvent tout simplement pas dealer avec ce genre de chaleur / uttilisation d'énergie.
 
La series 4000 n'est pas une bonne. Quand on compare la performance clock per clock et du nombre de cores.

4090:
16384 cores * 2520 MHz

3090:
10752 cores * 1860 MHz
----------------------------
En theorie, sans DLSS le 4090 devrais être au moins 2 fois plus vite qu'un 3090. Ce n'est vraiment pas le cas pour les benchmarks. Ça va probablement suivre pour les autres modeles qui vont sortir.

Aussi DLSS3 c'est de marde pour gamer oublie si c'est en bas de 120hz incluant le trick imageries.
https://www.youtube.com/watch?v=GkUAGMYg5Lw

C'est ok si tu veux le top comme la 4090. Pour le reste de la series qui s'en vient, trop cher pour le peu de gain au dessus de l'ancienne generation.

Selon TPU, la 4090 est 52% plus vite que la 3090 (ou 41% plus vite que la 3090TI)

j'ai vu les 2 reviews ; ceux qui disent que ca detruit toute, et d'autre que ca ne vaut pas la peine.

mais je commence à voir des reviewer dire de se calmer sur les perfo de la 4090 à cause de son dlss3, de 1 il n'est pas prêt genre en BEta encore, et de 2 il semblerait que les 20 et 30 series sont capable de le faire, reste juste à rendre le tout stable, mais ca ne sera pas demain la veille, il reste encore des trucs que nvidia doit réglé pour sa serie 40.

C,est exactement pour ça que j'ai backer pour une RTX4090..

pis toi j'imagine que ton 13900k est en route, ou tu as réservé un 13900ks?
 
J'espère que les nouvelles cartes graphique d'AMD vont être compétitives et que ça force Nvidia à baisser leurs prix. Il n'y a rien de tel qu'un peu de concurrence pour aider les consommateurs.
J'ai hâte de voir les Zen 4 X3D. Les Zen 3 X3D avaient des performances impressionnantes pour le gaming.

Mon i7 8700K est bien matché avec ma 3080 selon bottleneck calculator et j'ai pas vraiment de jeux qui nécessitent plus que ça pour le moment.
 
comme pas mal de monde, ma prochaine carte devrait être au launch de GTA 6, donc comme c'est partie là une serie 50 ou 60 lollll
 
J'espère que les nouvelles cartes graphique d'AMD vont être compétitives et que ça force Nvidia à baisser leurs prix. Il n'y a rien de tel qu'un peu de concurrence pour aider les consommateurs.
J'ai hâte de voir les Zen 4 X3D. Les Zen 3 X3D avaient des performances impressionnantes pour le gaming.

Mon i7 8700K est bien matché avec ma 3080 selon bottleneck calculator et j'ai pas vraiment de jeux qui nécessitent plus que ça pour le moment.

NVIDIA GeForce RTX 3080 Ti is too weak for Intel Core i7-12700K on 3840 × 2160 pixels screen resolution for Graphic Card Intense Tasks.
lol.

Harsh! Ça fait genre 1 semaine qu'une carte significativement meilleur est dispo!

C'est sur que ça dépends a quoi tu joue (et a quel resolution) mais d'après moi t'irais chercher des pas pire gains dans tes 0.1% et 1% low avec un proceseur current gen.

J'aime l'approche de AMD du infinity cache sur RDNA2 et du 3d cache sur les processeur. Y'a toujours bien des limites a dumper de plus en plus de watts past the point of diminishing return pour les bragging rights.

C'est plate qu'ils soient partie un peu sur une dérape de chasser les MHZ a tout prix et de crisser la bonne efficiency qu'ils étaient connus pour par la fenetre avec la série 7000. Ça et le pricing qui fait paraitre Intel comme les good guys...

J'pense que du cache sa va être plus payant qu'une tonne d'autres core ou de clock speeds encore plus élevés. Un 7700x3d serais plus intéressant pour moi qu'un CCX de plus comme sur les 7900x+
 
Je skip la série 13 cpu too.

Calice la un moment donné, deja que mon tdp pogne 250W pis que le gpu pogne 450W, ça fera..........
 
C est aussi une des raisons pourquoi j upgrade pas. Le TDP est malade et il va faire chaud en crisse toujours output 600W de chaleur en été.

Sent from my Pixel 7 Pro using Tapatalk
 
Je crois que je vais rouler ma 6900xt pendant 4-5 ans à moins qu'elle meurt de façon inattendu.
 
Moi, je pense que AMD refaire la mêne game avec 7000XT comme la vielle serie 7970. Dans les années precedente il n'arrêtais pas de sortie des carte a 256bit.

La AMD va être de retour avec les 384bit.
 
Moi, je pense que AMD refaire la mêne game avec 7000XT comme la vielle serie 7970. Dans les années precedente il n'arrêtais pas de sortie des carte a 256bit.

La AMD va être de retour avec les 384bit.
Sa serait nice de voir le retour du 512bit comme les 290X

Sent from my Pixel 7 Pro using Tapatalk
 
Sa serait nice de voir le retour du 512bit comme les 290X

Sent from my Pixel 7 Pro using Tapatalk

Lol me rappelle a quel point ma 390x étaient considérée (avec raison) comme un space heater. Et maintenant c'est moins que le power draw d'une carte upper mid range ou qu'un des flagship CPUs et 100w de moins que mon GPU actuel.
 
Lol me rappelle a quel point ma 390x étaient considérée (avec raison) comme un space heater. Et maintenant c'est moins que le power draw d'une carte upper mid range ou qu'un des flagship CPUs et 100w de moins que mon GPU actuel.

Mon Crossfire de 290X était l'enfer. J'avais le CPU et le GPU d'overclocker et je gamais a 950W. pu jamais que je retourne a quelque chose qui fait en haut de 500W en moyenne.
 
Back
Top