Vinnie a écrit :@ Nicky Larson9: je pense que le père jibi vit encore puisqu'il semble avoir supprimé son compte adsl bc ^^
oh non !
Modérateurs : Diamond, watch, Barbapapa, Casimir
Vinnie a écrit :@ Nicky Larson9: je pense que le père jibi vit encore puisqu'il semble avoir supprimé son compte adsl bc ^^
Vinnie a écrit :Les dernières fuites évoquent une future RTX 4070 avec seulement 10 Go de Vram
Or, la RTX 2070 avait déja 8 Go de Vram ... Ce serait vraiment du foutage de gueule, car leur faible Vram était déja la seule raison pour laquelle je n'avais pas acheté de RTX 3070 à sa sortie.
J'attends la prochaine génération avec impatience, mais si Nvidia fait la connerie de sortir cette carte 4070 avec seulement 10 Go , j'achèterai clairement du AMD !
Quand je vois que Assassin's Creed Valhalla consomme 8 Go de Vram en 2k, j'ose pas imaginer ce que ce sera avec le futur jeu AVATAR , d'ou mon choix de AMD car ils mettront surement plus de Vram que 10Go.
Surtout que le FSR amd vaut maintenant l'IA de Nvidia, et qu'ils ont récemment publié de nouveaux drivers qui boostent les perf.
Alors, entre choisir une RTX 4080 avec la bonne quantité de Vram, ou une RX amd équivalant à la RTX 4070 mais avec plus de Vram, je choisirai clairement AMD car j'ai pas envie de me ruiner avec une RTX 4080
Nvidia va t'il se tirer une balle dans le pied ?
Surtout qu'ils vont probablement repousser la sortie des RTX 4000 à 2024 au lieu de septembre 2022 ... Une raison de plus de choisir AMD
@ Nicky Larson : je pense que le père jibi vit encore puisqu'il semble avoir supprimé son compte adsl bc ^^
Zeliak a écrit :Vinnie a écrit :Les dernières fuites évoquent une future RTX 4070 avec seulement 10 Go de Vram
Or, la RTX 2070 avait déja 8 Go de Vram ... Ce serait vraiment du foutage de gueule, car leur faible Vram était déja la seule raison pour laquelle je n'avais pas acheté de RTX 3070 à sa sortie.
J'attends la prochaine génération avec impatience, mais si Nvidia fait la connerie de sortir cette carte 4070 avec seulement 10 Go , j'achèterai clairement du AMD !
Quand je vois que Assassin's Creed Valhalla consomme 8 Go de Vram en 2k, j'ose pas imaginer ce que ce sera avec le futur jeu AVATAR , d'ou mon choix de AMD car ils mettront surement plus de Vram que 10Go.
Surtout que le FSR amd vaut maintenant l'IA de Nvidia, et qu'ils ont récemment publié de nouveaux drivers qui boostent les perf.
Alors, entre choisir une RTX 4080 avec la bonne quantité de Vram, ou une RX amd équivalant à la RTX 4070 mais avec plus de Vram, je choisirai clairement AMD car j'ai pas envie de me ruiner avec une RTX 4080
Nvidia va t'il se tirer une balle dans le pied ?
Surtout qu'ils vont probablement repousser la sortie des RTX 4000 à 2024 au lieu de septembre 2022 ... Une raison de plus de choisir AMD
@ Nicky Larson : je pense que le père jibi vit encore puisqu'il semble avoir supprimé son compte adsl bc ^^
10Gb c'est largement suffisant pour du 1440p, même 8 suffit, arrête de pleurer pour un truc que tu comprend pas, sinon 2k c'est une résolution cinema 720, 1080 ou 1440 si tu veux parler de ton écran pc
Les sorties des rtx 4000 est repoussée a la fin d'année pour les plus grosse 4090, ensuite viendra les 4080 puis les 4070 ds le courant 2023, pas 2024! Il leur reste un stock de 3000 à écouler mais pas pour 1 ans non plus faut pas pousser.
Sinon laisse faire nvidia, ils ont "un peu" plus d'expérience que toi et ils sont loin d'être aussi bête que toi pour sortir un gpu qu'ils auraient pas prévu ou qui ne ferait tourner aucuns des nouveaux jeu ^^
Au pire, va bosser, achète toi une 3090 avec ses 24Gb sur laquelle tu n'utilisera que 8gb et arrête de parler de truc débile, les russes t'attendent sur ta partie de poker qui doit tourner sur un 970 temps cas faire
Vinnie a écrit :https://www.phonandroid.com/la-rtx-4090-est-tellement-puissante-quelle-peut-mettre-le-feu-a-votre-pc.html
Il semblerait que la RTX 4090 soit victime de quelques problèmes de surchauffe. Sur Reddit, l’utilisateur reggie_gakil a posté une photo de son adaptateur 16 pin complètement brûlé par la carte graphique. Dans les commentaires, un autre utilisateur a partagé un témoignage similaire.
Le principe de fonctionnement du DLSS 3.0 repose en partie sur la génération en interne d’une image upscalée sur deux à partir de la frame précédente. Autrement dit, le DLSS 3.0 reconstruit 7/8 des pixels de deux frames successives. La latence globale augmente donc de manière logique, et c’est pourquoi la technologie Reflex du constructeur, visant à réduire la latence système, est indispensable.
En pratique, le DLSS 3.0 affiche effectivement une latence plus élevée que le DLSS 2.0, avec environ 10 ms de plus en moyenne dans Cyberpunk 2077. Cela reste raisonnable, mais tout de même mesurable et cela correspond plus ou moins au temps de génération de cette image supplémentaire.
Zeliak a écrit :Amd à une porte grande ouverte, reste à voir si ils cassent les prix ou si ils se contentent d'être à peine moins chère que nvidia
Radeon RX 7900 XT et Radeon RX 7900 XTX personnalisées, des prix de 1249 et 1389 € apparaissent
Vinnie a écrit :Ce qui est nul de la part de Nvidia , c'est que la 4080 n'a que environ 10% de coeurs en plus que la 3080
https://www.techpowerup.com/gpu-specs/g ... 3080.c3621
https://www.techpowerup.com/gpu-specs/g ... 4080.c3888
Et 4 GB de Vram en plus.
J'en déduis que cela ne doit pas couter plus de 10 à 15 % de plus à la production ...
Le hic, c'est que Nvidia a payé une fortune à TSMC pour s'assurer une production en gravure la plus fine, chose que n'a pas du faire AMD Radeon, car ils avaient déja un contrat... Bon maintenant il y a le transport et les matières premières plus chères, mais cela ne justifie pas une augmentation de 50 %
Attendons la sortie des Radeon , je suis curieux de voir ca.
nicky_larson9 a écrit :attention 6700xt est 750w du conseil et attendre rx7700 pour voir consommation du watt
Consommation typique de la carte (PC de bureau)
300 W
Nvidia aurait payé des milliards de dollars à TSMC pour accéder à sa gravure en 5 nm
Pourtant, sur le papier, Samsung avait l’avantage de la primauté technologique, puisque c’est en avril 2018 que Samsung annonce fièrement être le premier à livrer les premières puces commerciales gravées en ultraviolets extrêmes (EUV). C’est cette technologie qui a permis aux industriels de dépasser le « mur » des 7 nm, première finesse de gravure où l’EUV s’est avéré nécessaire pour éviter des taux de déchet trop élevés. Au-delà de 7 nm, l’EUV est même absolument obligatoire pour continuer de faire réduire la taille des circuits.
Près d'une trentaine de vulnérabilités ont été colmatées dans le dernier pilote Nvidia pour ses circuits graphiques. Les plus graves peuvent entraîner de l'exécution du code à distance.
Utilisateur(s) parcourant ce forum : Aucun utilisateur inscrit