UNE NOUVELLE VERSION D'INFOBIDOUILLE EST EN LIGNE CLIQUEZ-ICI POUR LA VISITER

Actualités du mois de juin 2008 (Matériel)

ATI

Il y a une semaine, nVidia lancait ses nouvelles GeForce, les GTX 260 et 280, qui surpassaient largement les solutions ATI existantes, y compris les solutions bi-GPU, et nous nous demandions comment ATI allait bien pouvoir riposter face à cette domination d'nVidia, qui dure depuis fin 2006. C'est aujourd'hui qu'ATI a décidé de dévoiler sa nouvelle solution haut de gamme, et le moins que l'on puisse dire, c'est que nous somme surpris par la bestiole...

En effet, alors que le prix public extrêmement bas pour une carte haut de gamme (250€ environ) laissait craindre le pire en termes de performances, la Radeon HD 4870 se révèle en fait très à l'aise dans les jeux, en surpassant sans difficulté la GTX 260, pourtant vendue une bonne cinquantaine d'euros de plus, et en allant même titiller la GTX 280 qui coûte plus du double !

ATI Radeon HD 4870

Pour parvenir à de telles performances pour un prix aussi réduit, ATI est reparti de l'architecture des HD 3000 et l'a optimisé partout où c'était possible, une stratégie quasi inverse à celle pour laquelle a opté nVidia, qui s'est tout juste contenté de coller des unités de calcul supplémentaire à son G92 pour former le GT200. L'objectif principal d'ATI était de réduire le coût de la carte, en cherchant la simplicité et le rendement. Ainsi, la puce RV770 qui anime la HD 4870 est gravée en 55nm (contre 65nm pour les GT200 et 55nm pour le RV670 des Radeon 3800) et ne mesure que 260mm² (contre 190 pour les Radeon 3800), soit moins de la moitié de la surface d'une puce GT200 (600mm²), ce qui divise grosso modo son prix de fabrication par deux par rapport à sa concurrente. Mais le plus impressionnant, c'est la réduction du nombre de transistors par unité de calcul : alors que le RV670 comptait 670 millions de transistors pour 64 unités de shaders vec5, le RV770 ne comporte que 40% de transistors supplémentaires, mais se dote de... 2.5 fois plus d'unités de shaders, toujours en vec5 ! Toujours pour faire des économies, ATI a abandonné son bus mémoire ring-bus, nécessitant un contrôleur trop complexe, au profit d'un bus mémoire classique de seulement 256 bits.

256 bits ? Oui oui, vous avez bien lu. Alors que les cartes nVidia a base de G92 étaient très critiquées à cause de leur bus 256 bits trop limitant et alors que le GTX 280 embarque un bus 512 bits, ATI ose nous proposer un produit haut de gamme avec un bus 256 bits ! Et aussi surprenant que cela puisse paraître, ce bus 256 bits est un vrai atout pour la HD 4870. En effet, l'étroitesse du bus permet de simplifier grandement le PCB, le rendant plus économique, tandis que la bande passante reste de très haut niveau, grâce à l'emploi d'un nouveau type de mémoire, la GDDR5, qui monte beaucoup plus haut en fréquence. Avec sa mémoire à 3600 MHz, le RV770 dispose ainsi d'une bande passante supérieure à 100 Go/s, contre à peine plus de 50 sur les G92 et RV670, environ 100 également sur les GTX 260 et 130 sur les GTX 280. Ajoutez à ça diverses optimisations au niveau des ROPs, des unités de texturing, etc... et vous obtiendrez une carte performante et économique.

Selon les premiers tests parus aujourd'hui, la Radeon HD 4870 offre des performances du niveau d'une HD 3870 X2, ce qui la place environ 5 à 10% plus performante qu'une GTX 260, 60% plus performante qu'une HD 3870, 10-15% plus rapide que la 9800 GTX v2 (sa concurrente directe en termes de prix), et surtout, à peine 10% plus lente qu'une GTX 280 vendue deux fois plus chère ! La consommation se situe pour sa part à un niveau proche de la GTX 260, ce qui lui confère un rapport performances/watt équivalent à celui des cartes nVidia, mais avec toutefois un bémol surprenant : la consommation au repos est sensiblement à la hausse, alors qu'ATI nous avait plutôt habitué à l'inverse.

A seulement 250€, la Radeon HD 4870 est donc incontestablement une excellent affaire, à tel point qu'on peut se demander pourquoi ATI ne profite pas de ses performances pour la vendre une cinquantaine d'euros de plus. L'objectif est probablement de faire le plus mal possible à nVidia, en rongeant ses parts de marché. Pour 100€ de moins, vous pourrez également opter pour la HD 4850, environ 20% moins rapide, mais au rapport performances/prix exceptionnel.

Cerise sur le gâteau, les deux Radeon HD 4800 sont compatibles Crossfire et devraient prochainement être proposés également en version X2. Vu les bons rendements qu'atteint désormais ATI avec ses solutions bi-GPU (60% en moyenne), ces solutions risquent de faire très mal à nVidia : le duo de HD 4850 devrait surpasser la GTX 280 pour quasi deux fois moins cher (300€ vs 550€), tandis que le duo de HD 4870 prendra très probablement l'ascendant sur le duo de GTX 280, tout en étant moins cher qu'une seule GTX 280... La firme au caméléon va donc probablement devoir réviser sa politique tarifaire si elle ne veut pas voir ses parts de marché s'effriter trop rapidement, en attendant l'arrivée du GT200b à la fin de l'été, qui devrait permettre d'augmenter les fréquences et de réduire les coûts, grâce à sa gravure en 55nm.

Posté par Matt le 25/06/2008 à 20h05
Aucun commentaire

nVidia

Plus d'un an et demie après la sortie de la 8800 GTX, la première carte DirectX 10 d'nVidia, la firme au caméléon a enfin lancé aujourd'hui sa seconde génération de puces DirectX 10, le GT200, qui équipe pour l'instant deux cartes, la GeForce GTX280 et la GeForce GTX260. De quoi enfoncer le clou et démonter une fois de plus l'avance dont dispose aujourd'hui nVidia par rapport à AMD/ATI.

En effet, alors que les constructeurs de cartes graphiques nous avaient habitués à renouveler leurs gammes tous les 6 à 8 mois, en s'échangeant sans cesse le leadership, force est de constater qu'nVidia est aujourd'hui sans concurrence. Non seulement, le G80 et le G92 (une évolution mineure du G80) ont tenu la dragée haute à toutes les cartes ATI depuis octobre 2006, mais en plus nVidia récidive avec le GT200, qui écrase littéralement les produits ATI, alors qu'il n'est qu'une nouvelle évolution du G80, et non pas une architecture réellement nouvelle. Conséquence directe : nVidia ne supporte toujours pas la version 10.1 de DirectX, contrairement à ATI qui l'implémente depuis sa série HD 3000.

nVidia GeForce GTX 280

Embarquant 192 à 240 Stream Processors, le GT200 n'est donc en fait pas grand chose qu'un G92 embarquant un plus grand nombre d'unités de calcul. Il en résulte que la puce consomme énormément, d'autant qu'elle est désormais épaulée de 896 Mo à 1 Go de RAM, sur un bus 448 à 512 bits. Testée par Matbe, la GTX 280 se révèle à la hauteur de ses caractéristiques, puisqu'en haute résolution (20", 22", 24" et 30" en résolution native), elle surpasse de 60% la 8800 Ultra, qui était jusqu'alors la carte mono-GPU la plus rapide dans cette situation. Elle surpasse même sans difficultés là 9800 GX2, pourtant dotée de deux puces G92. Côté ATI, la 3870 X2, elle aussi dotée de deux GPU, est dépassée de 30 à 40%, et même plus dans les situation les plus difficiles (très haute résolution avec FSAA). La GTX 280 est par contre à la peine en basse résolution, où elle égale tout juste ses grandes soeurs, car elle est trop limitée par le CPU.

Sur le plan de la consommation, la GTX280 surpasse aussi toutes les cartes existantes, y compris la 9800 GX2 (dépassée de 30W) et la 3870 X2 (de peu). Elle se rattrape par contre au repos, grâce au retour des fréquences 2D, qui font descendre sa consommation à environ 25W en 2D classique et 35W en lecture vidéo avec décodage matériel. Compatible Hybrid Power, elle pourra également être complètement arrêtée au repos, pour peu qu'elle soit montée sur une carte mère compatible et qu'on accepte la perte de performances 3D engendrée par l'Hybrid Power, ce qui ne devrait pas être le cas chez la plupart des acheteurs de cette carte...

Reste la question du prix, et là on retrouve des prix qu'on n'avait pas vus depuis longtemps : 550€ pour la GTX 280 et 310€ pour la GTX 260 ! Espérons que la relève de chez ATI (à savoir les HD 4850 lancées aujourd'hui également et les HD 4870 qui seront lancées à la fin du mois) sera à la hauteur pour pousser nVidia à baisser un peu les tarifs. Vu le positionnement de la HD 4850 (disponible dès aujourd'hui à moins de 160€), on peut se douter qu'elle se positionne plutôt face aux 8800 et 9800 GT, tandis que la HD 4870 devrait se négocier environ 100€ de plus, probablement pour attaquer la GTX 260 grâce à un meilleur rapport performances/prix (nVidia a déjà réduit le tarif des GTX 260 pour ne pas trop souffrir de cette concurrence). Pour battre les GTX 260 et GTX 280, la seule solution pour ATI sera probablement de recourir à la solution X2, que le constructeur maitrise de plus en plus, parvenant à des rendements bien supérieurs à ceux d'nVidia avec son SLI.

Contrairement au G92, le GT200 ne sera très probablement pas décliné en version bi-GPU dans l'immédiat, à cause de la consommation trop élevée, mais la donne pourrait changer dès l'automne, avec l'arrivée du GT200b gravé en 55nm. En attendant, les amateurs de caméléon et de solutions multi-GPU pourront tout de même monter un système SLI à deux ou trois cartes à base de GTX 280, ce qui devrait peut-être permettre de rendre Crysis jouable sur un écran 24"...

Enfin, comme l'a annoncé nVidia vendredi dernier, le GT200 sera compatible avec l'API PhysX d'Ageia, qu'nVidia va implémenter dans ses drivers via le framwork CUDA. Cette compatibilité PhysX sera également disponible sur les cartes GeForce 8 et 9.

Posté par Matt le 17/06/2008 à 10h44
Aucun commentaire

OCZ

Il y a un peu plus d'un an, nous vous parlions d'un nouveau périphérique de jeu fabriqué par Emotiv qui permet de contrôler vos actions dans les jeux par la pensée. Un peu plus tard, c'était au tour d'OCZ de présenter un produit similaire, le NIA (Neural Impulse Actuator), lors d'un salon de jeu vidéo.

Le plus pressés de découvrir cette technologie futuriste seront donc ravis d'apprendre que le NIA sera prochaine disponible en masse, pour environ 150€. Une somme qui reste élevée pour un périphérique de jeu (mais pas plus qu'un bon volant...), mais d'après le test réalisé par nos confrère de Generation 3D, le résultat est assez bluffant, même s'il nécessite une phase d'apprentissage et de calibration relativement longue et difficile.

Posté par Matt le 16/06/2008 à 22h59
Aucun commentaire

Depuis quelques temps, la tendance tend vers le vert chez les fabricants de matériel informatique, qui mettent de plus en plus en avant les aspects écologiques de leurs produits. Après les processeurs basse consommation et les alimentations à haut rendement, ce sont les constructeurs de disques durs qui se sont lancés sur ce créneau, Western Digital en tête, avec ses Caviar Green Power. Hitachi se devait donc de réagir, et c'est chose faites avec les P7K500, pour lesquels le constructeur annonce une baisse de consommation de 40%, sans réduire la vitesse de rotation. Mais ces valeurs se vérifient-elles en pratique, et surtout, quel est l'impact sur les performances ? Nous allons voir que le P7K500 nous réserve quelques bonnes surprises...

Posté par Matt le 11/06/2008 à 08h47
Aucun commentaire

Apple

C'est aujourd'hui que s'ouvrait en Californie la World Wide Developper Conference 2008, la grande messe annuelle des fans de la pomme. Sans surprise, la principale nouvelles de la journée est l'arrivée prochaine d'une nouvelle version de l'iPhone, prévue pour le 11 juillet.

Baptisé iPhone 3G, le nouveau modèle n'est pas révolutionnaire, mais comble les principales lacunes de la version précédente. Au programme des nouveautés :

  • un design légèrement revu, avec une coque arrière entièrement noire
  • le support de la 3G
  • une puce A-GPS
  • une sortie casque standard
  • autonomie améliorée (5h de conversation 3G, 10h de conversation GSM, 24h de lecture audio)

Apple iPhone 3G

Le reste des nouveautés est essentiellement logiciel, et pourra donc également profiter aux possesseurs d'iPhone première génération. On citera notamment une orientation plus pro, avec le support d'Exchange et des VPN Cisco, le nouveau firmware 2.0 supportant les applications développées avec le SDK et mises à disposition sur l'AppStore, une version de Google Maps utilisant la fonction GPS, mais aussi l'application MobileMe, qui assurera la synchronisation de vos contacts, courriers, marques pages, etc. entre l'iPhone et vos ordinateurs, qu'ils soient Mac ou PC.

La keynote a permis à Apple de présenter de nombreux logiciels réalisés avec le SDK, montrant le bon accueil que les éditeurs lui ont réservé, en particulier les éditeurs de jeux, certains réalisations atteignant le niveau de qualité des consoles portables ! On notera également qu'en marge de la WWDC, un responsable de TomTom, le très célèbre éditeur de logiciels GPS, a d'ores et déjà annoncé qu'un portage de TomTom sur iPhone était en cours, et déjà très avancé.

Cerise sur le gâteau, les opérateurs étant désormais autorisés à subventionner l'appareil, les prix dégringolent. Ainsi, aux USA l'iPhone 3G sera proposé à 199$ en version 8 Go et 299$ en version 16 Go. Pour la France, Orange ne s'est pas encore prononcé sur les nouveaux tarifs, mais on peut s'attendre à un prix de l'ordre de 200€ pour le 8 Go.

Plus d'informations sur le site d'Apple :

Posté par Matt le 10/06/2008 à 09h57
Aucun commentaire
Source : MacBidouille

Western Digital

Alors que le VelociRaptor de Western Digital est encore difficile à trouver en France, les rumeurs évoquent déjà son successeur, et le moins que l'on puisse dire, c'est que ces rumeurs sont surprenantes !

En effet, alors que les Raptor tournaient jusqu'à présent à 10 000 tours/minute et que les disques les plus rapides du marché stagnent à 15 000 tours/minute depuis des années, il semblerait que Western Digital ne veuille pas laisser les SSD s'imposer et travaille sur une évolution du VelociRaptor (toujours en 2.5" donc) qui atteindrait les 20 000 tours/minute ! Une vitesse décoiffante, mais qui soulève beaucoup de questions. On peut en effet s'interroger sur l'intérêt d'une telle vitesse de rotation, les contraintes qui y sont liées étant difficilement justifiable par le maigre gain, qui sera forcément insuffisant face aux SSD.

Qu'apporterait une vitesse de 20 000 RPM ? D'abord, conséquence directe de la vitesse de rotation plus élevée, les débits du disque seraient doublés à densité et à diamètre égaux. On atteindrait donc un débit moyen de l'ordre de 200 Mo/s. Impressionnant. Ensuite, il y a la latence, qui diminuerait de 50%, pour passer à 1.5ms, soit autant de gagné sur le temps d'accès. Celui-çi étant actuellement de 7.2ms, il tomberait à 5.7, soit un gain de 20%.

Mais, car il y a toujours un mais, le gain de 20% sur le temps d'accès est encore très insuffisant face aux SSD, dont les temps d'accès se mesurent en dixièmes de ms, et aussi impressionnant soit le débit pour un disque seul, il est facile d'atteindre cette vitesse avec un RAID de SSD. La consommation d'un VelociRaptor étant déjà très supérieure à celle d'un SSD, un modèle 20 000 RPM ne l'emporterait pas non plus sur ce point, pas plus que sur le niveau de bruit... La seule chance de ce SuperRaptor serait donc d'être beaucoup moins cher que les SSD...

Et là, le doute s'installe : aujourd'hui, le VelociRaptor est proposé à environ 1$/Go. En passant à 20 000 RPM, ce prix risque de grimper en flèche, vu la complexité de la mécanique et la baisse de densité qui sera quasi inévitable à cette vitesse. En étant optimiste, on peut tabler sur un prix de 1$/Go dans 18 mois. Du côté des SSD, on est aujourd'hui à environ 5$/Go pour des modèles performants mais pas trop (SuperTalent MasterDrive MX, 120 Mo/s en lecture, 40 Mo/s en écriture), mais qui pourraient largement rivaliser avec un Raptor 20 000 RPM, surtout en les montant en RAID. D'ici à 18 mois, on peut donc tabler sur un prix qui sera inférieur à 2$/Go. Dans ces conditions, on voit mal comment le Raptor 20 000 RPM pourrait trouver sa place : ceux pour qui les 2$/Go des SSD sont trop trouveront probablement aussi que le 1$/Go du disque est trop, tandis que ceux qui recherchent la performance à tout prix s'orienteront quasi forcément vers des SSD à peine plus chers...

Ce projet de Raptor 20 000 RPM ressemble donc plus à un dernier baroud d'honneur de la part de Western Digital, avant une bascule vers le SSD pour les supports hautes-performances, puis une bascule progressive vers les SSD sur les gammes grand-public.

Posté par Matt le 09/06/2008 à 23h58
Aucun commentaire
Source : Matbe

nVidia

L'actualité de nVidia étant assez riche en ce moment, avec l'arrivée prochaine de la nouvelle génération de cartes graphiques à base de GT200 et de nouvelles solutions mobiles, voici un petit résumé des trois principales nouveautés de ces derniers jours : des infos sur le GT200, l'arrivée des GeForce 9M et enfin, la surprenante plateforme Tegra...

Commençons donc par le GT200 : après différentes informations sur les performances des GTX260 et GTX280, qui devraient surpasser largement tout ce qui existe aujourd'hui, y compris les cartes bi-GPU, notre confrère TT-Hardware nous apporte quelques informations sur la consommation de la GTX280. Et le moins que l'on puisse dire, c'est que les nouvelles sont bonnes ! En effet, par rapport aux cartes ATI/AMD, les dernières cartes nVidia on la mauvaise réputation de consommer beaucoup au repos. Selon les chiffres publiés aujourd'hui, nVidia aurait réalisé d'importants progrès sur ce point, probablement via une réintroduction des fréquences 2D. Ainsi, la GTX280 ne devrait consommer que 25W au repos et 35W en lecture de vidéo HD, contre 45W et 50W pour la 9800 GTX dans les mêmes conditions. En 3D, les choses sont par contre moins roses pour le caméléon, puisque la GTX280 monte à près de 150W sous 3DMark 2006, contre seulement 80W pour son ancêtre. Pour obtenir des consommations plus raisonnable, il faudra sans doute attendre les GT200b, gravées plus finement et prévue pour septembre 2008.

Du côtés des ordinateurs portables, les GeForce 8M vont céder leur place aux GeForce 9M à partir de cet été. Au programme, des performances revues à la hausse de près de 50% pour les modèles haut de gamme et le support de l'Hybrid SLI (Hybrid Power et GeForce Boost). On peut toutefois se demander l'intérêt de ces deux technologies dans le cas d'une carte graphique mobile. En effet, pour fonctionner elles nécessitent toutes les deux un chipset nVidia avec vidéo intégré de dernière génération, devant lui aussi supporter l'Hybrid SLI, et à l'heure actuelle, nVidia ne propose pas de chipset mobile le supportant. Ils faudra donc attendre de nouveaux chipsets mobiles, alors qu'nVidia est très peu présent sur ce marché...

Enfin, il nous reste à parler de la plateforme Tegra 600, qui est sans doute le produit le plus surprenant présenté par nVidia ces dernières années. En effet, alors que dans le domaine de l'ultra-mobilité nVidia se contentait pour l'instant de quelques puces graphiques (série APX), nVidia vient de présenter tout une plateforme montée sur un seul support physique (System on a chip) : processeur central ARM11 800 MHz, mémoire DDR, puce graphique 3D OpenGL, décodeur vidéo, processeur capable de piloter une cellule photo 12MP et même stockage flash ! Il ne lui manque quasiment qu'une batterie et une IHM pour constituer un système complet prêt à l'emploi.

nVidia Tegra

Photo : Matbe.com

Mais là où nVidia surprend encore plus, c'est sur le plan des performances et de la consommation : nVidia compte placer cette plateforme en concurrence de la plateforme Atom d'Intel, mais en offrant des performances vidéo très supérieures (support de l'encodage et du décodage HD en 720p, et même décodage 1080p sur la version la plus haut de gamme), un encombrement bien plus réduit (voir photo ci-dessus), et surtout, une consommation particulièrement faible, puisqu'nVidia annonce jusqu'à 30h de lecture vidéo en une seule charge de batterie (sans toutefois préciser la capacité de la dite batterie...). La guerre entre nVidia et Intel semble donc de plus en plus virulente, et contre toute attente, c'est plutôt nVidia qui marque des points pour l'instant !

La plateforme Tegra devrait être disponible dès la fin de l'année et vise avant tout le marché des smartphones et des netbooks (EEE-like), mais avec des telles caractéristiques, il ne serait pas non plus étonnant d'en retrouver prochainement dans les caméscopes HD, les baladeurs multimédia, et pourquoi pas même des téléviseurs, pour permettre de lire directement des contenus HD stockés sur un support USB !

Posté par Matt le 03/06/2008 à 23h33
Aucun commentaire