Advertentie | |
|
![]() |
||
Verwijderd
|
Citaat:
![]() |
![]() |
||
Citaat:
__________________
Per undas adversas (tegen de stroom in)
|
![]() |
|
![]() |
men eigen; over die van; dat er ook eindelijk es een vrouw was die over compu lulde.
waarom ik dat zei weet ik ook niet. ik denk omdat er bij mij geen enkele meid is die een fuck verstand heeft van compu. kijk , et is altijd mooi meegenomen als je een vriendin hebt die er ook interesse voor heeft. Oja, ook nog wat, ik zit dus in sneek op school op de afdeling techniek(~700 jongens op die school) en 3 vrouwen (waarvan 2 pot) nou, ik zal je zeggen, dat is leuk |
![]() |
||
![]() |
Citaat:
Maar ATI heeft ook nog een voordeel; ze hebben veel ervaring op kunnen doen met de komst van de Gamecube (met een ATI kaart erin) |
![]() |
||
Citaat:
__________________
Per undas adversas (tegen de stroom in)
|
![]() |
||
Citaat:
![]() ![]() ![]()
__________________
Per undas adversas (tegen de stroom in)
|
![]() |
|
tsja, het blijft altijd gissen naar de prestaties van nieuwe hardware. de fx bewijst dat maar weer eens. toch zou ik de fx niet helemaal afschrijven. met een goede set drivers en spellen (en benches) die gebruik maken van de uitgebrijde programeer mogelijkheden van de fx zou er nog best wat winst uit kunnen komen. de temperatuur die de kaart maakt blijft natuurlijk een erg probleem iig een goede reden om 'm links te laten liggen. ik had volgens mij ergens gelezen dat de temperatuur ook vor een groot deel van het ddr2 geheugen zou komen. ddr2 is gemaakt om op minder voltage te werken dan ddr1 maar op de fx zou er nog gewoon ddr1 voltage zijn gebruikt. vandaag de hoge temperaturen. ik weet het dus niet zeker, weet ook niet meer waar ik het vandaag heb
![]() ![]() de 9900 blijft dus gewoon gissen. we zien het over een maandje wel. -de postbode-
__________________
ik ben een konijn
|
![]() |
||
Citaat:
http://www.tweakers.net/nieuws/25362/?highlight=9900 =)
__________________
Per undas adversas (tegen de stroom in)
|
![]() |
|
De GF FX lijkt inderdaad op een flop uit te draaien. Zeker als de R350 qua performance beter presteert dan de FX, tegen dezelfde of lagere prijs. Ik geloof namelijk niet dat ATi 'm voor meer dan 650 euro op de markt brengt..
__________________
Hoewel zowel vertrouwenskwestie als pleeborstelfobie vijf lettergrepen tellen, valt de verdere verwantschap tussen deze woorden vies tegen.
|
![]() |
|
Offtopic: komt er ook iets nuttigs uit jou gatara
![]() ![]() ![]() als je er niks van weet maar toch interessant wilt klinken doe dan net alsof zoals iK: zou het niet zo zijn dat als over een half jaar vele nieuwe technieken 'standaard' zijn geworden in computersystemen waar de fx wel stukken beter mee overweg kan dan de radeon, ik weet niet hoe lang radeon van plan is door te gaan met deze serie? iig ik had ergens opgevangen dat de geforce fx een aantal eigenschappen heeft die de radeon niet heeft, dan bedoel ik in de gpu herself, niet in het geheugen enzo, maar zoiets als het verschil maakte tussen de geforce 2 en de geforce 3 ![]() Als dat zo is dan zou ik liever nu een paar pleuros extra betalen voor een kaart die meer techniek in huis heeft om in de nabije toekomst aardig uit de voeten te kunnen, dan een kaart te kopen die alle technieken van nu uberl33t beheerst voor die paar pleuros minder.
__________________
http://www.twistedmojo.com/la.html
|
![]() |
|||||
Citaat:
![]() Citaat:
Mm..ik haat dit soort dingen. Net zoals het geheugen...... Voor een nieuwe computer kan ik niet mijn SDRAM meenemen, omdat DDR het overgenomen heeft. ![]() En in de computerwereld is er in principe een versnelde VHS/video2000 rivaliteit aan de gang, waarbij het uiteindelijk maar 1 wint. Maar welke? Citaat:
De vraag restdan: is dat wel revolutionair genoeg of komt Radeon niet binnenkort uit met een nieuwe kaart die dit ook bezit, maar dan nog veel beter? Citaat:
![]() (en is het het waard? Denk je niet dat je dure computer zo weer is ingehaald door nieuwe technieken?) |
![]() |
|
![]() |
1 ding weet ik wel, deze core van de fx heeft geen toekomst.
Ze hebben notabene een pci cooler nodig om dat ding nog te kunnen laten werken, anders word ie te warm. En we weten allemaal wat een hete core betekend-->slechte architectuur. Want dit is een nieuwe core in de geforce reeks, en als ie nu al zo warm word, hoe komt het straks dan met de nv31 en nv34??¿¿¿ Ik hoop nie dat ze daar dezelfde core voor gaan gebruiken. |
![]() |
||
Citaat:
__________________
http://www.twistedmojo.com/la.html
|
Advertentie |
|
![]() |
||
Citaat:
![]()
__________________
ik ben een konijn
|
![]() |
|
|