Hjemmeside » hvordan » Nybegynder Geek Har jeg brug for et grafikkort i min pc?

    Nybegynder Geek Har jeg brug for et grafikkort i min pc?

    Der er altid en masse snak om computer grafikkort, takket være større og bedre modeller hvert par måneder. Det er ikke altid klart hvem faktisk behov en, dog. Lad os tage et kig på, hvad de er, og om de passer til pc'en.

    Forskellen mellem integrerede og dedikerede GPU'er

    Overskriften til denne artikel er lidt af et trick spørgsmål på en måde. Hver stationær og bærbar computer har brug for en GPU (Graphics Processing Unit) af en eller anden type. Uden en GPU ville der ikke være nogen måde at udføre et billede på din skærm. Den virkelige kerne i vores undersøgelse i dag er ikke, om du har brug for en GPU eller ej, men om du har brug for en dedikeret (eller diskret) GPU, som de fleste refererer til som et "grafikkort".

    Integrerede GPU'er: Penge til ingenting og vores pixels gratis

    De fleste bundkort kommer i disse dage med GPU'er integreret i bundkortet eller endda selve CPU'en. I årtier nu har det været almindeligt for bundkortproducenter at inkludere en brugbar (omend ikke særlig kraftig) GPU bygget lige ind i bundkortet på bundkortet - ingen ekstra hardware kræves. Køb et bundkort, få en simpel indbygget GPU, der kan producere et billede på din skærm. Inden for de sidste seks år har den integrerede GPU været integreret i CPU'en i stedet.

    Hvor er GPU'en? I CPU'en. Magi!

    Integrerede GPU'er er gode, fordi de er gratis (og problemfri). Du behøver ikke engang at tænke på dem - bare kombinere et forbrugerklasse bundkort og CPU (eller køb en færdigmonteret computer fra en forhandler som Dell eller Best Buy) og du har et sted at tilslutte din skærm.

    Integreret grafik er også meget effektiv, da de bruger meget lidt strøm ud over, hvad CPU'en allerede bruger i første omgang. Og takket være deres standardisering vil du sjældent komme ind i problemer med drivere eller kompatibilitet. På en moderne Windows-maskine vil alt lige blive taget hånd om for dig.

    Selvfølgelig har integreret grafik også deres ulemper. For det første er de svage. De er beregnet til krav fra en stationær bruger, der læser email, browses på nettet, udarbejder dokumenter, og ikke brugere, der gør mere krævende ting som spil. Kast et moderne spil på en integreret GPU, og det kan stikke igennem det eller, værre, bare ligefrem undlader at indlæse spillet.

    Derudover deler en integreret GPU alle de ressourcer, som CPU'en deler, herunder din pulje af RAM. Det betyder enhver grafisk tung opgave, du kaster på det integrerede system, som at gengive video, afspille et nuværende generation 3D-videospil eller lignende, vil forbruge en stor del af dine systemressourcer, og der er måske ikke nok at gå rundt.

    Dedikerede GPU'er: Premium Pixel Pushing til en Premium pris

    På den modsatte side af GPU spektret, hvad angår både pris og ydeevne, finder du dedikerede GPU'er. Dedikerede GPU'er, som navnet antyder, er separate hardwarestykker, der udelukkende er bestemt til behandling af grafisk behandling. Når du hører nogen siger "Jeg har købt et nyt grafikkort til min computer" eller "Jeg har brug for et nyt grafikkort til at spille Super Soldier Simulator Shoot Skyd 9000", De taler om en dedikeret GPU.

    Den største fordel ved en dedikeret GPU er ydeevne. Ikke alene har et dedikeret grafikkort en sofistikeret computerchip designet eksplicit til opgaven at behandle video, GPU'en, men den har også dedikeret RAM til opgaven (som typisk er hurtigere og bedre optimeret til opgaven end dit generelle system-RAM) . Denne stigning i strømmen er ikke kun den oplagte opgaver (som at spille videospil), men gør også opgaver som at behandle billeder i Photoshop mere glatte og hurtigere.

    Ud over radikale præstationsforøgelse tilbyder dedikerede GPU-kort typisk også et bredere og mere moderne udvalg af videoporter end dit bundkort. Mens dit bundkort kun kan have en VGA- og en DVI-port, kan din dedikerede GPU have disse porte plus en HDMI-port eller endda dobbeltporte (som to DVI-porte, som giver dig mulighed for nemt at tilslutte flere skærme).

    Det lyder godt, ikke? Måden bedre ydeevne, porte, havne og flere porte, hvad kunne det være bedre? Mens alle disse ting er fantastiske, er der ikke noget som en gratis frokost. Først og fremmest er der spørgsmålet om omkostninger. En mellemkurset GPU kan løbe fra $ 250-500, og avancerede modeller kan koste op til $ 1000 (selv om de sjældent er værd at prisen til ydeevne, de tilbyder). Hvis alt du behøver er noget nemt at køre to skærme, vil GPU'er baseret på ældre design køre dig omkring $ 50-100.

    Derudover har du brug for en gratis udvidelsesspor på computerens bundkort - og ikke bare noget gammelt slot, men et PCI Express x16 slot (set ovenfor) for det store flertal af kortene samt en strømforsyningsenhed med begge tilstrækkelig ekstra strømforbrug (GPU'er er strømmen sultne) og de rigtige strømforbindelser til din GPU (hvis det er bøfligt nok til at kræve mere strøm end PCI-slottet kan give).

    Tale om strømforbrug, øget strømtegning i elektronik betyder øget varme. Der er en grund til at high-end-GPU'er har store fans for at holde dem kølige. Vær forberedt på mere støj og mere varme - du kan endda nødt til at opgradere din case og / eller case fans for at holde tingene køligere. Selvom du ikke behøver at opgradere din sag til luftstrømmen, skal du muligvis opgradere din sag bare for plads - den sidste GPU, vi købte lige knap passer i vores mid-tower pc tilfælde og endda en brøkdel af en tomme ekstra længde på GPU køleskabet ville have nødvendiggjort en opgradering.

    Så har du brug for en dedikeret GPU?

    Så nu ved du, hvordan en dedikeret GPU sammenligner med sin integrerede fætter, men hvornår skal du gøre hoppet til et dedikeret grafikkort?

    Mens processen med at vælge et bestemt grafikkort over et andet grafikkort er ret komplekst, og du kan bruge en del tid til at sammenligne statistik og vride dine hænder, håber du får den bedst mulige aftale, processen med at afgøre, om du har brug for en dedikeret GPU i første omgang er smuk darn simpel. Lad os se på de to spørgsmål, der virkelig betyder noget i beslutningsprocessen.

    Kan din nuværende opsætning håndtere de spil og grafisk centrerede apps, du bruger?

    Den første og fremmest grund til at folk får en dedikeret GPU er til spil. Du behøver ikke en dedikeret GPU til at se video (endda knivskarpe HD-video). Du har ikke brug for en dedikeret GPU til e-mail, tekstbehandling eller andre typer Office-apps. Du behøver ikke engang en GPU til at spille ældre spil, da dagens integrerede grafik er langt bedre end de dedikerede videokort i årtier tidligere.

    Du gøre, Men har brug for en dedikeret GPU til at spille beregningsintensive moderne 3D-titler i alle deres silkeblødt herlighed. Ønsker at spille Skyrim med snesevis af mods og add-ons, mens du stadig nyder smørglat rejse gennem fantasyområdet? Du har brug for en anstændig dedikeret GPU. Ønsker du at købe nogen top-tier titel, der kommer ud i år og nyd fri afspilning på din nye 4K skærm? Du har brug for en stor dedikeret GPU.

    Grafikkort er også nyttige for nogle ikke-gamers. Hvis du gør en masse billedredigering (ikke kun beskæring og fastsættelse af hvidbalance type ting, men intenst Photoshop arbejde), videoredigering eller nogen form for gengivelse (3D kunst, design osv.), Så vil du helt sikkert få et boost fra en dedikeret GPU. Opgaver i Photoshop som filterapplikation, warping / transformation, og så videre, alle nyder godt af den ekstra kraft, en GPU giver.

    Kan din nuværende opsætning understøtte antallet af skærme, du ønsker?

    Selv om de fleste mennesker køber en GPU til spil, er der også et betydeligt (omend meget mindre) antal mennesker, der køber et dedikeret grafikkort for at udvide, hvor mange skærme deres computer vil understøtte.

    Uden et dedikeret grafikkort er tilføjelse af ekstra skærme til din computer en slags crapshoot. Nogle bundkort understøtter brug af flere videoporter - f.eks. bundkortet har en VGA og en DVI-port, og du kan skifte en indstilling i BIOS for at bruge dem begge, men de fleste bundkort gør det ikke. Andre bundkort giver dig mulighed for at holde den integrerede grafik tændt og tilføj i en dedikeret GPU, så du kan score en ekstra port, men mange gør det ikke (og selv når det trick fungerer kan det være en kongelig smerte at få to helt forskellige GPU chipsets arbejder parallelt).

    Løsningen til multi-monitor elskere er en dedikeret GPU, der sport nok video porte for antallet af skærme, de ønsker at bruge. I tilfældet med min egen desktop opsætning ønskede jeg som eksempel tre monitorer på 1080p, og jeg ville ikke have nogen af ​​disse skærme forbundet via gamle analoge VGA-forbindelser. Til det formål havde jeg brug for en dedikeret GPU med tre eller flere digitale (DVI, HDMI, etc.) forbindelser.

    Hvis du vil køre to eller flere skærme uden at beskatte computeren, fidle med BIOS-indstillinger eller ty til ofre for at gøre din skærm drømmer til virkelighed, er den nemmeste måde at gøre det på at simpelthen købe et kort, der understøtter din skærmopsætning ret ud af boksen. Det behøver ikke at være en dyr en-kun en, der har antallet og typen af ​​porte, du har brug for.

    Billedkreditter: Nvidia, Jason Fitzpatrick, GBPublic_PR, Smial, Jason Fitzpatrick, Brett Morrison.