Como mudar de gráficos integrados para gráficos discretos?-Problema comum-LDPlayer

Como mudar de gráficos integrados para gráficos discretos?-Problema comum-LDPlayer

O que são gráficos integrados para PC? · Inset

Gráficos integrados referem-se a uma GPU (Unidade de Processamento Gráfico) que está integrada no mesmo pacote que a CPU (Unidade Central de Processamento). Nos círculos entusiastas de computadores, os gráficos integrados são frequentemente ridicularizados, mas essa abordagem ao design de GPU tem muitas vantagens importantes.

Gráficos precisam de hardware especializado

A computação gráfica moderna, com vídeo de alta definição e renderização 3D detalhada em videogames e aplicativos profissionais, é um trabalho exigente. Embora uma CPU possa criar (“renderizar”) gráficos, ela não possui o tipo certo de arquitetura para fazê-lo de forma rápida e eficiente.

É por isso que temos GPUs, que são construídas desde o início para serem ótimas no tipo de matemática que você precisa para calcular os valores corretos de milhões de pixels dezenas ou centenas de vezes a cada segundo. Todo dispositivo de computação, de PCs a smartphones, possui uma GPU.

Os únicos computadores que não possuem GPUs geralmente são servidores “headless” que são operados remotamente e só funcionam de forma adequada para CPUs. No entanto, até isso está mudando, já que as GPUs agora estão sendo usadas para fazer outras coisas além dos gráficos, mas isso é uma história que já contamos no Inset. Hoje em dia, qualquer computador que dê vídeo quase certamente tem uma GPU dedicada dentro dele.

Gráficos integrados x dedicados

Quando você compra um notebook ou computador de mesa, a ficha de especificações geralmente diz que o computador vem com gráficos “integrados” ou “dedicados”. Há uma grande diferença entre essas duas abordagens para incluir uma GPU em um computador.

Uma GPU dedicada significa que a GPU tem seu próprio pacote de processador independente. Tem a sua própria solução de refrigeração separada. As GPUs dedicadas também têm seu próprio hardware e memória de gerenciamento de energia. Uma GPU dedicada é como seu próprio computador independente.

Em um computador desktop, as GPUs dedicadas vêm em sua própria placa de circuito, geralmente conhecida como placa de vídeo. A placa se encaixa na placa-mãe do computador e geralmente precisa de mais energia do que pode ser fornecida pelo slot da placa. Portanto, ele também pode ter suas próprias conexões de energia dedicadas da fonte de alimentação do computador.

Gráficos dedicados em notebooks às vezes vêm como um pacote removível, como os módulos de GPU de notebook MXM (agora descontinuados). Mais comumente, eles são soldados diretamente à placa-mãe, mas ainda são dedicados como componentes separados da CPU. Com seu próprio resfriamento, memória e energia.

Uma GPU integrada, por outro lado, precisa compartilhar tudo com a CPU. É por isso que muitas vezes é chamado de GPU integrada. Ele fica no mesmo pacote de processador, é resfriado pelo mesmo dissipador de calor e compartilha a mesma memória do sistema que a CPU. A placa-mãe fornece o hardware de saída de exibição que permite conectar um monitor, mas todos os “cérebros” da GPU estão dentro do pacote da CPU.

As vantagens dos gráficos integrados

Com exceção das CPUs de ponta, praticamente todas as CPUs de computador hoje têm uma GPU integrada. Provavelmente é justo dizer que o modelo de GPU integrado é o tipo de GPU mais comum na natureza. Existem algumas boas razões pelas quais é tão popular, mas, como sempre, há uma lista relativamente curta de razões importantes.

O primeiro é o custo. Não adiciona muito custo a uma CPU para também gravar uma GPU em seu espaço de silício. Incluir uma GPU em cada GPU reduz os custos em outras partes do sistema muito mais do que aumenta o custo da própria GPU. Portanto, os sistemas que usam GPU integrada são significativamente mais baratos do que aqueles com uma solução dedicada.

A segunda razão principal é a complexidade. Isso é especialmente relevante para notebooks, no qual cada milímetro cúbico de volume é importante. Ao integrar a GPU no pacote da CPU, os notebooks podem ser drasticamente menores, já que você não precisa de todo o hardware de suporte extra para resfriar, alimentar e conectar um pacote de chip totalmente separado.

O terceiro pilar do design de GPU integrado é a eficiência de energia. É muito mais fácil gerenciar o consumo de energia de um único chip integrado do que equilibrar as necessidades de dois chips separados. Como a GPU e a CPU estão totalmente integradas, elas podem garantir que se encaixem perfeitamente no TDP (Thermal Design Power) do pacote da CPU.

Notebooks com GPUs dedicadas geralmente também possuem GPUs integradas. O sistema operacional alternará dinamicamente entre os dois, dependendo do programa que você estiver usando. Assim, você não está consumindo energia da bateria usando uma GPU de alto desempenho ao fazer planilhas, por exemplo.

Unidade de processamento gráfico

Na década de 1970, o termo "GPU" originalmente significava unidade de processador gráfico e descrevia uma unidade de processamento programável que trabalhava independentemente da CPU e era responsável pela manipulação e saída de gráficos. [2] [3] Mais tarde, em 1994, a Sony usou o termo (agora significando unidade de processamento gráfico ) em referência à GPU Sony projetada pela Toshiba do console PlayStation em 1994. [4] O termo foi popularizado pela Nvidia em 1999, que comercializou a GeForce 256 como "a primeira GPU do mundo". [5] Ele foi apresentado como um " processador de chip único com transformada integrada , iluminação, configuração / recorte de triângulo e motores de renderização". [6] A rival ATI Technologies cunhou o termo " unidade de processamento visual " ou VPU com o lançamento da Radeon 9700 em 2002. [7]

Década de 1970

As placas de sistema Arcade têm usado circuitos gráficos especializados desde os anos 1970. Nos primeiros hardwares de videogame, a RAM para buffers de quadro era cara, então os chips de vídeo combinavam os dados enquanto a tela era digitalizada no monitor. [8]

Um circuito barrel shifter especializado foi usado para ajudar a CPU a animar os gráficos do framebuffer para vários jogos de arcade da década de 1970 da Midway e Taito , como Gun Fight (1975), Sea Wolf (1976) e Space Invaders (1978). [9] [10] [11] O sistema de arcade Namco Galaxian em 1979 usava hardware gráfico especializado com suporte a cores RGB , sprites multicoloridos e fundos de mapa de blocos . [12] O hardware Galaxian foi amplamente utilizado durante a era de ouro dos videogames de arcade , por empresas de jogos como Namco , Centuri , Gremlin , Irem , Konami , Midway , Nichibutsu , Sega e Taito . [13] [14]

Microprocessador Atari ANTIC em uma placa-mãe Atari 130XE Microprocessador Atari ANTIC em uma placa-mãe Atari 130XE

No mercado doméstico, o Atari 2600 em 1977 usava um deslocador de vídeo chamado Adaptador de Interface de Televisão . [15] Os computadores Atari de 8 bits (1979) tinham ANTIC , um processador de vídeo que interpretava instruções que descreviam uma "lista de exibição" - a maneira como as linhas de varredura mapeiam para modos de bitmap ou caracteres específicos e onde a memória é armazenada (assim havia não precisa ser um buffer de quadro contíguo). [16] As sub - rotinas de código de máquina 6502 podem ser acionadas em linhas de varredura definindo um bit em uma instrução de lista de exibição. [17] ANTIC também suportava rolagem vertical e horizontal suave independente da CPU. [18]

Década de 1980

NEC μPD7220 A NEC μPD7220 A

O NEC µPD7220 foi a primeira implementação de um processador de vídeo gráfico para PC como um único chip de circuito integrado Large Scale Integration (LSI) , permitindo o design de placas de vídeo de baixo custo e alto desempenho, como as da Number Nine Visual Technology . Tornou-se a GPU mais conhecida até meados da década de 1980. [19] Foi o primeiro processador gráfico VLSI ( integração de muito grande escala) metal-óxido-semicondutor ( NMOS ) totalmente integrado para PCs, com suporte para resolução de até 1024x1024 e lançou as bases para o emergente mercado gráfico de PC. Foi usado em várias placas gráficas e foi licenciado para clones como o Intel 82720, a primeira unidade de processamento gráfico da Intel . [20] Os jogos de arcade da Williams Electronics Robotron 2084 , Joust , Sinistar e Bubbles , todos lançados em 1982, contêm chips de blitter personalizados para operar em bitmaps de 16 cores. [21] [22]

Em 1984, a Hitachi lançou o ARTC HD63484, o primeiro grande processador gráfico CMOS para PC. O ARTC era capaz de exibir uma resolução de até 4K no modo monocromático e era usado em várias placas gráficas e terminais de PC durante o final dos anos 1980. [23] Em 1985, o Commodore Amiga apresentava um chip gráfico personalizado, com uma unidade de blitter que acelerava as funções de manipulação de bitmap, desenho de linha e preenchimento de área. Também está incluído um coprocessador com seu próprio conjunto de instruções simples, capaz de manipular registros de hardware gráfico em sincronia com o feixe de vídeo (por exemplo, para chaves de paleta por scanline, multiplexação de sprite e janelas de hardware) ou direcionar o blitter. Em 1986, a Texas Instruments lançou o TMS34010 , o primeiro processador gráfico totalmente programável. [24] Ele podia rodar código de uso geral, mas tinha um conjunto de instruções orientadas a gráficos. Durante 1990–1992, esse chip se tornou a base das placas aceleradoras do Windows da Texas Instruments Graphics Architecture ("TIGA") .

O adaptador IBM 8514 Micro Channel, com complemento de memória. O adaptador IBM 8514 Micro Channel, com complemento de memória.

Em 1987, o sistema gráfico IBM 8514 foi lançado como uma das [ vagas ] primeiras placas de vídeo para IBM PC compatíveis a implementar primitivos 2D de função fixa em hardware eletrônico . Afiada 's X68000 , lançado em 1987, usou um chipset gráficos personalizados [25] com uma paleta e hardware suporte 65.536 cores para sprites, rolagem e vários playfields, [26] , eventualmente, servir como uma máquina de desenvolvimento para Capcom ' s CP Sistema de arcada borda. A Fujitsu mais tarde competiu com o computador FM Towns , lançado em 1989 com suporte para uma paleta de cores completa 16.777.216. [27] Em 1988, as primeiras placas gráficas 3D poligonais dedicadas foram introduzidas em arcades com o Namco System 21 [28] e o Taito Air System. [29]

Seção VGA na placa-mãe em IBM PS / 55 Seção VGA na placa-mãe em IBM PS / 55

IBM 's proprietária Video Graphics Array padrão de vídeo (VGA) foi introduzida em 1987, com uma resolução máxima de 640 × 480 pixels. Em novembro de 1988, a NEC Home Electronics anunciou a criação da Video Electronics Standards Association (VESA) para desenvolver e promover um padrão de exibição de computador Super VGA (SVGA) como sucessor do padrão de exibição VGA proprietário da IBM. Super VGA habilitado para resolução de tela gráfica de até 800 × 600 pixels , um aumento de 36%. [30]

Década de 1990

Tseng Labs ET4000 / W32p Tseng Labs ET4000 / W32p

S3 Graphics ViRGE S3 Graphics ViRGE

Placa Voodoo3 2000 AGP Placa Voodoo3 2000 AGP

Em 1991, a S3 Graphics lançou o S3 86C911 , que seus designers batizaram com o nome do Porsche 911 como uma indicação do aumento de desempenho que prometia. [31] O 86C911 gerou uma série de imitadores: em 1995, todos os principais fabricantes de chips gráficos para PC adicionaram suporte de aceleração 2D aos seus chips. [32] [33] Nessa época, os aceleradores de função fixa do Windows haviam ultrapassado os caros coprocessadores gráficos de uso geral no desempenho do Windows, e esses coprocessadores desapareceram do mercado de PC.

Ao longo da década de 1990, a aceleração de GUI 2D continuou a evoluir. À medida que os recursos de fabricação melhoraram, também aumentou o nível de integração dos chips gráficos. As interfaces de programação de aplicativos (APIs) adicionais chegaram para uma variedade de tarefas, como a biblioteca gráfica WinG da Microsoft para Windows 3.x e sua interface DirectDraw posterior para aceleração de hardware de jogos 2D no Windows 95 e posterior.

No início e em meados da década de 1990, os gráficos 3D em tempo real estavam se tornando cada vez mais comuns nos jogos de arcade, computador e console, o que levou a uma crescente demanda pública por gráficos 3D acelerados por hardware . Os primeiros exemplos de hardware gráfico 3D de mercado de massa podem ser encontrados em placas de sistema de arcade, como Sega Model 1 , Namco System 22 e Sega Model 2 , e nos consoles de videogame de quinta geração , como Saturn , PlayStation e Nintendo 64 . Sistemas de arcade como o Sega Model 2 e Namco Magic Edge Hornet Simulator em 1993 eram capazes de T&L de hardware ( transformar, recortar e iluminar ) anos antes de aparecer em placas gráficas de consumo. [34] [35] Alguns sistemas usaram DSPs para acelerar as transformações. Fujitsu , que trabalhou no sistema de arcade Sega Model 2, [36] começou a trabalhar na integração de T&L em uma única solução LSI para uso em computadores domésticos em 1995; [37] [38] a Fujitsu Pinolite, o primeiro processador de geometria 3D para computadores pessoais, lançado em 1997. [39] A T & L GPU primeiro hardware em casa consolas de jogos de vídeo foi o Nintendo 64 's Reality coprocessador , lançado em 1996. [ 40] Em 1997, a Mitsubishi lançou o 3Dpro / 2MP , uma GPU completa capaz de transformação e iluminação, para workstations e desktops Windows NT ; [41] A ATi o utilizou em sua placa de vídeo FireGL 4000 , lançada em 1997. [42]

O termo "GPU" foi cunhado pela Sony em referência ao GPU Sony de 32 bits (projetado pela Toshiba ) no console de videogame PlayStation , lançado em 1994. [4]

No mundo do PC, as primeiras tentativas fracassadas para chips gráficos 3D de baixo custo foram o S3 ViRGE , ATI Rage e Matrox Mystique . Esses chips eram essencialmente aceleradores 2D da geração anterior com recursos 3D integrados. Muitos eram até compatíveis com os chips da geração anterior para facilidade de implementação e custo mínimo. Inicialmente, os gráficos 3D de desempenho eram possíveis apenas com placas discretas dedicadas a funções 3D de aceleração (e sem a aceleração GUI 2D totalmente), como o PowerVR e o 3dfx Voodoo . No entanto, como a tecnologia de fabricação continuou a progredir, vídeo, aceleração de GUI 2D e funcionalidade 3D foram todos integrados em um único chip. Os chipsets Verite da Rendition foram os primeiros a fazer isso bem o suficiente para serem dignos de nota. Em 1997, a Rendition deu um passo além ao colaborar com a Hercules e a Fujitsu em um projeto "Thriller Conspiracy" que combinava um processador geométrico Fujitsu FXG-1 Pinolite com um núcleo Vérité V2200 para criar uma placa gráfica com um motor T&L completo anos antes da GeForce da Nvidia 256 . Esta placa, projetada para reduzir a carga colocada sobre a CPU do sistema, nunca chegou ao mercado. [ citação necessária ]

O OpenGL apareceu no início dos anos 90 como uma API gráfica profissional, mas originalmente sofria de problemas de desempenho que permitiram que a API Glide interviesse e se tornasse uma força dominante no PC no final dos anos 90. [43] No entanto, esses problemas foram superados rapidamente e a API Glide caiu no esquecimento. As implementações de software do OpenGL eram comuns durante esse tempo, embora a influência do OpenGL eventualmente tenha levado a um amplo suporte de hardware. Com o tempo, surgiu uma paridade entre os recursos oferecidos no hardware e os oferecidos no OpenGL. O DirectX se tornou popular entre os desenvolvedores de jogos do Windows no final dos anos 90. Ao contrário do OpenGL, a Microsoft insistia em fornecer suporte estrito de hardware um para um. A abordagem tornou o DirectX menos popular como uma API gráfica autônoma inicialmente, já que muitas GPUs forneciam seus próprios recursos específicos, dos quais os aplicativos OpenGL existentes já podiam se beneficiar, deixando o DirectX frequentemente uma geração para trás. (Veja: Comparação de OpenGL e Direct3D .)

Com o tempo, a Microsoft começou a trabalhar mais de perto com os desenvolvedores de hardware e a direcionar os lançamentos do DirectX para coincidir com os do hardware gráfico de suporte. O Direct3D 5.0 foi a primeira versão da API em expansão a obter ampla adoção no mercado de jogos e competiu diretamente com muitas bibliotecas gráficas mais específicas de hardware, muitas vezes proprietárias, enquanto o OpenGL manteve um forte número de seguidores. O Direct3D 7.0 introduziu suporte para transformação e iluminação acelerada por hardware (T&L) para Direct3D, enquanto o OpenGL já tinha esse recurso exposto desde o início. As placas aceleradoras 3D foram além de simples rasterizadores para adicionar outro estágio de hardware significativo ao pipeline de renderização 3D. A Nvidia GeForce 256 (também conhecida como NV10) foi a primeira placa para consumidor lançada no mercado com T&L acelerado por hardware, enquanto as placas 3D profissionais já tinham esse recurso. A transformação e iluminação do hardware, ambos recursos já existentes do OpenGL, chegaram ao hardware de nível de consumidor nos anos 90 e estabeleceram o precedente para unidades de shader de pixel e vertex posteriores que eram muito mais flexíveis e programáveis.

2000 a 2010

A Nvidia foi a primeira a produzir um chip capaz de sombreamento programável ; a GeForce 3 (codinome NV20). Cada pixel agora poderia ser processado por um pequeno "programa" que poderia incluir texturas de imagem adicionais como entradas, e cada vértice geométrico poderia da mesma forma ser processado por um pequeno programa antes de ser projetado na tela. Usado no console Xbox , ele competia com o PlayStation 2 , que usava uma unidade de vetor customizada para processamento de vértice acelerado por hardware; comumente referido como VU0 / VU1. As primeiras encarnações dos mecanismos de execução de sombreador usados ​​no Xbox não eram de propósito geral e não podiam executar código de pixel arbitrário. Vértices e pixels foram processados ​​por diferentes unidades que tinham seus próprios recursos com pixel shaders tendo restrições muito mais rígidas (visto que são executados em frequências muito mais altas do que com vértices). Os mecanismos de sombreamento de pixel eram, na verdade, mais parecidos com um bloco de funções altamente personalizável e não "executavam" um programa. Muitas dessas disparidades entre o sombreamento de vértice e pixel não foram abordadas até muito mais tarde com o Unified Shader Model .

Em outubro de 2002, com a introdução do ATI Radeon 9700 (também conhecido como R300), o primeiro acelerador Direct3D 9.0, pixel e sombreadores de vértice do mundo podiam implementar looping e matemática de ponto flutuante extensa e estavam rapidamente se tornando tão flexíveis quanto CPUs, mas pedidos de magnitude mais rápido para operações de matriz de imagem. O sombreamento de pixel é frequentemente usado para mapeamento de relevo , que adiciona textura, para fazer um objeto parecer brilhante, opaco, áspero ou mesmo redondo ou extrudado. [44]

Com a introdução da série Nvidia GeForce 8 , e então a nova unidade de processamento de fluxo genérico, as GPUs tornaram-se dispositivos de computação mais generalizados. Hoje, as GPUs paralelas começaram a fazer incursões computacionais contra a CPU, e um subcampo de pesquisa, denominado GPU Computing ou GPGPU para General Purpose Computing na GPU , encontrou seu caminho em campos tão diversos como aprendizado de máquina , [45] exploração de petróleo , científica processamento de imagens , álgebra linear , [46] estatísticas , [47] reconstrução 3D e até mesmo determinação de preços de stock options . O GPGPU na época era o precursor do que agora é chamado de sombreador de computação (por exemplo, CUDA, OpenCL, DirectCompute) e realmente abusou do hardware até certo ponto, tratando os dados passados ​​para algoritmos como mapas de textura e executando algoritmos desenhando um triângulo ou quadrante com um sombreador de pixel apropriado. Isso obviamente acarreta alguns overheads, já que unidades como o Scan Converter estão envolvidas onde não são realmente necessárias (nem mesmo a manipulação de triângulos é uma preocupação - exceto para invocar o pixel shader). Ao longo dos anos, o consumo de energia das GPUs tem aumentado e, para gerenciá-lo, várias técnicas foram propostas. [48]

A plataforma CUDA da Nvidia , introduzida pela primeira vez em 2007, [49] foi o primeiro modelo de programação amplamente adotado para computação GPU. Mais recentemente, o OpenCL tornou-se amplamente suportado. OpenCL é um padrão aberto definido pelo Khronos Group que permite o desenvolvimento de código para GPUs e CPUs com ênfase na portabilidade. [50] As soluções OpenCL são suportadas pela Intel, AMD, Nvidia e ARM, e de acordo com um relatório recente da Evan's Data, OpenCL é a plataforma de desenvolvimento GPGPU mais usada por desenvolvedores nos Estados Unidos e na Ásia-Pacífico. [ citação necessária ]

2010 até o presente

Em 2010, a Nvidia iniciou uma parceria com a Audi para impulsionar os painéis de seus carros. Essas GPUs Tegra alimentavam o painel dos carros, oferecendo maior funcionalidade aos sistemas de navegação e entretenimento dos carros. [51] Os avanços na tecnologia de GPU em carros ajudaram a impulsionar a tecnologia de direção autônoma . [52] As placas da série Radeon HD 6000 da AMD foram lançadas em 2010 e em 2011, a AMD lançou suas GPUs discretas da série 6000M para serem usadas em dispositivos móveis. [53] A linha Kepler de placas gráficas da Nvidia foi lançada em 2012 e foram usadas nas placas da série 600 e 700 da Nvidia. Um recurso nesta nova microarquitetura de GPU incluiu GPU boost, uma tecnologia que ajusta a velocidade do clock de uma placa de vídeo para aumentá-la ou diminuí-la de acordo com seu consumo de energia. [54] A microarquitetura Kepler foi fabricada no processo de 28 nm.

O PS4 e o Xbox One foram lançados em 2013, ambos usam GPUs baseadas nas Radeon HD 7850 e 7790 da AMD . [55] A linha Kepler de GPUs da Nvidia foi seguida pela linha Maxwell , fabricada no mesmo processo. Os chips de 28 nm da Nvidia eram fabricados pela TSMC, a Taiwan Semiconductor Manufacturing Company, que na época fabricava usando o processo de 28 nm. Em comparação com a tecnologia de 40 nm do passado, este novo processo de fabricação permitiu um aumento de 20 por cento no desempenho enquanto consumia menos energia. [56] [57] Fones de ouvido de realidade virtual têm requisitos de sistema muito altos. Os fabricantes de fones de ouvido VR recomendaram o GTX 970 e o R9 290X ou superior na época de seu lançamento. [58] [59] Pascal é a próxima geração de placas gráficas de consumo da Nvidia lançada em 2016. A série de placas GeForce 10 está sob esta geração de placas gráficas. Eles são feitos usando o processo de fabricação de 16 nm, que melhora a microarquitetura anterior. [60] A Nvidia lançou uma placa de não consumidor sob a nova arquitetura Volta , a Titan V. As mudanças da Titan XP, a placa de ponta da Pascal, incluem um aumento no número de núcleos CUDA, a adição de núcleos tensores e HBM2 . Os núcleos tensores são especialmente projetados para aprendizado profundo, enquanto a memória de alta largura de banda é uma memória on-die, empilhada e de menor clock, que oferece um barramento de memória extremamente amplo, útil para o propósito pretendido do Titan V Para enfatizar que o Titan V não é uma placa de jogos, a Nvidia removeu o sufixo "GeForce GTX" que adiciona às placas de jogos de consumo.

Em 20 de agosto de 2018, a Nvidia lançou as GPUs da série RTX 20 que adicionam núcleos de rastreamento de raios às GPUs, melhorando seu desempenho em efeitos de iluminação. [61] As GPUs Polaris 11 e Polaris 10 da AMD são fabricadas por um processo de 14 nanômetros. Seu lançamento resulta em um aumento substancial no desempenho por watt das placas de vídeo AMD. [62] A AMD também lançou a série de GPUs Vega para o mercado de ponta como concorrente das placas Pascal de ponta da Nvidia, também apresentando HBM2 como a Titan V.

Em 2019, a AMD lançou o sucessor de seu conjunto de microarquitetura / instrução Graphics Core Next (GCN). Chamada de RDNA, a primeira linha de produtos apresentando a primeira geração de RDNA foi a série de placas de vídeo Radeon RX 5000 , que mais tarde foi lançada em 7 de julho de 2019. [63] [64] Posteriormente, a empresa anunciou que o sucessor do RDNA a microarquitetura seria uma atualização. Chamada de RDNA 2, a nova microarquitetura foi supostamente agendada para lançamento no quarto trimestre de 2020. [65]

A AMD revelou a série Radeon RX 6000 , sua próxima geração de placas gráficas RDNA 2 com suporte para ray tracing acelerado por hardware em um evento online em 28 de outubro de 2020. [66] [67] A linha consiste inicialmente no RX 6800, RX 6800 XT e RX 6900 XT. [68] [69] O RX 6800 e 6800 XT lançado em 18 de novembro de 2020, com o RX 6900 XT sendo lançado em 8 de dezembro de 2020. [70] As variantes RX 6700 e RX 6700 XT, que é baseado no Navi 22 o lançamento está previsto para o primeiro semestre de 2021. [71] [72] [73]

O PlayStation 5 e o Xbox Series X e Series S foram lançados em 2020, ambos usam GPUs baseadas na microarquitetura RDNA 2 com ajustes proprietários e diferentes configurações de GPU na implementação de cada sistema. [74] [75] [76]

Empresas de GPU

Muitas empresas produziram GPUs sob várias marcas. Em 2009, Intel , Nvidia e AMD / ATI eram os líderes em market share, com 49,4%, 27,8% e 20,6% de market share, respectivamente. No entanto, esses números incluem as soluções gráficas integradas da Intel como GPUs. Sem contar aqueles, Nvidia e AMD controlavam quase 100% do mercado em 2018. Suas respectivas participações de mercado são de 66% e 33%. [77] Além disso, S3 Graphics [78] e Matrox [79] produzem GPUs. Os smartphones modernos também usam principalmente GPUs Adreno da Qualcomm , GPUs PowerVR da Imagination Technologies e GPUs Mali da ARM .

Como mudar de gráficos integrados para gráficos discretos?-Problema comum-LDPlayer

Métodos sobre mudar gráficos integrados para gráficos discretos, use o simulador mais fluente e rápido.

Método para computadores desktop:

1. Abra NVIDIA Control Panel. Você pode clicar com o botão direito em desktop e selecionar NVIDIA Control Panel no menu de contexto. Alternativamente, você pode abri-lo no painel de controle se não encontrar NIDIVA Control Panel pós clicar com o botão direito do rato.

Nota: Se não houver resposta após clicar com o botão direito do rato em NVIDIA Control Panel, é muito provavelmente haver algo errado com o seu driver gráfico. Tudo o que você precisa fazer é atualizar seu driver gráfico, pode ver tutorial sobre Como atualizar o driver gráfico

2. Selecione Use the advanced 3D image settings e clicar Apply.

3. Adicione o processo mestre de LDPlayer (Caminho: C:Program Filesdnplayerext2 ) Não é o caminho de instalação do LDPlayer

4. Clique Apply.

Método para computadores portáteis:

O primeiro e segundo passo são iguais ao métodos para computadores desktop.

A seguir, selecione o processo NVIDIA de alto desempenho após adicionar o processo mestre de LDPBoxer (por exemplo, leidian (Ldbox) e clique em Apply.

Leave a Replay