Самые худшие видеокарты всех времен шумные, разочаровывающие, инновационные | ENBLE

Худшие видеокарты шумные, разочаровывающие, инновационные | ENBLE

Когда вы смотрите на некоторые из лучших графических карт сегодня, легко забыть, что Nvidia и AMD (и недавно Intel) не всегда были единственными игроками в игре с GPU. Хотя и AMD, и Nvidia допустили свою долю ошибок с GPU, они не единственные бренды, стоящие за некоторыми из худших GPU всех времен.

Давайте посмотрим на некоторые графические карты, которые заставят вас оценить текущий ландшафт GPU, и да, даже включая карты, которые находятся на грани ошибки. (Привет, RTX 4060 Ti.) Вот GPU, которые сделали это ужасно, ужасно неправильно, хотя у каждого из них было что-то интересное или инновационное для предложения.

Мы сфокусированы на прошлом, в основном на брендах, которые вышли из зоны прямого внимания. Обязательно ознакомьтесь с нашими другими подборками для более современных примеров:

  • Худшие GPU AMD всех времен
  • Худшие GPU Nvidia всех времен

Intel740

Vintage3D

Arc Alchemist не был первым предприятием Intel в области дискретных GPU, и DG1 тоже. Задолго до этих проектов появилась Intel i740, и это GPU, которое делает все остальные попытки Intel выглядеть намного лучше.

В середине и конце 1990-х годов Intel вступила в игру с 3D-графикой. Растущий рынок компьютерных игр, с такими названиями, как Doom, Quake и Tomb Raider, действительно начал подчеркивать, насколько важна будет 3D-графика в будущем. Возможно, это и побудило Intel отойти от своей основной области – создания некоторых из лучших процессоров – и попытаться создать дискретные GPU.

Intel740, также известный как i740, был выпущен в начале 1998 года. Это был 350нм GPU, который полагался на сейчас давно забытый интерфейс AGP, который на тот момент выглядел многообещающим по сравнению с PCI (учтите разницу – это не PCIe). Фактически, это был один из первых GPU, использующих AGP, что впоследствии сыграло свою роль в его провале.

Он работал с небольшой частотой 66МГц и имел от 2 до 8МБ VRAM через 64-битную шину. Эти характеристики звучат смешно, судя по современным стандартам, и даже тогда они немного отставали. Объем VRAM был ниже, чем могли предложить некоторые конкуренты Intel, но интерфейс AGP должен был помочь; к сожалению, он только ухудшал производительность ЦПУ, заполняя основную ОЗУ текстурами и занимая мощность процессора. Этот запутанный процесс также повлиял на графический процессор.

Несмотря на много шума, Intel740 оказался провалом. Хотя он мог стать решением для рендеринга 3D-графики, иногда он не мог справиться с ней, вместо этого создавая артефакты и низкую визуальную четкость. Слухи о его плохой производительности быстро распространились. Хотя Intel в основном нацеливалась на производителей предварительно собранных компьютеров (OEM) с этим GPU, ему потребовалось немного времени, чтобы быть забытым, так как геймеры знали, что нужно держаться подальше от i740.

Рынок графики был очень нестабильным тогда и быстро развивался, поэтому такой провал должен был нанести удар по Intel. Однако после нескольких попыток создания дискретных GPU он переключился на интегрированную графику, где нашел успех в годы, которые пришли.

S3 ViRGE

Retronn

Прежде чем мы утвердились на текущем ландшафте AMD, Nvidia и Intel, на рынке GPU было еще несколько имен, которые стремились привлечь внимание. Одной из таких компаний была S3, которая очень быстро стала популярной в начале и середине 1990-х годов. Подобно Intel, S3 использовала бум 3D-графики и разрабатывала графические чипы, предлагающие 3D-ускорение. В конечном итоге S3 ViRGE стал известен как “3D-замедлитель” и сейчас помнятся как один из худших GPU всех времен.

При запуске S3 ViRGE рекламировался как “первый в мире интегрированный 3D-графический ускоритель”. Это действительно был один из первых таких наборов микросхем, разработанных для массового рынка. Он поддерживал около 2-4 МБ SDRAM через 64-битную шину и имел рабочую частоту ядра 55МГц. Он мог рендерить как 2D, так и 3D-графику и предлагал разрешения до 800 x 600 в 3D. Хотя он неплохо справлялся с 2D, он не впечатлил в 3D – и это была вся цель и маркетинговая схема для чипа.

Когда сталкивались с относительно простой 3D-рендерингом, S3 ViRGE на самом деле был немного быстрее лучшего решения на основе ЦП в то время. Однако, когда речь шла о все более сложном рендеринге, требующемся для 3D-игр, включая такие задачи, как билинейная фильтрация, ГПУ на самом деле оказался медленнее, чем программный рендеринг (что по сути означало использование ЦП для графических целей). Именно это принесло ему насмешливое название “первый в мире 3D-замедлитель”, потому что пользователи предпочитали отключить 3D-ускорение и просто использовать ЦП.

Вскоре распространилась информация о плохой 3D-производительности чипа, и быстрый переход с 2D на 3D на рынке игр не помог здесь. S3 пыталась исправить то, что пошло не так с будущими ГПУ, такими как ViRGE/DX и ViRGE/GX, но у нее были достаточно серьезные конкуренты в лице Nvidia, ATI (позже AMD) и 3dfx. В конечном счете, S3 не смогла конкурировать на растущем рынке 3D, хотя продолжала производить чипы для сегмента среднего уровня.

Nvidia GeForceFX 5800

Anandtech

Познакомьтесь с GeForce FX 5800 Ultra – первым (и единственным?) ГП, о котором Nvidia сделала пародийное видео. Да, сама Nvidia сделала двухминутное видео, издеваясь над этим ГП, но это произошло только после его выхода на рынок и получения известности как “Dustbuster” среди видеокарт.

У Nvidia были большие планы на серию FX. Она должна была стать большим прорывом в эпоху DirectX 9, которая была значительным переходом для игр на ПК. Этот ГП появился в то время, когда Nvidia уже была лидером рынка, хотя ATI Technologies была плотно позади с линейкой видеокарт Radeon. Серия FX стала неожиданным неудачным шагом для Nvidia, но, как мы теперь знаем, доминирование ATI/AMD не продлилось надолго, и сейчас Nvidia контролирует большую часть рынка, возможно, в ущерб игрокам на ПК.

FX 5800 Ultra был изготовлен по технологии 130нм и работал на частоте 500МГц (ядро и память, для эффективной частоты 1ГГц). Он использовал 128МБ памяти GDDR2 по 128-битному интерфейсу. Nvidia оснастила его архитектурой CineFX для улучшения кинематографического рендеринга и создала его с планами сделать его эффективным в обработке шейдеров DirectX 9.

На бумаге это звучало замечательно. На самом деле оказалось совсем не так. Он хорошо справлялся с играми на DirectX 8, но испытывал проблемы с некоторыми тайтлами на DX9, и Radeon 9700 Pro от ATI был привлекательной альтернативой без таких проблем. Однако, основной проблемой FX 5800 Ultra был шум.

Nvidia реализовала инновационное охлаждающее решение в этом ГП, называемое FX Flow. Это должно было поддерживать ГП, который обычно нагревался, при комфортной температуре даже при интенсивной игре. Однако, маленький вентилятор, который приводил в движение это устройство, должен был работать с очень высокой скоростью, чтобы справиться. В результате получался один из самых шумных звуков, известных у потребительских ГП.

Nvidia быстро отказалась от этой модели охлаждения. Большинство ее партнеров вернулись к традиционным методам охлаждения для FX 5900 XT и 5900 Ultra, и с тех пор мы больше ничего подобного не видели.

3dfx Voodoo Rush

3dfx однажды была серьезным соперником Nvidia и ATI. Она стала известной в начале 1990-х годов и, как и несколько других производителей ГП того времени, она ехала на волне 3D-графики, пока не потерпела крах. Nvidia в конечном итоге приобрела большую часть ее активов в 2000 году. Хотя упадок компании нельзя свести к одной карте, у нее были интересные решения, которые не смогли найти успех на рынке массового потребления, и 3dfx Voodoo Rush GPU, возможно, является одним из самых известных примеров.

Чипсет Voodoo Rush был продолжением первого продукта компании, Voodoo1. Он объединял 2D- и 3D-ускорение в одной карте, объединяя 3D-возможности графики Voodoo с 2D-ядром от других производителей. Да, я говорю о двухчиповой конфигурации.

ГП предлагал 6МБ EDO DRAM, максимальную рабочую частоту ядра около 50МГц и поддержку таких вещей, как API Glide, Direct3D и OpenGL, а также максимальное разрешение 800 x 600 в 3D-приложениях. На бумаге это звучало многообещающе, но когда продукт был выпущен и люди смогли его протестировать, через хайп проглянуло несколько проблем.

Во-первых, это была массивная видеокарта с склонностью к перегреву, но основная проблема заключалась в архитектуре и том, как все это сказывалось на производительности, которая часто оказывалась хуже, чем у Voodoo 1 в 3D-играх. Проблемы совместимости и визуальные артефакты были не редкостью, и как только эти проблемы стали известны, обзорщики и пользователи одинаково отвернулись от этой видеокарты.

Однако плохой прием Voodoo Rush не был тем, что в конечном итоге определило судьбу 3dfx. Она продолжила выпускать еще видеокарты, включая (также контроверсиальную) Voodoo 5 6000, которая поставлялась со своим собственным адаптером питания. Надеюсь, что Nvidia не придумает нечто подобное для одного из своих гигантских флагманов следующего поколения, потому что конечный результат был довольно забавным.