Рефераты
 

Подбор видеокарты для дизайнерского моделирования

Подбор видеокарты для дизайнерского моделирования

Содержание

Введение

1. История развития видеокарт. Первый акселератор

1.1 Компания ATI и Компания nVidia

1.2 Революция в технологии

1.3 Описание компаний

1.4 Трехмерная графика

1.5 Видеосистема как часть компьютера

1.6 Видеокарта NVIDIA GeForce256, GeForce2 и ATI Radeon256

1.7 Перспективы развития

1.8 Последние технологические разработки

1.9 Графический процессор NVIDIA

1.10 Обзор. Видеокарта ASUS GeForce 8800 GT 512Mb на NVIDIA G92

1.11 Краткая характеристика видеокарты

1.12 Стенд для тестирования Видеокарт

1.13 Разгон

1.14 PCI Express 2.0

1.15 Итоги сравнения

1.16 GeForce 9800 GT

1.17 Смотр видеокарты XFX GF 9800GT 670M 512MB DDR3 XXХ

1.18 Виртуальная реальность

1.19 Воплощение видеокарт

2. Характеристики видеокарты GEFORCE 9800 GTX

2.1 Конкуренция компаний

2.2 Представители семейства GeForce

2.3 Таблица характеристик

2.4Gainward Bliss 8800 GTS 1024MB TV DD GS GLH: быстрее GeForce 9800GTX

2.5 Gainward Bliss 9800 GTX 512MB: достоинства и недостатки

2.6 Gainward Bliss 9800 GTX 512MB: упаковка и комплектация

2.7 Дизайн печатной платы

2.8 Конструкция системы охлаждения

2.9 Энергопотребление, шумность, температурный режим, разгон и совместимость

2.10 Тесты сравнения видеокарт

3. Экономический расчет стоимости объекта анализа

3.1 Расчет затрат на создание проекта выбора видеокарт

3.2 Расчет материальных затрат

3.3 Использование ЭВМ

3.4 Расчет технологической себестоимости видеокарты

3.5 Расчет капитальных затрат на создание видеокарты

3.6 Затраты при эксплуатации видеокарты

4. Охрана труда. Факторы при организации труда

4.1 Продуктивность труда рабочего предприятия

4.2 Планирование рабочего места

Планированием помещений

Конструкция рабочего места

Вывод

Приложение

Перечень ссылок

Введение

В дипломном проекте рассматривается тема "Подбор видеокарты для дизайнерского моделирования" в г. Северодонецке.

Объектом исследования является ООО Бест Вей корп." в г. Северодонецке.

Предметом исследования является видеокарта для дизайнерского моделирования.

Целью дипломного проекта является изучение видеокарт и выбор наиболее оптимальной на данный момент для дизайнерского моделирования, ее работоспособность и определение комплексов мер по применению и работоспособности ее непосредственные достоинства и недостатки.

Актуальность дипломного проекта - причина создания и распространения видеокарт является - возможность использования в любой сфере, где необходимо ее использование, является очень важным фактором для видеокарты. Исходя из назначения данного выбора видеокарты для дизайнерского моделирования и специфики применения необходимо рассмотреть критерии, согласно которым будет проводиться последующий выбор видеокарты. К основным критериям оптимального выбора видеокарты для моделирования следует отнести надежность и работоспособность в той или иной степени без изменений:

Для достижения поставленных целей необходимо выполнить такие этапы:

- изучение технологий разработки видеокарты;

- изучение материалов и подбор литературы по данной тематике;

- экономический расчет эффективности на создание видеокарты;

- описание действий по созданию видеокарты и поддержанию ее в работоспособном состоянии;

- изучение литературы.

1. История развития видеокарт. Первый акселлератор

Сегодня разница между словами видеокарта и видеоакселератор нивелировалась, и эти слова стали синонимами. Так было не всегда. Давайте вернемся на десяток лет назад и посмотрим на видеоиндустрию того времени. В начале прошлого десятилетия 3D-отображение информации присутствовало лишь в специальных лабораториях по моделированию различных процессов или у крупных компаний, обладающих громадными вычислительными машинами. Моделирование трехмерных объектов применялось для визуализации новых продуктов (например, в автомобильной промышленности) или для научных исследований. Игрушки того времени о трехмерном пространстве могли только лишь догадываться. Слово акселератор (от англ. "ускоритель") применительно к видеокартам появилось лишь с выходом чипа VooDoo Graphics компании 3dfx. С этого момента и начнем нашу историю.Компания 3dfx была основана в 1984 году и до 1995 года ничем особым не выделялась.. Наступил 1995 год. Компания 3dfx выпускает видеокарту VooDoo Graphics, которая делает переворот на рынке устройств вывода изображения. В своем новом чипе 3dfx воплотила в жизнь ряд технологий, применявшихся только в профессиональных видеокартах. В то время ускорители были недоступны для массового потребителя из-за запредельной цены. Только с приходом VooDoo Graphics на рынке появился первый видеоакселератор. Чип VooDoo поразил всех своей скоростью. Это было что-то невероятное. Именно после появления VooDoo Graphics можно начинать летопись массовых видеоускорителей.

Первые видеоакселераторы в прямом смысле не были видеокартами. Они занимались обработкой исключительно 3D. Для полноценного обслуживания видеосистемы требовалось две платы. Одна занималась работой в двухмерной графике, а другая трудилась в трехмерном пространстве.

Видеокарта соединялась с ускорителем через специальный соединительный кабель. Акселератор перехватывал сигнал, когда запускалась игра, и блокировал основную видеокарту. Затем, при выходе, посылался сигнал, и акселератор пропускал информацию к видеокарте. VooDoo Graphics был совмещенным 2D/3D-акселератором, а вот следующее поколение форвардов - VooDoo2 было чистым акселератором, оно-то и продолжило начинание своего предшественника - Graphics. VooDoo2 увидел свет в 1998 году. По скорости он превосходил своего предка почти в три раза, кроме того, он мог работать в SLI-режиме. Две карты устанавливались вместе, соединялись кабелем и работали параллельно, одна работала над четными строками, другая - над нечетными. Производительность при этом возрастала почти в полтора раза. В то время ни один из конкурентов не смог противопоставить ничего и близко сравнимого по производительности с Voodoo2.

1.1 Компания ATI и Компания nVidia

Самым старым игроком на рынке видеокарт является компания ATI (Array Technology Industry). Основана она была в 1985 году эмигрантом из Китая Квок-Юэн Хо. Еще в Гонконге Кей Ю окончил университет, став специалистом в области компьютерной инженерии, и имел неплохую работу, которой в Канаде не оказалось. В 1985, найдя инвесторов, Кей Ю, вместе с эмигрантами Бенни Лау и Ли Лау, основывает собственную компанию - ATI.

Многие компании, занимающиеся разработкой компьютерных комплектующих, не имеют собственных производственных мощностей. Они разрабатывают чипы, а их производством занимаются сторонние организации, у которых есть свои заводы. Поначалу так было и с ATI. Их офис размещался в гараже, а чипы они заказывали у одного из калифорнийских производителей. Однако через четыре месяца деньги у компании закончились. От краха ATI выручает бывшая родина в лице одного из гонконгских банков. Желая укрепиться на рынке Канады, банк дает кредит еще на полтора миллиона. В 1994 году у ATI появилась карточка Mach64, которая легла в основу последующих разработок компании. Коммерчески более успешным было следующее поколение карт, в основе которых лежал чип ATI Rage и несколько его модификаций. Вышедший в 1996 году ATI Rage II хоть и не бил рекордов по скорости, но имел ряд инновационных технологических нововведений, как-то: первый аппаратный Z-буфер. Изготовлялся он по 0,5 мкм технологии, при частоте ядра 60 МГц. Модификация Rage IIc изготовлялась уже по 0,35-микронной технологии. Этого все-таки оказалось мало для того чтобы обогнать форварда. Но благодаря хорошей маркетинговой поддержке карты на ATI Rage неплохо продавались. nVidia Corporation (американская компания) была основана в январе 1993 года Дженсеном Хуангом, Крисом Малаховски и Куртисом Приэмом. Штаб-квартира находится в г. Санта-Клара (шт. Калифорния). Первая карта, выпущенная nVidia, называлась NV1 (1995 год). NV1 была не только видеокартой. Помимо совмещенного 2D/3D-ускорителя на плате размещалась звуковая карта. Для того времени видеочип NV1 в качестве ускорителя был неплох, но у него был один минус. Технология, используемая в нем, была несовместима с концепцией, которую предложила Microsoft. NV1 для построения трехмерных объектов использовал кривые третьего порядка, а не полигональную модель. Плохо это было или хорошо, сейчас неважно. Важно то, что после неудачи nVidia смогла подняться и сделать принципиально другой видеочип. Через год, в 1996, nVidia выпустила очередное свое творение, известное нам как Riva128. Чипы этой серии заняли свое место на рынке, хотя при тогдашних конкурентах - VooDoo Graphics и ATI Rage II - это было непросто. Осаждаемая конкурентами nVidia еще и допустила ошибку - выпустила чип без драйверов собственной разработки.

Каждая компания самостоятельно должна была разрабатывать драйвера под свои карты, построенные на чипе от nVidia. Позже компания исправила эту недоработку. Через требуемое время вышла модификация Riva128 - Riva 128 ZX. Эта карта использовала до 8 мегабайт памяти (вместо 4 Мб у Riva128), в ней была включена поддержка режима AGP 2x и увеличена частота RAMDAC с 230 до 250 МГц. Хоть карта и получилась неплохой, но тягаться с VooDoo2, которая вышла практически вместе с Riva 128 ZX, она явно не могла, да и в то время никто не мог.

1.2 Революция в технологии

Компания 3dfx выпускает карту VooDoo Banshee, в которой 3D-часть от VooDoo2 была дополнена 2D. Скорость нового творения оставалась по-прежнему высокой, но подрастал и новый игрок, компания nVidia, которая выпустила карту Riva TNT - продукт во многом знаковый для самой компании. Именно этой картой nVidia впервые посягнула на 3D-пьедестал.

Помимо того что сам чип Riva TNT был довольно быстрым, nVidia смогла правильно поставить маркетинг и отладить драйвера. Результат не заставил себя ждать, и карты на этом чипе приобрели большую популярность.

Карты на базе TNT имели частоты 90 МГц по чипу и 110 МГц по памяти. Сам чип обладал двумя конвейерами рендеринга, по одному текстурному модулю на каждом. У единственного соперника была иная архитектура. У VooDoo2 был один конвейер рендеринга, но с двумя текстурными модулями. В то время начали активно появляться игрушки с поддержкой мультитекстурирования. Суть этой технологии состоит в том, что на полигон накладывается не одна текстура, а две или более (редко более двух). В играх с поддержкой мультитекстурирования, например, Quake2, VooDoo2 обходил своего соперника, а в играх без мультитекстурирования TNT выигрывал у VooDoo2. Только выигрыш одного не был разительным поражением для другого.Отставание присутствовало, но не катастрофическое, тем более, чип от nVidia мог спаривать свои конвейеры, и мультитекстурирование все-таки работало. Кроме того, VooDoo2 не поддерживал 32-битный цвет. Тогда его за это не сильно ругали, но инженерам 3dfx стоило бы задуматься. Не все было гладко и с TNT. У нее наблюдалось небольшое замыливание изображения в высоких разрешениях,этот недостаток передался и следующему поколению.

Конкуренты в лице Matrox и S3 также предложили свое видение ускорителей, но так их называли только маркетологи этих компаний, да и то вполголоса. У Matrox была карточка Millennium II, у которой единственным плюсом было качественное 2D, надо сказать, Matrox была всегда эталоном качества 2D. Но рынку уже нужно было третье измерение. Чуть позже она выпустила карту G200, в которой этот недостаток был чуть подправлен, но не настолько, чтобы карточка имела успех. А S3 предложила Savage 3D, вот только как раз с 3D у нее были проблемы, плюс не самые отлаженные драйвера. Пришло время очередного цикла выпуска карт, и nVidia делает еще более серьезную заявку на пьедестал 3D. Ее новый чип Riva TNT2 архитектурно не отличался от предшественника, но выпускался по техпроцессу 0,25 мкм. Для чипов серии TNT2 были написаны довольно неплохие драйверы, уже тогда драйверы были унифицированными, т.е. подходили для любой карты от nVidia, на любом чипе; Компания 3dfx тоже сделала серию чипов Имя им досталось от предшественника. Кто же будет отказываться от хорошо раскрученного имени?! VooDoo3, хоть и был довольно быстрым чипом, но он по-прежнему не поддерживал 32-битный цвет и режим AGP 4x. Конкуренты уже давно все это реализовали в своих картах. Чип синхронно работает с памятью.

1.3 Описание компаний

Компания 3dfx сделала одно очень выгодное приобретение, купив компанию STB. Многим это название ничего не скажет, но в то время карты от этой компании были хорошо известны в Америке, Канаде и на рынке Азии. Это событие сильно ударило по nVidia, т.к. больше половины чипов этой компании шло на заводы STB. Одновременно с покупкой STB, 3dfx получила большие производственные мощности и команду хороших инженеров.VooDoo3 неплохо продавался и был достаточно популярен.

По скорости Riva TNT2 и VooDoo3 были примерно равны. Где-то был быстрее TNT, где-то VooDoo. Тогда все уже понимали, что 3dfx не правит балом, а делит Олимп с nVidia. Оставим ненадолго наших лидеров и взглянем на другие компании. ATI. Первая из них закрепилась на рынке с картой ATI Rage128 Pro. Эта карта имела сравнительно неплохое быстродействие. С TNT2 и VooDoo3 она не соперничала, но карты от ATI, при переходе к 32-битному цвету, не сильно теряли в производительности. У остальных карт потери были более заметны. Скоростной 3D-режим имел большое значение для ATI, но не настолько, чтобы его отсутствие смертельно било по компании. ATI имела хорошо отлаженные поставки видеоадаптеров для контрактных производителей компьютеров. Чипы от ATI использовались в качестве видеосистем в серверах и ноутбуках.Картой на Rage128 Pro ATI не ограничилась. В 1999 появилась первая массовая многочиповая карта - Rage Fury MAXX, которая была довольно оригинальным ответом конкурентам. На этих картах устанавливалось два чипа Rage 128 Pro. Каждый чип (125 МГц) имел собственную память (143 МГц). Скорость работы возрастала почти в полтора раза, но уж больно цена была высокой, и карты массового распространения не получили.S3 (Speed, Sight, Sound) представила чип Savage 4 (savage от англ. "дикарь"). В плане нововведений у чипа все было отлично.

Он первым поддерживал AGP 4x и прогрессивную технологию сжатия текстур. Она давала очень хорошие результаты, оставалось только убедить программистов использовать эту технологию в играх. Был выпущен Unreal, второй диск был библиотекой сжатых текстур. Это первый и последний известный случай адаптации технологии сжатия текстур от S3 под игру, т. к. для этого нужно очень много поработать, а карт с поддержкой этой технологии не так уж много. Впоследствии ядро чипа Savage 4, а именно его 3D-часть, было интегрировано в материнские платы (графическая часть чипсетов VIA KLEххх, KMххх, P4Mххх). Еще одна канадская компания, Matrox, занималась выпуском профессиональных видеоадаптеров.

Использовались они в основном в компьютерах художников и дизайнеров, поскольку именно Matrox делала карты, считавшиеся чуть ли не эталоном качества 2D. На поединок она представила чип G400. Надо отдать должное проектировщикам чипов из Matrox. Они сделали действительно хорошую карту. В 2D она показывала отличное качество, а в играх имела хорошие показатели быстродействия, сопоставимые с TNT2 и VooDoo3. Неплохо потрудились и драйверописатели. Карта пользовалась спросом. Одновременно G400 поддерживал прогрессивную технологию наложения рельефа. В это время 3dfx разрабатывала новый чип под кодовым названием VSA-100. Архитектурно он был похож на TNT2 (два конвейера рендеринга с одним блоком текстурирования на каждом), но по заявлениям разработчиков он должен был быть гораздо быстрее. Очередной виток выпуска чипов намечался на осень 1999 года. К этому времени должны были быть выпущены три чипа: VSA-100 (3dfx), NV10 (nVidia), Savage2000 (S3). Каждый из этой троицы (по заверению компаний) должен был в корне перевернуть мир третьего измерения.VSA-100 - реализовывать практически бесплатный антиалиасинг. Суть FSAA (full-scene anti-aliasing) заключалась в том, что сцена изначально строилась в гораздо большем разрешении, а потом кадр сжимался до требуемого размера, что значительно улучшало картинку, убирая лестничный эффект. В VSA-100 должна была быть введена технология T-buffer, которая была призвана обеспечить кинематографическое изображение в играх. Производительность карт могла масштабироваться путем установки нескольких чипов на карту. В NV10 и Savage2000 должен был появиться геометрический сопроцессор, который брал на себя расчеты по обработке геометрии моделей и освещения. Ранее такие сопроцессоры стояли только на профессиональных ускорителях и впервые должны были появиться на массовом рынке. При этом снималась довольно тяжелая нагрузка с центрального процессора. Чипы от nVidia и S3 были анонсированы в конце августа 1999 с разницей в один день, а тем временем 3dfx хранила молчание. Осенью в рознице появляется GeForce 256, ранее известный как NV10. Производительность нового чипа была на высоте. Чуть позже оптимизировали драйвера, и всем стало ясно - появился новый форвард. Savage2000 тоже выходит, но с опозданием. Быстродействие нового "дикаря" удручало. Все ждали появления новых драйверов, которые, возможно, исправили бы положение. Но этого не последовало. А из-за стен 3dfx начали появляться слухи, что возникли большие проблемы с выходом чипа VSA-100. В итоге на рынке безраздельно властвовал GeForce 256 (Geometric FORCE - "геометрическая сила" или что-то вроде того). Число 256 означало разрядность чипа. Чип имел четыре конвейера с одним текстурным блоком. Позже была выпущена версия с памятью типа DDR, что еще больше подняло планку производительности продукта. Следующего года карты на VSA-100 все-таки выходят. Одночиповая VooDoo 4500 и многочиповые VooDoo 5500 и VooDoo 6000. Но 3dfx это не помогло, так как nVidia представила GeForce2 GTS вовремя (май 2000).

Даже двухчиповая VooDoo 5500 не могла тягаться с GeForce2 GTS. При том что монстр от 3dfx (иначе его не назовешь) занимал огромную часть системного блока. Да и по стоимости двухчиповые карты VooDoo 5500 были недосягаемы для рядового геймера. К тому же они нуждались в дополнительном питании от разъема для винчестеров.Каннибализм в среде производителей видеографики продолжается. В итоге S3 была куплена компанией производителем чипсетов VIA Tech. Теперь разработки S3 живут в компьютерах многих офисов и нетребовательных пользователей в виде интегрированных решений. Matrox не справилась с конкуренцией на рынке 3D и уже не могла составлять конкуренцию ATI и nVidia. К сожалению, 3Dfx сделала основную ставку на SLI -- и проиграла. Компания была разорена, затем объявлена банкротом, и позже ее активы спешно продали с аукциона всего за $70 млн. Покупателем большинства активов стала NVIDIA, которая спустя четыре года после краха 3Dfx выпустила свою версию SLI. Только теперь аббревиатура SLI расшифровывается по-другому (Scalable Link Interface) и работает несколько иным образом. Провала с чипом VSA-100 рынок 3dfx не простил. И после безуспешных попыток найти инвестора, компания была куплена главным конкурентом - nVidia., а покупать было что! 3dfx вела разработки очень перспективных чипов! С ранних дней персональных компьютеров, на большинстве графических плат были установлены конверторы (translators), переводящие созданное компьютером изображение в электрические импульсы, которые требовались монитору. Все это прекрасно работало, но всю обработку изображения выполнял центральный процессор компьютера, параллельно с обработкой звука, управления (в играх) и прерываний системы. Те же самые вещи компьютер должен выполнять и в современных 3D играх или мультимедийных презентациях.

Вам, наверное, уже стало понятно, почему даже самые быстрые процессоры перегружаются работой и не успевают выполнять все задачи в реальном времени. На помощь им приходят графические сопроцессоры или акселераторы. Работа разделяется между центральным процессором и акселератором, в результате производительность системы оказывается на должном уровне. Первым шагом в построении трехмерного цифрового изображения является создание мира каркасов, состоящего из треугольников и полигонов. Мир каркасов превращается с помощью трансформации из трехмерного математического мира в набор объектов на двумерном экране монитора. Трансформированное изображение покрывается текстурами (происходит рендеринг), учитывается освещение от нескольких источников, и, в конце концов, результат отображается на экране. Рядовые ускорители (типа VooDoo3 или TNT2) берут на себя работу по рендерингу (обтягиванию текстурами) после того как каркас был создан и трансформирован в двумерный набор полигонов. Этот шаг очень важен, но передовые ускорители помогает процессору даже на более ранних стадиях. Характерным примером служит GeForce 256 от nVidia. Кроме процесса рендеринга (как в более ранних ускорителях), GeForce 256 может осуществлять трансформацию каркасов из 3D математического пространства в двумерное пространство, а также и некоторую работу по добавлению освещения. Поскольку и трансформация, и метод "бегущего луча" требуют серьезных математических операций с плавающей точкой (вычисления, где используются дроби, называются вычислениями с плавающей точкой, она нужна для большей точности), то центральный процессор хорошо разгружается. А так как графический процессор обычно не выполняет множество различных функций, присущих центральному процессору, то расчеты производятся достаточно быстро. Новая Voodoo5 от 3dfx берет на себя еще одну часть работы. 3dfx называет эту технологию T-буфер (T-buffer). Технология призвана улучшить процесс рендеринга несколько другим способом, нежели перекладывание части работы на графический процессор. T-буфер служит для улучшения сглаживания с помощью создания четырех копий одного и того же изображения, немного сдвинутых друг от друга. Копии совмещаются, что приводит к легкому размытию краев объектов и устранению "лесенок", присущих компьютерному изображению. Та же самая методика применяется для размывания движущихся изображений (motion-blur), размытых теней и размывания глубины резкости фокуса (depth-of-field focus blurring). Все это позволяет изображениям выглядеть более четко и реалистично, что и требуется дизайнерам. Дизайн Voodoo 5 предусматривает выполнение полноэкранного сглаживания, поддерживая при этом быструю частоту смены кадров. Компьютерная графика пройдет еще несколько этапов своего развития, прежде чем выйдет на уровень формирования совсем реалистичных изображений. Но сегодняшние достижения не менее значительны по сравнению с периодом текстовых мониторов в 80 столбцов и 25 строк. В результате миллионы людей могут наслаждаться играми и симуляторами с помощью уже существующей технологии. Новые трехмерные процессоры позволят нам погрузиться в исследование других миров, доселе невиданных в реальности. Существенные технологические улучшения в компьютерной графике появляются примерно раз в шесть месяцев. Программное обеспечение совершенствуется намного медленнее. Уже становится понятным, что подобно Интернету, компьютерная графика станет весомой альтернативой телевидению.

1.4 Трехмерная графика

Все мы пользуемся продуктами высоких технологий. Прогресс -- вещь замечательная. Не будь прогресса, не было бы новых интересных компьютерных игр, не смогли бы вы с легкостью работать в 2D- и 3D-редакторах. Летчики, спортсмены, моряки и т.д. не имели бы тренажеров. Такие полезные устройства, как ноутбуки и КПК, так и остались бы уделом научной фантастики. То есть компьютерная графика применяется во многих областях современной жизни, но считается, что именно развлечения (а более конкретно игры) подтолкнули человечество к такому стремительному прогрессу в этой области. Ибо игры - это то, что притягивает к себе большинство людей вне зависимости от возраста, образования, уровня жизни, профессии и т.д. Появляется много новых понятий и терминов. Порой не успеваешь следить за всеми техническими новинками. И в какой-то момент понимаешь, что отстал от прогресса. В самом центре технологической каши -- миллионы людей, которые плохо понимают, что же все это такое. Вроде бы они знают, что такое, например, антиалиасинг, но вот когда их спросишь об этом поподробнее, они запнутся.Был момент, когда вы всего этого не знали. Стали играть в игры, разбираться в системе… Получается, что у огромного числа компьютерщиков нет устоявшихся знаний. Практически на любом компьютере сегодня можно получить такое качество и реалистичность изображения, кторое еще лет 10 назад существовало лишь на экранах мощнейших графических станций. Стоимость этих графических станций составляла несколько сотен тысяч долларов. И вот буквально за последние годы все сильно изменилось, теперь можно любоваться отметками монстров и адским пламенем на экране собственного монитора. При этом качество изображения гораздо выше, чем вы видите в телевизоре. Хотя в телевизоре изображение реальное, а в компьютере - смоделированное.

То есть, технически говоря, видеокарты очень сильно прогрессировали… Видеосистема - самая сложная часть персонального компьютера. Раньше по сложности она уступала только процессору, а сейчас уже процессор ей уступает. Видеокарта состоит из двух частей. Это графический процессор (самая большая микросхема видеокарты) и память. Практически это такая же память, как и оперативная. Правда, обычно она работает на большей частоте, чем оперативная (это требование графического процессора).

Сам графический процессор тоже можно разделить на две части. Каждая его часть названа по виду изображения, которое она создает. Есть часть, отвечающая за 2-мерное плоское изображение (так называемое 2D) и часть, создающая 3 -мерное изображение(3 D). Первая часть существовала даже в самых древних видеокартах. Собственно говоря, только она там и была. И за последние годы она практически не изменилась, проблема создания хорошего плоского изображения была решена еще в 386-х компьютерах. Главный пожиратель ресурсов видеокарты - это 3D часть графического процессора. Чтобы создать достоверное для глаза 3-мерное изображение, необходимо огромное количество вычислений. Но хотя самих вычислений много, они достаточно примитивные и однообразные и поэтому, чтобы не гонять эти данные по загруженной другими данными внутренней шине, вычисления производят в самой видеокарте, для этого и появился на ней свой собственный процессор. Самое сложное изображение можно разделить на элементарные составные части. Этих частей для достоверного изображения должно быть огромное количество, сотни тысяч на одном экране. Поэтому решено было (производителями компьютеров) разделить процесс создания 3-мерного изображения. Центральный процессор только подает команды на создание изображения, а самим созданием занимается видеокарта. Для создания изображения требуется гораздо меньше команд, поэтому графический процессор гораздо проще по своей структуре. Но главное его достоинство - возможность выполнять большое количество операций в секунду. Чтобы еще быстрее работать и давать более 30 достоверных кадров в секунду, в графическом процессоре были организованы несколько исполняющих модулей. Модули могут параллельно выполнять команды, одновременно создавая различные части изображения. А чтобы изображение формировалось еще быстрее, модули объединяют в так называемые конвейеры, чтобы одновременно работать на разных стадиях создания изображения. Но хотя процессор и формирует на лету элементарные фигурки, создающие реальное изображение, из этих фигурок получается только оболочка - каркас. Надо на этот каркас натянуть шкурку - текстуры, которые оживляют смоделированное компьютерное изображение. За этот реализм приходится платить немалую цену (в производительности), ведь текстуры в отличие от каркаса не смоделированы. Текстура - это реальное изображение реальной поверхности. Текстур требуется очень много, именно на создание их идет основная часть видеопамяти. Само изображение на экране, независимо от того 2D оно или 3D, занимает в памяти одинаковый объем. А вот если не хватает памяти для текстур, то центральный процессор начинает использовать для этой цели часть своей оперативной памяти и основная внутренняя шина сильно перегружается. Следствием является дерганее экрана и прочие неприятности с изображением. Поэтому на видеокарту стараются поместить как можно больше памяти, (это сдерживается только ценой). В первую очередь, в памяти располагается видеобуфер -- специальный участок памяти, где хранится копия изображения, которое в следующее мгновение будет выведено на экран. В видеобуфере изображение как бы собирается по кускам и отправляется на обработку в RAMDAC. В случае если применяется двойная буферизация (double buffering), в видеобуфере хранится дополнительно предыдущее (“теневое”, или “заднее”) выведенное на экран изображение (все эти специальные термины будут рассмотрены в разделе посвященном созданию трехмерного изображения). Наш глаз обладает некоторой инерционностью, то есть некоторое время продолжает видеть изображение, которое уже исчезло.

Представьте себе, что все, что рисует видеокарта в видеобуфере, мгновенно попадает на экран. Рисуем линию -- она рисуется поверх предыдущего изображения. Как бы быстро ни происходил этот процесс, глаз все равно будет замечать, что какие-то части изображения остались, какие-то изменились. Из-за этого игрок заметит крайне неприятное мелькание. Именно поэтому новый кадр сначала рисуется в теневой области видеобуфера (так называемый backbuffer), а затем этот кадр и тот, который был на экране, меняются местами. Благодаря этому создается впечатление гладкого и равномерного движения. Допустим, монитор находится в разрешении 1024х768 и в режиме 32 бита. Это значит, что цвет каждого пикселя определяют 32 бита, а количество всех возможных цветов -- 232 = 4 294 967 296 -- четыре с лишним миллиарда. Порог чувствительности человеческого глаза, к слову, немного ниже, то есть такая картинка будет восприниматься как абсолютно реальная (такой режим называется True Color как было отмечено ранее). В режиме 1024х768 на экране отображается 786432 пикселей. Нехитрые подсчеты показывают, что для хранения этого кадра в видеопамяти потребуется около 3 Мб. С учетом двойной буферизации получается 6 Мб. Но ведь в современном акселераторе в среднем стоит 128 Мб видеопамяти. На что же используются остальные.

Используются они в первую очередь на текстуры. Подгружать текстуры из оперативной памяти, а то и с жесткого диска в процессе рендера -- неоправданно долго. Поэтому разработчики игр специальными командами дают задание акселератору подгрузить все или хотя бы часть необходимых ему текстур во время загрузки очередной карты или уровня. Средний размер текстуры -- 1024х1024 при качестве 24 или даже 32 бита. Такая текстура будет занимать в памяти около 4 Мб. Значит, в видеопамять объемом 128 Мб влезет от силы 32 таких текстуры. Один путь -- подгружать текстуры из оперативной памяти по мере необходимости, но тогда могут случаться задержки, вызывающие падение FPS. Другой путь -- хранить текстуры в видеопамяти сжатыми, хотя бы простым алгоритмом. Одним из первых алгоритмов сжатия текстур был S3TC, разработанный в компании S3 Inc. Он стал индустриальным стандартом и поддерживается в DirectX, начиная с версии 6.0. Компания 3dfx разработала свой метод сжатия -- FXT1, который отличается высокой степенью компрессии. В настоящее время в ходу несколько конкурирующих методов сжатия. Время определит лидера. Кроме того, в видеопамяти размещаются буферы для вспомогательных технологий: Z-буфер (о котором будет упомянуто позже), T-буфер, вспомогательные кадры для анизотропной фильтрации и ряд других. Пара слов о T-буфере. Эта технология была придумана в компании 3dfx и впервые реализована в Voodoo 5. Для одного и того же кадра в видеопамяти хранится четыре копии, немного сдвинутые друг относительно друга. После рендера они совмещаются, в результате чего края объектов немного размываются и устраняется эффект “лесенки”. T-buffer можно считать еще одной технологией антиалиасинга. Однако она еще и улучшает качество отрисовки быстро движущихся объектов за счет легкого их размытия. За время существования видеокарт разработчики придумали большое количество типов видеопамяти. Основных подходов два: взять уже существующий тип обычной оперативной памяти или разработать что-то новое, специально “заточенное” под хранение графики. Оба подхода были востребованы в разное время и периодически сменяют друг друга. Сейчас, например, в большинстве видеокарт стоит память типа DDR, практически та же самая, что и обычная оперативная память компьютера. Типы видеопамяти, либо по тем или иным причинам не получившие (пока) большого распространения: FPM, EDO DRAM, VRAM, WRAM, RDRAM, SDRAM, SGRAM. В профессиональных видеокартах устанавливаются специальные типы видеопамяти, которые оптимизированы под конкретные задачи, но нам они вряд ли будут интересны.

Видеопамять, как и оперативная память, работает на какой-то определенной частоте. Само по себе количество видеопамяти на борту видеокарты не играет практически никакой роли. Если поставить на старенькую Riva TNT 256 Мб видеопамяти, ее производительность не увеличится ни на йоту -- она просто не сможет с дополнительной памятью полноценно работать. В видеоподсистеме все должно быть сбалансировано. Однако современные игры с гигантскими текстурами требуют в видеокартах высокого класса установки большого объема видеопамяти -- до 512 Мб. Видеокарта -- это отдельное устройство. Первые видеокарты подключались к шине XT-bus через специальный слот. Ему на смену пришел слот ISA. Вскоре его скромных возможностей (16 бит, 8М Гц) стало не хватать, и IBM решила внедрить свою шину и слот для видеокарт и не только под названием MCA (Microchannel Architecture -- микроканальная архитектура). Однако затея благополучно провалилась, потому что IBM пожадничала и решила сделать эту шину лицензируемой, то есть разработчики устройств должны были выплачивать ей солидные проценты от продаж. На смену ISA пришла шина VESA Local Bus (VLB), потом PCI и завершил это победное шествие порт AGP. Необходимость выделить под видеокарту отдельный порт назревала долго и упорно. Действительно, это устройство по требованиям к пропускной способности очень сильно отличается от всех остальных компонентов компьютера, его нельзя причесывать под одну гребенку с другими. Идея порта AGP (Accelerated Graphics Port) пришла в голову инженерам из Intel. Она проста до гениальности: видеокарта должна иметь возможность обращаться к оперативной памяти, минуя процессор. По тому же самому принципу работает технология DMA, благодаря которой винчестер может общаться с оперативной памятью в обход процессора. Возможно, через несколько лет устройства и их контроллеры станут настолько умными, что им вообще для работы не нужен будет процессор.

Кроме выделенного канала связи с оперативной памятью, видеокарта может также не заботиться о том, в какой именно ячейке памяти хранится нужная ему информация. С момента своего появления на свет стандарт AGP дошел до третьей версии. Разные версии порта обозначают на манер скоростей у приводов компакт-дисков: 2x у AGP 1.0, 4x у AGP 2.0 и 8x у AGP 3.0. Получается какая-то несуразица: почему у самого первого слота AGP скорость передачи сразу 2x? А дело вот в чем. Шина AGP 1.0 имеет частоту 66 М Гц и разрядность 32 бита. Значит, скорость передачи данных -- 266 Мб/c. Однако шина может также работать в режиме, когда данные передаются и по переднему, и по заднему фронту синхросигнала, и тогда скорость передачи возрастает в два раза -- до 532 Мб/c. Отсюда приписка “2x”. В стандарте AGP 2.0 скорость передачи данных выросла еще в два раза -- до 1064 Мб/c, и появился новый механизм “быстрой записи” -- Fast Write (FW). С его помощью управляющие команды записываются напрямую в AGP-устройство. Раньше в качестве промежуточного звена использовалась оперативная память. В AGP 3.0 частота возросла до 533 М Гц, а скорость обмена данными -- до 2.1 Гб/c. В последние годы появился новый интерфейс - PCI express, PCIE -сокращенно. Эта шина полностью заменила шину PCI в новых компьютерах.

1.5 Видеосистема как часть компьютера

Видеокарта состоит из двух частей. Это графический процессор (самая большая микросхема видеокарты) и память. Практически это такая же память, как и оперативная. Правда, обычно она работает на большей частоте, чем оперативная (это требование графического процессора).Сам графический процессор тоже можно разделить на две части. Каждая его часть названа по виду изображения, которое она создает. Есть часть, отвечающая за 2-мерное плоское изображение (так называемое 2D) и часть, создающая 3 -мерное изображение(3 D).

Первая часть существовала даже в самых древних видеокартах. Собственно говоря, только она там и была. И за последние годы она практически не изменилась, проблема создания хорошего плоского изображения была решена еще в 386-х компьютерах. Главный пожиратель ресурсов видеокарты - это 3D часть графического процессора. Чтобы создать достоверное для глаза 3-мерное изображение, необходимо огромное количество вычислений. Но хотя самих вычислений много, они достаточно примитивные и однообразные и поэтому, чтобы не гонять эти данные по загруженной другими данными внутренней шине, вычисления производят в самой видеокарте, для этого и появился на ней свой собственный процессор. Самое сложное изображение можно разделить на элементарные составные части. Этих частей для достоверного изображения должно быть огромное количество, сотни тысяч на одном экране. Поэтому решено было (производителями компьютеров) разделить процесс создания 3-мерного изображения. Центральный процессор только подает команды на создание изображения, а самим созданием занимается видеокарта. Для создания изображения требуется гораздо меньше команд, поэтому графический процессор гораздо проще по своей структуре. Но главное его достоинство - возможность выполнять большое количество операций в секунду. Чтобы еще быстрее работать и давать более 30 достоверных кадров в секунду, в графическом процессоре были организованы несколько исполняющих модулей. Модули могут параллельно выполнять команды, одновременно создавая различные части изображения. А чтобы изображение формировалось еще быстрее, модули объединяют в так называемые конвейеры, чтобы одновременно работать на разных стадиях создания изображения. Но хотя процессор и формирует на лету элементарные фигурки, создающие реальное изображение, из этих фигурок получается только оболочка - каркас. Надо на этот каркас натянуть шкурку - текстуры, которые оживляют смоделированное компьютерное изображение. За этот реализм приходится платить немалую цену (в производительности), ведь текстуры в отличие от каркаса не смоделированы. Текстура - это реальное изображение реальной поверхности. Текстур требуется очень много, именно на создание их идет основная часть видеопамяти. Само изображение на экране, независимо от того 2D оно или 3D, занимает в памяти одинаковый объем. А вот если не хватает памяти для текстур, то центральный процессор начинает использовать для этой цели часть своей оперативной памяти и основная внутренняя шина сильно перегружается. Следствием является дерганее экрана и прочие неприятности с изображением. Поэтому на видеокарту стараются поместить как можно больше памяти, (это сдерживается только ценой). В первую очередь, в памяти располагается видеобуфер -- специальный участок памяти, где хранится копия изображения, которое в следующее мгновение будет выведено на экран. В видеобуфере изображение как бы собирается по кускам и отправляется на обработку в RAMDAC. В случае если применяется двойная буферизация (double buffering), в видеобуфере хранится дополнительно предыдущее (“теневое”, или “заднее”) выведенное на экран изображение (все эти специальные термины будут рассмотрены в разделе, посвященном созданию трехмерного изображения). Наш глаз обладает некоторой инерционностью, то есть некоторое время продолжает видеть изображение, которое уже исчезло. Представьте себе, что все, что рисует видеокарта в видеобуфере, мгновенно попадает на экран. Рисуем линию -- она рисуется поверх предыдущего изображения. Как бы быстро ни происходил этот процесс, глаз все равно будет замечать, что какие-то части изображения остались, какие-то изменились. Из-за этого игрок заметит крайне неприятное мелькание. Именно поэтому новый кадр сначала рисуется в теневой области видеобуфера (так называемый backbuffer), а затем этот кадр и тот, который был на экране, меняются местами. Благодаря этому создается впечатление гладкого и равномерного движения. Допустим, монитор находится в разрешении 1024х768 и в режиме 32 бита. Это значит, что цвет каждого пикселя определяют 32 бита, а количество всех возможных цветов -- 232 = 4 294 967 296 -- четыре с лишним миллиарда. Порог чувствительности человеческого глаза, к слову, немного ниже, то есть такая картинка будет восприниматься как абсолютно реальная (такой режим называется True Color как было отмечено ранее). В режиме 1024х768 на экране отображается 786432 пикселей. Нехитрые подсчеты показывают, что для хранения этого кадра в видеопамяти потребуется около 3 Мб. С учетом двойной буферизации получается 6 Мб. Но ведь в современном акселераторе в среднем стоит 128 Мб видеопамяти. Используются они в первую очередь на текстуры. Подгружать текстуры из оперативной памяти, а то и с жесткого диска в процессе рендера -- неоправданно долго. Поэтому разработчики игр специальными командами дают задание акселератору подгрузить все или хотя бы часть необходимых ему текстур во время загрузки очередной карты или уровня. Средний размер текстуры -- 1024х1024 при качестве 24 или даже 32 бита. Такая текстура будет занимать в памяти около 4 Мб. Значит, в видеопамять объемом 128 Мб влезет от силы 32 таких текстуры. Один путь -- подгружать текстуры из оперативной памяти по мере необходимости, но тогда могут случаться задержки, вызывающие падение FPS. Другой путь -- хранить текстуры в видеопамяти сжатыми, хотя бы простым алгоритмом. Одним из первых алгоритмов сжатия текстур был S3TC, разработанный в компании S3 Inc. Он стал индустриальным стандартом и поддерживается в DirectX, начиная с версии 6.0. Компания 3dfx разработала свой метод сжатия -- FXT1, который отличается высокой степенью компрессии.

Страницы: 1, 2


© 2010 BANKS OF РЕФЕРАТ