Видеоадаптеры

Автор работы: Пользователь скрыл имя, 17 Июня 2012 в 13:27, дипломная работа

Описание работы

Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) — устройство, преобразующее изображение, находящееся в памяти компьютера, в видеосигнал для монитора.
Современные видеокарты не ограничиваются простым выводом изображения, они имеют встроенный графический микропроцессор, который может производить дополнительную обработку, разгружая от этих задач центральный процессор компьютера. Например, все современные видеокарты NVIDIA и AMD(ATi) поддерживают приложения OpenGL на аппаратном уровне.

Содержание работы

ВВЕДЕНИЕ 1
I СПЕЦИАЛЬНЫЙ РАЗДЕЛ 2
1 Характеристики материнских плат 2
1.2 Сравнение материнских плат по эксплуатационным характеристикам 15
3 Выводы 25
II ЭКОНОМИЧЕСКИЙ РАЗДЕЛ 27
1 Типы переходных экономик 27
III ОХРАНА РУДА 33
1 Виды инструктажей 33
IV СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 36

Файлы: 1 файл

Диплом ВИдео.doc

— 2.22 Мб (Скачать файл)

МИНИСТЕРСТВО  ОБРАЗОВАНИЯ И  НАУКИ РК

ДЕПАРТАМЕНТ ОБРАЗОВАНИЯ ГОРОДА АЛМАТЫ

Профессиональный  лицей № 1

Дипломная работа
 

Тема  Видеоадаптеры 
 
 
 
 

                Учащийся гр.

                по  профессии 3701001 Техник по обслуживанию компьютерных устройств

                Консультант-преподаватель

                Казак Андрей Савельевич 
                 
                 
                 
                 
                 
                 
                 
                 

Алматы

2009 г.

 

УТВЕРЖДАЮ

Зам. директора  по УПР 

_______ Гумнина  Н. Н. 

ЗАДАНИЕ

на дипломную работу

учащегося гр. № 35

по профессии 3701001 Техник по обслуживанию компьютерных устройств

Тема  Видеоадаптеры

Содержание

ВВЕДЕНИЕ  1 

I СПЕЦИАЛЬНЫЙ РАЗДЕЛ  2

1 Характеристики материнских плат 2

1.2 Сравнение материнских плат по эксплуатационным характеристикам 15

3 Выводы 25 

II ЭКОНОМИЧЕСКИЙ РАЗДЕЛ 27

1 Типы переходных экономик 27 

III ОХРАНА РУДА 33

1 Виды инструктажей 33 

IV СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ 36 

 

Введение 

    Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) — устройство, преобразующее изображение, находящееся в памяти компьютера, в видеосигнал для монитора.

    Современные видеокарты не ограничиваются простым  выводом изображения, они имеют  встроенный графический микропроцессор, который может производить дополнительную обработку, разгружая от этих задач центральный процессор компьютера. Например, все современные видеокарты NVIDIA и AMD(ATi) поддерживают приложения OpenGL на аппаратном уровне. 

    На  данный момент на рынке независимых графических процессоров лидируют две компании - NVIDIA и AMD(ATi). Так же  существуют и другие производители их мы и рассмотрим далее.

 

I Специальный раздел 

1 Комания NVidia

Корпорация NVIDIA  — мировой лидер в области цифровых медиа процессоров. Графические процессоры, медиа и коммуникационные процессоры, а также беспроводные медиа процессоры широко распространены на рынке и встроены в широкий спектр платформ, включая потребительские и корпоративные ПК, ноутбуки, рабочие станции, мобильные телефоны, КПК и игровые приставки.

.

Рисунок 1. Логотип NVidia

      Дженсен Хуанг (Jen-Hsun Huang) – соучредитель, генеральный директор и президент учредил компанию NVIDIA в апреле 1993 года и является президентом, генеральным директором и членом Совета Директоров с самого начала. Под его руководством NVIDIA стала ведущей компанией в области программируемых графических технологий 

История nVidia началась с чипа NV1, который производила SGS-THOMSON Microelectronics под названием STG-2000. На плату была интегрирована 2D-карта, 3D-ускоритель, звуковая карта и порт для игровых контроллеров Sega Saturn - всё на одной плате PCI. Больше всего данные видеокарты были известны под маркой Diamond Edge 3D, которые вышли через два года после начинания nVidia.

Главная проблема NV1 заключалась в обработке 3D: процессор  использовал квадратичное наложение текстур (quadratic texture mapping, QTM) вместо принятой сегодня технологии на основе полигонов. DirectX появился как раз после выхода этой видеокарты, и он тоже использовал полигоны, так что в долгосрочной перспективе чип NV1 потерпел поражение. Среди особенностей, которые стоит упомянуть, отметим возможность увеличения видеопамяти на видеокарте (на некоторых моделях) с 2 до 4 Мбайт, да и многие оптимизированные под карту игры были портированы с приставки Saturn, поскольку карта использовала схожую архитектуру.  

Чип NV2 использовал такой же механизм рендеринга и так и не появился на свет. Он должен был использоваться в приставке Dreamcast (которая была призвана заменить Saturn), но Sega всё же выбрала технологию на основе полигонов (PowerVR), а Nvidia отказалась от QTM в пользу полигонального рендеринга с чипом NV3.

Riva 128 и Direct3D


В 1997 году nVidia перешла  на полигональный рендеринг с чипом NV3, который больше известен под названием Riva 128. Кстати, "Riva" расшифровывается как "Real-time Interactive Video and Animation accelerator" - интерактивный ускоритель видео и анимации в реальном времени. Существовало две версии чипа: Riva 128 и Riva 128ZX. Разница была невелика: у ZX использовался более скоростной RAMDAC и 8 Мбайт памяти вместо 4 Мбайт, а также поддерживалась AGP 2x. Ускоритель Riva 128 получил определённый успех, поскольку цена была привлекательной, несмотря на качество, которое в то время иногда оставляло желать лучшего при сравнении с продуктами 3Dfx. Карта nVidia обеспечивала поддержку одновременно 2D и 3D, а также и Direct3D. Драйверы OpenGL были выпущены только под 128ZX, хотя существовали специальные версии Quake (урезанный ICD).  

Riva 128 из-за своей  цены обрела популярность и  среди OEM, поскольку карты стоили дешевле Voodoo Graphics, а производительность Direct3D они обеспечивали почти такую же. Это были одни из первых видеокарт AGP, хотя Riva 128 и использовала этот интерфейс только в качестве более скоростной шины PCI. Наконец, что забавно, у nVidia был ещё один хорошо известный конкурент по производительности с одной из своих видеокарт, а именно Intel с i740. Времена изменились.

NV4: Twin Texels и TNT


В 1998 году 3Dfx выпустила  высокопроизводительную 3D-карту в виде Voodoo2, но у неё существовали ряд существенных ограничений. Среди них можно отметить архаичное управление памятью (раздельные текстуры), поддержку только 16-битного цвета, обязательное наличие раздельной 2D-карты и интерфейс только PCI (на практике, хотя модели под AGP тоже существовали). Затем на сцену ворвалась Riva TNT, первая скоростная 3D-видеокарта с большим объёмом памяти (на то время) и встроенными 2D-возможностями. За исключением производительности видео (у карты не было поддержки ускорения MPEG2, в отличие от карт ATI), TNT оказалась очень успешной. Это была первая видеокарта nVidia, способная накладывать две текстуры за один проход, отсюда карта получила название TNT - "TwiN Texel".  

Видеокарта TNT оказалась  не такой мощной, как планировалось изначально. nVidia хотела выпустить более скоростную карту, чем Voodoo2, используя 250-нм техпроцесс с тактовой частотой 110 МГц (200 МГц для памяти). Но на самом деле TNT использовала 350-нм техпроцесс и тактовую частоту 90 МГц, как и видеокарта 3Dfx, а память работала на 110 МГц.

NV5: первая Ultra


В 1999 году вышла  видеокарта TNT2. Она была близка к  тому, чем должна была стать оригинальная TNT, и её, в принципе, можно рассматривать  как урезание кристалла TNT с 350 до 250 нм. Кроме того, в то время nVidia впервые выпустила в линейке карту Ultra.

Карты TNT2 распределялись по частотам. nVidia тогда решила использовать только две версии (далеко до сегодняшнего разнообразия, не правда ли?): TNT2 и TNT2 Ultra. TNT2 была весьма мощной видеокартой  для своего времени, она могла  легко поравняться с Voodoo3, обеспечивая при этом больше функций, хотя у неё по-прежнему не было поддержки декодирования MPEG2. Это была первая видеокарта nVidia AGP 4x, пусть даже этот стандарт для TNT2 был особо и не нужен.  

NV6, которая тоже  вышла в 1999 году, представляла собой урезанную версию TNT2. Она продавалась под названиями Vanta, Vanta LT и TNT2 M64. Эти видеокарты были существенно медленнее, чем TNT2 (и оригинальная TNT), в частности, из-за меньшей тактовой частоты и 64-битной шины памяти. Впрочем, они весьма успешно продавались OEM, которые использовали название "TNT2" как приманку.

GeForce: первый GPU


Позже в 1999 году nVidia анонсировала GeForce 256. Это была первая видеокарта, к которой nVidia применила название "GPU", но существенным шагом вперёд была поддержка трансформации и освещения (transform and lighting, T&L) видеокартой потребительского уровня. Эта технология, которая уже применялась в Open GL и профессиональной сфере 3D, производит вычисления над треугольниками на видеокарте, а не на CPU. В некоторых случаях прирост производительности был довольно существенен, поскольку видеокарта в то время была примерно в четыре раза мощнее, чем high-end CPU (15 млн. треугольников у GeForce против четырёх миллионов у 550-МГц Pentium III).

Видеокарта использовала отличную от TNT2 архитектуру. Вместо двух конвейеров рендеринга, каждый оснащённый текстурным блоком, было решено перейти на четыре конвейера с одним текстурным блоком на каждый, что давало GeForce более высокую производительность рендеринга при меньшей тактовой частоте. GeForce 256 также стала первой видеокартой, которая использовала память DDR SDRAM с более высокой пропускной способностью.  

nVidia перешла  напрямую с NV6 на NV10, представив GeForce 256, и затем номенклатура будущих моделей увеличивалась с шагом пять, с вариантами для моделей верхнего и нижнего уровней. Кроме того, видеокарта GeForce 256 оказалась первой моделью nVidia с поддержкой ускорения MPEG2, но только частично (Motion Compensation, компенсация движения). Наконец, это была первая видеокарта потребительского уровня с выходом DVI (реализован через внешний чип).

NV15: nVidia улучшает GeForce 256


В 2000 году nVidia выпустила  быструю видеокарту GeForce 256 DDR, но и ATI стала более конкурентоспособна с появлением Radeon, который оказался и быстрее, и эффективнее. nVidia ответила новой видеокартой GeForce 2 GTS. Она использовала техпроцесс 180 нм и была существенно быстрее GeForce 256. У видеокарты удвоилось число текстурных блоков с 1 до 2 на конвейер рендеринга, что позволило накладывать восемь текстур за один проход. nVidia выпустила несколько версий видеокарты: GTS (GigaTexel Shader, 200/166), Pro (200/200) и Ti (250/200).  

В августе 2000, до выхода GeForce 3, nVidia представила видеокарту NV16 (GeForce 2 Ultra). Это была не новая модель, а NV15 с увеличенными тактовыми частотами: 250 МГц для GPU и 230 МГц для памяти, по сравнению с 200 и 166 МГц, соответственно, у оригинальной видеокарты. Это была одна из самых дорогих моделей, когда-либо выпущенных nVidia.

NV11: первая low-end версия

Производительность  у GeForce 2 GTS была великолепной, но и цена тоже "кусалась", поэтому nVidia нужно было представить модель для тех геймеров, которые не могут позволить себе тратить большие суммы на компьютер. И компания выпустила NV11 под названием GeForce 2 MX, которая вышла на рынок тоже в 2000 году. В отличие от TNT2 M64 и Vanta, которые представляли собой не больше, чем NV5 с 64-битной шиной памяти, у NV11 использовалась новая архитектура, унаследованная от GeForce 2 GTS. nVidia убрала часть конвейеров рендеринга, но по мультитекстурированию GeForce 2 MX была производительнее, чем GeForce 256.

Эта была первая видеокарта nVidia, к которой можно  было подключать более одного дисплея, и данная функция оставалась уделом видеокарт nVidia среднего уровня ещё несколько лет. GeForce 2 MX работала только с памятью SDR, и эта же видеокарта стала первой моделью GeForce, появившейся в виде мобильной версии (GeForce 2 Go).  

nVidia представила  несколько версий GeForce 2 MX друг за  другом кроме стандартной модели и варианта Go. Среди них можно отметить MX400 (с GPU на частоте 200 МГц), MX200 (с GPU на 175 МГц и 64-битной шиной памяти на 166 МГц) и очень слабую MX100, с GPU всего на 143 МГц и 32-битной шиной памяти (пропускная способность 0,6 Гбайт/с). Наконец, были некоторые редкие карты с 64-битной памятью DDR, которые, по сути, представляли собой аналог карт со 128-битной памятью SDR.

Встречаем GeForce 3


В 2001 году появилась  видеокарта GeForce 3. Эта модель, первая, совместимая с DirectX 8, поддерживала программируемые  пиксельные шейдеры. Обладая 57 млн. транзисторов, видеокарта работала на довольно консервативных тактовых частотах, и во многих случаях её обгоняла GeForce 2 Ultra (на момент выхода). Видеокарта привнесла несколько улучшений в подсистему работы с памятью, но её сложная архитектура не позволила nVidia разработать версию начального уровня.  

nVidia выпустила  ещё две версии GeForce 3: Ti 200, которая была чуть дороже оригинала, и Ti 500, которая была ощутимо дороже. Первая работала на частотах 175/200 (GPU/память), а последняя - на 240/250 МГц.

GeForce 4 снаружи, а внутри GeForce 2...


В 2002 году nVidia нужна  была видеокарта с производительностью GeForce 3, но не такая сложная. Создавать новую видеокарту на основе её архитектуры (как это было сделано в случае NV11) было сложно, поэтому nVidia решила использовать для NV17 архитектуру GeForce 2, представив новую модель под названием GeForce 4 MX. Видеокарта использовала такую же архитектуру, что и GeForce 2 MX, то есть два конвейера могли выполнять рендеринг над двумя текстурами каждый, но на более высоких тактовых частотах. Видеокарта также использовала подсистему управления памятью, внедрённую с GeForce 3, обладала аппаратным декодированием MPEG2 и поддерживала несколько дисплеев. Однако она по-прежнему оставалась поколением DirectX 7, которое уже устарело к моменту выхода, пусть даже в некоторых случаях производительность была вполне адекватной.

Информация о работе Видеоадаптеры