Monitor

Urządzenie wyjściowe, podłączone do komputera będące źródłem światła, wyświetlające na własnym ekranie obraz oglądany z drugiej strony przez oglądającego. Wyróżnia się monitory lampowe (kineskopowe) - CRT , monitory oparte na ciekłych kryształach (LCD), oraz monitory plazmowe.

Monitory mają zastosowanie jako: monitory komputerowe, ekrany wystawiennicze, monitory telewizyjne itd.

O jakości monitora decydują m.in. takie parametry jak:

  • rozmiary ekranu - czyli przekątna ekranu wyrażana w calach (1 cal = 2,54 cm);
  • rozdzielczość - jest to ilość pikseli w poziomie i w pionie. Im wyższa rozdzielczość tym obraz może zawierać więcej szczegółów, jest to jednak uwarunkowane również możliwościami zainstalowanej w komputerze karty graficznej, która bezpośrednio decyduje o jakości wyświetlanego obrazu.
  • kolory w jakich obraz może być wyświetlany na ekranie monitora podawane są w bitach:
    • 8 bitów = maks. 256 kolorów (minimum dla multimediów)
    • 16 bitów = maks. 65 536 kolorów (HighColor, jakość wideo)
    • 24 bity = maks. 16,8 mln kolorów (TrueColor, jakość fotograficzna); Dokładniej 224 kolorów
    • 32 bity = TrueColor z przezroczystością: maks. 4,3 mld kombinacji; Dokładniej 232 kombinacji
  • częstotliwość odświeżania - im wyższa tym lepsza, co objawia się mniejszym migotaniem obrazu, a więc mniejszym zmęczeniem oczu, rozsądny poziom dla monitora CRT to 85 Hz lub 100 Hz.
  • plamka - jej wielkość decyduje o rozmiarach najmniejszych detali jakie monitor jest w stanie wyświetlić, im mniejsza plamka tym ostrzejszy obraz, przy czym średnia wielkość plamki rośnie wraz z przekątną ekranu (0,28 mm - 21 calowe; 0,25 mm - 15 calowe), ze względu na różny sposób pomiaru wielkości plamki monitorów CRT parametr ten może być mylący, dla monitorów LCD jest prostą funkcją rozdzielczości maksymalnej i przekątnej ekranu;

Dla uzyskania najlepszej możliwej jakości obrazu warto chwilę poeksperymentować. Wysokie częstotliwości odświeżania mogą powodować rozmycie obrazu, co jest szczególnie widoczne na niskiej jakości monitorach lub kartach graficznych, dlatego często warto obniżyć odświeżanie np ze 120Hz do 100Hz. Przy tej samej karcie graficznej częstotliwość odświeżania jest odwrotnie proporcjonalna do rozdzielczości, czyli im większa rozdzielczość tym mniejsza częstotliwość odświeżania.

  • pasmo przenoszenia - zwykle 110 do 200 MHz, im większe tym lepiej. Maksymalna częstotliwość sygnału wejściowego akceptowaną przez monitor, równa iloczynowi częstotliwości odchylenia poziomego, maksymalnej rozdzielczości w poziomie oraz częstotliwości odświeżania ekranu;

Niektóre dodatkowe zalety jakie może posiadać monitor:

  • brak przeplotu (ang. Non interlaced) redukuje migotanie obrazu;
  • płaski ekran (ang. Flat screen) najnowsze technologie pozwalają na uzyskanie bardziej płaskiego ekranu co eliminuje wypaczenia obrazu;
  • multiscan - automatyczne dopasowanie się do sygnału podawanego przez kartę graficzną;
  • MPR II, TCO'92 95/99/03 - normy określające dopuszczalny poziom promieniowania
    elektromagnetycznego;
  • sterowanie cyfrowe (ang. Digital Controls) - oznacza brak lub minimalizację regulatorów analogowych (potencjometrów) i zastąpienie ich regulatorami cyfrowymi przez co możemy określić ustawienia osobno dla każdego trybu odświeżania i dla każdej rozdzielczości. Sterowanie cyfrowe jest precyzyjniejsze i zapewnia dużą wygodę obsługi;
  • wyświetlanie ustawień na ekranie (ang. On Screen Display OSD)
  • tryb oszczędzania energii (ang. Energy Star) - możliwość przechodzenia monitora po dłuższej bezczynności najpierw w tryb czuwania a następnie uśpienia, co wiąże się z mniejszym poborem energii;
  • powłoka antyrefleksyjna (ang. Anti-glare coating) - eliminuje efekt odbijania się promieni słonecznych od ekranu monitora;
  • B - Polska norma bezpieczeństwa elektrycznego.

Zasilacz bezprzewodowy

Zasilacz bezprzerwowy, zasilacz awaryjny, zasilacz UPS (ang.UPS, Uninterruptible Power Supply) – urządzenie lub system, którego funkcją jest nieprzerwane zasilanie innych urządzeń elektronicznych.


Ten typ zasilacza wyposażony jest najczęściej w akumulator, i w przypadku przerwy lub zakłóceń dostawy energii elektrycznej z sieci energetycznej urządzenie przełącza się na pracę z akumulatora. Czas podtrzymania napięcia wynosi od kilku minut do kilkudziesięciu godzin i zależy m.in. od obciążenia zasilacza oraz pojemności akumulatora.

Urządzenia tego typu stosowane są najczęściej do zasilania komputerów, a zwłaszcza serwerów. Dzięki ich zastosowaniu, w przypadku awarii zasilania zmniejsza się ryzyko utraty danych znajdujących się aktualnie w pamięci operacyjnej komputera, a nawet uszkodzenia urządzeń pamięci masowej. Urządzenia typu UPS znajdują także zastosowanie w przypadku konieczności bezawaryjnej pracy innych urządzeń, np. urządzeń medycznych.

W przypadku współpracy urządzeń typu UPS z komputerami, serwerami lub całymi sieciami komputerowymi UPS może sygnalizować występujące problemy z zasilaniem. Serwery i inne urządzenia mogą reagować na takie sygnały automatycznym zamykaniem systemu operacyjnego. Możliwa jest także stała kontrola parametrów zasilania. Komunikacja z innymi urządzeniami odbywa się przy pomocy interfejsu szeregowego RS-232 w starszych urządzeniach, nowsze urządzenia komunikują się przez sieć komputerową lub nowszą wersję interfejsu szeregowego –USB.

Zasilacze bezprzerwowe dostarczają najczęściej jednofazowego napięcia 230 V, zdarzają się też zasilacze trójfazowe 400 V. Czasami w przypadku dużych mocy i długiego działania akumulatory są wspomagane przez spalinowe agregaty prądotwórcze. Zasilacze dużych mocy stosowane są jako rozwiązania zasilające całe budynki lub kondygnacje wymagające takiego zabezpieczenia. Niejednokrotnie występuje separacja galwaniczna. W takim wypadku wszystkie urządzenia objęte zabezpieczeniem zasilane są z wydzielonego zasilania niewrażliwego na warunki zewnętrzne, w tym wyładowania atmosferyczne oraz zaniki napięcia. Najczęściej takim zasilaniem objęte są serwerownie, jednostki rządowe, pomieszczenia intensywnej opieki medycznej oraz sale operacyjne. Większość nowoczesnych UPS-ów umożliwia tzw. zimny start, czyli wymuszenie pracy akumulatorowej bez podłączania UPS-a do sieci zasilającej.

Moc zasilacza bezprzerwowego podawana jest jako moc pozorna mierzona w VA. Do zabezpieczenia stacji roboczych wystarczają zasilacze o mocy 300-500 VA (przy rozbudowanych stacjach roboczych mogą być potrzebne zasilacze o mocy nawet ponad 1000-1200 VA), natomiast serwery wymagają dużo większych mocy od 500 VA do mocy liczonych w dziesiątkach tysięcy VA.

Przed zbudowaniem tranzystorowych przetwornic mocy, podobną rolę pełniła przetwornica wirowa z kołem zamachowym. Silnik zasilany z sieci energetycznej napędzał prądnice zasilającą ośrodek obliczeniowy. Po zaniku napięcia prądnica była napędzana energią zgromadzoną w kole zamachowym. Dodatkowo przetwornica stabilizowała napięcie.

Typy UPS

Online

Całkowicie odseparowuje on układ podłączony na wyjściu od napięcia wejściowego, działa na zasadzie podwójnego przetwarzania, zmienne napięcie sieciowe przetwarzane jest na napięcie stałe w układzie prostownikowym, a następnie z tego stałego napięcia w układzie falownikowym jest wytwarzane napięcie zmienne. Układ taki zapewnia stabilne napięcie na wyjściu, niemal całkowicie odporne na zakłócenia i zaniki napięcia wejściowego. Wadą tego rozwiązania jest większy ciężar urządzenia i jego wyższy koszt z uwagi na konieczność użycia transformatora sieciowego dużej mocy i wydajnego prostownika. Energia przechodząca przez ten transformator prawie w całości zasila falownik. Tylko niewielka jej część doładowuje akumulator. W razie zaniku napięcia sieciowego falownik będzie nadal zasilany z akumulatora, bo cały czas jest do niego podłączony. Działanie układu jest zatem natychmiastowe i bez zakłóceń na wyjściu. Niepotrzebny jest też przekaźnik na wyjściu, co dodatkowo zwiększa niezawodność zasilania, jednak falownik pracuje cały czas, a nie tylko w trybie awaryjnym jak w UPS "off line". Głównym zastosowaniem jest zasilanie urządzeń o znaczeniu strategicznym np. serwery, urządzenia telekomunikacyjne, medyczne urządzenia podtrzymywania życia itp.

Offline

Urządzenie podłączone do tego UPS-a zasilane jest bezpośrednio z sieci, zaś akumulatory są – w razie potrzeby – automatycznie podładowywane niewielkim prądem. Napięcie zasilania jest cały czas monitorowane i w razie jego zaniku, zbytniego obniżenia lub podwyższenia układ sterowania (po czasie 2–10 ms) odłącza zasilanie z sieci i UPS przechodzi w stan pracy akumulatorowej. Wówczas napięcie stałe z akumulatora zostaje w falowniku przekształcone w napięcie zmienne podawane na wyjście. Zaletą tego rozwiązania jest niski koszt i brak strat energii przy pracy sieciowej. Wadą jest mniejsza niezawodność i przenoszenie zakłóceń napięcia wejściowego oraz wprowadzanie zakłóceń w trakcie przełączania trybu pracy. Ten typ UPS-a jest powszechnie stosowany do zabezpieczania domowych komputerów.

Line-interactive

Takie oznaczenie sugeruje na ogół synchronizację fazową falownika z siecią zasilającą. Synchronizacja taka jest bardzo cenna, ze względu na dużo niższe zakłócenia i przerwy napięcia wyjściowego w momencie przełączania z pracy sieciowej na akumulatorową i odwrotnie. Przy jej braku mogłoby się zdarzyć, że zanik napięcia nastąpiłby np. przy początku górnej połówki sinusoidy na wejściu, a falownik dawałby na wyjściu akurat początek dolnej połówki. Wówczas - nawet przy natychmiastowym przełączeniu na pracę akumulatorową - na wyjściu pojawiłyby się kolejno dwie ujemne połówki sinusoidy (zakładając, że falownik daje na wyjściu sinusoidę, co zdarza się rzadko - najczęściej jest to przebieg prostokątny).

Line-interactive AVR

Tłumacząc dosłownie otrzymamy "interaktywny z linią stabilizator napięcia". AVR to skrót od Automatic Voltage Regulator. Ten typ działa identycznie jak Offline, ale zamiast transformatora używa autotransformatora z wieloma odczepami po stronie sieci zasilającej, dzięki czemu w razie ciągłej nadwyżki lub obniżki napięcia zasilania UPS może dowolnie długo utrzymywać nominalne napięcie na wyjściu bez przechodzenia do pracy akumulatorowej. Układ sterowania dobiera wówczas odpowiedni odczep uzwojenia aby skompensować różnicę napięcia. W czasie przełączania z jednego odczepu na inny następuje jednak krótki zanik napięcia na wyjściu, co dyskwalifikuje ten typ UPS-a do poważniejszych zastosowań.

Bardziej zaawansowane konstrukcje (wszystkich typów) są w stanie dostarczyć do centrum monitorowania informacji na temat swojego stanu pracy. W przypadku zaniku napięcia wejściowego może np. wysłać komunikat powiadamiający poprzez SNMP. W przypadku prac serwisowych można zdalnie sprawdzić stan urządzenia, np. poziom naładowania baterii, stan baterii, itp. Zaawansowane UPS-y mają możliwość podłączenia do sieci Ethernet, posiadają własny adres IP, poprzez który można się zalogować do interfejsu zarządzania poprzez http, https, telnet lub ssh. Starsze UPS-y mają możliwość podłączenia się do nich poprzez interfejsy szeregowe, np. USB, RS-232 lub RS-485.

Programy zarządzające

Drukarka

Urządzenie współpracujące z komputerem, służące do przenoszenia danego tekstu, obrazu na różne nośniki druku (papier, folia, płótno itp). Niektóre drukarki potrafią również pracować bez komputera, np. drukować zdjęcia wykonane cyfrowym aparatem fotograficznym (po podłączeniu go do drukarki lub po włożeniu karty pamięci z zapisanymi zdjęciami do wbudowanego w drukarkę slotu).

Mianem drukarki określa się też sterownik w systemie operacyjnym, natomiast samo urządzenie określane jest jako urządzenie drukujące.


Rodzaje drukarek:

  • Drukarka igłowa, drukarka mozaikowa (ang. dot-matrix printer, needle printer, wire printer) – niegdyś najpopularniejszy typ drukarek. Wykorzystują do drukowania taśmę barwiącą podobną do tej stosowanej w maszynach do pisania. Ich główną zaletą są niskie koszty eksploatacji i możliwość drukowania kilku kopii na papierze samokopiującym; do dziś często używana do druku faktur itp.; najczęściej spotykane są głowice 9- i 24-igłowe, istnieją także drukarki wielogłowicowe (każda głowica drukuje fragment wiersza).
  • Drukarka atramentowa (ang. ink-jet printer) – najpopularniejszy obecnie typ drukarek. Drukuje poprzez umieszczanie na papierze bardzo małych (od kilku do kilkudziesięciu pikolitrów) kropli specjalnie spreparowanego atramentu do drukowania. Praktycznie wszystkie dzisiejsze drukarki atramentowe umożliwiają druk w kolorze. Stosowany jest atrament w czterech kolorach: cyjan, magenta (ciemny róż), żółty i czarny (model CMYK). Ponadto w niektórych drukarkach można stosować specjalne tusze "fotograficzne" (są one nieco jaśniejsze niż standardowe i lepiej oddają barwy przy drukowaniu zdjęć) oraz inne dodatkowe kolory. Wadą tanich drukarek atramentowych są dość wysokie koszty eksploatacji (wysoka cena tuszu w stosunku do ilościowej możliwości pokrycia nim papieru). Jeden z niewielu typów drukarek umożliwiających druk w kolorze białym (obok technologii termotransferowej). Wysokiej jakości drukarki atramentowe, dobrze symulujące druk offsetowy zwane są prooferami. Dzięki wydrukowi proofa zleceniobiorca akceptuje projekt druku, a akceptowany proof stanowi dla drukarni wzorzec dla sprawdzania poprawności druku.
  • Drukarka laserowa (ang. laser printer) – drukuje poprzez umieszczanie na papierze cząstek tonera. Zasada działania drukarek laserowych jest bardzo podobna do działania kserokopiarek. Wałek selenowy jest elektryzowany, następnie naświetlany światłem laserowym (lub diod LED). Przez to miejsca naświetlone tracą swój ładunek elektryczny i nie przyciągają cząsteczek tonera. Następnie toner z wałka przenoszony jest na papier. Na końcu prowadzony jest proces utrwalania wydruku. Karta papieru przechodzi przez fuser – utrwalacz termiczny, gdzie toner jest rozgrzewany i wprasowywany w kartkę papieru. Drukarki laserowe charakteryzują się bardzo wysoką jakością i szybkością wydruku, a druk pod wpływem wody się nie rozpływa. Drukarki laserowe pracują głośniej niż drukarki atramentowe, za to zwykle drukarki laserowe drukują szybciej od drukarek atramentowych.


Klawiatura

Uporządkowany zestaw klawiszy służący do ręcznego sterowania urządzeniem lub ręcznego wprowadzania danych. W zależności od spełnianej funkcji klawiatura zawiera różnego rodzaju klawisze – alfabetyczne, cyfrowe, znaków specjalnych, funkcji specjalnych, o znaczeniu definiowanym przez użytkownika.

Klawiatury występują w najróżniejszych urządzeniach – maszynach do pisania, klawiszowych instrumentach muzycznych, kalkulatorach, telefonach, tokenach; w szczególności jest to jeden z podzespołów wejściowych komputera. Aktualnie używane modele klawiatur komputerowych mają około 100 klawiszy. Coraz częściej w klawiatury komputerowe wbudowuje się dodatkowe elementy sterujące (gładzik, dodatkowe przyciski, pokrętła, suwaki i in.), kontrolne (diody świecące) i inne (np. czytnik kart pamięci, porty USB, gniazda do zestawu słuchawkowego) – najczęściej do obsługi multimediów.


Klawiatury mogą mieć najróżniejszą konstrukcję:

  • mechaniczne, historycznie najstarsze – ruch klawisza za pomocą mniej lub bardziej skomplikowanego systemu dźwigni, cięgien itp. układów mechanicznych bezpośrednio wykonuje czynność użyteczną (np. napęd dźwigni w maszynie do pisania, przestawienie tarczy w arytmometrze mechanicznym)
  • stykowe – ruch klawisza powoduje bezpośrednio zwarcie (lub, rzadziej, rozwarcie) w układzie elektrycznym/elektronicznym:
    • sprężynowa
    • membranowa – wykonana jest z kilku warstw: warstwa z nadrukiem graficznym wykonana z poliestru lub poliwęglanu, warstwa laminująca, warstwa poliestrowa z nadrukowanym obwodem drukowanym (technika drukusitodruk, farby przewodzące prąd), membrana oddzielająca, kolejna warstwa z nadrukowanym obwodem drukowanym i kolejna warstwa laminująca. Membrana oddziela obwody drukowane poza momentem, gdy naciskany jest przycisk.
    • z gumą przewodzącą (obecnie najbardziej rozpowszechnione) – wciśnięcie klawisza powoduje dociśnięcie gumy przewodzącej do obwodu drukowanego, powodując znaczne obniżenie rezystancji pomiędzy końcówkami pola stykowego
  • bezstykowa:
    • optoelektroniczna – ruch klawisza powoduje wsunięcie lub wysunięcie przesłony do/z transoptora
    • pojemnościowa – obecnie stosowana rzadko – klawisz połączony jest z elementem zmieniającym pojemność współpracującego kondensatora najczęściej poprzez wsunięcie się między okładziny
    • kontaktronowa – naciśnięcie klawisza powoduje przysunięcie magnesu do kontaktronu wymuszając zwarcie styków
  • ekranowa:
    • dotykowa – na ekranie wyświetlany jest układ klawiszy, dotknięcie zaznaczonego miejsca jest równoznaczne z wprowadzeniem znaku, konieczne jest posiadanie specjalnego monitora dotykowego
    • klasyczna – na ekranie wyświetlany jest układ klawiszy, kliknięcie myszką w wybranym miejscu jest równoznaczne z wybraniem znaku; wariant zbliżony do poprzedniego, ale nie wymaga specjalnego monitora. Zaletą klawiatur ekranowych w porównaniu z fizycznymi jest możliwość wizualnej prezentacji wielu zestawów znaków z różnych alfabetów.

Mysz

Mysz – urządzenie wskazujące używane podczas pracy z interfejsem graficznym systemu komputerowego. Wynaleziona została przez Douglasa Engelbarta w 1964 r. Mysz umożliwia poruszanie kursorem po ekranie monitora poprzez przesuwanie jej po powierzchni płaskiej. Mysz odczytuje zmianę swojego położenia względem podłoża, a po jego zamianie na postać cyfrową komputer dokonuje zmiany położenia kursora myszy na ekranie. Najczęściej wyposażona jest w kółko do przewijania ekranu.

Rodzaje myszy

Mysz mechaniczna (mysz "kulkowa")

Wewnętrzny mechanizm myszy mechanicznej

Najstarszym typem myszy jest "mysz mechaniczna". W urządzeniu tym wykorzystuje się metalową kulkę pokrytą gumą, oraz system rolek. Kulka pod wpływem tarcia o powierzchnię, po której przesuwamy mysz obraca się. Kulka powoduje obrót dwóch prostopadle umieszczonych rolek, które odzwierciedlają przesunięcie kursora na ekranie w "pionie" i "poziomie". Ze względu na to, że do poruszania kulką myszy potrzebna jest równa powierzchnia o odpowiednio dużym tarciu, stosuje się specjalne podkładki. W trakcie używania myszy brud z podkładki przenosi się na kulkę i wałki. Powoduje to problemy z działaniem urządzenia i wymusza jego czyszczenie co jakiś czas.

Mysz diodowa (mysz optyczna)

Mysz diodowa
Rozebrany sensor myszy optycznej

Nowszym rozwiązaniem jest tzw. "mysz optyczna". W podstawie takiej myszy zainstalowana jest jedna lub więcej diod elektroluminescencyjnych oświetlających powierzchnię pod myszą, soczewka ogniskująca oraz matryca CCD. Mysz tego typu posiada także specjalizowany procesor DSP (zazwyczaj zintegrowany z matrycą) służący do analizowania względnych zmian w położeniu mocno powiększonego obrazu powierzchni. Zaletą tego rozwiązania jest brak mechaniki, która łatwo ulega zanieczyszczeniu i wymaga częstej konserwacji oraz to, że mysz działa na prawie każdej powierzchni i teoretycznie nie wymaga podkładki. Wadą tego typu urządzeń jest jednak wrażliwość na silne światło dzienne, które padając z boku może zakłócać pracę myszki.

Mysz laserowa

Mysz laserowa firmy Logitech przeznaczona specjalnie dla graczy

Jednym z najnowszych rozwiązań jest zastosowanie diody laserowej zamiast diod świecących co jeszcze bardziej podnosi rozdzielczość myszy, a tym samym czułość. Zaletą tego rozwiązania jest brak mechaniki, która łatwo ulega zanieczyszczeniu i wymaga częstej konserwacji oraz to, że mysz działa bezproblemowo na praktycznie każdej powierzchni (oprócz szkła, granitu i lakierowanego drewna).

Mysz bezprzewodowa

Mysz ta nie wymaga podłączenia do komputera, natomiast podłączane jest urządzenie zwane matką które na podstawie podczerwieni odbiera dane o ruchach diod.

Mysz wertykalna

Kolejnym przełomem, a zarazem konkurencją dla tradycyjnej myszy i tabletu jest mysz wertykalna (ang. vertical mouse, V-Mouse). Mysz, którą używa się jak zwykłego długopisu. Według zapewnień dystrybutora V-Mouse pracuje również na miękkich i zakrzywionych powierzchniach. Umożliwia rysowanie krzywych, a nawet pisanie.

Obudowa

Obudowa komputera to najczęściej metalowa (stalowa lub aluminiowa) z elementami plastikowymi zamknięta skrzynka w formie prostopadłościanu, umożliwiająca umieszczenie i zamocowanie najważniejszych elementów komputera. Nowa obudowa jest sprzedawana zazwyczaj łącznie z zasilaczem komputera.


ROZMIARY i KSZTAŁTY

Obudowy komputerów typu PC różnią się od siebie wymiarami i kształtem oraz architekturą. Pod względem wymiarów i kształtów można obecnie rozróżnić dwa podstawowe rodzaje obudów komputera: desktop oraz tower, natomiast pod względem architektury są to cztery AT,ATX,NLX,Mini PC oraz stosunkowo nowy BTX.

Obudowa typu desktop

Obudowa skonstruowana tak, by umożliwić postawienie na niej monitora. Jej charakterystyczny płaski kształt ogranicza przestrzeń wewnątrz takiej obudowy, co utrudnia lub uniemożliwia rozbudowę komputera o nowe, wewnętrzne urządzenia, przez co zawęża się wachlarz zastosowań. Jedną z zalet tego typu obudów jest mała ilość zajmowanego miejsca na biurku w przypadku posiadania monitora CRT.

Obudowa typu tower

Stojąca obudowa komputera o kształcie wysokiego lecz wąskiego prostopadłościanu. Dzieli się na trzy rodzaje różniące się rozmiarami.

  • Mini tower – najmniejsza obudowa typu "tower". Ma najmniejszą z nich pojemność i umożliwia montaż dwóch małych (stacja dyskietek) i dwóch dużych (napęd CD-ROM) napędów.
  • Midi tower – średnia obudowa typu "tower". Najczęściej stosowana, stanowi rozsądne rozwiązanie dla typowych zastosowań komputera. Umożliwia montaż 2 małych i 3-4 dużych napędów.
  • Big tower – największa obudowa typu "tower" najczęściej stosowana w serwerach. Umożliwia montaż dwóch małych i pięciu dużych napędów oraz dodatkowych dysków twardych.

Przeznaczenie, konstrukcja i funkcje

Podstawowymi celami stosowania obudowy komputera jest zarówno ochrona najważniejszych elementów komputera przed uszkodzeniami mechanicznymi, jak i zapewnienie spójnej organizacji podzespołów oraz ich prawidłowej wentylacji. Obudowa powinna także umożliwiać łatwy montaż i wymianę części komputera, oraz jego rozbudowę.

Wygląd

Przez długi czas wszystkie obudowy komputerów były podobne - były koloru beżowego i miały prostą stylistykę. Rewolucyjną zmianę w tym zakresie spowodowała w roku 1998 premiera komputera iMac, który prezentował całkowicie nowe podejście do projektowania obudowy komputera, zarówno na polu stylistyki jak i ergonomii. Wśród wielu nowości w wyglądzie można wymienić umieszczony w górnej części obudowy uchwyt służący przenoszeniu komputera oraz zastosowanie jednakowej, atrakcyjnej kolorystki, zarówno dla obudowy jak i myszy czy klawiatury. Także inne peryferia komputerowe firmy Apple są od tego czasu produkowane według takiego wzornictwa. Od tej pory wytwórcy komputerów osobistych prowadzą próby poprawy wyglądu i ergonomii obudowy komputera, najczęściej poprzez nadawanie jej nowoczesnych kształtów, stosowanie atrakcyjnych wizualnie materiałów (np. kolorowe lub przezroczyste tworzywa sztuczne oraz aluminium). Kolejny przełom we wzornictwie obudów komputerowych nastąpił w roku 2001 wraz z nową wersja iMaca, gdzie jednostka centralna ma postać małej półkuli z obrotowym ramieniem zakończonym wyświetlaczem LCD.

Zasilacz

Zasilacz komputera − urządzenie, które służy do przetwarzania napięcia zmiennego dostarczanego z sieci energetycznej (100-127V w Ameryce Północnej, części Ameryki Południowej, Japonii i Tajwanie, 220-240V w pozostałej części świata) na niskie napięcie stałe, niezbędne do pracy pozostałych komponentów komputera. Niektóre zasilacze posiadają przełącznik zmieniający napięcie wejściowe pomiędzy 230V i 115V, inne automatycznie dopasowują się do dowolnego napięcia z tego zakresu.

Najczęściej spotykane zasilacze komputerowe są dostosowane do standardu ATX. Włączanie i wyłączenie zasilacza jest sterowane przez płytę główną, co daje wsparcie dla funkcji takich jak tryb czuwania. Najnowsza wersja standardu ATX dla zasilaczy to 2.31 (z połowy roku 2008).

Warto zwrócić uwagę, że niektórzy producenci, zwłaszcza Compaq i Dell, stosują zasilacze z gniazdami typowymi dla ATX, ale o innych napięciach i zmienionej kolejności pinów. Łączenie takich zasilaczy z płytami ATX może prowadzić do uszkodzenia płyty bądź zasilacza.


Budowa

Większość zasilaczy wykonana jest w postaci metalowego prostopadłościanu, z którego ścianki wychodzi kilka wiązek przewodów. Po przeciwnej stronie znajdują się otwory wentylacyjne i gniazdo IEC C14, do podłączenia zasilania z sieci energetycznej. Opcjonalnie może tam być też umieszczony wyłącznik i przełącznik napięcia wejściowego. Etykietka umieszczona na boku zasilacza zawiera informacje dotyczące maksymalnej mocy wyjściowej i certyfikatów. Najbardziej popularne oznaczenia bezpieczeństwa to znak UL, znak GS, TÜV, NEMKO, SEMKO, DEMKO, FIMKO, CCC, CSA, VDE, GOST R i BSMI. Oznaczenia dotyczące kompatybilności elektromagnetycznej to znak CE, FCC i C-Tick. Oznaczenia CE jest wymagane dla zasilaczy sprzedawanych w Europie i Indiach. Norma Unii Europejskiej EN61000-3-2 wymaga aby każdy zasilacz wyposażony był w układ PFC.

Rozmiary zasilacza ATX to: szerokość 150 mm, wysokość 86 mm, a głębokość typowo 140 mm, choć może różnić się w zależności od producenta.

W zasilaczach stosowane jest chłodzenie wymuszone - najczęściej przez wentylator o średnicy 80 mm[1]. Przez zasilacz przepływa gorące powietrze z wnętrza obudowy komputera, w związku z tym stosuje się wentylatory o większej wydajności niż wymagana do utrzymania stałej temperatury w samym zasilaczu. Wentylator jest głównym źródłem hałasu generowanego przez zasilacz, choć przy dużych obciążeniach może pojawić się brzęczenie generowane przez cewki.

Zasilacze komputerowe wykonane są zwykle w technice impulsowej wykorzystując architekturę. przetwornicy push-pull. Tego typu zasilacze charakteryzują się małymi gabarytami i ciężarem, niewielkimi tętnieniami napięcia wyjściowego i dużą mocą wyjściową.

Karta telewizyjna

Karta telewizyjna jest urządzeniem wejscia, inaczej nazywana tunerem telewizyjnym, to urządzenie w postaci dodatkowej karty rozszerzającej, które po zamontowniu w komputerze i podłączeniu anteny umożliwia oglądanie telewizji na ekranie monitora. Urządzenia te zależnie od stopnia swojego zaawansowania technologicznego oferują szereg najrozmaitszych funkcji, od prostego wyświetlania obrazu, aż po wyrafinowane możliwości umożliwiające np. skalowanie oglądanego obrazu, oglądanie telegazety, podgląd kilku kanałów na raz, podłączenie zestawu video, czy też zapisywanie poszczególnych klatek obrazu na twardy dysk. Niektóre urządzenia mają w zestawie nawet pilot umożliwiający zdalne sterowanie lub dodatkowo tuner radiowy, umożliwiający również słuchanie radia. Większość tych urządzeń musi współpracować z komputerem, czyli aby móc oglądać telewizję musi być również włączony komputer.

Napędy optyczne

CD-ROM

Gęstość zapisu informacji na krążkach CD-ROM jest stała. Z uwagi na fakt, że długość ścieżki z danymi zmienia się w zależności od promienia, szybkość obrotowa musi się również zmieniać, aby w określonym przedziale czasu do komputera dostarczyć tę samą porcję informacji. W tradycyjnych odtwarzaczach płyt kompaktowych zmienna prędkość obrotowa nie stanowiła żadnego problemu. W celu zapewnienia przetwornikowi cyfrowo-analogowemu stałego strumienia danych wynoszącego 150 KB/s, płyta CD była odtwarzana z coraz mniejszą prędkością obrotową (dane zapisywane są od środka do brzegu nośnika). Podczas "skoku" do utworu leżącego bliżej środka płyty, obroty czytnika musiały zostać wyraźnie zwiększone.

Sprawa nieco się komplikuje w przypadku płyt CD-ROM, ponieważ znacznie częściej odczytuje się pojedyncze bloki danych, a nie całe sekwencje występujących po sobie bitów. Napęd musiałby więc stale zwiększać lub zmniejszać swoją szybkość, co powodowałoby znaczne obciążenie silnika i byłoby bardzo czasochłonne. Z tego też względu czytniki CD-ROM wykorzystują obecnie różne techniki. Najbardziej popularna bazuje na odpowiedniej kombinacji stałej prędkości kątowej (CAV) i stałej prędkości liniowej (CLV). Najlepsze rezultaty przynosi jednak rozwiązanie o nazwie Full Constant Angular Velocity, czyli mechanizm zapewniający stałą prędkość kątową. Przy takim odczycie szybkość transmisji jest wprawdzie zmienna, ale uzyskać można krótki czas dostępu do danych, co korzystnie wpływa na wydajność całego urządzenia.

CD-R

W 1982 roku Philips i Sony ogłosiły standard cyfrowego zapisu dźwięku, w związku z formą publikacji określany Czerwoną Księgą. Tak powstała muzyczna płyta CD, dziś nazywana CD-DA (Compact Disk - Digital Audio) lub popularnie "kompaktem". Trzy lata później narodził się CD-ROM (Compact Disk - Read Only Memory). W 1987 roku opublikowano specyfikację CD-I (Compact Disk - Interactive), a po roku bazujący na niej multimedialny standard CD-ROM XA (eXtended Architecture) umożliwiający jednoczesny odczyt danych, dźwięku i obrazu. W 1990 roku pojawia się specyfikacja formatu nośników zapisywalnych, w tym CD-R (CD - Recordable).

"Kolorowe" standardy definiują fizyczną i logiczną strukturę płyty oraz metody korekcji błędów, pomijając sposób kodowania hierarchicznej struktury katalogów oraz nazw plików. Lukę tę zapełnia opracowany w 1985 roku standard znany pod nazwą High Sierra, po drobnych modyfikacjach zatwierdzony przez International Organization for Standardization jako norma ISO 9660. Specyfikacja ta opisuje sposób kodowania i obsługi struktury plików oraz katalogów na wszystkich platformach sprzętowych. Założony uniwersalizm narzuca jednak dość drastyczne ograniczenia. Nazwy powinny składać się z najwyżej 8 znaków (plus 3 znaki rozszerzenia) oraz zawierać jedynie litery, cyfry i znaki podkreślenia. Nazwy katalogów nie mogą posiadać rozszerzenia, a ich zagłębienie nie może przekroczyć ośmiu poziomów.

Sektory, sesje i ścieżki

"Kolorowe księgi" definiują różne sposoby organizacji struktury płyty. W zależności od rozmieszczenia danych użytkowych i "technicznych" rozróżnia się kilka formatów zapisu danych:

-CD-DA,
-CD-ROM Mode 1,
-CD-ROM Mode2,
-CD-ROM XA Mode 2 From 1,
-CD-ROM XA Mode 2 From 2.

Do momentu powstania płyty CD-R "kompakty" tłoczono w całości, nie było więc potrzeby, by na płycie znajdowała się więcej niż jedna sesja. W momencie powstania nośników CD-R możliwy stał się zapis informacji partiami. Każda partia danych zapisana na płycie nosi nazwę sesji. Sesja może składać się z jednej lub kilku ścieżek w tym samym bądź różnym formacie. Dobrym przykładem, pozwalającym zrozumieć różnicę pomiędzy sesją a ścieżką, jest płyta CD-DA. Każdy utwór nagrany na takiej płycie jest ścieżką, a zbiór wszystkich utworów stanowi jedną sesję.

Konieczność jednorazowego zapisania całej sesji implikuje wymóg doprowadzania do urządzenia nagrywającego równomiernego strumienia danych. W razie przerwy w dopływie danych nośnik zwykle zostaje trwale uszkodzony. Zapewnienie ciągłego strumienia danych w praktyce może się okazać wyjątkowo trudne. Stąd zaleca się podczas nagrywania wyłączenie funkcji oszczędzania energii, mogących doprowadzić do spowolnienia procesora lub "uśpienia" dysku. Warto również powstrzymać się w tym czasie od jakiejkolwiek pracy z innymi aplikacjami oraz zadbać o zamknięcie wszystkich zbędnych programów zwykle pracujących w tle, jak np. wygaszacza ekranu czy sterowników sieciowych.

Co prawda, wydajność współczesnych komputerów, szybkie procesory i dyski o dużym transferze w dużej mierze eliminują te niedogodności, nawet w przypadku pracy pod kontrolą wielozadaniowych systemów operacyjnych. Zawsze jednak istnieje możliwość zakłócenia strumienia danych i w konsekwencji zniszczenia nagrywanej właśnie płyty. Milowym krokiem w stronę rozwiązania tego problemu jest technologia zapisu pakietowego - Incremental Packet Writing.

Tajemnice IPW

Uniwersal Data Format definiuje pakietowy sposób zapisu danych. W przypadku napędów CD-R możemy mieć do czynienia z czterema wielkościami pakietów nagrywanych bez wyłączania lasera zapisującego. Największym możliwym do nagrania blokiem danych jest cały dysk. Tryb Disk at Once polega na ciągłym zapisie wielu ścieżek. W drugim przypadku - Track at Once - laserowa głowica jest wyłączna po zapisaniu każdej ścieżki. Stwarza to wprawdzie konieczność oddzielenia ich dodatkowymi krótkimi blokami (run-in/run-out) , lecz pozwala na zapis poszczególnych ścieżek w odstępach czasowych (umożliwiających uzupełnienie danych w buforze). Trzecim z trybów jest Session at Once, czyli zapis sesji lub płyty w kilku podejściach, z możliwością kontroli odstępów (bloków run-in/run-out) pomiędzy poszczególnymi ścieżkami.

Największą elastyczność daje jednak zmniejszenie wielkości pakietu do minimum, jak ma to miejsce w przypadku przyrostowego zapisu pakietowego (Incremental Packet Writing). Po raz pierwszy rozwiązanie to zastosowano w modelu JVC XR-W2010. Polega ono w przybliżeniu na tym, że nagranie małych porcji danych nie wymaga zakończenia sesji czy płyty. Dopuszczalne są dowolnie długie odstępy czasu oddzielające nagranie poszczególnych pakietów. Płytę do zapisu pakietowego należy najpierw przygotować w urządzeniu CD-R ("sformatować"). By możliwy był odczyt takiej płyty, trzeba zastąpić interpreter obrazu ISO 9660 (np.MSC-DEX) sterownikiem obsługującym format ISO 9660 Level 3. Innym sposobem, stosowanym w programach obsługujących nagrywanie pakietowe (DirectCD firmy Adaptec, PacketCD firmy CeQuadrat czy CD-R Extension dołączany do JVC XR-W2110),jest zakończenie "sesji pakietowej", a więc zapisanie nagłówków dotyczących ostatecznej informacji w sposób zgodny z ISO 9660. Po takim zabiegu płyta jest czytana we wszystkich urządzeniach CD-ROM, a rozpoczęcie następnej sesji pakietowej wymaga ponownego "sformatowania" kolejnej ścieżki.

Romeo i Joliet

Jak można się domyślić, zapis na płytę plików i katalogów z nazwami ściśle odpowiadającymi rygorom normy ISO 9660 nie zawsze wystarcza. Zdefiniowano zatem jej rozszerzenia, oznaczone symbolami Level x. I tak ISO 9660 Level 1 umożliwia nazywanie plików i katalogów w sposób stosowany w systemie DOS, zaś Level 8 jest w pełni zgodny z wymogami UNIX-a. Wraz z systemem operacyjnym Windows 95 pojawił się problem z przeniesieniem na dyski kompaktowe długich nazw zbiorów oraz sposobu ich kodowania. Propozycją jego rozwiązania stał się format ISO 9660:1988, czyli Joliet. Jest to przedstawiony przez Microsoft sposób kodowania długich nazw Windows 95 z użyciem międzynarodowego zestawu znaków (tzw. Unicode). Zezwala on na zapis do 64 liter w nazwie zbioru z możliwością użycia spacji.

Alternatywny sposób zapisu długich nazw, przedstawiony przez firmę Adaptec, nosi kryptonim Romeo. Zgodnie z nim nazwa zbioru może zawierać do 128znaków (także spacji), ale jest konwertowana na duże litery. Jeżeli płyta w formacie Romeo zawiera pliki o długich, identycznie zaczynających się nazwach, podczas jej odczytu w DOS-ie widać jedynie pierwszy z nich (w formacie Joliet - wszystkie).

CD-RW

Zasadniczą i najpoważniejszą nowością jest wewnętrzna struktura płyty CD-RW. Aby przystosować płytę do zapisu zmiennofazowego, należało stworzyć nośnik o odmiennych właściwościach chemicznych. Warstwa nagrywana jest teraz zbudowana ze stopu czterech pierwiastków (srebro, ind, antymon, tellur). Posiada ona zdolność zmiany przezroczystości zależnie od mocy padającej na jej powierzchnię wiązki lasera. Absolutnym novum jest, oczywiście, fakt, że zmiany powierzchni płyty spowodowane nagrywaniem są odwracalne. Oznacza to, że wypalony i nieprzezroczysty punkt może pod wpływem działania światła o specjalnie dobranym natężeniu zmienić swoje własności i stać się nieprzezroczystym. Warstwa główna jest otoczona z obu stron powłokami materiału dielektrycznego, który ma za zadanie poprawienie odprowadzania ciepła z nośnika. Staje się to bardzo istotne, gdyż skumulowane ciepło mogłoby skasować wcześniej zapisane na płycie informacje. Najdalej od głowicy lasera leży warstwa srebra, która jest właściwym elementem odbijającym światło.

Również nieco inny jest mechanizm nanoszenia zmian na płytę. Elementem umożliwiającym kasowanie i powtórny zapis danych na dysku CD-RW jest laser o zmiennej mocy. Standardowe nagrywarki CD-R mogły emitować wiązkę światła o dwóch różnych natężeniach: bardzo małym - tylko do odczytu i w żaden sposób nie zmieniającym struktury nośnika - oraz bardzo dużym - służącym do miejscowego i gwałtownego podniesienia temperatury warstwy głównej. Jeśli punkt na płycie został naświetlony podczas nagrywania laserem dużej mocy, w warstwie nośnika zachodziły odpowiednie reakcje i stawała się ona nieprzezroczysta. Przez obszar nie naświetlony laserem dużej mocy światło mogło nadal bez przeszkód docierać do warstwy refleksyjnej. W przeciwieństwie do swojego poprzednika nośnik CD-RW, dzięki specjalnemu składowi, reaguje całkowicie odmiennie na wiązkę światła o średniej mocy. Naświetlenie nią punktu powoduje odwrócenie ewentualnych wcześniejszych zmian i przywrócenie płycie stanu początkowego.

Zmiennofazowa technika zapisu umożliwia również bezpośrednie nadpisywanie danych bez wstępnego czyszczenia przeznaczonego dla nich miejsca. Przyspiesza to całą operację, gdyż jeśli konieczne byłoby uprzednie usunięcie zawartości (tak jak to jest np. w nośnikach magnetooptycznych), każda operacja musiałaby przebiegać dwukrotnie.

Zabieg powtórnego zapisu może być wykonywany wielokrotnie. Jednak wbrew niektórym przekonaniom, istnieje granica wytrzymałości nośnika. Zazwyczaj wynosi ona około tysiąca cykli nagraniowych. Nie jest to oszałamiająco dużo, ale zakładając że daną płytę kasuje się raz w tygodniu, zostałaby ona zniszczona dopiero po 19 latach nieprzerwanego użytkowania. Raczej niemożliwe jest, aby jakikolwiek produkt cieszył się popularnością przez 20 lat. Trzeba zdać sobie sprawę, że za kilka lat z pewnością zostanie wynaleziony nowy sposób przechowywania danych i CD-RW straci swoją pozycję.

Nieuniknione zmiany musiały dotknąć także samych urządzeń nagrywających, są one jednak minimalne. Główne modyfikacje przeprowadzono w elektronice, a korekty układu optycznego są bardzo nieznaczne. Dzięki temu nagrywarki CD-RW są w stanie bez żadnych problemów nagrywać zwykłe krążki CD-R. taka własność czyni je urządzeniami uniwersalnymi. Niewielkie różnice sprzętowe powodują także, że cena nagrywarki CD-RW jest tylko minimalnie wyższa od ceny nagrywarki standardowej (CD-R).

Podłączenie napędu do komputera przebiega w sposób standardowy. Najczęściej używa się magistrali SCSI, która zapewnia dużą stabilność transferu. Coraz więcej urządzeń nagrywających wykorzystuje jednak interfejs ATAPI. Nie wymaga on specjalnego kontrolera, a przy szybkich komputerach, spadek wydajności i stabilności w stosunku do SCSI jest praktycznie niezauważalny. Zaletą CD-RW, która na pewno przysporzy tej technologii przychylność użytkowników, jest możliwość zastosowania tego samego oprogramowania, jak w przypadku CD-R. Podobnie jak w sprzęcie wprowadzona tu tylko drobne modyfikacje. Zazwyczaj jest to jedna opcja w menu lub dodatkowe okienko, pozwalająca na kasowanie zawartości uprzednio nagranej płyty. Istnieją dwie metody usuwania danych, znajdujących się na nośniku CD-RW: szybka i pełna. Pierwsza niszczy tylko część informującą o formacie i objętości dotychczasowych nagrań. Umożliwia to bezpośrednie odczytanie dalszych fragmentów płyty, jednak pozostawia fizyczną, binarną reprezentację danych. Natomiast drugi sposób kasuje dokładnie całą zawartość, jednak zamiast dwóch minut trwa pół godziny.

DVD

Wielu użytkowników komputerów inwestujących w coraz to nowsze wyposażenie z pewnością nie raz zadało sobie pytanie "kto kogo stara się dogonić"?. Z jednej strony powstają coraz pojemniejsze dyski twarde, szybsze napędy CD-ROM czy wielo gigabajtowe streamery z drugiej wymagania projektantów oprogramowania zwiększają się z każdym nowym produktem. Pamiętamy czasy gdy dobry edytor Word 2.0 zadawalał się procesorem serii 80386, 2 MB pamięci RAM i pracował w środowisku Windows 3.x. Dziś rzeczywistość komputerowych programów zmieniła swoje oblicze. Nowy Office 97 zajmuje kilkaset megabajtów, znany wszystkim Quake z dodatkowymi mapami i obsługą QW dochodzi do 100 MB, a najnowsze interaktywne gry niejednokrotnie wymagają kilku srebrnych krążków. Aby zaradzić tej sytuacji producenci sprzętu komputerowego wynaleźli nowe "pojemnościowe" medium - płytę DVD.

Jak zwykle początki były trudne. W 1994 r. po ukazaniu się pierwszych napędów CD-ROM, firmy zaczęły szukać nowej technologii pozwalającej na udoskonalenie płyty kompaktowej. W tym okresie powstały dwa odrębne projekty. Jednemu z nich przewodniczyła Toshiba, która zaproponowała zwiększenie gęstości zapisu i wykorzystanie obu stron istniejących krążków. W ten sposób powstały płyty SD (SuperDensity). Na czele drugiej grupy stanął Philips i Sony. Ich rozwiązanie nazwane MMCD (MultiMedia CD) zakładało stworzenie dwóch lub więcej warstw na jednej stronie płyty, zaś dane odczytywane miały być przez wiązkę laserową o zmiennej długości fali. Przedstawiony stan rzeczy nie trwał zbyt długo. Pod koniec 1994 roku, aby uniknąć kreowania odrębnych formatów firmy zgodziły się na połączenie swoich myśli technicznych. W ten sposób powstał projekt dysku DVD - dwustronnego, dwuwarstwowego zapisu o wysokiej gęstości. Napędy DVD-ROM odczytują kolejno z wewnętrznej i zewnętrznej warstwy płyty.

Początkowo obszar zastosowań dla nowego nośnika widziano głównie w przemyśle filmowym, maksymalna pojemność 17 GB pozwalała bowiem na nagranie 481 minut w formacie MPEG-2 z trzema ścieżkami audio. Nowy standard kompresji wymaga dużych mocy obliczeniowych do odkodowania informacji, dlatego komputerowe napędy DVD-ROM sprzedawane są ze specjalnymi kartami. W standardowych odtwarzaczach wszystkie niezbędne komponenty montowane są w jednej obudowie. Szybko okazało się, że pojemności oferowane przez płyty DVD idealnie nadają się także do zastosowań rynku komputerowego. Dlatego też pierwotna nazwa Digital Video Disk kojarzona z dyskami zawierającymi jedynie filmy coraz częściej ze względu na uniwersalność nośnika zamieniana jest na Digital Versatile Disk.

Niestety, na ustanowieniu jednego standardu problemy się nie zakończyły. Najwięcej zamieszania wprowadziły różne stosowane na świecie formaty zapisu obrazu (PAL, NTSC, SECAM) oraz dźwięku. Dlatego też mapa świata podzielona została na 6 regionów, dla których oba wspomniane parametry są jednakowe.

Taki podział pozwolił na ustanowienie lokalnych specyfikacji zapisu danych na dyski "filmowe". Teoretycznie płyta oznaczona kodem jednego regionu będzie mogła być odtworzona tylko przez odpowiednie wersje odtwarzaczy. Kody są jednak opcjonalne, dlatego w praktyce istnieją dwa sposoby na uniwersalny zapis danych. Pierwszy wykorzystuje możliwość umieszczenia wszystkich kodów i nagrania na płytę sześciu różnych wersji tego samego filmu. Drugi, stosowany częściej dla płyt DVD-ROM, cechuje brak odpowiedniego wpisu, co umożliwia odtwarzanie w napędzie dowolnego pochodzenia.

Z czasem pojawił się także kolejny problem. Po przegranej próbie skutecznego zabezpieczenia kaset do tradycyjnych magnetowidów, producenci filmowi zażądali skutecznej ochrony praw autorskich. Wprowadzono zatem odpowiedni system, który wprowadza do sygnału zakłócenia eliminowane później przez kartę dekodera. Podczas kopiowania płyty, użytkownik będzie mógł przenieść jedynie dane, zaś informacje o rodzaju zakłóceń, jako niedostępne nie zostaną skopiowane. Uniemożliwi to odtworzenie kopii w jakimkolwiek odtwarzaczu.

Stacja dyskietek FDD

Komputerowe urządzenie elektromechaniczne, które może odczytywać i zapisywać dane na dyskietkach magnetycznych i dyskietkach magnetooptycznych. Przez napęd dyskietek rozumiemy zwykle napęd dyskietek 3.5".

Dyskietka magnetyczna

Nośnik danych komputerowych służący do przechowywania i przenoszenia małych porcji informacji (ok. 1,4 MB). Dyskietka to magnetyczny krążek ukryty w kwadratowym plastikowym opakowaniu.

Dyskietka magnetooptyczna

Rodzaj magnetycznego nośnika danych, który charakteryzuje się większą trwałością (do 30 lat) niż zwykłe dyskietki magnetyczne. Na jej powierzchni znajduje się ochronna warstwa uniemożliwiająca zmianę zapisanych na niej informacji. Zapis jest możliwy w specyficznych warunkach (por. napęd magnetooptyczny). Dyskietki magnetooptyczne wytwarzane są zarówno w rozmiarach 3,5 cala jak i 5,25 cala i mają pojemność od 200 megabajtów do kilku gigabajtów.

Dysk twardy

Dysk twardy, dysk sztywny (ang. hard disk, hard disk drive) lub żargonowo "twardziel" - hermetycznie zamknięty, składający się z od 2 do 8 wirujących talerzy pokrytych bardzo cienką warstwą magnetyczną, każdy posiada osobną głowicę odczytującą-zapisującą, która unosi się nad nim na cienkiej poduszce powietrznej. Dysk twardy jest zwykle na stałe włączony do komputera i przechowuje dane, które powinny być zawsze dostępne, takie jak system operacyjny. Nowoczesne dyski twarde posiadają bardzo dużą przepustowość danych, niski czas dostępu do danych, obracają się z prędkością kilku tysięcy obrotów na minutę, a ich pojemność wynosi kilkanaście gigabajtów.

BUDOWA DYSKU

Dysk twardy znajduje się we wnętrzu obudowy komputera lub w łatwo dostępnej szufladzie, tzw. kieszeni i służy do przechowywania programów i danych. Dysk twardy został tak nazwany, z powodu swej sztywnej konstrukcji, są one umieszczone w odpowiednio skonstruowanym pyłoszczelnym zespole napędowym, zwierającym ponadto układy sterowania silnikiem napędu dysków, silnikiem przesuwu głowic (pozycjonerem), układu sterownia zapisu, układu odczytu oraz inne układy sterujące i kontrolne zespołu napędowego.

Większooć dysków twardych składa się następujących komponentów: obudowy, pozycjonera głowicy, ram głowic, głowic zapisu i odczytu, wirujących talerzy, układów sterowania.

* Talerz (ang. plate) to magnetyczna powierzchnia obracająca się ze stałą prędkością umożliwiająca odczyt danych przez głowicę odczytującą-zapisującą. Talerzem może być zatem jedna z 2-8 wirujących z prędkością kilku tysięcy obrotów na minutę części dysku twardego, pokryta materiałem magnetycznym, który może zostać zapisany/odczytany przez, osobną dla każdego talerza, głowicę odczytującą-zapisującą.

* Każdemu dyskowi pamięci przyporządkowane są dwie głowice (dla jego dolnej i górnej powierzchni). Głowice utrzymywane są na sprężynujących ramionach, przy czym wszystkie ramiona głowic są ze sobą połączone i poruszają się synchronicznie, napędzane pozycjonerem. W stanie spoczynku głowice znajdują się na ścieżce parkującej dysku. W momencie, gdy dysk zaczyna wirować, poduszka powietrzna wytworzona przy powierzchni, unosi głowice na wysokości około 1 mikrometra (jedna dwudziesta włosa ludzkiego).

Zadaniem pozycjonera jest przemieszczenie głowic na wybrany cylinder. Pozycjonery zbudowane zostały w oparciu o silnik liniowy, same parkują głowice po wyłączeniu zasilania, gdyż sprężyna samoczynnie odciąga je do położenia parkowania. Pozycjonery z silnikiem krokowym wymagają zaparkowania głowic za pomocą specjalnego programu.

Praca z twardym dyskiem jest możliwa dopiero wtedy, gdy zostanie on sformatowany przez producenta lub użytkownika.

Formatowanie polega na podziale dysku na ścieżki i sektory, jest to tzw. Formatowanie niskiego poziomu lub formatowanie fizyczne.

Fizyczna struktura dysku twardego:

Na fizyczną strukturę twardego dysku składają sie cylindry, głowice i sektory. Cylindry i głowice ponumerowane są począwszy od zera zaś numeracja sektorów zaczyna sie od cyfry 1. Informacje (dane) zapisywane są na okrągłych nośnikach (talerzach), które pokryte są magnetyczną warstwą i zamocowane jeden nad drugim na obracającej się osi. Po obu stronach talerza na specjalnym ramieniu zwanym grzebieniem zamocowane są głowice zapisu/odczytu. Powierzchnia nośnika podzielona jest na idealnie okrągłe pierścienie tzw. ścieżki, które swoją strukturą przypominają słoje drzewa. Z wzgledu na to, iż ścieżka jest zbyt duża, aby zarządzać pojedynczym kawałkiem informacji podzielona jest na sektory, które wynoszą 512 bajtów. Zatem każda ścieżka podzielona jest na wiele sektorów. Liczba sektorów jest różna dla różnych dysków twardych. Na ścieżkach dysków może być od 17 do 64 sektorów. Ścieżki i sektory tworzone są podczas formatowania dysku. Gdy dysk nie pracuje lub gdy prędkość obrotowa jest zbyt mała, głowice znajdują się w pozycji spoczynkowej, wycofane poza obręb pakietu. Dopiero po osiągnięciu wymaganej prędkości obrotowej następuje ich gwałtowne wysunięcie nad powierzchnie dysku i ustawienie nad cylindrem zerowym. Podczas pracy głowice unoszą się na tzw. poduszce powietrznej wytworzonej przez obracające się dyski.

Zapisywanie i odczytywanie informacji na dysku:

Standardowe głowice zapisująco-odczytujące (zwane też głowicami cienkowarstwowymi) posiadają miniaturową cewkę, która umożliwia zapis danych na płycie magnetycznej lub ich odczyt. Gdy na twardym dysku zapisywane są dane, specjalny układ elektroniczny wysyła impulsy elektryczne do cewki. W ten sposób powstaje pole magnetyczne, które porządkuje poszczególne cząstki na powierzchni dysku. W przypadku odczytu danych następuje procedura odwrotna. Namagnesowana powierzchnia dysku indukuje prąd w cewce, który jest następnie przetwarzany przez układ elektroniczny napędu. Coraz większe zapotrzebowanie na pojemniejsze dyski twarde a w konsekwencji ich rozwój spowodowało zwiększenie gęstości zapisu, który nie pozwala jednak na współpracę z tradycyjnymi głowicami z powodu zbyt gęstego ułożenia sektorów.

Nowoczesne dyski twarde wyposażone są więc w dodatkową głowicę magnetorezystywną (MR), umożliwiającą odczytywanie danych z powierzchni nośnika. Głowica zawiera pewną domieszkę specjalnego stopu żelaza i niklu, który pod wpływem pola magnetycznego zmienia swój opór elektryczny. Do zapisu danych jest natomiast w dalszym ciągu wykorzystywana głowica cienkowarstwowa. Zasadniczą zaletą takiego rozwiązania jest fakt, że głowica MR potrafi prawidłowo rozpoznawać dane także wtedy, gdy dysk obraca się z dużą prędkością, a sektory ułożone są bardzo gęsto.

Bardzo ważnym elementem w pracy dysku jest mechanizm pozycjonowania głowicy tzn. aby głowica zapisu/odczytu znajdowała się zawsze dokładnie nad środkiem ścieżki. Wystarczy mianowicie niewielkie przesunięcie, a zamiast porządanych informacji, otrzymamy zwykłe "śmieci". Nie jest to wcale łatwe zadanie, gdyż pod wpływem ciepła materiał, z którego wykonane są talerze dysku, może ulegać zniekształceniom. Mechanizmem stosowanym w nowoczesnych dyskach jest technika Embedded Servo. W odróżnieniu od tradycyjnej techniki Servo, przy której głowica musiała regularnie korzystać ze ścieżki sterującej, aby zoptymalizpwać swoją pozycję, mechanizm Embedded Servo wykorzystuje informacje zapisane na każdej ścieżce. Głowice zapisująco-odczytujące mogą więc korzystać z nich przez cały czas, co umożliwia dokładniejsze pozycjonowanie i szybszą pracę napędu. Technika ta działa na podobnej zasadzie, jak automatyczny pilot, który nieprzerwanie dba o utrzymywanie właściwego toru lotu. W poprzedniej technice tzw. okresowej kalibracji głowicy dysku następowały dodatkowe przerwy w transmisji danych.

Silnik krokowy:

W stałym polu magnetycznym wytwarzanym przez nieruchomy magnes cylindryczny znajduje się rdzeń metalowy z nawiniętym uzwojeniem. W zależności od kierunku prądu płynącego przez uzwojenie powstająca siła elektrodynamiczna powoduje wciąganie rdzenia w głąb magnesu, bądż jego wypychanie. Tak odbywa się sterowanie ruchem głowic dysku.

Master Boot Record i inne:

Aby komputer mógł wczytywać i uruchamiać system operacyjny, najważniejsze informacje o strukturze danych muszą się znajdować w ściśle zdefiniowanym miejscu na powierzchni nośnika. W pierwszym sektorze dysku (cylinder 0, glowica 0, sektor 1) zlokalizowany jest Master Boot Record. BIOS komputera znajdzie tu program, który odpowiedzialny jest za wczytanie sektora startowego (bootsektora) z aktywnej partycji dysku. Informacja, która partycja jest aktywna, umieszczona jest w tablicy partycji. Tablica ta znajduje się podobnie jak MBR w pierwszym sektorze dysku, który kończy się właśnie na niej. Pozostały fragment ścieżki 0 w cylindrze 0 jest pusty. Można w nim umieścić dyskowego menedżera. Tu zagnieżdżają się również wirusy bootsektora.

Partycja główna rozpoczyna się w miejscu o "współrzędnych": cylinder 0, głowica 1, sektor 1, a kończy się zawsze w miejscu dowolnego cylindra. Pierwszym sektorem partycji głównej jest sektor startowy. Od drugiego sektora zaczyna się tablica przydzieleń zbiorów FAT (więcej o FAT w odrębnym akapicie), tuż za nią znajduje się jej awaryjna kopia. Ile sektorów zajmuje FAT zależy od rozmiaru partycji. Wielkość tablicy zachowana jest w bootsektorze. Katalog główny znajduje się zwykle za tablicą FAT. Inaczej jest w przypadku partycji systemu FAT32, gdyż posiadają one większy obszar startowy, a katalogiem głównym zarządza się jak oddzielnym plikiem. Dopiero za tymi wszystkimi wymienionymi informacjami znajduje się właściwy obszar danych.

Partycja rozszerzona zaczyna się zawsze na granicy cylindrów - np. z początkiem cylindra X (X>0), przy głowicy 0 i w sektorze 1. W odróżnieniu od partycji głównej, partycja rozszerzona nie posiada sektora startowego, lecz zaczyna się od razu od tablicy partycji, której pierwszy wpis oznacza pierwszy napęd logiczny na tej partycji. Drugi wpis odsyła z kolei do partycji rozszerzonej, która stanowi kolejny napęd logiczny, i tak dalej, aż zostaną poprzydzielane wszystkie napędy logiczne.

Katalog Główny:

Dzięki informacjom zawartym w sektorze startowym system operacyjny zna rozmiar partycji, ile posiada ścieżek, sektorów na ścieżkę i bajtów na sektor. Poprzez katalog główny (zwany root-em) system operacyjny dowiaduje się gdzie zaczyna się właściwy obszar danych. Root jest jedynym katalogiem tworzonym podczas operacji formatowania. Na płaszczyżnie użytkownika ukazuje się w formie znaku "\". Zajmuje 32 sektory i może pomieścić maksymalnie 512 plików lub podkatalogów.

Podkatalogi są nieodzowne, gdyż dzięki nim można umieszczać na dysku nieograniczoną liczbę plików.

Tablica FAT:

Nazwa FAT (File Allocation Table) oznacza tabelę zawierającą spis wszystkich jednostek alokacyjnych (klasterów) całej partycji. Tablica FAT usytuowana jest na dysku za sektorem startowym patycji, bezpośrednio za nią znajduje się jej kopia awaryjna. Podczas zapisywania danych na dysk twardy, DOS równocześnie uaktualnia obie kopie FAT. Dzięki nim system operacyjny wie, które klastery dysku są wolne, które zajęte, a które uszkodzone. Tablica informuje także o tym, do jakich plików należą poszczególne klastery. Zależnie od swojego rozmiaru plik może rozciągać się na większą liczbę jednostek alokacyjnych. Każdy klaster posiada zapis w FAT wyszczególniający numer klastera, gdzie kontynuowany jest dany plik. Poprzez tego rodzaju wpis system operacyjny ustala wszystkie klastery pliku. Ostatni klaster pliku zawiera znacznik końca zbioru: EOF (End Of File).

A jak to działa naprawdę? Przy wywoływaniu pliku system "zagląda" wpierw do katalogu znajdując tam numer klastera początkowego. Następnie system operacyjny szuka tego numeru w FAT i natrafia na EOF lub na liczbę, która wskazuje numer kolejnego klastera należącego do żądanego pliku. Dopiero, gdy DOS zbierze wszystkie klastery żądanego zbioru, zaczyna je sczytywać z powierzchni nośnika. Przy zapisywaniu zbioru na dysk, system "konsultuje" się z FAT, aby znaleźć odpowiednie miejsce na dysku. Gdy zbiór jest zbyt duży i nie może zmieścić się na ciągłym obszarze, wówczas FAT wyszukuje następny dostępny obszar. W konsekwencji zbiór jest zapisywany fragmentami w różnych częściach nośnika i jest to tzw. zbiór fragmentaryczny. Ogranicza to efektywność pracy napędu, gdyż głowica zapisu/odczytu musi "przeskakiwać" w różne części talerza.

DOS 2.0 był oparty na 12-bitowej FAT, zatem mógł zaadresować 212, czyli 4096 (netto 4085) klasterów. Rozmiar klastera wynosił 4 KB, dlatego partycja mogła zajmować maksymalnie 16 MB. Stosowana do dziś 16-bitowa FAT pojawiła się po raz pierwszy w DOS-ie wersja 3.3. Pozwalała na zaadresowanie dokładnie 65525 klasterów. Ze względu na stały obszar adresowania system operacyjny musi w przypadku dyków powyżej 32 MB dobierać rozmiar klastera tworząc poszczególne jednostki alokacyjne z kilku lub więcej sektorów. Jeden sektor mieści 512 bajtów, z kolei na ścieżce można skupić maksymalnie 64 sektorów (czyli 32 KB). Daje to w wyniku partycję o maksymalnym rozmiarze 2 GB.

Dopiero Windows 95 (OSR2) zaoferował system plików FAT32. Ten ma do dyspozycj 28 bitów (228) na adresowanie jednostek alokacyjnych. Dzięki temu partycja o wielkości klastera 8 KB może pomieścić maksymalnie 2 terabajty danych (ok. 2000 MB). Należy jednak pamiętać,że wiele narzędzi dyskowych nie potrafi obchodzić się z partycjami w systemie plików FAT32. Co istotne, DOS i jego potomkowie, którzy opierają się na FAT (oprócz FAT32), mogą podporządkować każdej jednostce alokacyjnej tylko jeden plik. Gdy więc dane pliku nie zapełniają całego klastera, reszta miejsca jest nie wykorzystana. Przykładowo 1-bajtowy plik na dysku o pojemności 1 GB zajmuje w efekcie aż 32 KB.

Oprócz tych wykorzystywanych w DOS-ie i Windows 3.1x i 95 sytemów plików, każdy system operacyjny posiada swój odrębny system plików. W Windows NT jest NTFS, w Linuxie jest Ext2 natomiast w OS/2 - HPFS.

Interfejsy:

Napęd dysków twardych łączy się ze systemem mikroprocesorowym (płytą główną) poprzez sterownik dysku twardego za pomocą interfejsów HDD.

Do najczęściej spotykanych interfejsów należą:

ST-506/412 - pierwszy interfejs opracowany przez firmę Seagate Technologies dla swoich dysków o pojemności 5 MB. Dysk był połączony z kontrolerem przy pomocy dwóch wiązek przewodów, 20- i 34-żyłowych. Można było podłączyć dwa napędy. Czas dostępu do dysku wynosił 25 ms, transfer 500 kB/s a ścieżka podzielona była na 17 sektorów po 512 bajtów.

ESDI (Enhanced Small Device Interface) - opracowany przez firmę Maxtor. Pozwalał na większą pojemność dysków (powyżej 100 MB), czas dostępu - kilkanaście sekund, transfer - maksymalnie 3 MB/s.

IDE (Integrated Drive Electronics) - opracowany w 1987 r. Najbardziej popularny, stosowany dzisiaj interfejs. Pozwala na podłączenie dwóch komponentów (HDD lub CD-ROM) lub czterech w nowszej, rozszerzonej wersji Enhanced IDE. Transfer jaki oferuje ten interfejs jest zróżnicowany. W zależności od stopnia zaawansowania technologii dyskowej oraz związanym z nią trybu przesyłania danych (PIO - Programmed Input Output), który ustawia się w BIOS-e komputera, przepustowość kontrolera może wynosić:

PIO-0 - 4,1 MB/s,
PIO-2 - 8,3 MB/s,
PIO-3 (Fast ATA) - 13,3 MB/s,
PIO-4 (Fast ATA-2) - 16,6 MB/s,
Ultra ATA - 33,3 MB/s.

Bardzo ważne jest odpowiednie połączenie dysku z magistalą. Na przykład gdybyśmy chcieli podłączyć nowoczesny dysk do starego kontrolera ISA, straty na wydajności wynisłyby 40 - 50 %.

SCSI (Small Computer System Interface) - Podstawową cechą wyróżniającą opracowaną w 1986 roku specyfikację SCSI jest to, że określa ona bardziej standard magistrali niż interfejs dysku. Włożenie w gniazdo rozszerzenia adaptera SCSI (host bus adapter) jest właściwie dodaniem nowej magistrali. Ważną zaletą systemu SCSI jest możliwość podłączenia znacznie wiekszej liczby urządzeń do jednej karty adaptera, niż zapewniają opisane powyżej IDE, ESDI. Podczas, gdy ESDI i IDE pozwalają zasadniczo na podłączenie dwóch napedów HDD, SCSI obsługuje nawet 224. Łączenie urządzeń SCSI odbywa sie na zasadzie łańcucha (daisy chain) o max. 7 elementach (adapter jest 8). Każdy z nich może być poczatkiem kolejnego ośmioelementowego łańcucha. Do magistrali rozszerzeń można podłączyć do 4 adapterów SCSI.

Charakterystyczny dla systemów SCSI łańcuch tworzony jest poprzez łączenie urządzeń 50-żyłowym kablem o maksymalnej długości 6 m. Ostatnie urządzenie musi być wyposażone w specjalny zestaw oporników, zwanym terminatorem.Maksymalne szybkości przesyłania magistrali SCSI zależą od jej trybu pracy i najwolniejszego urządzenia w łańcuchu. W tzw. trybie asynchronicznym najwieksza osiągana wartość to 2 MB/s, natomiast w trybie synchronicznym przy idealnej współpracy napędu i adaptera może osiągnąć 5 MB/s. Również czasy dostepu są porównywalne z napedami ESDI i IDE. To mało imponujące, w porównaniu z innymi interfejsami, wyniki po części biorą sie stąd, że dyski SCSI podłączone są do odrebnej magistrali, która - wraz ze swoimi odmiennymi komendami - jest dodatkowym ogniwem pośredniczącym w transmisji. Odmiana nazywana Fast SCSI pozwala na szybką synchroniczna transmisje danych, która może osiągnąć większą szybkość. Jest to szczególnie użyteczne w przypadku stosowania magistrali EISA, zapewniającej przesyłanie z szybkością 33 MB/s, lub magistrali lokalnej, o jeszcze wiekszych parametrach. Jeszcze wieksze polepszenie parametrów transmisji oferuje używająca 68-żyłowego połączenia odmiana określana jako Wide SCSI. W trybie synchronicznym umożliwia ona transmisje siegającą 40 MB/s. Do podłączenia adaptera wykorzystywana jest przy tym 16- lub 32-bitowa magistrala danych.

Nowe techniki implementowane dla SCSI to kompresja przesyłanych danych i połączenia światłowodowe. Szczególnie interesująca jest ta druga. Zapewnia on przesyłanie z predkością 8 MB/s na odległość 300 m. W transferze szeregowym można osiągnąć nawet szybkości 30 MB/s. Do zmiany równoległego strumienia danych ma być stosowany specjalizowany układ scalony. Integruje on część nadawczą oraz odbiorczą i jest przyłączany na obu końcach kanału transmisji. Dopuszczalna jest zarówno transmisja synchroniczna, jak i asynchroniczna. Połączenie sześciu takich urządzeń zapewnia przesyłanie danych prawie bez zakłóceń na odległość siegającą 1800 m.

Karta dźwiękowa

Podstawy karty dzwiękowej

Karta Dzwiękowa: Karta rozszerzeń pozwalająca na odgrywanie oraz nagrywanie na komputerze dźwięku w formie plików muzycznych. Karty muzyczne umożliwiają także podłączenie do nich głośników, wzmaczniacza, mikrofonu oraz urządzeń MIDI.

Obecnie w prawie każdym pececie znajduje się jakaś karta dźwiękowa. Najważniejszą jej częścią składową, jest przetwornik A/D-D/A (analog/digital-digital/analog), zmieniający sygnał analogowy w cyfrowy i odwrotnie, odpowiedzialny za nagrywanie i odtwarzanie plików WAV. Proces nagrywania nazywany jest samplingiem. Poziom (głośność) sygnału wejściowego, pochodzącego np. z mikrofonu lub wejścia LINE IN jest mierzony w określonych odstępach czasu, zaś wynik pomiaru zapisywany w pliku WAV. Znajduje się w nim również informacje o parametrach nagrania, mających wpływ na jakość dźwięku i zapotrzebowanie na wolne miejsce na dysku. Są to:

Rozdzielczość: określa, czy wartości pomiarowe zapisywane w pliku WAV mają zajmować 1 czy 2 bajty (8 czy 16 bitów). W jednym bajcie można zapisać wartości od 0 do 255, natomiast w dwóch bajtach wartości od 0 fo 65535. Obecnie nawet najtańsze na rynku karty są już 16 bitowe.

Częstotliwość próbkowania: odstępy czasowe, w których dokonywany jest pomiar poziomu sygnału wejściowego. Częstotliwość próbkowania podawana jest w kilohercach(kHz), 1 kHz odpowiada 1000 pomiarów na sekundę. Najczęściej spotyka się karty próbkujące z częstotliwościami 8, 11, 22, 44,1, 48 kHz. Najwyższy ton, jaki można nagrać odpowiada połowie wartości częstotliwości próbkowania. W przypadku karty posiadającej częstotliwość 44,1 kHz będzie to ok. 22000Hz. Ucho ludzkie potrafi odbierać dźwięki o częstotliwości do ok. 17000 Hz.

Budowa karty dźwiękowej

Do niedawna karty dźwiękowe współpracowały jedynie z magistralą ISA. W dzisiejszych komputerach podstawową szyną danych stała się szyna PCI. W konsekwencji większość modeli kart jest dostępna na rynku w wersji PCI. Do komunikacji z pecetem, każda karta dźwiękowa potrzebuje co najmniej trzech zasobów: adresu I/O, przerwania oraz kanału DMA. Za pomocą adresu I/O komputer kontaktuje się z kartą, gdy chce jej przekazać rozkazy. Z kolei karta zgłasza pecetowi potrzebę przesłania danych poprzez odpowiednie przerwanie.

Karta dźwiękowa

Z technicznego punktu widzenia karta dźwiękowa spełnia następujące funkcje:


-wykonuje konwersje analogowo-cyfrową, czyli zamienia analogowy sygnał dźwiękowy na sygnał cyfrowy i odwrotnie (przetwornik A/D, D/A),
-generuje dźwięk, wykorzystując modulacje częstotliwości (FM) i/lub tabelę próbek dźwiękowych (wavetable),
-odczytuje i przesyła komunikaty MIDI,
-ewentualnie przetwarza zdigitalizowany dźwięk za pomocą procesora sygnałów dźwiękowych (DSP).

Sampling

Pojęciem sampling określa się digitalizację fragmentów dźwiękowych. Decydujący wpływ na jakość nagrania ma rozdzielczość digitalizacji. Starsze karty zapisują dźwięk w trybie 8 bitowym, co pozwala na rozróżnienie tylko 256 różnych wartości dźwięku. Z uwagi na fakt, że taki zakres jest zbyt mały, by uzyskać dobrą jakość, nowsze karty pracują już z rozdzielczością 16 bitową. W przypadku nagrań stereofonicznych każdy pojedynczy dźwięk (sample) jest więc zapisywany na 4 bajtach. Takie rozwiązanie pozwala na rozróżnienie 65536 różnych wartości dla każdego kanału stereo, dzięki czemu generowany dźwięk ma już naturalne brzmienie o jakości hi-fi.

Równie istotna jest szybkość próbkowania (samplingu), czyli częstotliwość z jaką generowane są kolejne 16 bitowe sekwencje. Im częściej jest próbkowany oryginalny dźwięk, tym wyższa jest jakość uzyskiwanego nagrania. Częstotliwość samplingu rzędu 8 kHz odpowiada w przybliżeniu poziomowi jakości rozmowy telefonicznej natomiast do uzyskania jakości płyty CD potrzebna jest częstotliwość 44 kHz. W przypadku nagrań stereofonicznych objętość zapisywanych danych ulega podwojeniu. Jednominutowe nagranie klasy hi-fi bez kompresji danych zajmuje więc ponad 10 MB (44000 x 4 bajty x 60 sekund). Jeszcze większą objętość mają dane uzyskane w wyniku miksowania (mieszania) próbek. Niektóre gry oferują możliwość definiowania kilku różnych dźwięków. Dzięki temu można na przykład słuchać podczas gry odgłosów pięciu przeciwników jednocześnie. Zadania tego nie wykonuje jednak karta dźwiękowa, lecz procesor komputera co negatywnie wpływa na płynność działania samej gry. Maksymalną liczbę dostępnych głosów warto więc wykorzystywać tylko na bardzo szybkich komputerach.

Synteza FM

Karty muzyczne nie tylko nagrywają i odtwarzają gotowe dźwięki, lecz również tworzą je samodzielnie za pomocą syntezy FM (modulacji częstotliwości). Pierwszym chipem muzycznym wykorzystującym syntezę FM był układ OPL2 firmy Yamaha. Chip ten nie był przeznaczony dla komputerów, lecz podobnie jak OPL1 został opracowany pod kątem organów elektronicznych. Gdy jednak model OPL2 odniósł ogromny sukces rynkowy, firma Yamaha skonstruowała specjalnie dla kart dźwiękowych kolejny układ - OPL3.

Początkowo na rynku dostępne były tylko dwa chipy FM (OPL 2 i 3), ale w 1995 r patent na syntezę modulacji częstotliwości uległ przedawnieniu. Od tego czasu na kartach dźwiękowych instaluje się różne chipy, w większości kompatybilne z OPL3, a więc również ze standardem Sound Blaster. Wszystkie układy FM działają na tej samej zasadzie: za pomocą prostych funkcji matematycznych generują krzywe drgań, które tylko w przybliżeniu imitują działanie oryginalnych instrumentów muzycznych. W każdym przypadku umożliwiają jednak odtwarzanie plików MIDI. Pliki te - podobnie jak tradycyjna partytura - zawierają bowiem tylko opisy dźwięków instrumentów i efektów, a nie autentyczne dźwięk.

Synteza WT (wavetable)

Z uwagi na sztuczne brzmienie generowanych dźwięków synteza FM nie nadaję się do zastosowań profesjonalnych. Z tego tez względu producenci sprzętu opracowali technikę syntezy wavetable (WT), znanej też pod nazwą PCM (Pulse Code Modulation) lub AWM (Advanced Wave Memory). Zasada działania syntezy WT jest bardzo prosta. W celu uzyskania na przykład brzmienia gitary chip muzyczny nie generuje sztucznego dźwięku, lecz odtwarza oryginalny dźwięk instrumentu, nagrany wcześniej w studiu. W praktyce niema jednak możliwości zapisania w pamięci wszystkich dźwięków generowanych przez 128 instrumentów MIDI. Chip muzyczny musi więc często obliczać wysokość i długość dźwięków na podstawie wzorcowych próbek. Z zadaniem tym poszczególne karty WT radzą sobie bardzo różnie. W niektórych modelach można np. uzyskać lepsze brzmienie instrumentów smyczkowych w innych instrumentów dętych. Naprawdę dobre brzmienie dla wszystkich odmian muzyki oferują jak dotąd tylko drogie karty profesjonalne.

MIDI

Koncepcja cyfrowego złącza instrumentów muzycznych (MIDI), wprowadzona we wczesnych latach 80, zrewolucjonizowała rynek, przerastając z czasem oczekiwania swych twórców. MIDI pozwala na wymianę informacji i synchronizację sprzętu muzycznego za pomocą standardowych komunikatów, tworząc spójny system sterowania zestawem muzycznym. Komunikaty MIDI mogą być proste (np. włącz dźwięk pianina na 5 sekund), lub złożone (np. zwiększyć napięcie wzmacniacza VCA w generatorze 6, aby dopasować częstotliwość do generatora nr 1).

Należy tutaj pamiętać, że MIDI nie przesyła dźwięku lecz informacje o nim (i nie tylko). Na przykład muzyk w czasie koncertu naciśnięciem klawisza może wydobyć nie tylko dźwięk, ale również może synchronicznie sterować błyskami światła, sekwenserami, modułami brzmieniowymi itp. - oczywiście pod warunkiem, że wymienione urządzenia będą zgodne ze standardem MIDI. Posiadając w komputerze kartę dźwiękową FM czy też WT, mamy, praktycznie rzecz biorąc, do czynienia z modułem brzmieniowym syntezatora muzycznego. Komunikację z owym modułem zapewnia port MIDI oraz programy zwane sekwenserami. Sekwensery umożliwiają też edycję zapisu cyfrowego MIDI w postaci standardowych plików (z rozszerzeniem MID).

Specyfikacja MIDI umożliwia sterowanie 16 urządzeniami MIDI jednocześnie. Sekwenser łączy funkcję magnetofonu wielośladowego i pulpitu mikserskiego. Poszczególne partie instrumentów nagrywa się na ścieżkach (może ich być 128 i więcej). Niezaprzeczalną zaletą MIDI jest oszczędność pamięci - skoro przesyłane są tylko dane dotyczące dźwięku, minuta muzyki wymaga zaledwie około 20 KB danych. MIDI ma pod tym względem ogromną przewagę nad cyfrową techniką zapisu dźwięku, przetworzonego przez konwertery analogowo-cyfrowe na twardym dysku.

Pierwszą implementacją standardu MIDI na pecetowej platformie był interfejs MPU-401 firmy Roland, później pojawiła się specyfikacja MT32, wreszcie General MIDI, wprowadzający jednolity rozkład brzmień.

Karta graficzna

Karta Graficzna: Karta rozszerzeń, umiejscawiana na płycie głównej poprzez gniazdo PCI lub AGP, która odpowiada w komputerze za obraz wyświetlany przez monitor.Karty graficzne różnią się między sobą szybkością pracy, wielkością pamięci RAM, wyświetlaną rozdzielczością obrazu, liczbą dostępnych kolorów oraz częstotliwością odświeżania obrazu.

Każda karta graficzna składa się z czterech podstawowych elementów: płytki drukowanej, głównego procesora, pamięci wideo i układu RAMDAC (który często jest zintegrowany z procesorem w jednej obudowie).

PROCESOR

Procesor na karcie graficznej wspomaga setki różnych funkcji, z trójwymiarowymi włącznie. Układy takie pomagają procesorowi komputera rysować linie, trójkąty, prostokąty, potrafią wygenerować obraz trójwymiarowy, pokryć go odpowiednią tzw. teksturą (powierzchnią), stworzyć efekt mgły itd. śrocesor karty graficznej komunikuje się z pamięcią wysyłając i pobierając z niej informacje o obrazie w tzw. paczkach, przy czym wielkość tych paczek zależy od procesora karty. śrocesory 64-bitowe wysyłają paczki 64-bitowe (8-bajtowe), za 128-bitowe paczki 16 bajtowe.To czy procesor jest 64-bitowy czy 128-bitowy, praktycznie nie powoduje dwukrotnej różnicy prędkości na korzyść układów 128-bitowych. śrzewaga zaczyna być widoczna przy pracy w wyższych rozdzielczościach.

UKŁAD RAMDAC

Układ RAMDAC pobiera dane o obrazie wygenerowanym przez procesor karty graficznej. Dane te są w postaci zbioru różnokolorowych punktów. Następnie RAMDAC zamienia je na sygnały analogowe i wysyła do monitora. Im szybszy RAMDAC, tym więcej potrafi wysłać informacji w ciągu sekundy co ma bezpośredni wpływ na częstotliwość odświeżania (jest to liczba pojedynczych obrazów, jakie wyświetla monitor w ciągu sekundy. Częstotliwość 60Hz oznacza, że w ciągu sekundy na ekranie monitora rysowanych jest 60 pełnych obrazów. Oko ludzkie przestaje odróżniać "skoki" między obrazami już przy szybkości ok. 25 obrazów na sekundę, więc częstotliwość 60 Hz wydawałaby się aż za duża. Jak się okazuje w praktyce, przy 60Hz prawie nie widać migotania obrazu, ale nasze oczy się męczą. Dlatego do pracy przy komputerze powinnimy ustawiać częstotliwość co najmniej 75Hz, zaś im więcej tym lepiej. Warto przy tym wiedzieć, że ustawienie częstotliwości większej niż 85Hz nie ma już wpływu na nasz wzrok.

Również czynnikiem wpływającym na prędkość karty graficznej jest typ magistrali, z jaką komunikuje się ona z komputerem.

PAMIĘĆ WIDEO

Każda karta graficzna ma własną pamięć RAM, w której przechowuje potrzebne informacje o obrazie. Obecnie wielkość tej pamięci to średnio 8 MB (jeszcze do niedawna przeciętna pamięć wynosiła 512 Kb), a coraz częściej 16 lub 32 Mb. W pamięci tej przechowywane są dane o każdym punkcie obrazu, a także tekstury (w postaci map bitowych) oraz dane o głębi (z pamięci jest w tym celu wydzielany tzw. bufor Z).

Frame Buffer

Pamięć obrazu pracuje w bardzo specyficznych warunkach. śodlega ona jednoczesnemu zapisywaniu (przez kontroler graficzny) i odczytywaniu (przez przetwornik RAM-DAC). Gdyby wszystko miało się odbywać w obrębie tego samego bloku pamięciowego, przetwornik musiałby czekać na ostateczne zakończenie procesu zapisu. Do momentu odczytania ostatniego piksela nie wolno byłoby z kolei, co zapisywać (wówczas oczekuje kontroler). Aby wymienione dwa procesy nie zakłócały się wzajemnie, wprowadzono podwójne buforowanie (Dual Buffering). Do dyspozycji kontrolera graficznego przekazuje się dwa jednakowe bufory pamięciowe. Jeśli jeden z nich wypełniany jest świeżą treścią (Back Buffer), drugi można oddać do dyspozycji RAM-DAC, by przekazał kompletną zawartość na ekran (Front Buffer). W ten sposób zawsze jakiś bufor jest pokazywany, a jakiś jest gotów do zapisu i wspomniane dwa procesy nie zakłócają się wzajemnie.

Moment przełączenia buforów musi wypadać w chwili, gdy generowany jest kolejny impuls synchronizujący w pionie, w przeciwnym razie obraz podzielony zostanie poziomą linią. Może się jednak zdarzyć, iż mimo nadejścia kolejnego impulsu VSYNC akcelerator nie zdążył z kompletnym wypełnieniem bufora.

Rozważmy prosty przykład. śracujemy w trybie 60 Hz i RAM-DAC generuje, co 1/60 sekundy impuls synchronizacji pionowej. Jeżeli czas obliczeń jednej sceny wyniesie tylko nieco dłużej niż 1/60 sekundy (na przykład 1/59 sekundy), to kontroler przegapi o ułamek sekundy moment przełączenia i musi czekać na nadejście następnego. W tym czasie procesor graficzny jest bezczynny. Do jednego z buforów nie może jeszcze zapisywać, (bo nie został do tej pory wyświetlony), a drugi bufor jest aktualnie pokazywany i też nie można go zamazywać. Rzeczywista częstotliwość odtwarzania obrazu wynosi w tym przypadku już tylko 30 fps (Frame per Second, obrazy/sekundę).

Rozwiązanie tego problemu możliwe jest jedynie poprzez wprowadzenie trzeciego bufora (Triple Buffering). śrzy podziale na 3 bufory odpada czas oczekiwania na impuls syn- chronizacyjny, bowiem kontroler zawsze dysponuje jakimś obszarem pamięci, do którego może zapisywać wyniki swoich obliczeń. Wadą tego rozwiązania jest zmienna częstotliwość odtwarzania [fps], bowiem nie ma już mechanizmu wyzwalającego w równych odstępach czasowych moment przełączania buforów. śołączenie zalet sztywnej synchronizacji ze stałą możliwością zapisu do jednego z buforów możliwe jest w układach implementujących bufory poczwórne {Quad Buffering).

Warto nadmienić, iż zapis do pamięci obrazu odbywać się może zarówno przy włączonej, jak i wyłączonej synchronizacji z impulsami VSYNC- Synchronizację wyłącza się zwykle w celach pomiarowych, np. uruchamiając programy typu Bench-Mark. Kontroler może wtedy zapisywać do bufora obrazu z narzucaną przez siebie prędkością i nie musi czekać na moment powrotu wiązki elektronów w cyklu odchylania pionowego. Osiągane w tych anormalnych okolicznościach wartości fps sięgają daleko powyżej 100 obrazów na sekundę. W warunkach rzeczywistych odtwarzana jest jakaś aplikacja, a nie program testujący. Kontroler graficzny musi, więc, wypełniwszy w całości bufor obrazu, poczekać na nadejście kolejnego impulsu synchronizacyjnego, (jeśli chce pokazać kompletny obraz). śrzy takich zależnościach częstotliwość powtarzania obrazu 3D nie leży nigdy powyżej częstotliwości odchylania pionowego, z którą pracuje monitor.

Bufor Z/W

śołożenie dowolnego punktu w przestrzeni 3D jest jednoznacznie zdefiniowane przez trójkę liczb {x, y, z), będących jego współrzędnymi. Z punktów takich składają się trójkąty elementarne, a z nich z kolei modelowane właściwe elementy scenerii. Oś Z przebiega w kierunku od płaszczyzny ekranu w głąb przestrzeni 3D. Wartość współrzędnej z rośnie w miarę oddalania się od obserwatora.

Mimo iż rzecz dotyczy przestrzeni 3D, cały proces przetwarzania ma miejsce w płaszczyźnie ekranu adresowanej parą współrzędnych płaskich (x, y).

Mogłoby się wydawać, że trzecia współrzędna, z, reprezentująca odległość punktu od ekranu, staje się zbędna. Tak jednak nie jest, bowiem skutkiem projekcji na ekran, trójwymiarowe elementy przedstawianej scenerii mogą się wzajemnie przesłaniać. Zjawisko przesłaniania się obiektów 3D sprowadza się do przesłaniania się trójkątów elementarnych, a w gruncie rzeczy -- do przesłaniania się pikseli. Analizę przesłaniania przeprowadza się właśnie na poziomie pojedynczych punktów obrazu. Na ekranie kreślone będą, więc tylko te punkty bryły, które są widoczne dla obserwatora. O tym, czy punkt jest widoczny czy nie, decyduje właśnie jego współrzędna z. W tym celu utworzony zostaje w pamięci karty graficznej tzw. bufor Z. Stanowi on tablicę Z [x,y] o rozmiarach ekranu (X*Y). Elementy tablicy Z są zwykle dwubajtowe. śrzed przystąpieniem do formowania nowego obrazu ustawiana jest wartość początkowa, dla każdego z [x, y] -- FFFFh.

W miarę budowania trójwymiarowej scenerii, rozpisanej na elementarne trójkąty, rozpatruje się współrzędne z dla każdego z aktualnie obliczanych punktów składowych i porównuje je z dotychczasową wartością zapamiętaną w buforze Z (Z-Buffering). śunkt o współrzędnych (x, y, z) zostaje uznany za widoczny, jeśli spełnia odpowiedni warunek.

Obliczone składowe RGB dla punktu uznanego za widoczny wędrują do bufora i umieszczane są pod adresem [xy\. Współrzędna z takiego nowego punktu użyje napotkaną w buforze Z wartość: Z[x,y]=z Tak zmodyfikowany element tablicy Z pozostaje niezmieniony do momentu rozważania punktu obiektu leżącego jeszcze bliżej obserwatora.

Mechanizm bezbłędnego określania wzajemnego przesłaniania się pikseli , teoretycznie jedynie przy założeniu nieskończenie wielkiej dokładności obliczeń pomiędzy blisko położonymi obiektami 3D (np. obraz wiszący na ścianie) może tych warunkach wymknąć się spod kontroli. Kluczową rolę odgrywa głębia przedstawianej sceny, z nią, bowiem związana jest dokładność mechaniz kontroli głębokości.

Im większy jest zakres widoczności obserwatora, tym większe są wymagania, co do dokładności pomiaru odległości na osi Z. Organizacja bufora Z daje do dyspozycji określoną ilość bitów. Bufor Z może pracować na liczbach 16-, 24- lub 32-bitowyc akceleratory powszechnego użytku zadowalają się zwykle organizacją 16-bitową nowszych generacji, szczególnie te, które zostały bogato wyposażone w pamięć w trybie 32-bitowym. Będący do dyspozycji rozmiar bufora Z można różnie wykorzystywać. Zwykle pracuje się w arytmetyce liczb stałoprzecinkowych. Obiekty położone blisko (o małej współrzędnej Z) mają przez to większą dokładność oceny głębokości. śrzejście na arytmetykę zmiennoprzecinkową gwarantuje j dokładność w całym zakresie widzenia, ale spowalnia proces obliczeniowy.

Nie bez znaczenia jest znowu wpływ skrótu perspektywicznego, skutkiem, czego wartości z w buforze nie jest liniowy. Obiekty znacznie oddalone od obserwatora coraz to bardziej zbliżone wartości współrzędnej z, przez co rośnie niebezpieczeństwo przekroczenia wartości minimalnej poniżej granicy dokładności. Jeśli zamiast współrzędnej z używać skorygowanej współrzędnej, w (która również wyraża odległość od obserwatora w innej skali), rozkład wartości w buforze (nazywanym teraz buforem W) staje się liniowy.

Z-Buffering (lub W-Buffering) obciąża bardzo mocno pamięć lokalną akceleratora szereg odwołań typu Read/Write-Modify. Odwołania tego typu są szczególnie, bowiem wymagają nieustannych przełączeń z zapisu na odczyt i odwrotnie. Ni pamięci dynamiczne osiągają swoje maksymalne parametry jedynie w trakcie szeregu następujących po sobie cykli dostępu tego samego rodzaju.

Warto wspomnieć w tym miejscu o istnieniu ciekawego algorytmu, umożliwia ominięcie całego procesu porównywania współrzędnych z, a w dodatku niewymagającego odwołań do pamięci. Mowa tu o sortowaniu trójkątów (Z-Sort). śrzed przy do przetwarzania wszystkie trójkąty elementarne ustawiane są w szereg (odzwierciedlający wzajemne przesłanianie). Gdy lista jest gotowa, procesor przystępuje do przetwarzania w kolejności "od tyłu do przodu". Jeżeli przetwarzany będzie każdy trójkąt, obiekty przesłonięte zostaną w naturalny sposób zamazane przez obiekty leżące bliżej. W ten sposób omija się zagadnienie niedokładności oceny odległości na osi Z. Bez względu na to, jak blisko od siebie spoczywają dwa trójkąty, zawsze jeden z nich można uznać za bliższy (na podstawie pozycji w kolejce).

Pamięć tekstur

Jednym z czynników silnie obciążających lokalną magistralę pamięciową akceleratora jest dostęp do tekstur. Są to, co prawda wyłącznie cykle odczytu, ale za to występujące w dużej liczbie; przy aktywnej filtracji trilinearnej trzeba wczytywać parametry 8 tekseli na każdy piksel obrazu. śrocesory wyposażone w podwójne potoki przetwarzania (kompletne lub jedynie jednostki teksturujące) generują oczywiście dodatkowe obciążenie. śrojektanci akceleratorów od dawna pracują nad różnymi sposobami optymalizacji architektury i zwiększenia wydajności pamięci.

Spore rezerwy drzemią w samej organizacji pamięci, a zwłaszcza wyrafinowanym rozlokowaniu map bitowych. Tekstury układane są często w pozornie nielogicznej formie, która gwarantuje jednak szybszy dostęp do kolejnych tekseli bez konieczności zmiany wiersza. Duże, kwadratowe obszary tekstury składające się z większej liczby logicznych linii złożone są fizycznie w jednym wierszu pamięci. Cykl dostępu ulega znacznemu skróceniu, bowiem pamięć może przejść w tryb pracy Burst, a przygotowanie kolejnego adresu obejmuje jedynie modyfikację kolumny.

śrofesjonalne akceleratory 3D dysponują często lokalną pamięcią pośrednią typu Cache, w której przechowuje się spory fragment aktualnie przetwarzanej mapy bitowej. Duże oszczędności przynosi sam sposób kodowania danych, np. przejście z przestrzeni RGB na YUV. W zależności od wymagań odnośnie jakości można pozwolić sobie na ograniczenie formatu danych; zamiast przeznaczać po jednym bajcie na każdą składową koloru, można przejść do jednego z trybów oszczędnościowych: RGB-5652, RGBA-4444 lub RGBA-5551. śrocesor teksturujący tłumaczy formaty tego typu na swój wewnętrzny format RGBA-8888, w którym dokonuje wszelkich operacji.

Aspekty ekonomiczne zadecydowały, iż akceleratory wcześniejszych generacji wyposażane były w 64-bitową szynę komunikacyjną. śołowa jej szerokości przeznaczana była na komunikację z pamięcią obrazu, a reszta łączyła kontroler z pamięcią tekstur. Układy wyższej klasy posiadały po dwie niezależne magistrale pamięciowe, każda o szerokości 64 bitów.

Warte wspomnienia jest też ciekawe rozwiązanie, umożliwiające bardziej efektywne wykorzystanie pamięci. śrezentowany tu system kompresji tekstur (S3TC) zaproponowany został przez firmę S3 i wprowadzony przez Microsoft do biblioteki DirectX 6.0. Żelazna reguła mówiąca, iż pamięci jest zawsze za mało, obowiązuje naturalnie i w tym względzie. Osiągane efekty wizualne są tym lepsze, im większa jest rozdzielczość map bitowych, którymi posługuje się procesor tekstur. Obiekt teksturowany mapą o rozmiarach 512x512 wydaje się obserwatorowi znacznie bardziej realistyczny, niż gdyby był pokrywany tym samym wzorem, ale o rozdzielczości 64x64. Zapotrzebowanie na pamięć rośnie dodatkowo w systemach posługujących się mapowaniem MIś. Każda z map bitowych przechowywana być musi w kilku lub kilkunastu wstępnie przefiltrowanych rozmiarach.

Właśnie temu stale rosnącemu zapotrzebowaniu na tekstury przychodzi z pomocą s S3TC. Stosowany w nim mechanizm umożliwia osiągnięcie sześciokrotnego v czynnika kompresji (przy założeniu, że produktem wejściowym była mapa bitowa oznaczająca 24 bity na piksel, czyli w formacie RGB-888). Algorytm oferuje 2 m kompresji. W trybie podstawowym przeznaczane są po 4 bity na każdy kodowany 1 W modelu drugim generowany jest strumień wyjściowy o podwójnej szerokości.

Algorytm kompresji nie koduje całej tekstury równocześnie, lecz dzieli ją wstępie bloki o rozmiarach 4x4 i w takich porcjach przetwarza. W obrębie bloku analizowany jest kolor każdego teksela w celu wydzielenia dwóch dominujących kolorów bazowych środuktem wyjściowym mechanizmu kompresji są dwie struktury danych, kodowana (wyjściowa) mapa bitowa oraz paleta kolorów (Texture śalette Lookup).

śrzetworzony blok wejściowy stanowi teraz zestaw indeksów do palety kolorów. 1 jest czterowierszową tablicą zawierającą w sumie cztery kolory, dwa bazowe i dwa p<>

Rodzaje pamięci kart graficznych

Technika podwójnego buforowania (Double Buffering) umożliwia wprawdzie bardziej racjonalne wykorzystanie mocy obliczeniowej akceleratora i wpływa na płynną prezentacje obrazu, ale stanowi też dodatkowe obciążenie dla magistrali pamięciowej (przeplatające się cykle zapisu i odczytu). Szereg naprzemiennych cykli R/W generowany jest w wyniku komunikacji z buforem Z. Dostępu tego typu nie lubią w szczególności pamięci SDRAM i SGRAM, które osiągają swoje szczytowe parametry w długich sekwencyjnych cyklach. Każde przełączenie buforów (Back na Front i odwrotnie) to szereg operacji zapisu, wymuszających zerowanie pamięci obrazu i inicjujących bufor Z wartością +.

Maksymalna przepustowość magistrali ograniczona jest przez przyjętą architekturę (szerokość) oraz typ pamięci. Jest to limit teoretyczny, którego nie da się przekroczyć, a wartości osiągane w praktyce zawsze leżą poniżej. śarametr ten wpływa na ograniczenie stopnia złożoności przedstawianych scen, ilości trójkątów elementarnych, rodzaju efektów świetlnych, sposobu teksturowania, aktywowanych filtrów itp. śodwyższenie dowolnego z tych czynników musi owocować obniżeniem częstotliwości odtwarzania obrazu. Jedyne wyjście z tego impasu oferują (przynajmniej na jakiś czas) nowe i coraz to szybsze typy pamięci, oszczędna nią gospodarka, a często nawet pewne sztuczki ograniczające pasmo przenoszenia.

Do jednej z nich należy tzw. rasteryzacja. Jądro akceleratora 3D przeprowadza obliczenia kolorów z dokładnością do 32 bitów. Aby zredukować szerokość zajmowanego pasma, pis obliczonych wartości (do pamięci graficznej) odbywa się jednak w trybie 16-bitow.

Oszczędności mają naturalnie swoje ujemne strony. Niektóre zabiegi są niestety natomiast wykrywane przez nasz zmysł wzroku. Oko ludzkie wyłapuje przejścia mię kolorami i widzi w tym miejscu nie istniejące w gruncie rzeczy linie podziału (Mc -Banding). W takich krytycznych obszarach procesor musi rozmazywać nieco ol (Dithering), bowiem oko ludzkie jest mniej czułe na barwne szumy niż na wyraźne gra międzykolorowe. Rozmycie linii uzyskuje się poprzez nieregularne domieszki interpolowanych kolorów pośrednich.

śamięci graficzne przeszły dosyć długą drogę rozwojową, a prace nad ich udoskonalaniem trwają nieprzerwanie. Oto krótki przegląd stosowanych dotychczas typów:

DRAM

Elementarna komórka pamięci realizowana jest za pomocą pary złożonej z jednego 1 tranzystora i kondensatora. Komórki zgrupowane są w pola, a dostęp do pojedynczego odbywa się poprzez wybranie adresu wiersza i kolumny. W trybie przyspieszonym I (Fast śage Modę) wystarczy podawać adresy kolumn przy niezmiennym adresie wie, co daje skrócony o połowę czas dostępu w stosunku do pełnego adresowania. DRAM jest prekursorem w grupie pamięci dynamicznych i wywodzi się z czasów pierwszych komputerów śC. Stosowana jest (z małymi modyfikacjami) do dnia dzisiejszego jako pamięć operacyjna, o czym decydują jednak inne kryteria. Ten standardowy pamięci nie jest obecnie w stanie sprostać wymaganiom stawianym przez aplikacje multimedialne.

EDO i BEDO DRAM

Stanowi odmianę pamięci DRAM i udostępnia pasmo nieco powyżej 200 MB/s. śodczas odczytu dane utrzymywane są na wyjściu aż do momentu, gdy pole pamięci gotów* do przekazania następnego słowa. W ten sposób kontroler graficzny może przygotować; się do następnego cyklu odczytu, będąc jeszcze w trakcie przejmowania danych z c poprzedniego. Grupowanie następujących po sobie cykli (śipeline) jest podstawą j w stylu Burst (stąd wywodzi się nazwa Burst EDO, BEDO DRAM). Dopiero ten na czasie umożliwił taktowanie pamięci bez cykli oczekiwania, tzn. każdy cykl z< 4x16 =" 64">

O ile pamięci EDO stosowane były bardzo powszechnie, typ BEDO umarł śmiercią naturalną, nie doczekawszy się powszechnej akceptacji.

SDRAM

Klasyczne układy pamięciowe ORAM wymagają podawania z zewnątrz precyzyjnie uformowanych sygnałów RAS i CAS (Row Address Strobe, Column Address Strobe). śamięci synchroniczne mają własny kontroler, przetwarzający impulsy zegarowe na niezbędne sygnały sterujące (porównaj rozdział 3.)- Zmniejsza to negatywny wpływ wszelkich zjawisk o podłożu falowym i elektromagnetycznym oraz umożliwia podwyższenie prędkości taktowania.

Bloki pamięci SDRAM i SGRAM organizowane są zwykle w banki, które mogą być obsługiwane naprzemiennie (Interlecwe). W ten sposób każdy z nich może znajdować się w innej fazie tej samej operacji (procesy zachodzą na siebie w czasie).

SGRAM

Niestosowana już dziś odmiana synchronicznej pamięci SDRAM, która cechowała się dodatkowym trybem pracy blokowej przy zapisie {Błock Write). śojedyncze układy pamięci miały szerokość 32 bitów, co stanowiło korzystny czynnik przy obsadzie 2-4 MB. Częstotliwość zegara taktującego sięgała 100 MHz.

MDRAM

śamięci Multibank-DRAM należały do grupy synchronicznych układów DRAM. W odróżnieniu od SDRAM i SGRAM, gdzie w trybie burst współpracowały ze sobą najwyżej 2 banki, mamy tu do czynienia z przypadkiem nakładania się na siebie 8 banków. pamięć tego typu wytwarzana była w zasadzie przez jedną tylko firmę (Mosys). Bazowała na logicznych jednostkach pamięci 256 kB, każda po 8 banków 32 kB. Na rynku powszechne były układy 1 MB, integrujące w sobie cztery jednostki pamięci.

Technologia ta umożliwiała (w skali laboratoryjnej) taktowanie zegarem 100-125 MHz, ale rozrzut parametrów i niedoskonałość wykonania elementów w produkcji masowej ograniczał częstotliwość do 85 MHz. Z pamięcią MDRAM współpracował kontroler ET-6000, będący dziełem firmy Tseng.

Fizyczna szerokość magistrali wewnętrznej kontrolera ET-6000 wynosiła w zasadzie 32 bity, ale jej organizacja była dosyć nietypowa. Sterownik wymieniał dane z pamięcią przez jeden z dwóch portów o szerokości 16 bitów. Każdy z nich wyprowadzał multipleksowaną szynę komunikacyjną, którą przesyłane były adresy i dane. Szyny taktowano sygnałem zegarowym pamięci (ok. 100 MHz), a przesyłanie odbywało się zarówno podczas narastającego, jak i opadającego zbocza impulsu zegara (DDR). Szczytowa przepustowość takiej szyny osiągała, więc wartość około 400 MB/s (w przeliczeniu na jeden układ MDRAM). Pamięć MDRAM, podobnie jak wiele innych rozwiązań, przeszła już do historii.

V-RAM

Specjalny typ pamięci opracowany przez firmę Texas Instruments. Skrót V-RAM (Video--RAM) nie oddaje w pełni istoty sprawy. Z punktu widzenia kontrolera graficznego układy pamięci V-RAM zachowują się jak normalne pamięci DRAM. Osiągane r>asmo przenoszenia przy zapisie magistralą 64-bitową nie przekraczało 200 MB/s. Ich szczególną był niezależny port wyjściowy prowadzący do przetwornika RAIV Transfer na tym odcinku osiągał 360 MB/s, a kontroler nie musiał tracić cykli zegara na wytworzenie sygnału dla monitora. Nie występowało tu, charakterystyczne dla kich innych typów pamięci, zjawisko stopniowego blokowania ograniczonego p pasma przepustowego magistrali w miarę wzrostu rozdzielczości i ilości odtwarzanych kolorów.

Można, więc było zachować wysoką (lub, co najmniej ergonomiczną) częste odświeżania ekranu przy pracy w trybach o wysokiej rozdzielczości rzędu 1600x Wbrew powszechnie panującej opinii, pobór danych z portu wyjściowego nie był całkowicie niezależny od cykli zapisu. Odczyt pamięci V-RAM przebiega według następującego algorytmu:

Cykl inicjowany jest przez kontroler, który adresuje punkt początkowy żądanej obszaru.Układ V-RAM wyprowadza automatycznie bit po bicie zawartość kolejnych komórek tego obszaru do specjalnego rejestru przesuwnego. Będące do dyspozycji w powyższym rejestrze dane mogą być pobierane przez przetwornik RAM-DAC.Do wyczerpania zawartości rejestru pamięć może być zapisywana. W tym sens możliwy jest jednoczesny zapis i odczyt. śamięci V-RAM obciążone były opłatami licencyjnymi na rzecz firmy Texas Instrument, przez co stały się zbyt drogie dla rynku powszechnego konsumenta.

WRAM

Window RAM stanowił wariant V-RAM, poszerzony o pewne dodatkowo analizowane sprzętowo funkcje blokowe (Aligned Move i Fill). Układy tego typu v rżane były wyłącznie przez firmę Samsung i montowane na wczesnych wersjach (Millenium-1) firmy Matrox.

DDR-SDRAM

Większość współczesnych kart graficznych wyższej klasy wyposażona jest w p DDR-SDRAM (Double Ratę SDRAM), której przewaga nad zwykłymi pamięciach chronicznymi leży w głównie w szerokości pasma dostępu -- w jednym cyklu impulsu zegarowego mają miejsce dwa transfery (jeden dla opadającego, a drugi dla narasta zbocza zegara).

źródło

Do stworzenia tego bloga wykorzystałem informacje i zdjęcia zamieszczone na następujących stronach:
http://klub.chip.pl/lipka/budowa_komputera.htm
http://dlamnieciekawe2.blox.pl/html
http://www.magazynyinternetowe.pl
http://www.wikipedia.pl