Dlaczego informację nazywa się zakodowaną? Kodowanie informacji w komputerze. Standardy kodowania dźwięku

3. Kodowanie informacji graficznej4

4. Kodowanie informacji audio8

5. Wniosek 10

Referencje11

Wstęp

Nowoczesny komputer może przetwarzać informacje liczbowe, tekstowe, graficzne, dźwiękowe i wideo. Wszystkie tego typu informacje w komputerze są prezentowane w kodzie binarnym, to znaczy używany jest alfabet potęgi dwa (tylko dwa znaki 0 ​​i 1). Wynika to z faktu, że wygodnie jest przedstawić informację w postaci ciągu impulsów elektrycznych: nie ma impulsu (0), jest impuls (1). Takie kodowanie nazywa się zwykle binarnym, a same logiczne ciągi zer i jedynek nazywane są językiem maszynowym. Każda cyfra kodu binarnego maszyny niesie ze sobą ilość informacji równą jednemu bitowi. Do takiego wniosku można dojść, uznając liczby alfabetu maszynowego za zdarzenia równie prawdopodobne. Zapisując cyfrę binarną, można wybrać tylko jeden z dwóch możliwych stanów, co oznacza, że ​​niesie ona ilość informacji równą 1 bitowi. Zatem dwie cyfry niosą 2 bity informacji, cztery cyfry 4 bity itd. Aby określić ilość informacji w bitach, wystarczy określić liczbę cyfr w binarnym kodzie maszynowym.

Kodowanie informacji tekstowych

Obecnie większość użytkowników wykorzystuje komputer do przetwarzania informacji tekstowych, na które składają się symbole: litery, cyfry, znaki interpunkcyjne itp.

Tradycyjnie do zakodowania jednego znaku wykorzystuje się ilość informacji równą 1 bajtowi, czyli I = 1 bajt = 8 bitów. Korzystając ze wzoru łączącego liczbę możliwych zdarzeń K i ilość informacji I, można obliczyć, ile różnych symboli można zakodować (przy założeniu, że symbole są możliwymi zdarzeniami): K = 2I = 28 = 256, czyli do reprezentacji informacji tekstowej , możesz użyć alfabetu o długości 256 znaków.

Istota kodowania polega na tym, że każdemu znakowi przypisany jest kod binarny od 00000000 do 11111111 lub odpowiadający mu kod dziesiętny od 0 do 255.

Obecnie do kodowania rosyjskich liter wykorzystuje się pięć różnych tablic kodów (KOI - 8, CP1251, CP866, Mac, ISO), a teksty zakodowane przy użyciu jednej tabeli nie będą poprawnie wyświetlane w innym kodowaniu. Można to wizualnie przedstawić jako fragment połączonej tabeli kodowania znaków. Do tego samego kodu binarnego przypisane są różne symbole.

Kod binarny

Kod dziesiętny

Jednak w większości przypadków transkodowaniem dokumentów tekstowych zajmuje się użytkownik, a specjalne programy to konwertery wbudowane w aplikacje. Od 1997 r. najnowsze wersje systemu Microsoft Windows i pakietu Office obsługują nowe kodowanie Unicode, które przydziela 2 bajty na każdy znak, dzięki czemu można zakodować nie 256 znaków, ale 65536 różnych znaków.

Aby określić kod numeryczny znaku, możesz użyć tabeli kodów lub pracując w edytorze tekstu Word 6.0 / 95. Aby to zrobić, wybierz z menu „Wstaw” - „Symbol”, po czym pojawi się okno dialogowe Symbol na ekranie pojawi się panel. W oknie dialogowym pojawi się tabela znaków dla wybranej czcionki. Znaki w tej tabeli ułożone są linia po linii, kolejno od lewej do prawej, zaczynając od symbolu spacji (lewy górny róg), a kończąc na literze „I” (prawy dolny róg).

Aby określić kod numeryczny znaku w kodowaniu Windows (CP1251), należy użyć myszy lub klawiszy kursora, aby wybrać żądany znak, a następnie kliknąć przycisk Klucz. Następnie na ekranie pojawia się okno dialogowe Ustawienia, które w lewym dolnym rogu zawiera dziesiętny kod numeryczny wybranego znaku.

Kodowanie informacji graficznych

Informacje graficzne mogą być prezentowane w dwóch postaciach: analogowej lub dyskretnej. Przykładem przedstawienia analogowego jest obraz, którego kolor zmienia się w sposób ciągły, natomiast obraz wydrukowany na drukarce atramentowej i składający się z pojedynczych punktów o różnych kolorach jest przedstawieniem dyskretnym. Dzieląc obraz graficzny (próbkowanie), informacja graficzna jest konwertowana z postaci analogowej do postaci dyskretnej. W tym przypadku następuje kodowanie – przypisanie każdemu elementowi określonej wartości w postaci kodu. Podczas kodowania obrazu jest on dyskretyzowany przestrzennie. Można to porównać do konstruowania obrazu z dużej liczby małych kolorowych fragmentów (metoda mozaikowa). Cały obraz podzielony jest na osobne punkty, każdemu elementowi przypisany jest kod koloru.

W tym przypadku jakość kodowania będzie zależała od następujących parametrów: wielkości punktu i ilości użytych kolorów. Im mniejszy rozmiar kropki, co oznacza, że ​​obraz składa się z większej liczby kropek, tym wyższa jest jakość kodowania. Im więcej kolorów jest używanych (tj. punkt obrazu może przyjmować więcej możliwych stanów), tym więcej informacji niesie każdy punkt, a zatem wzrasta jakość kodowania. Tworzenie i przechowywanie obiektów graficznych możliwe jest w kilku rodzajach – w postaci obrazu wektorowego, fraktalnego lub rastrowego. Osobną tematyką jest grafika 3D (trójwymiarowa), która łączy w sobie wektorową i rastrową metodę tworzenia obrazu. Zajmuje się badaniem metod i technik konstruowania trójwymiarowych modeli obiektów w przestrzeni wirtualnej. Każdy typ wykorzystuje własną metodę kodowania informacji graficznych.

Obraz rastrowy. Za pomocą lupy można zobaczyć, że czarno-biały obraz graficzny, np. z gazety, składa się z maleńkich kropek, które tworzą pewien wzór - raster. We Francji w XIX wieku powstał nowy kierunek w malarstwie - pointylizm. Jego technika polegała na nanoszeniu pędzlem rysunku w postaci wielobarwnych kropek. Metodę tę od dawna stosuje się także w druku do kodowania informacji graficznych. Dokładność rysunku zależy od liczby kropek i ich wielkości. Po podzieleniu rysunku na kropki, zaczynając od lewego rogu, przesuwając się po liniach od lewej do prawej, można zakodować kolor każdej kropki. W dalszej części jeden taki punkt nazwiemy pikselem (pochodzenie tego słowa wiąże się z angielskim skrótem „element obrazu”). Objętość obrazu rastrowego określa się poprzez pomnożenie liczby pikseli (przez objętość informacyjną jednego punktu, która zależy od liczby możliwych kolorów. O jakości obrazu decyduje rozdzielczość monitora. Im jest ona większa, tym oznacza, że ​​im większa liczba linii rastrowych i punktów w linii, tym wyższa jakość obrazu.W nowoczesnych komputerach stacjonarnych zazwyczaj stosuje się następujące rozdzielczości ekranu: 640 na 480, 800 na 600, 1024 na 768 i 1280 na 1024. Ponieważ jasność każdy punkt i jego współrzędne liniowe można wyrazić za pomocą liczb całkowitych, można powiedzieć, że ta metoda kodowania pozwala na wykorzystanie kodu binarnego do przetwarzania danych graficznych.

Jeśli mówimy o ilustracjach czarno-białych, to jeśli nie zastosujemy półtonów, piksel przyjmie jeden z dwóch stanów: świecący (biały) i nieświecący (czarny). A ponieważ informacja o kolorze piksela nazywa się kodem piksela, wystarczy jeden bit pamięci, aby ją zakodować: 0 - czarny, 1 - biały. Jeśli rozpatrywać ilustracje w postaci kombinacji kropek o 256 odcieniach szarości (a takie są obecnie powszechnie przyjęte), to do zakodowania jasności dowolnej kropki wystarczy ośmiobitowa liczba binarna. Kolor jest niezwykle ważny w grafice komputerowej. Służy wzmocnieniu wrażenia wizualnego i zwiększeniu bogactwa informacyjnego obrazu. Jak powstaje poczucie koloru w ludzkim mózgu? Dzieje się tak w wyniku analizy strumienia światła wpadającego do siatkówki z obiektów odbijających lub emitujących.

Modele kolorów. Jeśli mówimy o kodowaniu kolorowych obrazów graficznych, musimy wziąć pod uwagę zasadę rozkładu dowolnego koloru na jego główne składniki. Stosowanych jest kilka systemów kodowania: HSB, RGB i CMYK. Pierwszy model kolorów jest prosty i intuicyjny, czyli wygodny dla człowieka, drugi najwygodniejszy dla komputerów, a ostatni model CMYK przeznaczony jest dla drukarni. Zastosowanie tych modeli barw wynika z faktu, że strumień świetlny może powstać w wyniku promieniowania będącego kombinacją „czystych” barw widmowych: czerwonego, zielonego, niebieskiego lub ich pochodnych. Wyróżnia się addytywne odwzorowanie kolorów (typowe dla obiektów emitujących światło) i subtraktywne odwzorowanie kolorów (typowe dla obiektów odbijających światło). Przykładem obiektu pierwszego typu jest lampa elektronopromieniowa monitora, a obiektem drugiego typu jest odbitka drukowa.

1) Model HSB charakteryzuje się trzema składnikami: odcieniem koloru (Hue), nasyceniem koloru (Nasycenie) i jasnością koloru (Jasność).

2) Zasada metody RGB jest następująca: wiadomo, że dowolny kolor można przedstawić jako kombinację trzech kolorów: czerwonego (czerwony, R), zielonego (zielony, G), niebieskiego (niebieski, B). Inne kolory i ich odcienie uzyskuje się w wyniku obecności lub braku tych składników.

3) Zasada metody CMYK. Ten model barwny stosowany jest podczas przygotowywania publikacji do druku. Każdy z kolorów podstawowych jest powiązany z kolorem dodatkowym (uzupełniającym kolor główny do białego). Dodatkowy kolor uzyskuje się poprzez zsumowanie pary innych kolorów podstawowych.

Istnieje kilka trybów prezentacji kolorowej grafiki: pełny kolor (True Color); Wysoki kolor; indeks.

W trybie pełnokolorowym do zakodowania jasności każdego składnika wykorzystuje się 256 wartości (osiem bitów binarnych), czyli na zakodowanie koloru jednego piksela (w systemie RGB) należy przeznaczyć 8 * 3 = 24 bity . Pozwala to na jednoznaczną identyfikację 16,5 miliona kolorów. Jest to bardzo zbliżone do czułości ludzkiego oka. Przy kodowaniu w systemie CMYK, aby przedstawić grafikę kolorową potrzebne jest 8*4=32 bity binarne. Tryb High Color koduje przy użyciu 16-bitowych liczb binarnych, co oznacza, że ​​liczba cyfr binarnych jest zmniejszana podczas kodowania każdego punktu. Ale to znacznie zmniejsza zakres kodowanych kolorów. Dzięki kodowaniu kolorów indeksowych można przesłać tylko 256 odcieni kolorów. Każdy kolor jest kodowany przy użyciu ośmiu bitów danych. Ponieważ jednak 256 wartości nie przekazuje całej gamy kolorów dostępnych dla ludzkiego oka, przyjmuje się, że do danych graficznych dołączona jest paleta (tabela przeglądowa), bez której reprodukcja będzie niewystarczająca: morze może się okazać być czerwony, a liście mogą okazać się niebieskie. Sam kod punktu rastrowego w tym przypadku nie oznacza samego koloru, a jedynie jego numer (indeks) w palecie. Stąd nazwa trybu – indeks.

Zgodność pomiędzy liczbą wyświetlanych kolorów (K) a liczbą bitów do ich kodowania (a) można znaleźć ze wzoru: K = 2 a.

Wystarczający do…

Rysunki w rodzaju kreskówek, ale niewystarczające do przedstawiania dzikiej przyrody

Obrazy, które są na zdjęciach w magazynach i na fotografiach

224 = 16 777 216

Przetwarzanie i przesyłanie obrazów nie gorszej jakości od tych obserwowanych w naturze

Kod binarny obrazu wyświetlanego na ekranie jest przechowywany w pamięci wideo. Pamięć wideo jest elektronicznym, ulotnym urządzeniem magazynującym. Rozmiar pamięci wideo zależy od rozdzielczości wyświetlacza i liczby kolorów. Ale jego minimalna objętość jest ustalana tak, aby zmieściła się jedna ramka (jedna strona) obrazu, tj. jako wynik iloczynu rozdzielczości i rozmiaru kodu w pikselach.

Vmin = M * N * a.

Kod binarny palety ośmiu kolorów.

Składniki koloru

Czerwony 1 0 0

Zielony 0 1 0

Niebieski 0 0 1

Niebieski 0 1 1

Fioletowy 1 0 1

Żółty 1 1 0

Biały 1 1 1

Czarny 0 0 0

Szesnastokolorowa paleta pozwala na zwiększenie ilości zastosowanych barw. Tutaj użyjemy 4-bitowego kodowania pikseli: 3 bity kolorów podstawowych + 1 bit intensywności. Ten ostatni kontroluje jasność trzech podstawowych kolorów jednocześnie (natężenie trzech wiązek elektronów). Oddzielna kontrola intensywności kolorów podstawowych zwiększa liczbę wytwarzanych kolorów. Zatem, aby otrzymać paletę o głębi kolorów wynoszącej 24 bity, na każdy kolor przydziela się 8 bitów, czyli możliwych jest 256 poziomów intensywności (K = 28).

Obraz wektorowy to obiekt graficzny składający się z elementarnych segmentów i łuków. Podstawowym elementem obrazowania jest linia. Jak każdy obiekt ma właściwości: kształt (prosty, zakrzywiony), grubość, kolor, styl (kropkowany, pełny). Linie zamknięte mają właściwość wypełniania (albo innymi obiektami, albo wybranym kolorem). Wszystkie pozostałe obiekty grafiki wektorowej składają się z linii. Ponieważ linia jest opisana matematycznie jako pojedynczy obiekt, ilość danych potrzebnych do wyświetlenia obiektu w grafice wektorowej jest znacznie mniejsza niż w grafice rastrowej. Informacje o obrazie wektorowym są kodowane w postaci zwykłych znaków alfanumerycznych i przetwarzane przez specjalne programy.

Do narzędzi programowych do tworzenia i przetwarzania grafiki wektorowej zaliczają się GR: CorelDraw, Adobe Illustrator, a także wektoryzatory (tracery) - specjalistyczne pakiety służące do konwersji obrazów rastrowych na wektory.

Grafika fraktalna, podobnie jak grafika wektorowa, opiera się na obliczeniach matematycznych. Jednak w przeciwieństwie do wektora, jego podstawowym elementem jest sam wzór matematyczny. Prowadzi to do tego, że w pamięci komputera nie są przechowywane żadne obiekty, a obraz konstruowany jest wyłącznie za pomocą równań. Za pomocą tej metody można budować najprostsze regularne konstrukcje, a także złożone ilustracje imitujące krajobrazy.

Kodowanie informacji audio

Komputery są obecnie szeroko stosowane w różnych dziedzinach. Przetwarzanie informacji dźwiękowych i muzyki nie było wyjątkiem. Do 1983 roku wszystkie nagrania muzyczne ukazywały się na płytach winylowych i kasetach kompaktowych. Obecnie płyty CD są szeroko stosowane. Jeśli posiadasz komputer z zainstalowaną studyjną kartą dźwiękową, do której podłączona jest klawiatura MIDI i mikrofon, możesz pracować ze specjalistycznym oprogramowaniem muzycznym. Konwencjonalnie można go podzielić na kilka typów: 1) wszelkiego rodzaju narzędzia i sterowniki przeznaczone do współpracy z określonymi kartami dźwiękowymi i urządzeniami zewnętrznymi; 2) edytory audio, które są przeznaczone do pracy z plikami dźwiękowymi, umożliwiają wykonywanie na nich dowolnych operacji - od dzielenia ich na części po obróbkę z efektami; 3) syntezatory programowe, które pojawiły się stosunkowo niedawno i działają poprawnie tylko na wydajnych komputerach. Pozwalają eksperymentować z tworzeniem różnych dźwięków; i inni.

Pierwsza grupa obejmuje wszystkie narzędzia systemu operacyjnego. Na przykład win 95 i 98 mają własne programy mikserskie i narzędzia do odtwarzania/nagrywania dźwięku, odtwarzania płyt CD i standardowych plików MIDI. Po zainstalowaniu karty dźwiękowej możesz skorzystać z tych programów, aby sprawdzić jej działanie. Na przykład program Phonograph jest przeznaczony do pracy z plikami Wave (plikami nagrań dźwiękowych w formacie Windows). Pliki te mają rozszerzenie .WAV. Program ten umożliwia odtwarzanie, nagrywanie i edycję nagrań dźwiękowych przy użyciu technik podobnych do tych stosowanych w magnetofonie. W celu współpracy z gramofonem zaleca się podłączenie mikrofonu do komputera. Jeśli chcesz nagrać dźwięk, musisz zdecydować o jakości dźwięku, ponieważ od tego zależy czas trwania nagrania dźwiękowego. Im wyższa jakość nagrania, tym krótszy możliwy czas trwania dźwięku. Przy średniej jakości nagrywania można zadowalająco nagrać mowę, tworząc pliki o długości do 60 sekund. Czas trwania nagrania o jakości muzycznej płyty CD wynosi około 6 sekund.

Aby zapisać dźwięk na dowolnym nośniku, należy go przekształcić na sygnał elektryczny. Odbywa się to za pomocą mikrofonu. Najprostsze mikrofony mają membranę, która wibruje pod wpływem fal dźwiękowych. Do membrany przymocowana jest cewka, która porusza się synchronicznie z membraną w polu magnetycznym. W cewce występuje przemienny prąd elektryczny. Zmiany napięcia dokładnie odzwierciedlają fale dźwiękowe. Zmienny prąd elektryczny pojawiający się na wyjściu mikrofonu nazywany jest sygnałem analogowym. W odniesieniu do sygnału elektrycznego określenie „analogowy” oznacza, że ​​sygnał jest ciągły w czasie i amplitudzie. Dokładnie odzwierciedla kształt fali dźwiękowej przemieszczającej się w powietrzu.

Informacje audio mogą być reprezentowane w formie dyskretnej lub analogowej. Różnica polega na tym, że przy dyskretnej reprezentacji informacji wielkość fizyczna zmienia się gwałtownie („drabina”), przyjmując skończony zbiór wartości. Jeśli informacja jest przedstawiona w formie analogowej, wówczas wielkość fizyczna może przyjmować nieskończoną liczbę wartości, które stale się zmieniają.

Przyjrzyjmy się pokrótce procesom konwersji dźwięku z sygnału analogowego na cyfrowy i odwrotnie. Mając ogólne pojęcie o tym, co dzieje się na Twojej karcie dźwiękowej, możesz uniknąć pewnych błędów podczas pracy z dźwiękiem. Fale dźwiękowe są przekształcane na analogowy przemienny sygnał elektryczny za pomocą mikrofonu. Przechodzi przez tor audio i trafia do przetwornika analogowo-cyfrowego (ADC), czyli urządzenia przetwarzającego sygnał na postać cyfrową. W uproszczeniu zasada działania przetwornika ADC jest następująca: mierzy on amplitudę sygnału w określonych odstępach czasu i przekazuje dalej drogą cyfrową ciąg liczb niosących informację o zmianach amplitudy. Dźwięk cyfrowy wyprowadzany jest za pomocą przetwornika cyfrowo-analogowego (DAC), który na podstawie przychodzących danych cyfrowych generuje w odpowiednich momentach sygnał elektryczny o wymaganej amplitudzie.

Jeśli wykreślisz ten sam dźwięk przy 1 kHz (nuta do siódmej oktawy fortepianu mniej więcej odpowiada tej częstotliwości), ale próbkujesz go przy różnych częstotliwościach (nie na wszystkich wykresach widać dół fali sinusoidalnej), wówczas różnice będzie widoczne. Jedna działka na osi poziomej, która pokazuje czas, odpowiada 10 próbkom. Skala jest stosowana w ten sam sposób (patrz załącznik Rysunek 1.13). Można zobaczyć, że przy 11 kHz występuje w przybliżeniu pięć oscylacji fali dźwiękowej na każde 50 próbek, co oznacza, że ​​jeden okres fali sinusoidalnej jest reprezentowany przez zaledwie 10 wartości. Jest to dość niedokładne odwzorowanie. Jednocześnie, jeśli weźmiemy pod uwagę częstotliwość digitalizacji 44 kHz, to dla każdego okresu sinusoidy przypada już prawie 50 próbek. Pozwala to uzyskać sygnał dobrej jakości.

Głębia bitowa wskazuje dokładność, z jaką zachodzą zmiany amplitudy sygnału analogowego. Dokładność, z jaką wartość amplitudy sygnału w każdej chwili jest przesyłana podczas digitalizacji, określa jakość sygnału po konwersji cyfrowo-analogowej. Wiarygodność rekonstrukcji przebiegu zależy od głębokości bitowej.

Aby zakodować wartość amplitudy, stosuje się zasadę kodowania binarnego. Sygnał dźwiękowy musi być przedstawiony jako ciąg impulsów elektrycznych (binarne zera i jedyneki). Zazwyczaj używane są 8, 16-bitowe lub 20-bitowe reprezentacje wartości amplitudy. Podczas kodowania binarnego ciągłego sygnału audio jest on zastępowany sekwencją dyskretnych poziomów sygnału. Jakość kodowania zależy od częstotliwości próbkowania (liczby pomiarów poziomu sygnału w jednostce czasu). Wraz ze wzrostem częstotliwości próbkowania wzrasta dokładność binarnej reprezentacji informacji. Przy częstotliwości 8 kHz (liczba próbek na sekundę 8000) jakość próbkowanego sygnału audio odpowiada jakości audycji radiowej, a przy częstotliwości 48 kHz (liczba próbek na sekundę 48000) - jakość dźwięku płyty audio.

Jeśli użyjesz kodowania 8-bitowego, możesz osiągnąć dokładność amplitudy sygnału analogowego do 1/256 zakresu dynamiki urządzenia cyfrowego (28 = 256).

Jeśli użyjesz kodowania 16-bitowego do przedstawienia wartości amplitudy sygnału audio, dokładność pomiaru wzrośnie 256 razy.

Nowoczesne konwertery zazwyczaj wykorzystują 20-bitowe kodowanie sygnału, co pozwala na cyfryzację dźwięku wysokiej jakości.

Wniosek

Kod to zbiór konwencji (lub sygnałów) służących do zapisywania (lub przekazywania) pewnych predefiniowanych koncepcji.

Kodowanie informacji to proces tworzenia określonej reprezentacji informacji. W węższym znaczeniu termin „kodowanie” jest często rozumiany jako przejście od jednej formy reprezentacji informacji do innej, wygodniejszej do przechowywania, przesyłania czy przetwarzania.

Zwykle podczas kodowania każdy obraz jest reprezentowany przez oddzielny znak. Znak jest elementem skończonego zbioru elementów odrębnych od siebie. Znak wraz z jego znaczeniem nazywany jest symbolem. Długość kodu to liczba znaków używanych do kodowania.

Kod może mieć stałą lub niestałą długość. Aby przedstawić informacje w pamięci komputera, stosuje się metodę kodowania binarnego.

Elementarna komórka pamięci komputera ma długość 8 bitów. Każdy bajt ma swój własny numer. Największa sekwencja bitów, jaką komputer może przetworzyć jako pojedynczą jednostkę, nazywana jest słowem maszynowym. Długość słowa maszynowego zależy od głębokości bitowej procesora i może wynosić 16, 32 bity itd. Innym sposobem reprezentowania liczb całkowitych jest użycie kodu uzupełnienia do dwóch. Zakres wartości wartości zależy od liczby bitów pamięci przydzielonych do ich przechowywania. Kod uzupełniający liczby dodatniej jest taki sam, jak jej kod bezpośredni.

Bibliografia

1.Informatyka i technologie informacyjne. wyd. Yu.D. Romanova, wydanie 3, M.: EKSMO, 2008

2. Kostrov B.V. Podstawy cyfrowej transmisji i kodowania informacji. - TechBook, 2007, 192 strony.

3. Makarova N.V. „Informatyka”: Podręcznik. - M.: Finanse i Statystyka, 2005 - 768 s.

4. Stepanenko O. S. Komputer osobisty. Podręcznik do samodzielnej nauki Dialektyka. 2005, 28 s.

Zakodowanie informacji tekstowej w komputerze jest czasem niezbędnym warunkiem prawidłowego działania urządzenia lub wyświetlenia określonego fragmentu. Jak zachodzi ten proces podczas działania komputera z informacjami tekstowymi i wizualnymi, dźwiękiem - wszystko to przeanalizujemy w tym artykule.

Wstęp

Komputer elektroniczny (który na co dzień nazywamy komputerem) odbiera tekst w bardzo specyficzny sposób. Dla niej kodowanie informacji tekstowej jest bardzo ważne, ponieważ każdy fragment tekstu postrzega jako grupę odizolowanych od siebie symboli.

Jakie są symbole?

Nie tylko litery rosyjskie, angielskie i inne służą jako symbole komputera, ale także znaki interpunkcyjne i inne znaki. Nawet przestrzeń, której używamy do oddzielania słów podczas pisania na komputerze, jest postrzegana przez urządzenie jako symbol. Pod pewnymi względami bardzo przypomina wyższą matematykę, bo tam, zdaniem wielu profesorów, zero ma podwójne znaczenie: jest jednocześnie liczbą i jednocześnie nic nie znaczy. Nawet dla filozofów kwestia białej przestrzeni może być palącym problemem. Żart oczywiście, ale jak to mówią, w każdym żarcie jest trochę prawdy.

Jakiego rodzaju informacje się tam znajdują?

Aby więc dostrzec informację, komputer musi rozpocząć procesy przetwarzania. Jakie w ogóle są tam informacje? Tematem artykułu jest kodowanie informacji tekstowej. Zwrócimy szczególną uwagę na to zadanie, ale zajmiemy się także innymi mikrotematykami.

Informacje mogą mieć formę tekstową, numeryczną, dźwiękową lub graficzną. Na komputerze muszą działać procesy kodujące informację tekstową, aby wyświetlić na ekranie to, co na przykład wpiszemy na klawiaturze. Zobaczymy symbole i litery, jest to zrozumiałe. Co widzi maszyna? Absolutnie każdą informację – i nie mówimy tu tylko o tekście – postrzega jako pewien ciąg zer i jedynek. Stanowią one podstawę tzw. kodu binarnego. W związku z tym proces przekształcania informacji otrzymanych przez urządzenie w coś, co może zrozumieć, nazywa się „binarnym kodowaniem informacji tekstowych”.

Krótka zasada działania kodu binarnego

Dlaczego binarne kodowanie informacji jest najbardziej rozpowszechnione w maszynach elektronicznych? Podstawą tekstu, zakodowaną za pomocą zer i jedynek, może być absolutnie dowolny ciąg symboli i znaków. Jednak nie jest to jedyna zaleta binarnego kodowania informacji. Rzecz w tym, że zasada, na której opiera się ta metoda kodowania, jest bardzo prosta, ale jednocześnie całkiem funkcjonalna. Kiedy pojawia się impuls elektryczny, jest on oznaczony (oczywiście warunkowo) jednostką. Brak impulsu - oznaczony zerem. Oznacza to, że tekstowe kodowanie informacji opiera się na zasadzie konstruowania sekwencji impulsów elektrycznych. Ciąg logiczny złożony z symboli kodu binarnego nazywany jest językiem maszynowym. Jednocześnie kodowanie i przetwarzanie informacji tekstowych za pomocą kodu binarnego pozwala na wykonanie operacji w dość krótkim czasie.

Bity i bajty

Liczba odbierana przez maszynę zawiera pewną ilość informacji. Jest równy jednemu bitowi. Dotyczy to każdej jedynki i zera tworzącego taki lub inny ciąg zaszyfrowanych informacji.

W związku z tym ilość informacji w każdym przypadku można określić po prostu znając liczbę znaków w sekwencji kodu binarnego. Będą sobie równe liczbowo. 2 cyfry w kodzie niosą ze sobą 2 bity informacji, 10 cyfr – 10 bitów i tak dalej. Jak widać, zasada określania objętości informacji zawartej w konkretnym fragmencie kodu binarnego jest dość prosta.

Kodowanie informacji tekstowych w komputerze

W tej chwili czytasz artykuł, który składa się, jak wierzymy, z sekwencji liter rosyjskiego alfabetu. A komputer, jak wspomniano wcześniej, postrzega wszystkie informacje (i w tym przypadku także) jako ciąg nie liter, ale zer i jedynek, wskazujących na brak i obecność impulsu elektrycznego.

Rzecz w tym, że jeden znak, który widzimy na ekranie, można zakodować za pomocą konwencjonalnej jednostki miary zwanej bajtem. Jak napisano powyżej, kod binarny ma tak zwany ładunek informacyjny. Przypomnijmy, że liczbowo jest ona równa całkowitej liczbie zer i jedynek w wybranym fragmencie kodu. Zatem 8 bitów tworzy 1 bajt. Kombinacje sygnałów mogą być bardzo różne, co można łatwo zobaczyć rysując na papierze prostokąt składający się z 8 komórek jednakowej wielkości.

Okazuje się, że informacje tekstowe można zakodować za pomocą alfabetu o pojemności 256 znaków. Jaki jest sens? Znaczenie polega na tym, że każdy znak będzie miał swój własny kod binarny. Kombinacje „powiązane” z niektórymi znakami zaczynają się od 00000000 i kończą na 11111111. Jeśli przejdziesz z systemu liczb dwójkowych do dziesiętnego, możesz zakodować informacje w takim systemie od 0 do 255.

Nie zapominaj, że teraz istnieją różne tabele, które wykorzystują kodowanie liter alfabetu rosyjskiego. Są to np. ISO i KOI-8, Mac i CP w dwóch odmianach: 1251 i 866. Łatwo mieć pewność, że tekst zakodowany w jednej z tych tabel nie będzie poprawnie wyświetlany w innym kodowaniu niż to. Wynika to z faktu, że w różnych tabelach różne symbole odpowiadają temu samemu kodowi binarnemu.

Na początku był to problem. Jednak obecnie programy mają już wbudowane specjalne algorytmy, które konwertują tekst, doprowadzając go do właściwej formy. Rok 1997 upłynął pod znakiem stworzenia kodowania o nazwie Unicode. W nim każdy znak ma do dyspozycji 2 bajty. Pozwala to na kodowanie tekstu o znacznie większej liczbie znaków. 256 i 65536: czy jest różnica?

Kodowanie grafiki

Kodowanie informacji tekstowych i graficznych ma pewne podobieństwa. Jak wiadomo, do wyświetlania informacji graficznych służy komputerowe urządzenie peryferyjne zwane „monitorem”. Grafika obecnie (mówimy teraz o grafice komputerowej) jest szeroko stosowana w różnych dziedzinach. Na szczęście możliwości sprzętowe komputerów osobistych umożliwiają rozwiązywanie dość złożonych problemów graficznych.

Przetwarzanie informacji wideo stało się możliwe w ostatnich latach. Ale tekst jest znacznie „lżejszy” niż grafika, co w zasadzie jest zrozumiałe. Z tego powodu należy zwiększyć ostateczny rozmiar plików graficznych. Problemy te można przezwyciężyć, znając istotę prezentacji informacji graficznych.

Najpierw zastanówmy się, na jakie grupy podzielony jest ten typ informacji. Po pierwsze, jest rastrowy. Po drugie, wektor.

Obrazy rastrowe przypominają papier w kratkę. Każda komórka na takim papierze jest pomalowana tym czy innym kolorem. Zasada ta przypomina nieco mozaikę. Oznacza to, że w grafice rastrowej obraz jest podzielony na osobne części elementarne. Nazywa się je pikselami. W tłumaczeniu na język rosyjski piksele oznaczają „kropki”. Logiczne jest, że piksele są uporządkowane względem linii. Siatka graficzna składa się z określonej liczby pikseli. Nazywa się to również rasterem. Biorąc pod uwagę te dwie definicje, można powiedzieć, że obraz rastrowy to nic innego jak zbiór pikseli wyświetlanych na prostokątnej siatce.

Monitoruj rozmiar rastra i piksela, wpływając na jakość obrazu. Im większy raster monitora, tym będzie on wyższy. Rozmiary rastrów to rozdzielczość ekranu, o której zapewne słyszał każdy użytkownik. Jedną z najważniejszych cech ekranów komputerowych jest rozdzielczość, a nie tylko rozdzielczość. Pokazuje, ile pikseli przypada na jednostkę długości. Zazwyczaj rozdzielczość monitora jest mierzona w pikselach na cal. Im więcej pikseli na jednostkę długości, tym wyższa będzie jakość, ponieważ „ziarno” jest zmniejszone.

Przetwarzanie strumienia audio

Kodowanie informacji tekstowych i dźwiękowych, podobnie jak inne rodzaje kodowania, ma pewne cechy. Porozmawiamy teraz o ostatnim procesie: kodowaniu informacji audio.

Reprezentację strumienia audio (jak również pojedynczego dźwięku) można utworzyć dwoma metodami.

Analogowa forma reprezentacji informacji audio

W tym przypadku ilość może przyjmować naprawdę ogromną liczbę różnych wartości. Co więcej, te same wartości nie pozostają stałe: zmieniają się bardzo szybko, a proces ten jest ciągły.

Dyskretna forma reprezentacji informacji audio

Jeśli mówimy o metodzie dyskretnej, to w tym przypadku ilość może przyjmować tylko ograniczoną liczbę wartości. W tym przypadku zmiana następuje spazmatycznie. Można dyskretnie kodować nie tylko informacje dźwiękowe, ale także graficzne. Nawiasem mówiąc, jeśli chodzi o formę analogową.

Analogowe informacje audio są przechowywane na przykład na płytach winylowych. Ale płyta CD jest już dyskretnym sposobem prezentacji informacji audio.

Na samym początku rozmawialiśmy o tym, że komputer odbiera wszystkie informacje w języku maszynowym. Aby to zrobić, informacja jest kodowana w postaci sekwencji impulsów elektrycznych - zer i jedynek. Kodowanie informacji audio nie stanowi wyjątku od tej reguły. Aby przetworzyć dźwięk na komputerze, musisz najpierw przekształcić go w tę właśnie sekwencję. Dopiero po tym można wykonywać operacje na strumieniu lub pojedynczym dźwięku.

Gdy zachodzi proces kodowania, strumień podlega próbkowaniu czasowemu. Fala dźwiękowa ma charakter ciągły i rozwija się w krótkich okresach czasu. Wartość amplitudy ustalana jest dla każdego konkretnego przedziału osobno.

Wniosek

Czego więc dowiedzieliśmy się w tym artykule? Po pierwsze, absolutnie każda informacja wyświetlana na monitorze komputera jest kodowana przed jej pojawieniem się. Po drugie, kodowanie to polega na tłumaczeniu informacji na język maszynowy. Po trzecie, język maszynowy to nic innego jak ciąg impulsów elektrycznych – zer i jedynek. Po czwarte, istnieją osobne tabele do kodowania różnych znaków. I po piąte, informacje graficzne i dźwiękowe można przedstawić w formie analogowej i dyskretnej. Być może tutaj znajdują się główne punkty, które omówiliśmy. Jedną z dyscyplin zajmujących się tym obszarem jest informatyka. Kodowanie informacji tekstowych i jego podstawy są wyjaśniane w szkole, ponieważ nie ma w tym nic skomplikowanego.

Pojęcia ogólne

Definicja 1

Kodowanie- jest to przekształcenie informacji z jednej formy reprezentacji na inną, najwygodniejszą do jej przechowywania, przesyłania lub przetwarzania.

Definicja 2

Kod nazywana regułą wyświetlania jednego zestawu znaków w innym.

Definicja 3

Kod binarny to sposób przedstawiania informacji za pomocą dwóch symboli - $0$ i $1$.

Definicja 4

Długość kodu– liczba znaków używana do przedstawienia zakodowanej informacji.

Definicja 5

Fragment to jedna cyfra binarna $0$ lub $1$. Jeden bit może zakodować dwie wartości: $1$ lub $0$. Za pomocą dwóch bitów można zakodować cztery wartości: $00$, $01$, $10$, $11$. Trzy bity kodują 8 $ różnych wartości. Dodanie jednego bitu podwaja liczbę wartości, które można zakodować.

Obrazek 1.

Rodzaje kodowania informacji

Wyróżnia się następujące rodzaje kodowania informacji:

  • kodowanie kolorami;
  • kodowanie informacji numerycznych;
  • kodowanie informacji audio;
  • kodowanie wideo.

Kodowanie informacji tekstowych

Każdy tekst składa się z ciągu znaków. Symbolami mogą być litery, cyfry, znaki interpunkcyjne, symbole matematyczne, nawiasy okrągłe i kwadratowe itp.

Informacje tekstowe, jak każda inna informacja, przechowywane są w pamięci komputera w formie binarnej. Aby to zrobić, każdemu przypisuje się pewną nieujemną liczbę, tzw kod znaku, a liczba ta jest zapisywana w pamięci komputera w postaci binarnej. Specyficzny związek pomiędzy symbolami i ich kodami nazywa się system kodowania. Komputery osobiste zazwyczaj korzystają z systemu kodowania ASCII (American Standard Code for Informational Interchange).

Notatka 1

Twórcy oprogramowania stworzyli własne standardy kodowania tekstu za 8 dolarów. Dzięki dodatkowemu bitowi zakres kodowania w nich został rozszerzony do 256 dolarów znaków. Aby uniknąć nieporozumień, pierwsze 128 $ znaków w takich kodowaniach z reguły odpowiadają standardowi ASCII. Pozostałe 128 $ implementuje funkcje języka regionalnego.

Uwaga 2

Ośmiobitowe kodowania powszechne w naszym kraju to KOI8, UTF8, Windows-1251 i kilka innych.

Kodowanie kolorami

Aby zapisać zdjęcie w kodzie binarnym, najpierw dzieli się je wirtualnie na wiele małych kolorowych kropek, tzw pikseli(coś w rodzaju mozaiki). Po podziale na kropki kolor każdego piksela jest kodowany w kodzie binarnym i przechowywany na urządzeniu pamięci masowej.

Przykład 1

Jeśli mówimy, że obraz ma wymiary na przykład 512 x 512 pikseli, oznacza to, że jest to matryca złożona z 262 144 pikseli (liczba pikseli pionowych pomnożona przez liczbę pikseli poziomych).

Przykład 2

Urządzeniem „rozbijającym” obraz na piksele jest dowolny nowoczesny aparat fotograficzny (w tym kamera internetowa, aparat w telefonie) lub skaner. A jeśli charakterystyka aparatu mówi na przykład „10 $ megapikseli”, to liczba pikseli, na które ten aparat dzieli obraz w celu zapisania w kodzie binarnym, wynosi 10 milionów. Im więcej pikseli jest podzielony obraz, tym bardziej realistyczne wygląda zdjęcie w formie zdekodowanej (na monitorze lub po wydrukowaniu).

Jednak jakość kodowania zdjęć do kodu binarnego zależy nie tylko od liczby pikseli, ale także od ich różnorodności kolorystycznej. Algorytmy zapisu koloru w kodzie binarnym istnieje kilka. Najczęstszym jest RGB. Skrót ten to pierwsze litery nazw trzech podstawowych kolorów: czerwony - AngielskiCzerwony, zielony - język angielski Zielony, niebieski - język angielski Niebieski. Mieszając te trzy kolory w różnych proporcjach, można uzyskać dowolny inny kolor lub odcień.

Na tym opiera się algorytm RGB. Każdy piksel jest zapisany w kodzie binarnym, wskazując ilość koloru czerwonego, zielonego i niebieskiego biorącą udział w jego powstaniu.

Im więcej bitów przydzielono do zakodowania piksela, tym więcej możliwości miksowania tych trzech kanałów można zastosować i tym większe jest nasycenie kolorów obrazu.

Definicja 6

Nazywa się różnorodność kolorów pikseli tworzących obraz głębia koloru.

Kodowanie informacji graficznych

Opisana powyżej technika tworzenia obrazów z małych kropek jest najczęstsza i nosi nazwę rastrowy . Ale oprócz grafiki rastrowej komputery wykorzystują także tzw Grafika wektorowa .

Obrazy wektorowe tworzone są wyłącznie przy użyciu komputera i nie są tworzone z pikseli, ale z prymitywów graficznych (linie, wielokąty, okręgi itp.).

Grafika wektorowa to grafika rysunkowa. Jest bardzo wygodny do „rysowania” komputerowego i jest szeroko stosowany przez projektantów przy projektowaniu graficznym materiałów drukowanych, w tym przy tworzeniu ogromnych plakatów reklamowych, a także w innych podobnych sytuacjach. Obraz wektorowy w kodzie binarnym zapisywany jest jako zbiór prymitywów wskazujących ich rozmiary, kolor wypełnienia, położenie na płótnie i inne właściwości.

Przykład 3

Aby zapisać na nośniku obraz wektorowy koła, komputer musi jedynie zakodować w kodzie binarnym rodzaj obiektu (okrąg), współrzędne jego środka na płótnie, długość promienia, grubość i kolor linię i kolor wypełnienia.

W systemie rastrowym kolor każdego piksela musiałby być zakodowany. A jeśli rozmiar obrazu jest duży, jego przechowywanie wymagałoby znacznie więcej miejsca.

Metoda kodowania wektorowego nie pozwala jednak na zapisanie realistycznych zdjęć w kodzie binarnym. Dlatego wszystkie kamery działają wyłącznie na zasadzie grafiki rastrowej. Przeciętny użytkownik rzadko kiedy ma do czynienia z grafiką wektorową w życiu codziennym.

Kodowanie informacji liczbowych

Przy kodowaniu liczb brany jest pod uwagę cel, w jakim liczba została wprowadzona do systemu: do obliczeń arytmetycznych lub po prostu do wyprowadzenia. Wszystkie dane zakodowane w systemie binarnym są szyfrowane za pomocą jedynek i zer. Symbole te są również nazywane bity. Ta metoda kodowania jest najpopularniejsza, ponieważ jest najłatwiejsza do zorganizowania technologicznego: obecność sygnału wynosi 1 $, brak wynosi 0 $. Szyfrowanie binarne ma tylko jedną wadę – długość kombinacji symboli. Jednak z technicznego punktu widzenia łatwiej jest obsługiwać kilka prostych, podobnych komponentów niż niewielką liczbę bardziej skomplikowanych.

Uwaga 3

Liczby całkowite są kodowane po prostu poprzez konwersję liczb z jednego systemu liczbowego na inny. Do kodowania liczb rzeczywistych stosuje się kodowanie bitowe 80 $. W takim przypadku liczba jest konwertowana do postaci standardowej.

Kodowanie informacji audio

Definicja 7

Każdy dźwięk słyszany przez osobę jest wibracją powietrza, która charakteryzuje się dwoma głównymi wskaźnikami: częstotliwością i amplitudą. Amplituda oscylacji- jest to stopień odchylenia stanu powietrza od stanu początkowego przy każdej oscylacji. Postrzegamy to jako głośność dźwięku. Częstotliwość oscylacji to liczba odchyleń stanów powietrza od stanu początkowego w jednostce czasu. Jest postrzegany jako wysokość dźwięku.

Przykład 4

Zatem cichy pisk komara jest dźwiękiem o dużej częstotliwości, ale o małej amplitudzie. Natomiast dźwięk burzy ma dużą amplitudę, ale niską częstotliwość.

Sposób, w jaki komputer współpracuje z dźwiękiem, można ogólnie opisać w następujący sposób. Mikrofon przekształca wibracje powietrza w wibracje elektryczne o podobnych właściwościach. Karta dźwiękowa komputera przekształca wibracje elektryczne na kod binarny, który jest przechowywany na urządzeniu pamięci masowej. Podczas odtwarzania takiego nagrania następuje proces odwrotny (dekodowanie) – kod binarny zamieniany jest na wibracje elektryczne, które dostają się do systemu audio lub słuchawek. Głośniki lub słuchawki mają odwrotny efekt do mikrofonu. Przekształcają wibracje elektryczne w wibracje powietrza.

Zasada podziału fali dźwiękowej na małe sekcje jest podstawą binarnego kodowania dźwięku. Karta dźwiękowa komputera dzieli dźwięk na bardzo małe segmenty czasowe i koduje intensywność każdego z nich w kodzie binarnym. To dzielenie dźwięku na części nazywa się próbkowaniem. Im wyższa częstotliwość próbkowania, tym dokładniej rejestrowana jest geometria fali dźwiękowej i lepsza jakość nagrania.

Definicja 8

Jakość nagrania zależy również w dużym stopniu od liczby bitów użytych przez komputer do zakodowania każdej sekcji dźwięku powstałej w wyniku próbkowania. Liczba bitów użytych do zakodowania każdej sekcji dźwięku powstałej w wyniku próbkowania nazywa się głębia dźwięku.

Kodowanie wideo

Nagrywanie wideo składa się z dwóch elementów: dźwięk I graficzny .

Kodowanie ścieżki audio pliku wideo do kodu binarnego odbywa się przy użyciu tych samych algorytmów, co kodowanie zwykłych danych audio. Zasady kodowania wideo są podobne do kodowania grafiki rastrowej (omówione powyżej), chociaż mają pewne funkcje. Jak wiadomo, nagranie wideo to sekwencja szybko zmieniających się statycznych obrazów (klatek). Jedna sekunda filmu może składać się z obrazów o wartości 25 USD lub więcej. Jednocześnie każda kolejna klatka różni się tylko nieznacznie od poprzedniej.

Biorąc pod uwagę tę funkcję, algorytmy kodowania wideo z reguły przewidują nagrywanie tylko pierwszej (podstawowej) klatki. Każda kolejna klatka tworzona jest poprzez rejestrację różnic w stosunku do poprzedniej.

Obrazy wektorowe i fraktalne.

Grafika wektorowa to obiekt graficzny składający się z elementarnych segmentów i łuków. Podstawowym elementem obrazowania jest linia. Jak każdy obiekt ma właściwości: kształt (prosty, zakrzywiony), grubość, kolor, styl (kropkowany, pełny). Linie zamknięte mają właściwość wypełniania (albo innymi obiektami, albo wybranym kolorem). Wszystkie pozostałe obiekty grafiki wektorowej składają się z linii. Ponieważ linia jest opisana matematycznie jako pojedynczy obiekt, ilość danych potrzebnych do wyświetlenia obiektu w grafice wektorowej jest znacznie mniejsza niż w grafice rastrowej. Informacje o obrazie wektorowym są kodowane w postaci zwykłych znaków alfanumerycznych i przetwarzane przez specjalne programy.

Do narzędzi programowych do tworzenia i przetwarzania grafiki wektorowej zaliczają się GR: CorelDraw, Adobe Illustrator, a także wektoryzatory (tracery) - specjalistyczne pakiety służące do konwersji obrazów rastrowych na wektory.

Grafika fraktalna opiera się na obliczeniach matematycznych, takich jak wektor. Jednak w przeciwieństwie do wektora, jego podstawowym elementem jest sam wzór matematyczny. Prowadzi to do tego, że w pamięci komputera nie są przechowywane żadne obiekty, a obraz konstruowany jest wyłącznie za pomocą równań. Za pomocą tej metody można budować najprostsze regularne konstrukcje, a także złożone ilustracje imitujące krajobrazy.

Zadania.

Wiadomo, że pamięć wideo komputera ma pojemność 512 KB. Rozdzielczość ekranu wynosi 640 na 200. Ile stron ekranu można jednocześnie umieścić w pamięci wideo za pomocą palety
a) z 8 kolorów;
b) 16 kolorów;
c) 256 kolorów?

Ile bitów potrzeba do zakodowania informacji o 130 odcieniach? Obliczenie tego 8 (czyli 1 bajt) nie jest trudne, ponieważ przy 7 bitach można zapisać liczbę odcieni od 0 do 127, a 8 bitów od 0 do 255. Łatwo zauważyć, że ta metoda kodowania jest nieoptymalne: 130 to zauważalnie mniej niż 255. Zastanów się, jak skondensować informację o rysunku podczas zapisywania go do pliku, jeśli wiadomo, że
a) rysunek zawiera jednocześnie tylko 16 odcieni kolorów ze 138 możliwych;
b) rysunek zawiera wszystkie 130 odcieni jednocześnie, ale liczba kropek pomalowanych różnymi odcieniami jest bardzo zróżnicowana.

A) oczywiste jest, że 4 bity (pół bajtu) wystarczą do przechowywania informacji o 16 odcieniach. Ponieważ jednak te 16 odcieni zostało wybranych spośród 130, mogą mieć liczby, które nie mieszczą się w 4 bitach. Dlatego użyjemy metody palety. Przypiszmy 16 odcieniom użytym w naszym rysunku ich „lokalne” numery od 1 do 15 i zakodujmy cały rysunek z szybkością 2 punktów na bajt. A następnie dodamy do tej informacji (na końcu pliku ją zawierającego) tablicę korespondencji składającą się z 16 par bajtów z numerami cieni: 1 bajt to nasz „lokalny” numer na tym obrazku, drugi to rzeczywista liczba ten cień. (jeśli zamiast tego ostatniego wykorzystana zostanie zakodowana informacja o samej barwie, np. informacja o jasności świecenia „działów elektronicznych” Czerwonego, Zielonego, Niebieskiego lampy elektronopromieniowej, wówczas taka tabela będzie paleta kolorów). Jeśli rysunek jest wystarczająco duży, zwiększenie rozmiaru pliku wynikowego będzie znaczne;
b) spróbujmy zaimplementować najprostszy algorytm archiwizacji informacji o rysunku. Przypiszmy kody 128 – 130 do trzech odcieni, którymi malowana jest minimalna liczba punktów, a kody 1 – 127 do pozostałych odcieni. Do pliku (który w tym przypadku nie będzie ciągiem bajtów, a ciągłym strumieniem bitów) napiszemy siedmiobitowe kody dla cieni o liczbach od 1 do 127. Dla pozostałych trzech odcieni w strumieniu bitów napiszemy numer znaku - siedmiobitowe 0 - i zaraz po nim dwubitowa liczba „lokalna”, a na końcu pliku dodamy tabelę korespondencji między liczbami „lokalnymi” i liczbami rzeczywistymi. Ponieważ odcienie z kodami 128 - 130 są rzadkie, będzie kilka siedmiobitowych zer.

Należy pamiętać, że postawienie pytań w tym problemie nie wyklucza innych rozwiązań, bez odniesienia się do kompozycji kolorystycznej obrazu – archiwizacja:
a) polega na identyfikacji ciągu punktów pomalowanych tymi samymi odcieniami i zastąpieniu każdego z tych ciągów parą liczb (kolor), (ilość) (ta zasada leży u podstaw formatu graficznego PCX);
b) porównując linie pikselowe (zapisując numery cieni punktów pierwszej strony jako całości, a dla kolejnych linii rejestrując numery cieni tylko tych punktów, których odcienie różnią się od odcieni punktów znajdujących się w tej samej pozycji w poprzednia linia - to jest podstawa formatu GIF);
c) przy użyciu algorytmu fraktalnego pakowania obrazu (format YPEG). (IO 6,1999)

Świat wypełniony jest najróżniejszymi dźwiękami: tykaniem zegarów i szumem silników, wyciem wiatru i szelestem liści, śpiewem ptaków i głosami ludzi. Już dawno temu ludzie zaczęli zgadywać, jak powstają dźwięki i co sobą reprezentują. Już starożytny grecki filozof i naukowiec - encyklopedysta Arystoteles na podstawie obserwacji wyjaśnił naturę dźwięku, wierząc, że brzmiące ciało powoduje naprzemienne sprężanie i rozrzedzanie powietrza. W ten sposób oscylująca struna albo wyładowuje, albo ściska powietrze, a ze względu na elastyczność powietrza te naprzemienne efekty są przenoszone dalej w przestrzeń - z warstwy na warstwę powstają fale sprężyste. Kiedy dotrą do naszego ucha, uderzają w błony bębenkowe i powodują wrażenie dźwięku.

Przez ucho osoba odbiera fale sprężyste o częstotliwości w zakresie od 16 Hz do 20 kHz (1 Hz - 1 wibracja na sekundę). Zgodnie z tym fale sprężyste w dowolnym ośrodku, których częstotliwości mieszczą się w określonych granicach, nazywane są falami dźwiękowymi lub po prostu dźwiękiem. W badaniu dźwięku takie pojęcia jak ton I tembr dźwięk. Każdy prawdziwy dźwięk, czy to gra na instrumentach muzycznych, czy ludzki głos, jest swoistą mieszaniną wielu wibracji harmonicznych o określonym zestawie częstotliwości.

Wibracja o najniższej częstotliwości nazywana jest wibracją ton główny, Inny - podteksty.

Tembr- inna liczba podtekstów charakterystycznych dla danego dźwięku, co nadaje mu szczególną kolorystykę. O różnicy między jedną barwą a drugą decyduje nie tylko liczba, ale także intensywność alikwotów towarzyszących dźwiękowi tonu podstawowego. To właśnie po barwie z łatwością możemy rozróżnić dźwięki fortepianu i skrzypiec, gitary i fletu oraz rozpoznać głos znajomej osoby.

Dźwięk muzyczny można scharakteryzować trzema cechami: barwą, czyli barwą dźwięku, która zależy od kształtu drgań, wysokością, określoną liczbą drgań na sekundę (częstotliwością) oraz głośnością, zależną od intensywności drgań. wibracje.

Komputery są obecnie szeroko stosowane w różnych dziedzinach. Przetwarzanie informacji dźwiękowych i muzyki nie było wyjątkiem. Do 1983 roku wszystkie nagrania muzyczne ukazywały się na płytach winylowych i kasetach kompaktowych. Obecnie płyty CD są szeroko stosowane. Jeśli posiadasz komputer z zainstalowaną studyjną kartą dźwiękową, do której podłączona jest klawiatura MIDI i mikrofon, możesz pracować ze specjalistycznym oprogramowaniem muzycznym.

Konwencjonalnie można go podzielić na kilka typów:

1) wszelkiego rodzaju narzędzia i sterowniki przeznaczone do współpracy z określonymi kartami dźwiękowymi i urządzeniami zewnętrznymi;
2) edytory audio, które są przeznaczone do pracy z plikami dźwiękowymi, umożliwiają wykonywanie na nich dowolnych operacji - od dzielenia ich na części po obróbkę z efektami;
3) syntezatory programowe, które pojawiły się stosunkowo niedawno i działają poprawnie tylko na wydajnych komputerach. Pozwalają eksperymentować z tworzeniem różnych dźwięków;
i inni.

Pierwsza grupa obejmuje wszystkie narzędzia systemu operacyjnego. Na przykład win 95 i 98 mają własne programy mikserskie i narzędzia do odtwarzania/nagrywania dźwięku, odtwarzania płyt CD i standardowych plików MIDI. Po zainstalowaniu karty dźwiękowej możesz skorzystać z tych programów, aby sprawdzić jej działanie. Na przykład program Phonograph jest przeznaczony do pracy z plikami Wave (plikami nagrań dźwiękowych w formacie Windows). Pliki te mają rozszerzenie .WAV. Program ten umożliwia odtwarzanie, nagrywanie i edycję nagrań dźwiękowych przy użyciu technik podobnych do tych stosowanych w magnetofonie. W celu współpracy z gramofonem zaleca się podłączenie mikrofonu do komputera. Jeśli chcesz nagrać dźwięk, musisz zdecydować o jakości dźwięku, ponieważ od tego zależy czas trwania nagrania dźwiękowego. Im wyższa jakość nagrania, tym krótszy możliwy czas trwania dźwięku. Przy średniej jakości nagrywania można zadowalająco nagrać mowę, tworząc pliki o długości do 60 sekund. Czas trwania nagrania o jakości muzycznej płyty CD wynosi około 6 sekund.

Jak działa kodowanie dźwięku? Od dzieciństwa jesteśmy narażeni na nagrania muzyki na różnych nośnikach: płytach, kasetach, płytach CD itp. Obecnie istnieją dwa główne sposoby nagrywania dźwięku: analogowe i cyfrowe. Aby jednak zapisać dźwięk na jakimkolwiek nośniku, należy go przekształcić na sygnał elektryczny.

Odbywa się to za pomocą mikrofonu. Najprostsze mikrofony mają membranę, która wibruje pod wpływem fal dźwiękowych. Do membrany przymocowana jest cewka, która porusza się synchronicznie z membraną w polu magnetycznym. W cewce występuje przemienny prąd elektryczny. Zmiany napięcia dokładnie odzwierciedlają fale dźwiękowe.

Nazywa się przemienny prąd elektryczny pojawiający się na wyjściu mikrofonu analog sygnał. W odniesieniu do sygnału elektrycznego określenie „analogowy” oznacza, że ​​sygnał jest ciągły w czasie i amplitudzie. Dokładnie odzwierciedla kształt fali dźwiękowej przemieszczającej się w powietrzu.

Informacje audio mogą być reprezentowane w formie dyskretnej lub analogowej. Różnica polega na tym, że przy dyskretnej reprezentacji informacji wielkość fizyczna zmienia się gwałtownie („drabina”), przyjmując skończony zbiór wartości. Jeśli informacja jest przedstawiona w formie analogowej, wówczas wielkość fizyczna może przyjmować nieskończoną liczbę wartości, które stale się zmieniają.

Płyta winylowa jest przykładem analogowego przechowywania informacji dźwiękowej, ponieważ ścieżka dźwiękowa stale zmienia swój kształt. Ale nagrania analogowe na taśmie magnetycznej mają dużą wadę - starzenie się nośnika. W ciągu roku fonogram, który miał normalny poziom wysokich częstotliwości, może je utracić. Płyty winylowe kilkakrotnie tracą jakość podczas odtwarzania. Dlatego preferowane jest nagrywanie cyfrowe.

Na początku lat 80. pojawiły się płyty kompaktowe. Są przykładem dyskretnego przechowywania informacji audio, ponieważ ścieżka audio na płycie CD zawiera obszary o różnym współczynniku odbicia. Teoretycznie te dyski cyfrowe mogą służyć wiecznie, jeśli nie zostaną porysowane, tj. ich zaletami są trwałość i odporność na starzenie mechaniczne. Kolejną zaletą jest to, że podczas kopiowania cyfrowego nie następuje utrata jakości dźwięku.

Na multimedialnych kartach dźwiękowych można znaleźć analogowy przedwzmacniacz mikrofonowy i mikser.

Konwersja cyfrowo-analogowa i analogowo-cyfrowa informacji audio.

Przyjrzyjmy się pokrótce procesom konwersji dźwięku z sygnału analogowego na cyfrowy i odwrotnie. Mając ogólne pojęcie o tym, co dzieje się na Twojej karcie dźwiękowej, możesz uniknąć pewnych błędów podczas pracy z dźwiękiem.

Fale dźwiękowe są przekształcane na analogowy przemienny sygnał elektryczny za pomocą mikrofonu. Przechodzi przez tor audio (patrz załącznik rysunek 1.11, schemat 1) i wchodzi do przetwornika analogowo-cyfrowego (ADC) - urządzenia przetwarzającego sygnał na postać cyfrową.

W uproszczeniu zasada działania przetwornika ADC jest następująca: mierzy on amplitudę sygnału w określonych odstępach czasu i przesyła dalej, wzdłuż ścieżki cyfrowej, ciąg liczb niosących informację o zmianach amplitudy (patrz Załącznik Rysunek 1.11, Schemat 2 ).

Podczas konwersji analogowo-cyfrowej nie następuje konwersja fizyczna. To tak, jakby z sygnału elektrycznego pobierano odcisk palca lub próbkę, która jest cyfrowym modelem wahań napięcia w torze audio. Jeśli przedstawimy to w formie diagramu, wówczas model ten zostanie przedstawiony jako ciąg kolumn, z których każda odpowiada określonej wartości liczbowej. Sygnał cyfrowy jest z natury dyskretny – to znaczy przerywany – dlatego model cyfrowy nie odpowiada dokładnie kształtowi sygnału analogowego.

Próbka jest odstępem czasu między dwoma pomiarami amplitudy sygnału analogowego.

Próbka jest dosłownie tłumaczona z języka angielskiego jako „próbka”. W terminologii multimedialnej i profesjonalnego audio słowo to ma kilka znaczeń. Oprócz okresu czasu próbką nazywa się także dowolną sekwencję danych cyfrowych uzyskaną w wyniku konwersji analogowo-cyfrowej. Sam proces transformacji nazywa się próbowanie. W rosyjskim języku technicznym nazywają to próbowanie.

Dźwięk cyfrowy wyprowadzany jest za pomocą przetwornika cyfrowo-analogowego (DAC), który na podstawie przychodzących danych cyfrowych generuje w odpowiednich momentach sygnał elektryczny o wymaganej amplitudzie (patrz załącznik rys. 1.11, schemat 3).

Opcje próbowanie

Ważne parametry próbowanie są częstotliwość i głębia bitowa.
Częstotliwość- liczba pomiarów amplitudy sygnału analogowego na sekundę.

Jeżeli częstotliwość próbkowania nie jest większa niż dwukrotność częstotliwości górnej granicy zakresu audio, wówczas przy wysokich częstotliwościach nastąpi utrata. To wyjaśnia, dlaczego standardowa częstotliwość dla płyty audio CD wynosi 44,1 kHz. Ponieważ zakres oscylacji fal dźwiękowych wynosi od 20 Hz do 20 kHz, liczba pomiarów sygnału na sekundę musi być większa niż liczba oscylacji w tym samym okresie czasu. Jeżeli częstotliwość próbkowania jest znacznie niższa niż częstotliwość fali dźwiękowej, wówczas amplituda sygnału ma czas na kilkukrotną zmianę w czasie pomiędzy pomiarami, co prowadzi do tego, że cyfrowy odcisk palca niesie chaotyczny zestaw danych. Podczas konwersji cyfrowo-analogowej taka próbka nie przesyła głównego sygnału, a jedynie wytwarza szum.

W nowym formacie Audio DVD sygnał jest mierzony 96 000 razy na sekundę, tj. Stosowana jest częstotliwość próbkowania 96 kHz. Aby zaoszczędzić miejsce na dysku twardym w aplikacjach multimedialnych, często stosuje się niższe częstotliwości: 11, 22, 32 kHz. Prowadzi to do zmniejszenia słyszalnego zakresu częstotliwości, co oznacza, że ​​następuje silne zniekształcenie tego, co słychać.

Jeśli wykreślisz ten sam dźwięk przy 1 kHz (nuta do siódmej oktawy fortepianu mniej więcej odpowiada tej częstotliwości), ale próbkujesz go przy różnych częstotliwościach (nie na wszystkich wykresach widać dół fali sinusoidalnej), wówczas różnice będzie widoczne. Jedna działka na osi poziomej, która pokazuje czas, odpowiada 10 próbkom. Skala jest stosowana w ten sam sposób (patrz załącznik Rysunek 1.13). Można zobaczyć, że przy 11 kHz występuje w przybliżeniu pięć oscylacji fali dźwiękowej na każde 50 próbek, co oznacza, że ​​jeden okres fali sinusoidalnej jest reprezentowany przez zaledwie 10 wartości. Jest to dość niedokładne odwzorowanie. Jednocześnie, jeśli weźmiemy pod uwagę częstotliwość digitalizacji 44 kHz, to dla każdego okresu sinusoidy przypada już prawie 50 próbek. Pozwala to uzyskać sygnał dobrej jakości.

Głębia bitowa wskazuje, z jaką dokładnością zachodzą zmiany amplitudy sygnału analogowego. Dokładność, z jaką wartość amplitudy sygnału w każdej chwili jest przesyłana podczas digitalizacji, określa jakość sygnału po konwersji cyfrowo-analogowej. Wiarygodność rekonstrukcji przebiegu zależy od głębokości bitowej.

Aby zakodować wartość amplitudy, stosuje się zasadę kodowania binarnego. Sygnał dźwiękowy musi być przedstawiony jako ciąg impulsów elektrycznych (binarne zera i jedyneki). Zazwyczaj używane są 8, 16-bitowe lub 20-bitowe reprezentacje wartości amplitudy. Podczas kodowania binarnego ciągłego sygnału audio jest on zastępowany sekwencją dyskretnych poziomów sygnału. Jakość kodowania zależy od częstotliwości próbkowania (liczby pomiarów poziomu sygnału w jednostce czasu). Wraz ze wzrostem częstotliwości próbkowania wzrasta dokładność binarnej reprezentacji informacji. Przy częstotliwości 8 kHz (liczba próbek na sekundę 8000) jakość próbkowanego sygnału audio odpowiada jakości audycji radiowej, a przy częstotliwości 48 kHz (liczba próbek na sekundę 48000) - jakość dźwięku płyty audio.

Jeśli użyjesz kodowania 8-bitowego, możesz osiągnąć dokładność amplitudy sygnału analogowego do 1/256 zakresu dynamiki urządzenia cyfrowego (2 8 = 256).

Jeśli użyjesz kodowania 16-bitowego do przedstawienia wartości amplitudy sygnału audio, dokładność pomiaru wzrośnie 256 razy.

Nowoczesne konwertery zazwyczaj wykorzystują 20-bitowe kodowanie sygnału, co pozwala na cyfryzację dźwięku wysokiej jakości.

Przypomnijmy sobie wzór K = 2 a. Tutaj K jest liczbą wszystkich możliwych dźwięków (liczbą różnych poziomów lub stanów sygnału), które można uzyskać poprzez kodowanie dźwięku za pomocą bitów

Zapoznaliśmy się z systemami liczbowymi - sposobami kodowania liczb. Liczby informują o liczbie elementów. Informacje te muszą być zakodowane i przedstawione w jakimś systemie liczbowym. To, którą ze znanych metod wybrać, zależy od rozwiązywanego problemu.
Do niedawna komputery przetwarzały głównie informacje numeryczne i tekstowe. Ale człowiek otrzymuje większość informacji o świecie zewnętrznym w postaci obrazów i dźwięku. W tym przypadku ważniejszy okazuje się obraz. Pamiętaj przysłowie: „Lepiej raz zobaczyć, niż usłyszeć sto razy”. Dlatego dziś komputery zaczynają coraz aktywniej pracować z obrazem i dźwiękiem. Na pewno zastanowimy się nad możliwością zakodowania takich informacji.

Kodowanie binarne informacji numerycznych i tekstowych.

Wszelkie informacje kodowane są w komputerze za pomocą ciągów dwóch cyfr - 0 i 1. Komputer przechowuje i przetwarza informacje w postaci kombinacji sygnałów elektrycznych: napięcie 0,4 V-0,6 V odpowiada zerowi logicznemu, a napięcie 2,4 V-2,7 V odpowiada logicznej. Nazywa się ciągi 0 i 1 kody binarne , a cyfry 0 i 1 to bity (liczby binarne). To kodowanie informacji na komputerze nazywa się kodowanie binarne . Zatem kodowanie binarne to kodowanie z minimalną możliwą liczbą symboli elementarnych, kodowanie najprostszymi środkami. Dlatego jest to niezwykłe z teoretycznego punktu widzenia.
Inżynierów interesuje binarne kodowanie informacji, ponieważ jest ono łatwe do wdrożenia pod względem technicznym. Obwody elektroniczne do przetwarzania kodów binarnych muszą znajdować się tylko w jednym z dwóch stanów: jest sygnał/brak sygnału Lub wysokie napięcie/niskie napięcie .
W swojej pracy komputery operują liczbami rzeczywistymi i całkowitymi, prezentowanymi w postaci dwóch, czterech, ośmiu, a nawet dziesięciu bajtów. Aby reprezentować znak liczby podczas liczenia, dodatkowy cyfra znaku , który zwykle znajduje się przed cyframi numerycznymi. Dla liczb dodatnich wartość bitu znaku wynosi 0, a dla liczb ujemnych - 1. Aby zapisać wewnętrzną reprezentację ujemnej liczby całkowitej (-N), należy:
1) uzyskaj dodatkowy kod liczby N, zastępując 0 przez 1 i 1 przez 0;
2) dodaj 1 do otrzymanej liczby.

Ponieważ jeden bajt nie wystarczy do przedstawienia tej liczby, jest on reprezentowany jako 2 bajty lub 16 bitów, a jego kod uzupełnienia to 1111101111000101, zatem -1082=1111101111000110.
Gdyby komputer PC mógł obsługiwać tylko pojedyncze bajty, byłby mało użyteczny. W rzeczywistości komputer PC działa z liczbami zapisanymi w dwóch, czterech, ośmiu, a nawet dziesięciu bajtach.
Od końca lat 60. do przetwarzania informacji tekstowych coraz częściej wykorzystuje się komputery. Do przedstawienia informacji tekstowych zwykle używa się 256 różnych znaków, na przykład wielkich i małych liter alfabetu łacińskiego, cyfr, znaków interpunkcyjnych itp. W większości nowoczesnych komputerów każdy znak odpowiada sekwencji ośmiu zer i jedynek, tzw bajt .
Bajt to ośmiobitowa kombinacja zer i jedynek.
Podczas kodowania informacji w tych komputerach elektronicznych wykorzystuje się 256 różnych ciągów 8 zer i jedynek, co pozwala na zakodowanie 256 znaków. Na przykład duża rosyjska litera „M” ma kod 11101101, litera „I” ma kod 11101001, litera „P” ma kod 11110010. Zatem słowo „ŚWIAT” jest kodowane sekwencją 24 bitów lub 3 bajty: 111011011110100111110010.
Liczba bitów w wiadomości nazywana jest objętością informacji wiadomości. To jest interesujące!

Początkowo w komputerach używano wyłącznie alfabetu łacińskiego. Ma 26 liter. Zatem do wyznaczenia każdego z nich wystarczyłoby pięć impulsów (bitów). Ale tekst zawiera znaki interpunkcyjne, cyfry dziesiętne itp. Dlatego w pierwszych komputerach anglojęzycznych bajt - sylaba maszynowa - zawierał sześć bitów. Następnie siedem - nie tylko w celu odróżnienia dużych liter od małych, ale także w celu zwiększenia liczby kodów kontrolnych dla drukarek, lamp sygnalizacyjnych i innego sprzętu. W 1964 roku pojawił się potężny IBM-360, w którym bajt ostatecznie stał się równy ośmiu bitom. Ostatni ósmy bit był potrzebny dla znaków pseudograficznych.
Przypisanie konkretnego kodu binarnego do symbolu jest kwestią konwencji, która jest zapisana w tabeli kodów. Niestety, istnieje pięć różnych kodowań rosyjskich liter, więc teksty utworzone w jednym kodowaniu nie będą poprawnie odzwierciedlone w innym.
Chronologicznie jednym z pierwszych standardów kodowania rosyjskich liter na komputerach był KOI8 („Kod wymiany informacji, 8-bitowy”). Najpopularniejszym kodowaniem jest standardowe kodowanie cyrylicy systemu Microsoft Windows, oznaczone skrótem SR1251 („SR” oznacza „stronę kodową” lub „stronę kodową”). Firma Apple opracowała własne kodowanie rosyjskich liter (Mac) dla komputerów Macintosh. Międzynarodowa Organizacja Normalizacyjna (ISO) zatwierdziła kodowanie ISO 8859-5 jako standard dla języka rosyjskiego. Wreszcie pojawił się nowy międzynarodowy standard Unicode, który przydziela nie jeden bajt na każdy znak, ale dwa, dlatego za jego pomocą można zakodować nie 256 znaków, ale aż 65536.
Wszystkie te kodowania stanowią kontynuację tabeli kodów ASCII (American Standard Code for Information Interchange), która koduje 128 znaków.

Tabela znaków ASCII:

kod symbol kod symbol kod symbol kod symbol kod symbol kod symbol
32 Przestrzeń 48 . 64 @ 80 P 96 " 112 P
33 ! 49 0 65 A 81 Q 97 A 113 Q
34 " 50 1 66 B 82 R 98 B 114 R
35 # 51 2 67 C 83 S 99 C 115 S
36 $ 52 3 68 D 84 T 100 D 116 T
37 % 53 4 69 mi 85 U 101 mi 117 ty
38 & 54 5 70 F 86 V 102 F 118 w
39 " 55 6 71 G 87 W 103 G 119 w
40 ( 56 7 72 H 88 X 104 H 120 X
41 ) 57 8 73 I 89 Y 105 I 121 y
42 * 58 9 74 J 90 Z 106 J 122 z
43 + 59 : 75 K 91 [ 107 k 123 {
44 , 60 ; 76 L 92 \ 108 l 124 |
45 - 61 < 77 M 93 ] 109 M 125 }
46 . 62 > 78 N 94 ^ 110 N 126 ~
47 / 63 ? 79 O 95 _ 111 o 127 DEL

Binarne kodowanie tekstu przebiega w następujący sposób: po naciśnięciu klawisza do komputera przesyłana jest pewna sekwencja impulsów elektrycznych, a każdy znak odpowiada własnej sekwencji impulsów elektrycznych (zera i jedynki w języku maszynowym). Program sterownika klawiatury i ekranu określa znak na podstawie tabeli kodów i tworzy jego obraz na ekranie. W ten sposób teksty i liczby są przechowywane w pamięci komputera w postaci kodu binarnego i programowo konwertowane na obrazy na ekranie.

Kodowanie binarne informacji graficznej.

Od lat 80. dynamicznie rozwija się technologia przetwarzania informacji graficznych na komputerze. Grafika komputerowa jest szeroko stosowana w symulacjach komputerowych w badaniach naukowych, symulacjach komputerowych, animacji komputerowej, grafice biznesowej, grach itp.
Informacja graficzna na ekranie wyświetlacza prezentowana jest w formie obrazu, który składa się z punktów (pikseli). Przyjrzyj się uważnie fotografii w gazecie, a zobaczysz, że ona również składa się z drobnych kropek. Jeśli są to tylko kropki czarno-białe, to każdą z nich można zakodować 1 bitem. Ale jeśli na zdjęciu są cienie, to dwa bity pozwalają zakodować 4 odcienie kropek: 00 - biały, 01 - jasnoszary, 10 - ciemnoszary, 11 - czarny. Trzy bity pozwalają zakodować 8 odcieni itp.
Liczba bitów wymaganych do zakodowania jednego odcienia koloru nazywana jest głębią kolorów.

We współczesnych komputerach rezolucja (liczba punktów na ekranie), a także liczba kolorów zależy od karty wideo i można ją zmienić programowo.
Obrazy kolorowe mogą mieć różne tryby: 16 kolorów, 256 kolorów, 65536 kolorów ( wysoki kolor), 16777216 kolorów ( prawdziwy kolor). Za punkt za tryb wysoki kolor Potrzebnych jest 16 bitów lub 2 bajty.
Najpopularniejsza rozdzielczość ekranu to 800 na 600 pikseli, tj. 480 000 punktów. Obliczmy ilość pamięci wideo wymaganą dla trybu wysokiego koloru: 2 bajty *480000=960000 bajtów.
Większe jednostki służą również do pomiaru ilości informacji:


Dlatego 960000 bajtów jest w przybliżeniu równe 937,5 KB. Jeśli ktoś mówi bez przerwy przez osiem godzin dziennie, to w ciągu 70 lat życia przekaże około 10 gigabajtów informacji (czyli 5 milionów stron - stos papieru wysoki na 500 metrów).
Szybkość przesyłania informacji to liczba bitów przesyłanych na sekundę. Szybkość transmisji 1 bitu na sekundę nazywana jest 1 bodem.

Mapa bitowa, będąca binarnym kodem obrazu, zapisywana jest w pamięci wideo komputera, skąd jest odczytywana przez procesor (co najmniej 50 razy na sekundę) i wyświetlana na ekranie.


Kodowanie binarne informacji audio.

Od początku lat 90. komputery osobiste mogą pracować z informacjami dźwiękowymi. Każdy komputer wyposażony w kartę dźwiękową może zapisywać jako pliki ( plik to pewna ilość informacji przechowywana na dysku i ma nazwę ) i odtwarzaj informacje audio. Korzystanie ze specjalnego oprogramowania (edytorów plików audio) otwiera szerokie możliwości tworzenia, edycji i słuchania plików dźwiękowych. Powstają programy do rozpoznawania mowy i możliwe staje się sterowanie komputerem za pomocą głosu.
To właśnie karta dźwiękowa (karta) przetwarza sygnał analogowy na dyskretny fonogram i odwrotnie, „cyfrowy” dźwięk na sygnał analogowy (ciągły) trafiający na wejście głośnika.


Podczas kodowania binarnego analogowego sygnału audio próbkowany jest sygnał ciągły, tj. zostaje zastąpiony serią jego pojedynczych próbek – odczytów. Jakość kodowania binarnego zależy od dwóch parametrów: liczby dyskretnych poziomów sygnału i liczby próbek na sekundę. Liczba próbek lub częstotliwość próbkowania w adapterach audio może być różna: 11 kHz, 22 kHz, 44,1 kHz itp. Jeśli liczba poziomów wynosi 65536, wówczas dla jednego sygnału audio przeznaczonych jest 16 bitów (216). 16-bitowy adapter audio koduje i odtwarza dźwięk dokładniej niż 8-bitowy adapter audio.
Liczba bitów wymaganych do zakodowania jednego poziomu dźwięku nazywana jest głębią dźwięku.
Głośność pliku audio mono (w bajtach) określa się według wzoru:


W przypadku dźwięku stereofonicznego głośność pliku audio podwaja się, a w przypadku dźwięku kwadrofonicznego czterokrotnie.
W miarę jak programy stają się coraz bardziej złożone i wzrasta ich funkcjonalność, a także pojawianie się aplikacji multimedialnych, zwiększa się funkcjonalna objętość programów i danych. Jeśli w połowie lat 80. zwykła objętość programów i danych wynosiła dziesiątki, a czasem tylko setki kilobajtów, to w połowie lat 90. zaczęła wynosić dziesiątki megabajtów. Ilość pamięci RAM odpowiednio wzrasta.


Kontynuując temat:
Urządzenia

Lwowski Uniwersytet Narodowy im. I. Franko (LNU) - dodatkowe informacje o uczelni Informacje ogólne Lwowski Uniwersytet Narodowy im. Iwana...